發(fā)布時間:2017-02-13 11:56 | 標(biāo)簽:
VR專用術(shù)語
微信掃一掃:分享
微信里點“發(fā)現(xiàn)”,掃一下
二維碼便可將本文分享至朋友圈
關(guān)于VR虛擬現(xiàn)實,由于目前還未普及,因此大家對VR虛擬現(xiàn)實很多專業(yè)術(shù)語概念還不太清晰,這里為大家理清這些術(shù)語,相信大家對VR虛擬現(xiàn)實的認識會更深入。
VR虛擬現(xiàn)實小白入門:18個VR專業(yè)術(shù)語解析!
1、微透鏡陣列顯示技術(shù):通過對微透鏡陣列結(jié)構(gòu)進行深入研究,揭示了微透鏡陣列對微圖形的放大原理.并在此基礎(chǔ)上,找到了微透鏡陣列結(jié)構(gòu)參數(shù)、微圖形結(jié)構(gòu)參數(shù)與微圖形陣列移動速度、移動方向以及放大倍率之間的關(guān)系,利用微透鏡陣列實現(xiàn)了對微圖形放大、動態(tài)、立體的顯示。
2、近眼光場顯示器:由NVIDIA研發(fā)的新型頭戴顯示設(shè)備名為“近眼光場顯示器”(Near-EyeLightFieldDisplays),其內(nèi)部使用了一些索尼3D頭戴OLED顯示器HMZ-T1的組件,外圍結(jié)構(gòu)部分則是使用3D打印技術(shù)進行制造。近眼光場顯示器采用焦距為3.3mm的微鏡頭陣列來取代以往同類產(chǎn)品中所使用的光學(xué)透鏡組,這樣的設(shè)計成功將整個顯示模塊的厚度由40mm減少到了10mm,更加便于佩戴。同時配合使用NVIDIA最新的GPU芯片進行實時光源光線追蹤運算,將影像分解成為數(shù)十組不同的視角陣列,然后再通過微透鏡陣列重新將畫面還原顯示在用戶的眼前,從而使觀賞者能夠如同身處真實世界中一樣,通過眼睛來從不同角度自然觀察立體影像。由于近眼光場顯示器能夠通過微透鏡陣列重新還原畫面中環(huán)境,因此只需要在GPU的運算過程中加入視力矯正參數(shù),便可以抵消近視或遠視等視力缺陷對觀看效果的影響,這意味著“眼鏡族”們也可以在裸眼狀態(tài)下利用這款產(chǎn)品享受到真實清晰的3D畫面。
3、視場角:在光學(xué)儀器中,以光學(xué)儀器的鏡頭為頂點,以被測目標(biāo)的物像可通過鏡頭的最大范圍的兩條邊緣構(gòu)成的夾角,稱為視場角。視場角的大小決定了光學(xué)儀器的視野范圍,視場角越大,視野就越大,光學(xué)倍率就越小。通俗地說,目標(biāo)物體超過這個角就不會被收在鏡頭里。在顯示系統(tǒng)中,視場角就是顯示器邊緣與觀察點(眼睛)連線的夾角。
4、裸眼3D:裸眼3D,就是利用人兩眼具有視差的特性,在不需要任何輔助設(shè)備(如3D眼鏡、頭盔等)的情況下,即可獲得具有空間、深度的逼真立體影像。從技術(shù)上來看,裸眼式3D可分為光屏障式柱狀透鏡技術(shù)和指向光源三種。裸眼式3D技術(shù)最大的優(yōu)勢便是擺脫了眼鏡的束縛,但是分辨率、可視角度和可視距離等方面還存在很多不足。
5、HMD:頭戴式可視設(shè)備(HeadMountDisplay)頭戴虛擬顯示器的一種,又稱眼鏡式顯示器、隨身影院。是一種通俗的叫法,因為眼鏡式顯示器外形像眼鏡,同時專為大屏幕顯示音視頻播放器的視頻圖像的,所以形象的稱呼其為視頻眼鏡(videoglasses)。視頻眼鏡最初是軍事上需求和應(yīng)用于軍事上的。目前的視頻眼鏡猶如當(dāng)初大哥大手機所處的階段和地位,未來在3C融合大發(fā)展的情況下其將獲得非常迅猛的發(fā)展。
6、HMZ:截止2015年4月24日索尼宣布停產(chǎn)HMZ系列產(chǎn)品時,該系列一共推出過三代產(chǎn)品,2011年的HMZ-T1、2012年的HMZ-T2以及2013年的HMZ-T3/T3W。HMZ-T1顯示分辨率只有720p,耳機則是虛擬的5.1聲道,還要拖一塊大大的集線盒。首先它采用的是兩塊0.7英寸720pOLED屏幕,佩戴HMZ-T1后這兩塊0.7英寸屏幕的顯示效果就像在20米的距離觀看750英寸的巨屏一樣。2012年10月,索尼發(fā)布了HMZ-T1的小改版本也就是HMZ-T2。相比HMZ-T1降低了30%的重量,同時取消內(nèi)置耳機設(shè)計,允許用戶使用自己喜歡的耳機搭配。屏幕雖然保持0.7英寸720pOLED的參數(shù)不變,但引入了14bitRealRGB3×3色變換矩陣引擎和全新的光學(xué)濾鏡,畫質(zhì)上其實也有增強。2013年的HMZ-T3/T3W升級幅度不小,首次實現(xiàn)了無線信號傳輸,允許你戴著無線版本的HMZ-T3W進行有限的小范圍移動,不再受線纜的束縛。
7、光線跟蹤算法:為了生成在三維計算機圖形環(huán)境中的可見圖像,光線跟蹤是一個比光線投射或者掃描線渲染更加逼真的實現(xiàn)方法。這種方法通過逆向跟蹤與假象的照相機鏡頭相交的光路進行工作,由于大量的類似光線橫穿場景,所以從照相機角度看到的場景可見信息以及軟件特定的光照條件,就可以構(gòu)建起來。當(dāng)光線與場景中的物體或者媒介相交的時候計算光線的反射、折射以及吸收。光線跟蹤的場景經(jīng)常是由程序員用數(shù)學(xué)工具進行描述,也可以由視覺藝術(shù)家使用中間工具描述,也可以使用從數(shù)碼相機等不同技術(shù)方法捕捉到的圖像或者模型數(shù)據(jù)。
8、真實繪制技術(shù):虛擬現(xiàn)實系統(tǒng)中,對真實繪制技術(shù)的要求與傳統(tǒng)的真實感圖形繪制不同,傳統(tǒng)的繪制只要求圖形質(zhì)量和真實感,但是,在VR中,我們必須做到圖形顯示的更新速度不小于用戶的視覺轉(zhuǎn)變速度,否則就會出現(xiàn)畫面的遲滯現(xiàn)象。故在VR中,實時三維繪制要求圖形實時生成,每秒鐘必須生成不低于10到20幀圖像。同時還要求其真實性,必須反映模擬物體的物理屬性。通常為了使得畫面場景更加逼真和實時性強,通常采用紋理映射、環(huán)境映射和反走樣的方法。
9、基于圖像的實時繪制技術(shù):基于圖形繪制(ImageBasedRendering,IBR)不同于傳統(tǒng)的幾何繪制方法,先建模型,在定光源的繪制。IBR直接從一系列圖形中生成未知角度的圖像,畫面直接進行變換、插值和變形,從而得到不同視覺角度的場景畫面。
10、三維虛擬聲音技術(shù):日常生活中我們所聽到的立體聲是來自于左右聲道,聲音效果可以很明顯的是我們感到來自我們面前的平面,而非像有人在我們背后喊我們時,聲音來自于聲源,且能準(zhǔn)確判斷出其方位。顯然現(xiàn)在的立體聲是不能做到的。而三維虛擬聲音就是要做到聽其音辨其位,即在虛擬場景中用戶可以聽聲辯位,完全符合現(xiàn)實環(huán)境中的聽力系統(tǒng)的要求,這樣的聲音系統(tǒng)就稱之為三維虛擬聲音。
11、語音識別技術(shù):語音識別技術(shù)(AutomaticSpeechRecognition,ASR)是將語言信號轉(zhuǎn)變?yōu)榭杀挥嬎銠C識別的文字信息,使得計算機可以識別說話人的語言指令和文字內(nèi)容的技術(shù)。要想達到語音的完全識別是非常困難的,必須經(jīng)過參數(shù)提取、參考模式建立、模式識別等若干個過程。隨著研究人員的不斷研究,使用了傅里葉轉(zhuǎn)換、到頻譜參數(shù)等方法,語音識別度也越來越高。
12、語音合成技術(shù):語音合成技術(shù)(TexttoSpeech,TTS),是指人工合成語音的技術(shù)。達到計算機輸出地語音可以準(zhǔn)確、清晰、自然的表達意思。一般方法有兩種:一是錄音/重放,二是文-語轉(zhuǎn)換。在虛擬現(xiàn)實系統(tǒng)中,語音合成技術(shù)的運用可以提高系統(tǒng)的沉浸感,同時彌補視覺信息的不足。
13、人機自然交互技術(shù):在虛擬現(xiàn)實系統(tǒng)中,我們致力于使得用戶可以通過眼睛、手勢、耳朵、語言、鼻子和皮膚等等感覺器官來和計算機系統(tǒng)中產(chǎn)生的虛擬環(huán)境進行交互,這種虛擬環(huán)境下的交換技術(shù)就稱之為人機自然交互技術(shù)。
14、眼動跟蹤技術(shù):眼動跟蹤技術(shù)(EyeMovement-basedInteraction)也稱之為實現(xiàn)跟蹤技術(shù)。它可以補充頭部跟蹤技術(shù)的不足之處,這樣即簡單有直接。
15、面部表情識別技術(shù):該項技術(shù)目前的研究與人們的期望效果還相差較遠,但是去研究成果去展現(xiàn)了其魅力所在。這項技術(shù)一般分為三個步驟,首先是面部表情的跟蹤,利用攝像機記錄下用戶的表情,再通過圖像分析和識別技術(shù)達到表情的識別。其次是對面部表情的編碼,研究人員利用面部動作編碼系統(tǒng)(FACS)對人的面部表情進行解剖,并對其面部活動進行分類和編碼。最后是面部表情的識別,通過FACS系統(tǒng)可以構(gòu)成表情識別的系統(tǒng)流程圖。
16、手勢識別技術(shù):通過數(shù)據(jù)手套(Dataglove)或者深度圖像傳感器(如leapmotion、kinect等)來精確測量出手的位置和形狀,由此實現(xiàn)環(huán)境中的虛擬手對虛擬物體的操縱。數(shù)據(jù)手套通過手指上的彎曲、扭曲傳感器和手掌上的彎度、弧度傳感器,確定手及關(guān)節(jié)的位置和方向,而基于深度傳感器的手勢識別則通過深度傳感器獲得的深度圖像信息進行計算,進而獲得掌、手指等部分的彎曲角度等數(shù)據(jù)。
17、實時碰撞檢測技術(shù):在日常生活中人們已經(jīng)建立了一定的物理習(xí)慣,如固體之間不能彼此穿透,物體高空墜落做自由落體運動,拋出去的物體做平拋運動等等,同時還要受到重力和空氣流速的影響等等。為了在虛擬現(xiàn)實系統(tǒng)中完全的模擬現(xiàn)實環(huán)境,且防止發(fā)生穿透現(xiàn)象,就必須引入實時碰撞檢測技術(shù)。Moore提出了兩個碰撞檢測算法,其一處理三角剖分的物體表面,另一個處理多面體環(huán)境的碰撞檢測。為了防止穿透有三個主要部分。首先,必須檢測碰撞。其次,為響應(yīng)碰撞應(yīng)調(diào)節(jié)物體速度。最后,如果碰撞,響應(yīng)不引起物體立刻分開,必須計算和施加接觸力,直到分開。
18、三維全景技術(shù):三維全景技術(shù)(Panorama)為現(xiàn)在最為流行的視覺技術(shù),它以圖像繪制技術(shù)為基礎(chǔ)生成具有真實感圖像的虛擬現(xiàn)實技術(shù)。全景圖的生成,首先是通過照相機平移或旋轉(zhuǎn)得到的一序列圖像樣本;再利用圖像拼接技術(shù)生成具有強烈動感和透視效果的全景圖像;最后在利用圖像融合技術(shù)使得全景圖給用戶帶來全新的現(xiàn)實感和交互感。該項技術(shù)利用對全景圖深度信息的提取來恢復(fù)實時場景的三維信息建立模型。方法簡單,設(shè)計周期縮短,使得費用大大降低,且效果更加,故目前較為流行。
關(guān)注微信公眾號:VR陀螺(vrtuoluo),定時推送,VR/AR行業(yè)干貨分享、爆料揭秘、互動精彩多。
投稿/爆料:tougao@youxituoluo.com
稿件/商務(wù)合作: 六六(微信 13138755620)
加入行業(yè)交流群:六六(微信 13138755620)