【編者按】作者台伯河,資深VR行業從業者。
作為一個虛擬實境行業從業者,我當然有很多機會去體驗虛擬實境。戴上VR頭顯,我就進入了另一個世界:我的面前有一張桌子,零散擺放著一些文具;在前面不遠的地方是一個顯示器,顯示著一些畫面。
我可以扭頭去看看我背後都有些什麼,也可以湊近去觀察桌子上那些文具的細節。這個世界看上去是如此逼真,我都忍不住認為這的確是真實的。可能這就是「虛擬實境」(Virtual Reality)這個名稱的源頭。在這裡,我們可能要問一個問題:如果有一天虛擬實境真的發展到了駭客帝國那種階段,我們如何才能夠分清楚真實和虛幻呢?
這是個很形而上的哲學問題。在這裡我們不妨來討論一下,一個現實得多的問題:如何判斷一張照片是否被PS過?
PS,Photoshop的簡稱。我們看到那些雜誌上美輪美奐的風景和人物照的時候,我們都會說,這張照片是被PS過的;而每天發在朋友圈的那些自拍照,我們同樣知道是被PS過的。它可能調整了曝光,亮度,白平衡,飽和度,顏色曲線,也可能將面孔上的斑點去掉,或者將腿部的線條變得更瘦。總之,使用後期軟體,無論是Photoshop還是美圖秀秀還是Instagram還是VSCOcam,我們把照片變得更加好看了,然而卻更不真實了。
那麼,在PS前的照片就真實嗎?
人眼是否能看到長曝光的照片?
考慮一下數位相機的視角。相機的原理跟人眼其實是一樣的:光子穿過鏡頭,落在感光晶片上,轉化為相應的電信號;相機的電子系統收集電信號,經過演算法處理,還原出色彩和亮度,形成我們看到的照片。
在這其中,演算法要解釋,信號的哪一個部分是紅色,哪一個部分有多亮,調整從顏色到白平衡的一系列選項;後期軟體處理,與相機的機內處理,在邏輯上有什麼區別?
更形而上的問題是,從電信號還原成一幅圖像,這一系列的處理步驟,到哪一步我們可以稱之為「真實」?在那一步之後,再處理就讓它變得不真實了?
(星雲的顏色從來就不是真實的;它只是為了方便科學家才將波段處理成可見光譜。)
在這個層面上,真實就變成了一個相對的概念:我們對於何為真實的認知,肯定是出自我們自己的世界觀。我們會不自覺的,將照片與我們通過眼睛看到的景象對比,如果照片中的藍色,和我們看到的天空的藍色顏色不一樣,我們就覺得這張照片是PS過的。
但是這裡的問題是,相機所看到的世界,是由感光晶片電子系統和軟體演算法所描繪的世界;而我們看到的世界則是由視網膜視神經系統,和大腦所描繪的世界,世界構成的基礎就不一樣,我們怎麼能夠認為,相機就應該看到與我們看到的一樣的世界呢?
擴展到更加科學的領域,可見波長只是光譜裡的一小部分,我們看不到紅外線和紫外線,更別提長波或者硬X射線。於是紅外線紫外線長波和硬X射線就是不存在的麼?能看到這些波長的生物,或者電子系統就比我們看到的世界更加真實?
那麼這裡我們可以適當的作出結論:照片本身是無所謂真實與否的,任何照片都是一種世界觀的構建。那麼我們可以將虛擬實境作為攝影的一個反向過程:攝影是收集光子,並且轉換為電信號,而虛擬實境則是將電信號轉換為光子,最後都還原成人腦中的電信號。
(A區域和B區域是一個顏色麼?)
Oculus首席科學家Michael Abrash,在OculusConnect
2和F8大會上所做的主題演講,就是關於這個主題——虛擬與真實的界限到底在哪裡?他用了一系列的證據,展示了一點——我們對於「何為真實」的看法,本來就是出於建構,幾千萬年的進化,讓我們對於世界本身就有一套已經建立的模型——我們就通過這個模型來觀察世界。
Abrash舉了幾個例子:比方說透視完全錯誤的窗戶,因為我們的視覺系統有一個透視關係,應該是怎樣的基本假設;比方說向內凹的恐龍頭模型,因為人類看到臉就會認為臉是往外凸起的;還比方說,在同樣的發音下,嘴型的不同就會造成我們的對於發音的認知差異。
Abrash的演講想要表達的是兩件事情:
一,我們並沒有徹底理解人類的視覺系統是如何運作的;
二,虛擬實境和真實,並沒有哲學上的差別。
所以,在墨菲斯(Morpheus,想想為什麼索尼的VR項目會取名為Project Morpheus)問什麼是真實的時候,他問了一個「元」問題。
虛擬實境是真實的嗎?它不是。而真實本身是真實的嗎?
沒有留言:
張貼留言