cookieOptions = {...}; .AR 交互大突破,MIT 讓你真的「碰到」影像裡的物體 - 3S Market「全球智慧科技應用」市場資訊網

3S MARKET

3S MARKET
2016年8月10日 星期三

leiphone 亚萌


嚴格來說,影像並不是一個交互媒介,因為觀眾只是接收訊息,並不能跟影像裡的畫面實時互動。

但是麻省理工學院(MIT)正在改變這一現實:該校電算機科學與人工智慧實驗室(CSAIL)研發了一項新技術,讓觀眾可以伸出手「觸碰」並操控影像裡的物體,就像在真實世界裡一樣。


比如下圖里一個小人,本來是靜止的畫面,但是如果你在上面點擊,並拖動滑鼠,小人真的會因為你的動作,而出現抖動或傾斜。

AR交互大突破,MIT让你真的“碰到”视频里的物体

這個系統被稱為「交互動態影像」(Interactive Dynamic Video),簡稱IDV

技術原理:5秒視訊+振動模式+算法
IDV系統的技術原理是這樣的:每一個真實世界的物體,都會受到來自外界的作用力,由此引發物體的振動。研究團隊用攝影機拍攝該物體最短5秒的影片,然後用一個算法生成一個預測模型,預測出該物體在其他外力的作用下,產生的振動模式。


所以上圖中的室內的小人,在拍攝過程中,研究人員會在它站立的桌面上使勁拍打,使其產生振動。而這種振動,我們人類的肉眼幾乎不可見。

AR交互大突破,MIT让你真的“碰到”视频里的物体

IDV系統可以捕捉到,非常細小的物體振動頻率。甚至一陣微風引起的振動也可以捕捉到,所以對於巨大的建築物,這種模擬也可以實現。

而且令人興奮的一點是,這套系統裡根本不需要3D輪廓重建的步驟。一般來說,模擬物體的運動,是需要3D建模的,但是這一過程非常昂貴,而且對於十分複雜的物體來說,其3D模型的構造過程極其複雜。而IDV只需要5秒鐘的傳統視訊和一套算法,就可以實現運動模型的預測。

領導這個項目的是在CSAIL 實驗室,攻讀博士學位的Abe Davis,他說:「這個技術可以讓我們捕捉到物體的實體動態,讓我們在虛擬空間中與拍攝的物體玩耍。」 今年年初,他和同樣是博士生的Justin G. Chen,以及Fredo Durand教授,共同發表了關於該項技術的論文。

應用:令人激動的AR領域
IDV的應用非常廣泛,比如工程師可以利用IDV來模擬,在遭遇大風或地震等災害時的一座建築物的狀況,而對於CG電影動畫製作者來說,製造一個虛擬的白宮或大橋倒塌的壯觀景象,也無疑更加容易了。


但其中最令人激動的就是和AR的結合。以如今大火的Pokemon Go為例,在現在的遊戲界面裡,小精靈只是單純「出現」在畫面裡,就像一個貼紙一樣,如果你撥動這個小拉達後面的物體,它並不會受到任何影響。

AR交互大突破,MIT让你真的“碰到”视频里的物体

IDV可以讓虛擬的動畫角色,跟真實的環境交互。一個虛擬的皮卡丘從草叢裡,一下子蹦出來,並帶動了草叢裡的草,這效果就太逼真了,形成了所謂的「動態AR

AR交互大突破,MIT让你真的“碰到”视频里的物体

IDV系統的出現,無疑會推動人們對VRAR技術的興趣和投入。它顯而易見的好處是可以大幅降低交互式AR體驗的開發成本,這點能夠鼓勵更多人參與到AR內容的創作。人們都想證明AR的價值,而IDV正好預示著AR影像巨大吸引力的未來
Via MIT News

                                                                                                                                                                                                                            


0 comments: