Apple ARKit 2 demo at WWDC 2018
來源:AR醬
在ARKit 2.0發佈之後不久,不少開發者發現了新版本ARKit,對利用iPhone X前置結構光攝影機,進行眼動追蹤的支持。
類似的功能我們在過去也見識過(不會寫程序怎麼當好藝術家?跳出iPhone X螢幕的3D立體視覺效果)
該藝術效果的開發者,就是利用了前置景深攝影機,獲取眼球位置,根據位置即時改變動畫呈現角度。
但嚴格意義來說,這並不算是眼動追蹤,只是對眼球位置的辨識,換言之如果頭部和手機的相對位置不改變,眼球轉動時畫面不發生變化。
而ARKit 2下眼動追蹤的效果效果,就非常驚艷了
轉動眼睛,螢幕中的十字光標,便會隨著注視點的移動而移動,響應速度和精確度都很不錯
透過眨眼睛(忍不住想眨眼了怎麼辦,會不會誤觸)完成點擊選擇,操縱手機全程不需要動手,在很多場景中可以說是非常方便了。得益於紅外線方案,即便是在黑暗中也能實現眼動追蹤。
手機眼球追蹤
用眼動追蹤來控制手機,是不少開發者一直以來都在設想的。
去年年初發佈的ZTE Hawkeye加入的眼球追蹤,利用前置攝影機檢測用戶的虹膜運動,上下或左右滑動控制螢幕。
滑動的功能能,方便人們在手上沒空的情況下,簡單的操作手機,但是對於一些使用群體(肢體殘障)來說,他們渴望功能更加強大的眼動追蹤方案。
一般而言,有兩種跟蹤眼球的方案,即普通攝影機和紅外線攝影機。
普通攝影機方便小型化,低成本但是精度低,紅外限方案體積大,造價高,同時精度高。
但隨著技術的發展,優缺點不能一刀切,針對普通攝影機方案,2016年麻省理工開設的「Eye tracking for everyone」就利用了卷積神經網路(CNN),預測用戶對手機或者平板的注視位置,只使用普通攝影機的情況下,讓精度變為1.34cm到2.12cm。
儘管精度上有所提高,但從目前的市場情況,可見雖然該技術還並沒有成熟。
紅外線攝影機則一直都是主流的眼動追蹤辨識方案
例如Tobii眼動儀採用的技術,就是透過辨識用戶眼球上角膜、瞳孔產生的反射圖像,使用兩個圖像傳感器,分別採集眼睛與反射圖像,透過圖像處理算法和一個三維眼球模型,精確地計算出眼球、注視點在空間中的具體位置。
解決了小型化問題的True-Depth相機模組,是否也採用了相似地技術原理呢?
6月20日,開發者Andrew Zimmer,在Twitter發佈了一個demo,展示ARKit 2對眼睛注視點位置的即時追蹤效果,隨著Andrew眼球的轉動,注視點點的移動在螢幕上,畫出一條連貫的曲線。在圖中,顏色越暖(橘色、紅色),代表注視時間越長。注視點位置的檢測精確,辨識軌跡流暢連貫,在未來的人機交互中潛力巨大。
有相當數量的患者由於操作不便,與資訊時代脫節。其中有不少唯一與設備相互動的管道就是眼睛,眼球追蹤加入智慧手機的交互模式,同樣也能造福健全人,讓我們在手上沒空的情況下,操作手機比如做飯看菜譜、開車看導航。
不過同時,技術也帶來了很大的隱私問題。相信大家都有同感,在網上瀏覽過某一類商品之後,PC 和手機APP的各種廣告,和彈窗中會根據你的瀏覽內容,推薦一堆類似商品。當未來的APP知道了你因為感興趣,而長時間注視的內容,內容推送會更加精確,人們的注視內容資訊會被拿去販賣,更無隱私可言了。
沒有留言:
張貼留言