2016年3月30日 星期三

‧ 這種新型感測器系統可將手語動作翻譯成文字

騰訊數碼肖恩

这种新型传感器系统可将手语动作翻译成文字

美國標準手語(ASL)是聾啞人和聽障人彼此交流的主要方式,但如果有一方無法理解這種基於視覺的語言,那交流又該如何進行呢?德克薩斯A&M大學的研究者現在就打算解決這個問題。

據介紹,A&M大學生物醫學工程系助理教授兼首席研究員Roozbeh Jafari目前正在研發一種新的精密工具,來讓所有人都可以去理解ASL。這套翻譯系統目前還沒有正式名稱,但它的目標非常明確:為所有對話參與者提供一種更加精確、便攜和可靠的方式來翻譯ASL

這套系統可將追蹤到的視覺動作翻譯成文字,但問題在於,它所使用的攝像頭只能檢測到足夠精準的ASL手勢,否則就會引發翻譯錯誤,最終讓交流無法順利進行。


因此,Jafari放棄了攝影機,轉而使用了外置動作感測器和可穿戴肌肉追蹤感測器,這些感測器是基於肌動電流圖(EMG)技術所研發的,可檢測到運動神經元傳輸到肌肉的電信號,而EMG可以把這些信號轉化成電腦和專業人士可以理解的數值。
目前,Jafari的團隊已經製作出了可正常工作的概念驗證原型機,下一步他們打算提高設備的敏感度和準確度。當所有的技術達到理想的工作狀態時,ASL使用者和他們的對話參與者將能從中獲益良多。


可除此之外,Jafari的這套感測器系統還擁有更廣闊的應用空間,比如智慧家居設備的控制。

來源:Mashable
                                                                                                                                                                                                                            

沒有留言:

張貼留言