MIT STAG glove and mug
台灣區電信工程工業同業公會 |
據麥姆斯咨詢報導,麻省理工學院電腦科學與人工智慧實驗室(MIT-CSAIL)的研究人員,近日開發了一種低成本的感測器手套,旨在使人工智慧能夠「弄清楚」,人類如何透過觸摸辨識物體。它被稱為可伸縮的TActile手套(STAG),使用550個微小的壓力感測器,來生成可用於創建改進的機械手的模式。
人類非常善於透過觸摸來弄清楚物體是什麼(例如在黑暗中摸索眼鏡或手機)。工程師希望機器人也能效仿這種能力。這樣做的一種方法,是收集盡可能多的關於人類,實際上如何透過觸摸辨識的資訊。
原因在於,如果有足夠大的數據庫,那麼機器學習可以用來進行分析,不僅可以推斷人手如何辨識某物,還可以估計其重量——機器人和義肢難以做到這點。
原因在於,如果有足夠大的數據庫,那麼機器學習可以用來進行分析,不僅可以推斷人手如何辨識某物,還可以估計其重量——機器人和義肢難以做到這點。
麻省理工學院正在透過,配備550個壓力感測器的低成本針織手套,收集這些數據。手套連接到電腦,電腦收集數據,壓力測量結果被轉換為影像「觸覺地圖」,並被輸入卷積神經網路(CNN)。該網路能對圖像進行分類,找出特定的壓力模式,並將其與特定的物體相匹配。
該團隊從26個常見物體(如飲料罐、剪刀、網球、勺子、鋼筆和馬克杯)中收集了135000個影像幀。然後,神經網路將半隨機幀,與特定的夾點相匹配,直到建立了一個物體的完整圖片 - 這與人們透過在手中滾動物體,來辨識物體的方式非常相似。透過使用半隨機圖像,可以給網路提供相關的圖像集群,因此不會在無關數據上浪費時間。
「我們希望最大化框架之間的差異,為我們的網路提供最好的輸入,」CSAIL博士後Petr Kellnhofer說。「單個群集中的所有幀,都應該具有類似的簽名,這些簽名代表了抓取對象的類似方式。從多個群集中,採樣模擬人類交互式嘗試探索物體時,找到不同的抓取方式。」
該系統目前辨識物體的精確度為76%,其還可以幫助研究人員瞭解,手掌握和操縱它們的方式。為了估計重量,研究人員還編製了一個11600幀的單獨數據庫,顯示在跌落之前用手指和拇指拾取物體。透過在物體被保持時測量手周圍的壓力,然後在跌落後比較它,可以測量重量。
該系統的另一個優點是成本和靈敏度。類似的感測器手套價值數千美元,卻只有50個感測器。而麻省理工學院的手套則採用現成的材料,成本僅為10美元。
0 comments:
張貼留言