2018年9月19日 星期三

.機器人,英偉達的下一場革命

Nvidia Titan V Presentation Extended Highlights



來源: 极客公园



很多遊戲粉絲聽說英偉達發了新卡,激動得去搜索相關的新聞,可看來看去,發佈會上把「十年來最重要創新」、「全球首款光線追蹤 GPU」掛在嘴邊的老黃,卻沒怎麼提起新品在遊戲上的應用。

遊戲粉絲有些失望,核彈還是那個核彈,皮衣也還是那件皮衣,但發佈會上屢屢提起、演示的關鍵詞,卻並不是他們熟悉的 3A 大作了。

類似的情況,也出現在顯卡測評的視訊裡,當一位 up 主透過機器學習的訓練效果,來講解 NVIDIA Titan V 顯卡的性能時,彈幕上馬上刷起了「聽不懂」、「在說啥」的聲音。

遊戲粉絲們也許不是很買賬,但對英偉達而言,人工智慧卻是這家以圖形和計算起家的半導體公司,遇上的最好機會。在深度學習井噴式爆發的那幾年,擅長向量和矩陣運算的英偉達 GPU 被許多學者、研究員用來進行研究,和訓練自己的算法模型,甚至 Google Brain 和吳恩達這樣頂級的人工智慧研究團隊和科學家,也在使用英偉達的設備,久而久之,英偉達也將自己的注意力,轉移到了深度學習,這一剛剛在產業裡興起的領域。

「不夠,還不夠智慧」
幾年下來,英偉達在人工智慧領域,有了自己的累積,它開始有了新的判斷,專注於底層算力的英偉達開始思考上層應用的方向。

「人工智慧的第一階段,是開發自動化編程的軟體。第二階段,是將軟體應用於行業的自動化,這種自動化帶來的效率提升,會刺激原有的市場。」在今年的台北電腦展上,黃仁勳把人工智慧的發展分為了三個階段,「第三階段,是 AI 走出電腦,影響外部的世界。」

依黃仁勳的定義,目前我們已經處於人工智慧發展的第二階段,即人工智慧開始初步應用於各行各業。


image.png



比如工廠裡的人機協作,大型機械很容易在使用時誤傷到人,但如果給這些設備裝上傳感器,檢測身邊是否有人,即時作出是否要減速的判斷,在使用時就會安全許多。

再比如傳統的拆垛、堆垛設備,只要給設備加一個深度傳感器,它就能判斷出箱子的大小位置和重心,這時機器就能夠判斷出最佳操作位置,從而以最快的速度完成操作。

還有超市商場裡,每天營業員都會在關門後,花數個小時的時間整理、統計當天所剩貨品,現在市面上已經有能夠完成點貨和理貨功能的機器人,這些設備能給店家省下不少的人力。

這些都是時下已經投入使用的一些智慧機器,但在英偉達高級軟體經理李銘博士看來,「這些智慧是遠遠不夠的」。

「加一點智慧進去,解決當前場景最急需的問題,看起來是個智慧機械,但其實它對整個機器人本身的促進,並沒有想像中那麼大。」

李銘博士認為,這些智慧機器人普遍存在著一些問題:

第一,軟體成本上升太快,在安控、服務、工廠,不同的場景裡,有著不同的需求,體現在軟體編程上,軟體架構的邏輯可能會全局推翻,這就導致了軟體開發的成本居高不下。

第二,具體到場景裡,單個機械在應用時,還需要單獨的調試。以工業機器人的機械臂為例,在工廠裡需要為車床量身調試,設置具體操作參數,比如距離產線的距離,50cm 還是 60cm,10cm± 的誤差在生產線上,是絕對不允許的。

第三,面對環境的變化適應性差,比如工廠裡的光線發生變化,比如室外可能會發生的各種意外,現有的機器人是無法應對的。

第四,軟體更新,當功能有增加或者修改時,需要做很多額外的工作,比如改變程序的邏輯,甚至重新編程等等。

如前面黃仁勳提到人工智慧的三個階段,智慧從軟體開始,機器人從完成固定程序動作的普通機械,到今天「有一點點智慧」的機器人,依賴的正是人工智慧,在各自行業的初步應用。所以要解決以上這些智慧機器的問題,還需要回到軟體的層面,回到人工智慧身上。

機器該怎麼學習?
人工智慧的發展「越來越抽象,越來越複雜」。從早期簡單的是與否的判斷,到後來精準的辨識,可以在複雜的場景裡,找出特定的目標,再到後來,出現 AlphaGo 這樣可以做出主動的決策的 AI,甚至智慧如 AlphaGo Zero,可以完全依靠「自學」實現快速成長。可以看到,軟體的智慧水平,是領先於我們常見的硬體智慧的。

那麼,人工智慧在硬體上的部署,遇到了哪些困難呢?


image.png



首先是計算力。硬體,尤其移動機器人上,能夠搭載的計算力非常有限,這與 AlphaGo 這樣傾全公司,算力訓練出來的 AI 不同。

人工智慧經過這麼長時間的發展,在網路的種類、複雜程度和處理的資訊量上,都發生了天翻地覆的變化。網路種類上,從早期的 AlexNet 和 GoogleNet ,到現在各種各樣的 GAN(生成對抗網路)以及各種深度強化學習的網路,它們各自網路結構都有不同,開發者在適應最新的網路上,常常會遇到一些麻煩。

網路變得越來越複雜,處理的資訊量也在成倍地成長,算力需求越來越高的情況下,對搭載處理單元的體積,有更多限制的機器人,實際上存在著在智慧水準上升級的障礙。

其次是訓練環境。對於 AlphaGo、DeepMind,科學家們可以設定一個基本規則,讓它永遠跑在電腦裡,不停地訓練,技巧磨煉得越來越強大,但機器人的訓練,卻遠遠沒有這麼簡單。

在去年的 GTC 大會上,黃仁勳展示了加州大學伯克萊分校的 AI 實驗室所做的曲棍球機器人實驗,在一個僅一米左右的直線上,伯克萊的曲棍球機器人「艾達」,足足試了 200 次,才熟練地掌握了將球打入門框的技巧。

「這還只是曲棍球!」黃仁勳說道,「如果我想抬起一輛汽車呢?如果我想開門呢?如果我想讓機器人和醫生配合做手術呢?」

「我們不可能讓機器這麼學習。」

這裡,英偉達高級軟體經理李銘博士指出,在使用深度強化學習,對機器人進行訓練時,有三個主要的障礙。

第一,真實世界的訓練進程太過緩慢,並且成本昂貴。Google 的機器人實驗室,曾經用三個月的時間,拿 14 台機械手臂完成了 30 萬次的拾取動作的訓練,同時還配備了一整隊的工程師「鞍前馬後地照料」這些機器人。對其他公司或者普通研究人員而言,這樣的成本是完全負擔不起的。

第二,訓練的部分非常危險,可能會造成一定程度的損失。機器人在訓練時,是直接與物理世界交互的,任何的碰撞都可能會導致機體的損傷,甚至可能會對訓練的「陪護」人員,造成傷害。

第三,訓練環境的搭建非常耗時耗力。以自動駕駛為例,如果要訓練汽車在面對前面汽車追撞時的表現,連日常生活中的數據都很難收集,更不要說搭建起類似的場景了。

NVIDIA 的答案
在今年台北電腦展的發佈會上,英偉達發佈了 NVIDIA Isaac 機器人平台,包含硬體、軟體和虛擬世界機器人模擬器的 NVIDIA Isaac。


image.png



同樣在這場發佈會上,黃仁勳還發佈了「世界首台專為機器人打造的處理器」NVIDIA Jetson Xavier,他手托著這台沒有巴掌大的電腦,面對媒體說道:「這就是未來智慧機器人的『大腦』。」

Jetson Xavier 擁有超過 90 億個晶體管,可提供每秒 30 萬億次操作以上的性能,這一處理能力,甚至比高性能的工作站,還要強大。同時,Xavier 擁有 6 個高性能處理器,包括 1 個 Volta Tensor Core GPU、1 個 8 核 ARM64 CPU、2 個 NVDLA 深度學習加速器、1 個圖像處理器、1 個視覺處理器,和 1 個影像處理器。超高的計算能力,讓可以直接部署在終端機器人上的 Jetson Xavier ,能夠為機器人的感知和計算,提供基礎算力的保障。

軟體上,Jetson Xavier 配備了一個工具箱,包含 API 工具包 Isaac SDK、智慧機器加速應用 Isaac IMX ,以及高度逼真的虛擬仿真環境 Isaac Sim。

英偉達在 2017 年的 GTC 上,首次發佈了 Isaac 虛擬仿真環境的部分。只需要普通遊戲引擎,開發者們就可以打造出一個非常仿真的虛擬環境,在這個 VR 世界裡,開發者可以在其算力支持的條件下,對機器進行盡可能多、盡可能快的訓練,訓練完成後,機器可以直接部署到機器人上,完成物理世界裡的測試。這樣一來,就解決了訓練環境的諸多問題。

在英偉達看來,機器人終歸是要擁有超強的邊緣計算能力的,而目前遠遠超越現階段機器人應用需求的 Jetson Xavier,正是為了下一代自主機器打造的 AI 計算晶片,在 Isaac 平台的支持下,機器無處不在地助力我們日常生活工作,提高整個社會的效率,終將在不久後成為現實。

沒有留言:

張貼留言