AI is the new UI - Tech Vision 2017 Trend 1
leiphone 作者:刘子榆
按:有人將人工智慧定義為「認知計算」或者是「機器智慧」,有的人將 AI 與「機器學習」混為一談。事實上,這些都是不準確的,因為人工智慧不單單是指某一種技術。
這是一個由多學科構成的廣闊領域。眾所周知, AI 的最終目標是創建能夠執行任務,並且具備認知功能的智慧體,否則它只是在人類智力範圍內的機器。為了完成這個野望,機器必須學會自主學習,而不是由人類來對每一個系統進行編程。
令人興奮的是,在過去 10 年中,人工智慧領域已經取得了大的進步,從自動駕駛汽車到語音辨識到機器翻譯,AI 正在變得越來越好,也離我們越來越近。
近日,知名風投 Playfair Capital 風險投資人 Nathan Benaich 在 medium 上發佈文章《6 areas of AI and machine learning to watch closely》,講述了他眼中人工智慧發展勢頭中,比較火熱的領域及其應用。
1. 強化學習(Reinforcement learning, RL)
強化學習在沒有任何標記,也不告訴算法應該怎麼做的情況下,先嘗試做出一些行為,得到一個結果,然後通過判斷這個結果的正誤對之前的行為進行反饋,再由這個反饋來調整之前的行為。
通過不斷的調整,算法能夠學習到在什麼樣的情況下,選擇什麼樣的行為可以得到最好的結果。谷歌 Deep Mind 就是用強化學習的方法,在 Atari 遊戲和圍棋中取得了突破性進展。
應用範圍:為自動駕駛汽車提供 3D 導航的城市街道圖,在共享模型環境下,實現多個代理的學習和互動,迷宮遊戲,賦予非玩家視訊遊戲中的角色人類行為。
投入公司:DeepMind(谷歌),Prowler.io,Osaro,MicroPSI,Maluuba (微軟),NVIDIA,Mobileye 等。
主要研究人員: Pieter Abbeel(OpenAI),David Silver,Nando de Freitas,Raia Hadsell(谷歌 DeepMind),Carl Rasmussen(劍橋),Rich Sutton (Alberta),John Shawe-Taylor(UCL)等等。
2. 生成模型
與判別模型不同的是,生成方法可以由數據學習,聯合機率密度分布,然後求出條件機率分布作為預測的模型,即生成模型。
它的基本思想,是首先建立樣本的聯合機率概率密度模型,然後再得到後驗機率,再利用其進行分類。
2014 年,蒙特利爾大學的 Ian Goodfellow 等學者發表了論文 《Generative Adversarial Nets》 ,即「生成對抗網路」,標誌了 GANs 的誕生。這種生成對抗網路就是一種生成模型(Generative Model),它從訓練庫裡獲取很多訓練樣本,並學習這些訓練案例,生成的機率分布。
GANs 的基本原理有 2 個模型,一個是生成器網路(Generator Network),它不斷捕捉訓練庫裡真實圖片的機率分布,將輸入的隨機噪聲(Random Noise) 轉變成新的樣本。
另一個叫做判別器網路(Discriminator Network),它可以同時觀察真實和假造的數據,判斷這個數據到底是真的還是假的。這種模型是用大規模數據庫訓練出的, 具有比其他無監督學習模型更好的效果。
應用範圍:用於真實數據的建模和生成,模擬預測時間序列的可能性,比如為強化學習制訂計劃,在圖像、影像、音樂、自然語句等領域都有應用,比如預測圖像的下一幀是什麼。
投入公司:Twitter Cortex,Adobe, 蘋果,Prisma, Jukedeck,Creative.ai,Gluru, Mapillary,Unbabel 等。
主要研究人員:Ian Goodfellow (OpenAI) , 大神Yann LeCun 以及Soumith Chintala(Facebook AI Research),Shakir Mohamed 以及 Aäron van den Oord(谷歌 DeepMind) 等等。
3. 記憶網路
記憶網路指的是帶有記憶體的神經網路。為了使 AI 系統能夠在多樣化的現實社會中得到更好的推廣,它們必須不斷學習新的任務,並「記住」自己是如何執行任務的。然而,傳統的神經網路並不能做到這些。原因是當它們在執行 B 任務時,網路中對於解決 A 任務的權重發生了改變。
不過,有幾種強大的架構,能夠賦予神經網路不同程度的記憶,比如長短期記憶網路 LSTM,它能夠處理和預測時間序列。還有 Deep Mind 的新型機器學習算法「 可微分神經電腦」DNC,它將「神經網路」計算系統,與傳統電腦儲存器結合在一起,這樣便於它瀏覽和理解複雜的數據。
應用範圍:這種學習代理可以應用到多種環境中,比如機械臂控制物體,時間序列的預測(金融市場,物聯網等)。
投入公司:Google DeepMind,NNaisense ,SwiftKey/微軟等
主要研究人員: Alex Graves, Raia Hadsell,Koray Kavukcuoglu(Google DeepMind),Jürgen Schmidhuber (IDSAI),Geoffrey Hinton(Google Brain/Toronto)等等。
4. 針對小數據集的學習,構建更小的模型
大家都知道,基於大量數據集,可以構建出色表現的深度學習模型,比如著名的 Image Net,作為最早的圖片數據集,它目前已有超過 1400 萬張被分類的圖片。
如果沒有大數據集,深度學習模型可能就難以有良好的表現,在諸如機器翻譯和語音辨識上,也難執行複雜任務。這種數據需求在使用單個神經網路,處理端到端問題時會增長,即把語音的原始音頻記錄作為「輸入→輸出」語音的文本轉錄。
如果想要 AI 系統用來解決更多具有挑戰性,敏感或耗時的任務,那麼開發出能夠從較小的數據集學習的模型非常重要。在對小數據集進行教育訓練時,也存在一些挑戰,比如處理異常值,以及教育訓練和測試之間數據分布的差異。此外,還有一種方法是透過遷移學習來完成。
應用範圍:通過模擬基於大數據集的深層神經網路的表現,訓練淺層網路具備同等性能,使用較少的參數,但卻有深度神經網路同等性能的模型架構(如 SqueezeNet),機器翻譯等。
投入公司:Geometric Intelligence/Uber,DeepScale.ai,微軟研究院, Curious AI 公司,Google,Bloomsbury AI
主要研究人員:Zoubin Ghahramani (劍橋),Yoshua Bengio(蒙特利爾大學), Josh Tenenbaum(麻省理工學院),Brendan Lake (紐約大學),Oriol Vinyals(Google DeepMind) , Sebastian Riedel (UCL) 等。
5. 用於推理和訓練的硬體
人工智慧的發展依仗多項技術的推薦,而我們常說的 GPU 就是促進 AI 進步的主要催化劑之一。與 CPU 不同,GPU 提供了一個大規模並行架構,可以同時處理多個任務。
考慮到神經網路必須處理大量(通常是高維的) 數據,在 GPU 上的訓練比 CPU 快得多。這就是為什麼 GPU 最近很受各個科技大佬追捧的原因,其中包括眾人熟知的 NVIDIA 、英特爾、高通、AMD 以及谷歌。
然而,GPU 並不是專門用於教育訓練或者推理的,它們在創建之始,是為了渲染視訊遊戲中的圖形。GPU 具有超高的計算精度,但這也帶來了儲存器頻寬和數據吞吐量問題。
這為包括谷歌在內的一些大公司開闢了競競爭環境,專門為高維機器學習應用設計和生產的晶片順勢而生。經過設計出新的晶片,可以改善記憶體頻寬等問題,或許也能具備更高的計算密度,效率和性能。
人工智慧系統給其所有者,提供了更快速有效的模型,從而形成「更快,更有效的教育訓練模型→更好的用戶體驗→更多用戶參與產品→創建更大的數據集→通過優化提高模型性能」這樣的良性循環。
應用範圍:快速訓練模型(尤其是在圖像上),物聯網,雲領域的 IaaS,自動駕駛汽車,無人機,機器人等。
投入公司:Graphcore, Cerebras,Isocline Engineering,Google ( TPU ),NVIDIA ( DGX-1 ),Nervana Systems (Intel),Movidius ( Intel ), Scortex 等。
6.仿真環境(Simulation environments)
為人工智慧生成訓練數據,通常具有挑戰性,但是為了讓這項技術可以運用在現實世界中,必須要將它在多樣化環境中進行普及。而如果在仿真環境中訓練機器學習,隨後就能把知識遷移到真實環境中。
這無疑會幫助我們理解 ,AI 系統是怎麼學習的,以及怎樣才能提升 AI 系統,還會大大加速機器人的學習速度。仿真環境下的訓練,能幫助人們將這些模型運用到現實環境中。
應用範圍:學習駕駛,製造業,工業設計,遊戲開發,智慧城市等。
投入公司:Improbable,Unity 3D,微軟,Google DeepMind/Blizzard,OpenAI,Comma.ai,Unreal Engine,Amazon Lumberyard 等。
主要研究人員: Andrea Vedaldi (牛津大學)等。1705170203
0 comments:
張貼留言