cookieOptions = {...}; ‧ Google 的深度神經網路強在哪裡?谷歌首席科學家說了這些奇妙的特性 - 3S Market「全球智慧科技應用」市場資訊網

3S MARKET

3S MARKET
2016年3月28日 星期一

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性
leiphone 董飛

按:作者董飛,資料科學家,微信公號「董老師在矽谷」。

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

寫在前面
201637日,谷歌首席科學家,MapReduceBigTable等系統的創造者,Jeff Dean受邀韓國大學,演講主題《大規模深度學習》,這裡部分來自highscalability的文字和筆者Youtube上的聽錄。

剛好演講在AlphaGo和李世石比賽之前,觀眾也問了他的預測,他只是說訓練了5個月的機器跟頂尖高手的差距不好說;還有人問道他喜歡的程式設計語言(C++愛恨交織,喜歡Go的簡潔,Sawzall才是真愛);在Google作為首席一天是怎麼過的(要吃好早飯,到處閒逛閒聊,找到那些每個領域專家一起攻克難題)。

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

| 整合意味著理解
如果你不理解資訊中的奧秘,那麼你也很難去組織它。

Jeff DeanGoogle系統架構組院士,在講座:“大規模深度學習構建智慧電腦系統”中提到這句和Google的使命:整合全球資訊,使人人皆可訪問並從中受益。早期他們通過收集,清理,存儲,索引,彙報,檢索資料完成“整合”的工作,當Google完成這個使命,就去迎接下一個挑戰。

理解是什麼含義?
Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

看到這張圖,你馬上知道是小寶寶抱著泰迪熊睡覺。而看到下張街景,馬上意識到紀念品店裡面有打折資訊。其實直到最近,電腦才可以提取圖片中的資訊。
Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

  • 如果想從圖像去解釋物理世界,電腦需要去選擇跟那些感興趣的點,閱讀文字並去真正理解。
  • 像下面的文字“car parts for sale”,傳統的Google通過關鍵字匹配來給出結果,但更好的匹配是第二個。這是一個需求深度理解的過程,而不能停留在字面,要去做一個優秀搜索和語言理解產品。
Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

| Google的深度神經網路歷史
Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

Google跟其他公司的不同是,2011年就開始Google大腦計畫,當時想通過使用神經網路來提升技術水準,但並沒有把研究做成像大學象牙塔那種,而是結合安卓,Gmail,圖片去改進產品解決真正問題。這對其他公司也是很好的借鑒,把研究和員工工作結合起來。

神經網路老早就開始研究,上世紀60年代發明,在80年代和90年代早期也流行過,後來又不火了。兩個原因:缺少計算能力去訓練資料模型,這樣也不能用來做更大規模的問題;2)缺少大量有效的資料集。而Google通過演算法的力量,在加上他們強大的基礎架構,海量資料集創造了AI的絕佳溫床。

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

深度學習一開始從少數的產品組開始,一段時間後反響很好,能解決之前不能做的,就更多的團隊開始採納。使用深度學習的產品有:安卓,Apps,藥品發現,Gmail,圖片理解,地圖,自然語言,圖片,機器人,語音翻譯等。
Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

深度學習能應用到很多領域原因是那些通用模組:語音,文字,搜索詞,圖片,影像,標籤,實體,短語,音訊特性。輸入一類資訊,決定你想要的輸出,收集訓練資料作為你想要計算的潛在函數,然後就放手不管了。

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

模型很贊的原因是,因為灌了很多原始形式的資料。你不需要教工程師很多特徵點,模型的力量在於從觀察一些例子,就能自動辨識資料中的有用資訊。

| 深度神經網路是什麼?
神經網路就是一些從資料提煉的複雜函數。從一個空間輸入在轉化為另一個空間的輸出。

這裡的函數不是像平方,而是真正複雜的函數。當你給出一些原始像素,比如貓,而輸出就是物件的類別。

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

深度學習中的“深度”指的是 神經網路中的層數。這個系統的良好性質,是一組簡單的可以訓練的數學函數集合。深度神經網路適用於很多機器學習風格。

比如你給輸入一張貓的圖片,輸出是人工標記的貓圖片,這是監督學習。你把很多這樣監督樣本給系統,讓它去學習近似的函數,如同從監督樣本中觀察出來的。

還有一種是非監督學習,給出一個圖片,你也不知道裡面是啥,系統可以學習去尋找在很多圖片中出現的模式。這樣即使不認識圖片,它也能辨識所有的圖片中都有一隻貓。

增強學習也適用,這也是AlphaGo用到的技術。

| 什麼是深度學習?
深度網路模型是類似於大腦行為的原理。但不是具體模擬神經元如何工作。而是一種簡單抽象的神經元版本。

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

神經元有一組輸入。真正神經元會有不同的強度的輸入。在人工智慧網中試圖去學習到這些邊上的權重,去加強不同輸入的聯繫。真正神經元通過輸入,和強度的組合,去決定要不要生成脈衝。

人工神經元不會產生脈衝,但會生成一個數值。神經元的函數就是,通過非線性函數計算輸入的加權乘以權重之和。

典型的非線性函數就是整形線性單元(max(0, x)),在90年代很多非線性函數是很平緩的sigmoid()函數或者tanh()函數。但對於神經元來說產生的數值,是不是更接近0對優化系統更有利。比如如果神經元有3個輸入 X1, X1, X3,權重分別是 -0.21, 0.3, 0.7,計算就是

y = max(0, -.0.21*x1 + 0.3*x2 + 0.7*x3)

為了決定圖片到底是貓還是狗,這個圖片要經過很多層。這些神經元根據輸入來產生下一步。

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

最低層的神經元會查看像素的小塊。更高層的神經元會看下層神經元的輸出再決定是否生產。

這個模型也會錯,比如說這裡是貓,但事實上是狗。那麼做錯誤決定的信號就會返回到系統中做調整,讓剩餘的模型在下一次查看圖片時候,更可能輸出狗。這就是神經網路的目標,通過模型小步調整邊的加權讓它更可能去得到正確答案。你可以通過所有樣本去聚合,這樣可以降低錯誤率。

學習演算法其實比較簡單,如下:
  • 選擇隨機訓練樣本“(輸入,標籤)”,比如上面貓圖和想要的輸出標籤,‘貓’
  • 運行神經網路,在輸入上去查看它產生的。
  • 調整邊的權重讓最後輸出更接近於“標籤”上的。
如何調整邊的加權去保障輸出更接近於標籤呢?

    Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性
             
反向傳播:積分的鏈式規則在決定高層神經網路中使用,如果選擇是貓而不是狗呢?得想辦法去調整高層的加權,去讓它更可以決定是“狗”。

根據箭頭方向和加權,去讓它更可能說是狗。不要步子邁得太大,因為這種表面很複雜,微調一小步,讓它下次更可能給出狗的結果。通過很多反覆運算以及查看例子,結果更可能會是狗。通過這個鏈式法則,去理解底層參數改變是如何影響到輸出的。說白了就是網路變化回路回饋到輸入,使得整個模型更適應去選擇“狗”。

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

加權的微調

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

真正神經網路通過億級的參數,在億級的維度做調整,去理解輸出網路。Google目前有能力如何快速搭建和訓練這些海量資料上的模型,去解決實際問題,在快速去不同廣泛的平臺去部署生產模型(手機,感測器,雲端等)。

| 神經網路的奇妙特性

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

這就是說神經網路可以用在很多不同問題上。
文本:萬億級別的英文和其他語言資料。從一個語言翻譯到另一個,從短語到整句。

虛擬化數據:十億級別的圖譜,影像。

語音:每天都產生萬小時的資料。

用戶行為: 很多應用產生資料。比如搜尋引擎的查詢,使用者在email中標記垃圾。這些都可以學習並搭建智慧系統。

知識圖譜:十億級別的標籤化關係元組。

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

如果吸收更多資料,讓模型變大,結果也更好。

如果你輸入更多資料,但沒有把模型變大,模型的能力就會受限在一些資料集中的明顯特徵。通過增加模型的規模,讓它不僅記住明顯的,還有一些也許出現很少的細微特徵。

通過更大的模型,更多資料,計算需求也更大。Google很多精力花在如何提升計算量,訓練更大的模型。

| Google深度學習有哪些強大應用?

1語音辨識
Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

第一個部署深度神經網路的小組。

他們實現的新模型基於神經網路而不是隱瑪律可夫模型。這個問題是把從150毫秒的語音去預測中間10毫秒吞掉的聲音。比如到底是ba還是ka的聲音。你得到一個預測的序列,再通過語言模型去理解使用者所說。

一開始的版本就把識別錯誤率降低了30%,確實非常厲害。

後來就研究一些複雜模型去加強網路,進一步降低錯誤率。現在當你對著電話說話,語音辨識比五年前強多了。

2ImageNet挑戰

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

ImageNet6年前公佈的。裡面有100萬張圖片,算是電腦視覺領域最大的。圖片中包含1000種不同分類,每一類有1000張圖片。比如裡面有上千張不同的豹子,摩托車等,一個麻煩的是不是所有的標籤都是對的。

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

在神經網路使用之前,最好的錯誤記錄是26%2014 Google錯誤率暴降到6.66%取得冠軍,然後到了2015年錯誤率下降到3.46%。這是什麼概念,大家注意到Andrej人類的錯誤率也有5.1%(他還是花了24小時訓練後的結果)。

總之這是個又大又深的模型,每個盒子就像神經元的一層去進行卷積操作。

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

3、圖片類別辨識

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

電腦在花卉辨識上很強大,這是非常好的模型,能夠辨識細微差別。

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

一般的效果,比如在菜品辨識。

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

電腦也有犯錯的時候,關於錯誤敏感性看一看上面的,比如左邊鼻涕蟲當成蛇,右邊也不知道是什麼鬼。

4Google圖片搜索

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

就是理解圖片中向速的能力,Google圖片團隊開發了不用標籤辨識就可以搜索圖片的功能。比如你可以去找雕像,素描,水,而不需提前標注。

5、街景圖像
Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

在街景中如何辨識裡面的文字。首先要找到文字部分,模型能夠去有效預測像素中熱點圖,那些含有文字的像素點。訓練的資料就是包含文字劃分的多邊形。

因為訓練資料中包括不同的字元集,這樣在多語言下也沒問題。也要考慮大小字體,遠近,不同顏色。訓練的模型相對容易,就是卷積神經網路嘗試去預測每個像素是否包括文字。

6Google搜索排名中RankBrain

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

RankBrain 2015年啟動,在搜索排名(前100位排第三),裡面難點是搜索排序需要瞭解模型,要理解為什麼要做某個決定。當系統發生錯誤為什麼做那個。

調試工具準備好,需要足夠的理解能力嵌入模型,去避免主觀。總體上是不想手工調參數。你需要嘗試理解模型中的預測,去理解訓練資料是否相關,是否跟問題無關?

你需要訓練資料並應用到別的上面。通過搜索查詢的分佈你能得到每天的變化,事件發生後改變也隨時發生。你要看分佈是否穩定,比如語音辨識,一般人不會改變音色。當查詢和文檔內容頻繁變化,你要保證模型是新的。我們要搭建通用工具去理解神經網路裡面發生了什麼,解釋什麼導致這個預測。

序列模型
Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

很多問題都可以映射到從一個序列到另一個序列的規律。比如語言翻譯,從英語翻譯到法語,就是把英語的序列單詞轉化到法語序列單詞。

神經網路在學習複雜函數時特別有用,這個模型學習從英文到法文的句子。句子以單詞為單位,以結束符作為信號。訓練模型在遇到結束符時開始產生另一個語言的對應句子。而模型函數就是把語言中語句對作為訓練資料。

每一步都在詞典表中的單詞產生概率分佈。在推理時候通過一些搜索來實現,如果你最大化每個單詞的概率,這樣找的不是最可能的句子。直到找到最大可能的句子找到才結束搜索。

這個系統在公開翻譯系統中表現出色。大多數其他翻譯系統需要手工編碼或機器學習的模型只是在一小部分使用,而不是像這種整體的端到端的學習系統。

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

這些領域都是可以歸到序列類的方法。

7、智慧回覆
Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

智慧回覆是另一個序列類的例子。在手機上你如何更快回郵件,打字很累。

Gmail組開發了一個系統能夠去預測郵件回。第一步就是訓練小量模型去預測如果消息是某一類的,如何做簡短回。如果是一個更大,計算能力更強的模型會把消息作為一個序列,嘗試預測序列的反應詞。比如對於感恩節邀請,最可能的三個答覆是“算上我們”,“我們會去的”,“對不起,我們有事沒發去”

8、看圖說話
Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

把之前開發的圖片模型與序列類模型結合一起。圖片模型作為輸入。這裡就不是閱讀英文句子了,而是看圖片的像素。

接下來就是訓練生成字幕。訓練集有5個由不同的人寫的不同的字幕。總共100萬圖片,70萬條語句。效果如下

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

兩個模型翻譯的都不錯:1)一個小孩緊緊的抱住毛絨玩具;2)一個寶寶在泰迪熊旁邊睡著了。

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

上面是一些好玩的出錯語句,為啥會錯,其實你自己看了也明白。

9、機器視覺和翻譯結合
Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

翻譯團隊寫了一個app,使用電腦視覺來辨識鏡頭中文字,再翻譯成文本,最後再圖片本身覆蓋翻譯好的文字。模型足夠小可以運行在所有設備上。

直接在手機上跑一些模型中的重要方法。智慧化將轉移到設備端,這樣不會依賴遠端雲端的大腦。

研究上的努力和成果轉化
Google 非常在乎研究轉化效率。就是要快速訓練模型,理解那些做的好的和不好的,再想下一步實驗。模型應該再分鐘或者小時,而不是幾天或者幾周。這樣讓每個人都做研究更高效。

機器學習發展會更好,更快。Jeff說機器學習社區發展得特別快。人們發佈了一篇論文,一周內就有很多研究小組跟進,下載閱讀,理解實現,再發佈他們自己的擴展。這跟以前的電腦期刊投稿完全不同,等6個月才知道是否被接收,然後再過3個月最後發表。而現在把時間從一年壓縮到一周,真不得了。

如何快速訓練大量模型

模型的並行化

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

神經網路有很多固有的並行化,所有不同的神經元與其他的也是保持獨立,特別本地接納的,神經元僅僅接受一小部分比它更低的神經元作為輸入。

在不同的GPU上和不同機器上可以做並行。只有邊界上的資料需要通信。

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

資料並行化

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

優化的模型參數集不應該在一台機器上或者一台中心伺服器上,應該有多個模型拷貝,這樣協作區優化參數。

在訓練過程中讀取資料的不同隨機部分。每一個拷貝在模型中獲取當前的參數集,讀取在當前梯度下的一點資料,找到想要的參數調整,在發送調整到中心的參數伺服器中。這個參數伺服器會對參數做調整。整個過程重複,這個也會在很多拷貝中進行。有些使用500份在500台不同機器上的拷貝,為了快速優化參數並處理大量資料。

一種方式是非同步的,每一個都有自己的循環,取得參數,計算梯度,發送它們,不需要任何控制和跟其他的同步,不好的是當梯度返回到參數可能,在計算結束後都被移走了。對有些例子可能有50100的拷貝。還有一種是同步,一個控制器控制所有的拷貝。

| TensorFlow
Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

在過去的幾年間,我們已經建立了兩代用於訓練和部署神經網路的電腦系統,並且將這些系統應用於解決很多在傳統上來說對電腦而言很難的問題。我們對許多這些領域的最新技術做了很大的改進。
                          
第一代系統DistBeliet在可擴縮性上表現很好,但在用於研究時靈活性達不到預期。對問題空間的更深理解讓我們可以做出一些大幅度的簡化。         

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

這也是第二代系統的研發動機,用 TensorFlow 表達高層次的機器學習計算。它是C++語言編寫的核心,冗餘少。而不同的前端,現有PythonC++前端,添加其他語言的前端也不是難題。

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

計算可以用一張資料流程圖來理解。

我們輸入資料、權重、誤差以及標籤,在不同節點進行不同的運算。

TensorFlow名字的意義
  • Tensor(張量)意味著N維陣列。1維時就是向量,2維時就是矩陣;通過圖像可以代表更高維的資料流程,比如,圖像可以用三維張量(行,列,顏色)來表示。
  • Flow(流)意味著基於資料流程圖的計算。有許多運算(圖中的節點)應用在資料流程上。
  • 張量從圖像的一端流動到另一端,這就是“TensorFlow”。“邊”代表張量(資料),節點代表運算處理。
這是使用張量計算的示意圖。

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

這是使用狀態計算的示意圖。

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

這是使用分散式運算的示意圖。

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

它能夠在各個平臺上自動運行模型:電話上,單個機器上(CPUGPU),由成百上千的GPU卡組成的的分散式系統。

Google的深度神经网络强在哪里?谷歌首席科学家说了这些奇妙的特性

如果你還沒想通過深度學習網路去解決你的資料問題,你還是要趕緊考慮。TensorFlow 讓每個人更容易獲取深度學習能力。
  • 高度擴展的設計,更快的實驗速度加速研究進程
  • 容易分享模型,開發代碼應用到可重用的效果
  • 通過同一個系統把研究工作直接用於生產環境
最後說一些quora上大家給Jeff Dean大神編的段子,供君一樂:

Jeff Dean當初面試Google時,被問到“如果P=NP能夠推導出哪些結論”,Jeff回答說:“P = 0或者N = 1”。而在面試官還沒笑完的時候,Jeff檢查了一下Google的公開金鑰,然後在黑板上寫下了私密金鑰。

編譯器從不警告Jeff Dean,只有Jeff警告編譯器。

Jeff Dean
的編碼速度在2000年底提高了約40倍,因為他換了USB2.0的鍵盤。

Jeff Dean
被迫發明了非同步API因為有一天他把一個函數優化到在調用前就返回結果了。

Jeff Dean
曾經寫過一個O(n2)演算法,那是為了解決旅行商問題。

Jeff Dean
的鍵盤只有兩個鍵,10

Jeff Dean
失眠的時候,就Mapreduce羊。


參考文章:Jeff Dean on Large-Scale Deep Learning at Google


                                                                                                                                                                                                                            

0 comments: