Google Keynote (Google I/O'19)
來源:镁客网
一年一度的Google I/O 大會在山景城拉開帷幕。
在這場將近兩小時的keynote上,谷歌深刻貫徹了什麼是無處不在的AI和數據隱私保護。在正式展開之前我們先劃一下重點:
1、谷歌搜索加入AR,以及更加智慧的Google Lens;
2、會叫車、會自拍的AI語音助手;
3、Live Transcribe、Live Caption、Live Relay、Project Euphoria四大技術/項目讓世界更美好;
4、Android Q更新,強調數據隱私保護和健康管理;
5、發佈新一代帶螢幕智慧硬體Nest Hub Max,和中端手機Pixel 3a;
6、Jeff Dean再談谷歌AI的新進展。
Google Lens,掃一下告訴你最好吃的菜
當天第一個登台演講的,是谷歌女高管Aparna Chennapragada,她談了攝影機和谷歌搜索的結合,包括兩個特點:一是谷歌搜索結果可以AR化,二是更加智慧化的Google Lens。
在AR如何讓視覺搜索更形象方面,比如用谷歌搜索肌肉伸縮,可以直接在搜索結果中看到3D模型,並且這個模型能以AR的形式,呈現在現實世界中。
現場谷歌還直接將AR鯊魚放到了舞台上。
Google Lens則是用更加智慧的圖像辨識,讓你掃一下菜單就能知道餐館最好吃的菜是什麼:當你在餐廳裡,直接用攝影機對準菜單,Lens會自動高亮最受歡迎的菜。再比如將谷歌的攝影機對準雜誌上的菜譜,它會直接告訴你這道菜怎麼做。
除此之外, Google Lens還融合了語音功能,可以在辨識一段英文文字後,將其翻譯並用自己的母語來朗讀。
目前Google Lens已經內置到Google Assistant、Google Photos、以及相機App中。
AI語音助手,既打電話,也幫你叫車
今天第二個亮相的,則是去年讓大家驚艷的Duplex,不過這次不是打電話,而是幫用戶叫車。對Google Assistant說一聲我要叫車,它可以連續打開日曆、郵件、叫車等應用,自動幫你填寫資訊,你只需要覈實這些資訊,點擊確認就一切OK。
另外,谷歌正在將Duplex帶入到web中,以後即便沒有app,只要有網就能使用它。
皮猜說,「智慧語音助理整合了很多機器學習模型,以前我們把谷歌的數據中心,塞到手機是個比較大的挑戰,但深度學習可以把100GB的數據壓縮到0.5GB,這樣就可以直接放到行動設備中使用,網路延遲十分低,它會改變我們系統的未來。」
現場谷歌演示了「無所不能」的AI語音助手,只要一聲「Hey Google」,就能完成一系列連續的語音命令,幫你寫郵件、幫你自拍、幫你發照片……同時,谷歌語音助理,還能提供個性化服務,包括推薦量身訂製的晚餐食譜。
除此之外,谷歌語音助理還添加了語音車載服務,透過「Hey Google, let's drive」的語音命令即可啓用。
皮猜表示谷歌最新的手機中,將搭載最新一代的語音助理。
谷歌AI四大工具,讓AI for everyone
皮猜剛上台的時候就強調,谷歌的使命是:「組織全世界的資訊,讓全球人民都能夠輕鬆實用地訪問。」下面發佈的四個AI工具,可以說是完美得體現了谷歌的人文關懷。
一是Live Transcribe,它可以借助語音辨識技術,讓用戶在不方便的時候,透過即時字幕進行語音通話,所有功能完全在本地運算實現。
二是在線即時的語音字幕生成技術Live Caption,它能實現線上語言轉錄,為影像自動添加即時字幕。皮猜稱即便關閉影像聲音,也可以生成字幕。
三是Live Relay,它可以讓聽力障礙患者打電話,借助語音助手讓他們「看到」對方說的話。
第四個是谷歌發起的一個項目Project Euphoria,用AI幫助類似漸凍症的患者,去理解這個世界。谷歌的機器學習模型,可以從講話或交流方式,不同的人那裡獲得數據集,以一種更具包容性的方式,去訓練其模型,從而讀懂漸凍症患者的眼神和模糊不清的吐字。
一切看起來非常Unbelievable!
Android Q來了!加入對5G和折疊螢幕手機的支持
谷歌在現場表示,目前Android活躍設備數量超過25億台。而這次的系統更新包括三個關鍵詞:創新、安全和隱私、數位健康。
以創新為例,Android Q加入了對折疊螢幕手機的系統支持,比如對多任務分屏介面進行了優化。另外一個關鍵,則在於對5G手機的支持和優化。
Android Q中的Live Caption和Smart Reply功能,則可以完全在本地設備中進行,谷歌強調這是「在設備上進行的機器學習」,從而保護用戶的隱私。其中Smart Reply是智慧回覆,在用戶打字的時候,系統會預測用戶要輸入的文字,然後給出建議。
另外,Android Q增加了黑暗主題來節約電量。
谷歌表示,這次系統更新中有50項功能,專注於安全和隱私的改善,比如他們將隱私選項提到了設置欄的前列。強調用戶可以隨時隨地控制自己的隱私內容,選擇分享與否。當然,這部分功能小編認為,iOS已經走在了Android前面。
值得注意的是,以後Android Q不需要重啓設備,就能即時進行系統更新。
當前支持Android Q的大陸手機廠商包括一加、小米、華為、OPPO、vivo和realme。
輕描淡寫的 AI 硬體:Nest Hub Max 和 Pixel 3a
谷歌強調AI和軟硬體結合才是王道,Nest和智慧家庭就是這種結合的典型案例。
這次大會上,谷歌推出了Nest Hub Max,它是「帶螢幕智慧音箱」Google Home Hub的加大版,螢幕從7英吋加大到10英吋,支持影像監控、視訊通話等功能。
谷歌可以說是為隱私保護操碎了心,Nest Hub Max後殼有一個實體硬體開關,可以控制麥克風的開關,同時它也支持從軟體層面關閉攝影機。
Nest Hub Max售價229美元,預計今年夏天上市。
最後的硬體,是谷歌中端親兒子Pixel 3a和Pixel 3a XL,相比較前面大篇幅地介紹AI技術和各種軟體,談到手機的谷歌,顯得非常「隨意」,配置啥的都一筆帶過,主要提到了價格、相機和電池。
電池方面,單次充電可續航30小時,快充15分鐘即可增加7小時續航。相機方面,谷歌堅持單攝一百年,要用AI算法吊打雙攝加持的iPhone X。售價方面,Pixel 3a是旗艦機型的一半,399美元起。
Jeff Dean再談谷歌 AI 新進展
谷歌有多重視AI呢?除了介紹AI技術和軟硬體的結合,在大會的尾聲,谷歌AI業務負責人Jeff Dean,親自上台講述Google AI新進展。
比如谷歌AI在醫療上帶來的突破,他們借助AI對泰國和印度的數千名患者,進行糖尿病併發症篩查,該模型剛剛通過了歐盟監管機構的批准。谷歌還開發了一套可以對CT掃描圖像,進行分析的深度學習模型,順利地發現了早期肺癌症狀。
醫療之外,谷歌正在研究用AI預測洪澇災害,洪峰水位預測等。
上述這些內容,也可以在Jeff Dean於年初公佈的谷歌AI,總結回顧中看到。
最後,谷歌為用戶的隱私操碎了心
谷歌去年在數據隱私上吃了太多虧,所以這次發表會上,全程不忘提及,他們在隱私保護上做出的努力。
比如上傳照片後,你可以選擇隱私設置,控制自己的資訊是否保留在雲上,甚至是選擇保留多少天。隱身模式也從瀏覽器擴展到Map App中,以保證用戶的行程不會洩露。
與此同時,谷歌也在努力提升機器學習模型的透明度,確保其AI模型不會強化世界上既有的偏見。為了應對這些問題,谷歌工程師正在開發和研究一種全新的模型TCAV。
再就是谷歌對聯邦學習的應用,聯邦學習無需將數據發送到雲端,而是將機器學習模型整合到了每一台設備上,並將後者(而不是數據)發送到雲端進行計算。在這項新技術的加持下,像Gboard輸入法可以學習各種新單詞,而無需深入檢索數據本身。不過皮猜表示該功能還處於早期。
總而言之,無處不在的AI和隱私保護,構成了這一屆谷歌I/O開發者大會最核心的兩大內容。