Telematics - Introducing The Connected Car
leiphone 作者:周翔
按:在2015年的DRAPA(美國國防先進研究項目局)機器人挑戰賽結束之後,Gill Pratt推動了豐田研究所(Toyota Research Insititue,簡稱TRI)在美國的成立。這個研究所將在未來五年的時間裡投入10億美元,用來研究機器人和人工智慧。
如同外界預期的那樣,TRI將主攻自動駕駛技術:豐田與其他汽車廠商一樣,對如何利用自動系統讓汽車變得更安全、更高效,以及更舒適非常感興趣。
IEEE Spectrum在CES期間採訪了Gill Pratt,探討了以下話題:
‧ 沒有哪家廠商的自動駕駛技術接近Level 5;
‧ 對自動駕駛技術過度信任的兩難困境;
‧ 怎樣的自動駕駛汽車才算足夠好?
‧ 機器學習以及「The Car Can Explain」項目;
‧ 模擬人類司機可能會做出的瘋狂行為;
‧ 電腦硬體需要一場革命;
‧ 人和機器:到底誰該守衛誰?
記者對採訪內容做了不改變原意的編譯。
1. 沒有哪家廠商的自動駕駛技術接近Level 5
問:在豐田新聞發佈會上,您說Level 5級別(SAE)的自動駕駛「只是一個美好的目標,不管是汽車界還是IT界,沒有哪家公司的自動駕駛技術接近這一級別。」這和我們在展覽上聽到和看到的完全不一樣,更不用說我們最近看到的,各種宣傳演示影片。
Pratt:最重要的是要理解,並不是所有的路況都相同。大多數時候,我們的路況並不複雜,因此現在的自動駕駛技術,能夠讓我們時不時打個盹,走走神或者聊聊天。但有些路況可能很複雜,現有的技術應付不了。
我們需要關注的是:這種情況出現的機率——能否確保汽車在給定的路線上,全程自主操控而沒有任何問題。Level 5要求汽車在任何情況下都不需要人類介入。
因此當一家公司說,「我們可以在這片繪制的區域,實現全自動駕駛,我們幾乎為每一個區域都繪制了地圖」,這並不意味著Level 5。實際上,這是Level 4。如果碰到這樣的情況,我會繼續追問,「不論白天、晚上,不論什麼天氣,不論什麼交通狀況嗎?」
你會發現這個分級概念有點模糊,並沒有很清晰的界定。Level 4或者「完全自動駕駛」這樣措辭的問題,在於它概念特別寬泛。
比如,我的車能夠在一條專屬車道上,實現全自動駕駛,這與火車在軌道上行駛,並沒有太大差別。而雨天在羅馬混亂的馬路上行駛,則是一件完全不同的事,因為這要難得多。
「完全自動駕駛」這個詞彙的意義太過寬泛,你必須問清楚,「真正的意思是什麼?什麼才是實際情況?」通常你會發現他口中的「完全自動駕駛」有諸多限制,比如車流、天氣、白天還是夜晚等等。
2. 對自動駕駛技術過度信任
問:這些訊息給消費者帶來了期望值的問題,他們每天都聽到這些新詞彙、新概念,卻不知道它們到底意味著什麼。
Pratt:你說的很對。作為消費者,我們喜歡自己在腦海裡建立一個模型,來預測這種自動駕駛技術到底有多好。這種模型往往是帶個人感情的:我們只會關注某些事情,而自動駕駛技術的不完善,可能會被選擇性地忽視,這讓我們要麼過度信任,要麼低估自動駕駛的能力。
豐田認為,對消費者進行教育,並讓他們真正瞭解技術的局限性非常重要。整個業界需要共同努力,從客戶的角度出發,確保他們真正瞭解自動駕駛汽車的好處,以及它能做什麼、不能做什麼。這樣消費者就不會盲目信任自動駕駛。
過度信任是另一個大問題,一旦你將車銷售給消費者,當後者在適宜環境下,體會到自動駕駛的種種好處,你就很難再影響他們。
隨著自動駕駛汽車技術的提升,需要人類介入的情況會越來越少,這將加劇過度信任的問題。因為用戶會這樣說,「它之前不需要我接手,現在也不需要,未來也沒有這個必要。」
從某些方面來說,最糟糕的情況是:一輛自動駕駛汽車每行駛20萬英里,才需要人類接手一次,而一個平均行駛里程為10萬英里的普通司機,則很難遇到需要自己接管的情況。
但有時,當汽車突然發出預警,提示需要司機接手,對於一個已經很久沒有碰到過這種情況的司機來說,可能會因為完全信任汽車,而疏於準備。
因此,我們也擔心:我們做得越好,過度信任帶來的問題就會越大。
3. 自動駕駛汽車需要比人類司機更懂駕駛,那怎樣才算是足夠好?
問:你認為Level 5級別的全自動駕駛現實嗎?或者說可能嗎?
Pratt:我認為是可能的,目前我們的標準參考的是人類司機的標準。
我在發表會上也提出了這個問題:「我們應該使用怎樣的標準,來判斷這個系統要達到什麼水平?」我認為這是非常重要的,但現在還沒有答案。目前,自動駕駛汽車離「完美」還需要很長時間,因此不可能完全避免事故的發生。
如果自動駕駛系統的駕駛水準比人類好10%,社會能接受嗎?還是說要好10倍才會被社會接受?我不知道。
老實說,作為技術工作者,我們並不能告訴大眾這個問題的答案,這個角色是屬於政府、屬於每一個將會被影響的人。「能夠拯救一個生命才算足夠好。」或者說,「只有當它比人類駕駛好10倍時,我們才會接受它。」我不確定。但我認為,在有答案之前,我們必須非常謹慎:不要引入不符合社會預期的技術。
在談到自動駕駛汽車安全時,我有時也會和別人一樣,試圖證明「就算自動駕駛汽車將安全系數提高了1%,我們也應該推廣它。」從理性的角度來看,這是正確的,但也是一件感性的事情。
人類並不理性:如果將空難作為對照,毫無疑問,飛機是最安全的旅行方式,你應該永遠不需要擔心空難。但飛機也可能會失事。當看過空難之後,我們的恐懼會被放大,然後開始擔心自己搭乘的飛機是否也會失事。
理性地說,這種擔憂毫無意義:汽車的事故率要比飛機高得多,但是只要飛機失事就會被佔據新聞頭條,最後,我們開始擔憂飛機而不是汽車。
對於人類駕駛造成的事故,我們可能會想,「這可能發生在我身上,我也可能犯這樣的錯。」如果是一台機器,我擔心人們並不會因此產生同理心,因為他們只會希望這台機器是完美、不會出錯的。我們知道,AI系統,特別是基於機器學習的AI系統,並不是十全十美、毫無缺點的。
由於透過傳感器獲取的外部資訊範圍太大,汽車會接收以前從未訓練過的資訊,我們期望它能夠根據這些資訊,對周圍環境做出合理認知。
每隔一段時間,當我們取得新進展時,就可能因為認知系統的錯誤,導致事故發生。當事故發生後,我們能夠說什麼?我們又要責怪誰?我們不知道這個答案,但這是一個非常重要的問題。
4. 機器學習以及「The Car Can Explain」項目
問:前谷歌自動駕駛汽車負責人、現TRI CTO James Kuffner在CES上談到了雲端機器人。自動駕駛汽車不可能完全避免事故,但是每當事故發生之後,汽車廠商能否查出事故的原因,並即時給推送軟體更新,防止此類事故再次發生?
Pratt:我認為這是很有可能的。
實際上,如果做不到這一點才會讓人驚訝。我們有非常詳細的駕駛日誌,來記錄車禍時的情況。你問了一個很有趣的問題:我們能夠找到真正的事故原因嗎?
為什麼說有趣呢?因為機器學習系統,特別是深度學習,雖然有很強悍的性能表現,但實際上它並不會透過分析得出答案,也正是如此,才讓尋找事故的原因變得非常困難。
我們在MIT以及其他地方都有研究,希望能夠在這方面取得進展。目前我們資助MIT教授Gerald Sussman的一個項目——「The Car Can Explain」,就在做這一方面的研究。
日誌就在那裡,但是誰才應該為錯誤負責?這是一個更難的問題。我們能做些什麼,來確保這種錯誤不會再次發生?「我今天修補了這個漏洞,明天又修補了另一個漏洞......」但是這個系統太過龐大,很多地方都可能會出現問題。
事實證明,測試、測試、測試是最重要的事情。在全球範圍內,汽車行駛的總里程約為10萬億公里。因此,如果你只測試幾百公里,它很難覆蓋到所有情況。你需要透過另一種方式,來提升它的能力,解決這個問題——加速模擬測試就是其中關鍵一環。我們不會模擬那種完美情況:風和日麗、交通順暢,我們要模擬的是惡劣的天氣和環境。
Rod Brooks有句話說的很對:「模擬是通往成功的必經之路」。同時,我們很清楚模擬的種種缺陷,因此我們也做了很多路測,來驗證模擬的結果。我們也會使用模擬器測試一些不屬於常規測試的項目,這些項目很可能是事故發生的原因。
比如,當一輛自動駕駛汽車碰到路怒症司機,就算那個司機不遵守規則,不按常理出牌,自動駕駛系統也需要做出正確的決策。
我們不會在現實中反覆測試這種情況,因為大多數時候,都是以撞車而收場。我們會隔一段時間測一次,同時,通過模擬來增強自動駕駛系統的性能,不過這個模擬的過程非常困難。最終,這將我們帶到了另一個領域:形式化方法(formal methods,適合於軟體和硬體系統的描述、開發和驗證)。
我們希望將模擬和形式化方法結合起來,但最終還是需要路測。深度學習是很了不起的方法,但是它並不能保證,所有輸入和決策行為都是正確的,想要確保它們都正確,也是一件非常困難的事情。
5. 模擬人類司機可能會做出的瘋狂行為
問:不論是什麼級別的自動駕駛汽車,對於它們來說,人類都是最不可控的因素。每次路測,都會遇到各種人類行為,你們是如何模擬這些,只有人類才會做的瘋狂的事情?
Pratt:其實這和我們模擬天氣或交通狀況類似。想要完全模擬人類的行為很難,因為每個人都不一樣,存在太多可能性,但我們認為這在某種程度上是可行的。
作為一個司機,我們可以利用心智理論(一種能夠理解自己,以及周圍人類心理狀態的能力)想像其他司機駕駛時的行為。
首先,在自己的頭腦裡模擬一遍,比如當我們碰到「four way stop」(每個方向都有停車標誌的十字路口)時,假如我是司機,會怎麼做?心智理論意味著,模擬是一件可能的事情,因為我們能夠透過建立統計模型,來預測其他人會有怎樣的行為。
問:有時候,人類作出的反應,並不一定就是安全的行為。你們如何教一輛汽車在這樣的環境下做決策?
Pratt:這是一個很有趣的問題。
當你在高速公路上行駛時,如果最高限速是55英里/小時,你是會開到55英里/小時?還是和周圍司機差不多的速度?什麼才是最安全的?
我不想給出一個官方回答,但這是一個難題,我們也與豐田法務部門探討過這個問題。他們也認為很難給出一個確定答案。
6. 電腦硬體需要一場革命
問:在新聞發表會之後,您提到了一些關於如何為電動汽車中的車載電腦供電,以及如何散熱是一個大難題。我們一直專注於自動駕駛汽車在決策制訂方面遇到的困難,但還有哪些方面也是需要我們弄清楚的?
Pratt:我喜歡這個領域,是因為我身後有一支專攻硬體的隊伍。
過去,我研究過神經生理學。計算效率非常重要,我們大腦的功耗只有50瓦,然而大部分的自動駕駛系統功耗高達幾千瓦。我們大腦不止在處理駕駛這一件事情,而是會同時思考其他事情。或許,真正分配給駕駛的也就10瓦。
目前我們還不知道,給自動駕駛汽車配備多高的計算性能,才算是合適的。很有可能,我們將計算性能提高10倍,自動駕駛系統的性能,並不會提升10倍,而只是有明顯改善。如果我們將計算性能提高100倍,或許自動駕駛系統仍然有提升空間,並有所改善。
自動駕駛系統的性能會持續提升,但我不知道這會是一條怎樣的增長曲線。因此,除了軟體、測試等工作,我們還需要重新設計電腦硬體,讓它變得和我們的大腦一樣高效。
至於你提到的其他需要解決的問題,我認為傳感器還有很大的發展空間。
雷射雷達確實很不錯,但是還有很大的改善空間。比如,採樣密度仍然較低,在探測遠處的汽車時,並不能和人類視覺相提並論。又比如,對於Level 3級別的自動駕駛汽車來說,需要預留時間讓司機作出反應——除非你的傳感器能夠探測到,並理解遠方發生的事情,否則不可能提前提醒你。
此外,傳感器還需要便宜、防震,並且能夠持續工作10到20年。大多數人認為汽車的品質不高,實際上是非常高的。我曾經在DRAPA做過很多軍用規格的產品,但是想要達到與汽車相當的品質是非常困難的。
比如攝影機,汽車可能需要在沙漠或者阿拉斯加等不同的環境中行駛,那麼就會有鹽、鏽等腐蝕性物質,甚至螢幕被灰塵覆蓋等各種情況。因此想要保證汽車傳感器,在不同的環境下持續正常工作,這是相當困難的。
我認為,這個領域的技術人員普遍有一個共同的願望,那就是媒體、特別是公眾能夠更好地被教育,真正理解這個行業正在發生的事情。比如像「完全自動駕駛」這種措辭就很容易被誤解。「完全」意味著什麼?其實有很多意思。
因此最好不要說,「因為我們想要挽救生命,所以我們需要自動駕駛汽車」。其實還有很多輔助人類司機的方法。大多數時候這些輔助系統不會被激活,只會偶爾給個警告或提示,如果有必要的話,再從司機那裡接管汽車。這種系統不需要所有情況都能勝任,只需要能處理最壞的情況就可以了。
7. 人和機器:到底誰該守衛誰?
問:目前機器擅長的,往往是人類不擅長的,比如需要時刻集中精神,注意前方的車輛,或者車道。這種說法對嗎?
Pratt:很正確,人和機器是互補的:機器能夠一直保持警惕,不會疲倦,人類則擅長處理複雜的情況,這正是機器的弱點。那麼,我們怎樣才能讓這兩者互補,而不是互相衝突?換一種思考方式就是:到底誰該扮演守護者的角色?是自動駕駛系統,還是人類?
目前想要讓機器守護人類,需要達到的標準還很高,我們的目標是讓人類最終並不需要再擔憂什麼,把一切交給AI就好。這也是為什麼豐田會採取齊頭並進的模式。
很多公司來CES參展其實都是來賣車、賣技術的,但豐田並不需要推銷,我們希望利用這個機會來教育用戶。
問:目前NHTSA(美國國家公路交通安全管理局)只劃分了4個等級,對嗎?
Pratt:是的。NHTSA只有4個等級,但是SAE(Society of Automotive Engineers,美國汽車工程師學會)非常聰明,他們將Level 4進一步劃分成Level 4和Level 5。Level 5在何時何地都不需要人類接管,而Level 4在某些情況下需要人類接管。除此之外,他們在本質上是相同的。
雖然SAE的劃分沒什麼問題,但一直被大眾誤解。目前,很多Level 2都被稱作Level 3,這其實是錯誤的。而Level 3的關鍵在於不需要人類一直監管。
問:當司機不能接管時,是否有備用計劃(Plan B)?我記得Freightliner在介紹他們的自動駕駛卡車時說:如果司機不接管,就會直接停在高速公路上,因為它不知道該怎麼做。
Pratt:在SAE的分類裡,並沒有提及備用計劃,比如當車必須停下來時,應該停靠在哪裡。我在新澤西州長大,那裡的很多高速公路都沒有可以停靠的地方,那麼你要怎麼做?這也是難點之一。
此前,有人建議說可以通過遠端操控來解決:當自動駕駛汽車陷入困境的時候,它就會自動轉接到某個呼叫中心的遠端司機,讓他接管。
首先,這必須要有足夠快速、穩定的網路,還要沒有駭客,沒有自然災害。最重要的是,一個在呼叫中心的工作人員,能夠瞬間作出反應,接管並處理問題嗎?人類不可能一直保持警惕,這是人類的弱點。人類也不擅長即時並正確地處理突發事件。
我並不是說這完全不可能,而是這個過程可能非常困難。
本文参考资料:
0 comments:
張貼留言