The moral dilemma of driverless cars-Patrick Lin
無人駕駛車的道德困境 - 帕特里克 林
在智慧駕駛、自動駕駛艱難的發展歷程中,要解決的遠不止晶片、感測器、車聯網等技術性問題,還有更多涉及法律和道德倫理的選擇問題。自動駕駛全面普及,理性層面的設計與感性層面的選擇,缺一不可。
去年 3 月,一輛 Uber 自動駕駛汽車,在亞利桑那州坦佩市的公共道路上,與一名行人相撞,該行人在送往醫院後不治身亡。這是世界上首起,被曝光的自動駕駛車輛,在公共道路上撞擊行人並致死的事件。據悉,這次 Uber 事故中,車輛裝配了 64 線雷射雷達、多個攝影機和雷達,該車輛的自動駕駛系統,當時辨識到了行人,但機器大腦「決定」不減速。
有人猜測稱,該「決定」可能是因為系統算法認為,如果減速可能會給駕駛員造成嚴重傷害。由此可以看出,即便自動駕駛汽車能夠解決目前面臨的,所有技術難題,即便自動駕駛技術不會在運行過程出現紕漏,一旦自動駕駛汽車上路,也必然會面臨一些無法完美解決的倫理難題 —— 囚徒困境與電車難題 —— 發生事故是必然的。對此,人工智慧的「大腦」設計,可能會陷入無盡的矛盾中。
在智慧駕駛、自動駕駛艱難的發展歷程中,要解決的遠不止晶片、感測器、車聯網等技術性問題,還有更多涉及法律和道德倫理的選擇問題。自動駕駛全面普及,理性層面的設計與感性層面的選擇,缺一不可。
那麼,「機器駕駛員」面臨未知的事故狀況,如何權衡不同對象的生存幾率和生存價值?緊急狀況下優先保護乘客還是路人?老人和年輕人的生命如何選擇?在設定機器事故算法時,依據和原則是什麼?由誰來決定算法原則和依據?不同的決策有什麼不同的後果?這些都屬於自動駕駛汽車事故算法的問題範疇。
對此,汽車工程師、倫理學家,以及各方學者眾說紛紜,借助經典的思想實驗如電車難題、囚徒困境等呈現自動駕駛汽車可能遭遇的事故類型,分析其中涉及的倫理爭議,探析諸算法之間的優劣對比。
決策者:自由模式還是強制模式
對於事故算法的決策者,討論的焦點是:從個人角度,還是集體角度決定自動駕駛算法的選擇。前者認為每一位司機或乘客都有權對自己所乘坐的汽車進行倫理設定;後者主張由全社會集體來強制決定事故算法的倫理設定。
康提薩、拉吉亞諾和薩爾托爾旗幟鮮明地為個人自由選擇模式辯護。他們認為,當遭遇不可避免的事故時,自動駕駛汽車進行何種倫理選擇,應該由使用者或乘客做出,使用者或乘客作為事故的直接主體,有權做出結果導向性選擇。但緊急事故發生時,人類無法在短時間內做出理智抉擇,只能依靠本能反應,因此實際來說,自由模式的事故算法決策權可操作性不強。
哥格爾和繆勒認為,個人自由選擇事故算法,會帶來囚徒困境,最終造成交通事故不降反升的後果,只有政府介入進行強制性的倫理設定,以集體利益為導向,大部分群體利益最大化後,才有利於大眾完全接受自動駕駛。他們指出,政府應該給自動駕駛汽車生產商引入新的行業標準,即最大化安全、最小化傷害 —— 功利主義式的自動駕駛汽車。不管是乘客還是車主,都沒有決策權,因為在汽車出廠前,就已內設事故算法。從維護社會利益最大化角度,由最能代表大多數人利益的群體,來決定自動駕駛的事故算法。
然而,無論是個人化,還是強制性的集體倫理設定,都面臨相當多且頗具挑戰性的異議。
算法依據:優先保護
在具體的算法依據問題上,討論主要圍繞以下幾個方面進行:乘客優先,還是行人,或其他利益相關者優先?弱勢群體(老人、小孩、婦女/乞丐)優先,還是優勢群體(壯年男性/社會精英)優先?多數人優先還是少數人優先?
筆者認為以上不同的社會群體,可以依據場景角色來劃分:一種是按照事故中角色進行優先選擇,另一種是根據社會角色的差異進行優先選擇。
按照事故中,角色進行優先選擇的事故算法,又可分為功利主義的事故算法,和自保主義的事故算法,大多數人認為功利主義的事故算法更為道德,但市場調查卻顯示消費者更願意購買置入了自保算法,而非功利主義算法的自動駕駛汽車。
而按照社會角色的不同進行優先選擇的事故算法,則面臨了要將人劃分為三六九等,以及如何劃分的質疑與困惑。
筆者觀點
2016 年,麻省理工學院媒體實驗室的研究人員啓動了一項實驗。他們建立了一個網站,瞭解人們希望無人駕駛汽車有怎樣的行動模式,在網站中任何人都可以體驗到多種不同的無人駕駛汽車場景。
兩年後,研究人員發表在《自然》雜誌上的一項研究表示,政治、經濟、文化、歷史等差異,都會影響人們對機器倫理選擇的看法。但該研究還發現,世界各地的人,趨向於在三個方面達成一致:優先保護人類而非動物、優先保護年輕人而非老人、保護盡可能多的人。
這些見解可以為機器倫理的國際準則提供基礎 —— 研究人員寫道,當這些「危及生命的兩難困境出現時」,必須要有相關的國際准則,那些討論不應該局限於工程師和政策制定者,畢竟那些問題會影響到每一個人。
2018 年,德國為自動駕駛汽車制定了首個倫理規則。該規則提到,相比對動物或財產造成的傷害,系統必須最優先考慮人類安全;如果事故不可避免,禁止任何基於年齡、性別、種族、身體特徵,或其它區別的歧視;對於道德上模糊的事件,人類必須重新獲得控制權。
面對那些虛構的,關於自動駕駛汽車事故的思想實驗,每個道德健全的理性人都會自發地就「我們該怎麼做」形成信念。然而某些調查數據顯示,我們的這種直覺是如此地不統一也不唯一:人們普遍認為,擁有功利主義式事故算法的自動駕駛汽車,最具道德性,但卻鮮有人想購買置入了此種算法汽車。這種矛盾的心理和做法,使得研究者們更傾向於理想的道德選擇,來設置事故算法。
而所謂理想的道德選擇,又有其不能普遍化的理論假設、依賴某些成定勢的倫理直覺。在虛擬的思想實驗中,可以用理想化的道德選擇做指導,但現實的駕駛過程,會面臨許多不能被解決的衝突和困境,在這種困境中,不論作不作為、哪種作為,都無法出現「最優決策」。
現有的不同道德原則間的衝突、道德決策的複雜性,以及人類道德判斷的情境化,導致並非所有的道德和法律規則,都適用於具體的事故情況,具體到乘客個人也會有不同的選擇,筆者認為我們應該綜合考慮多種因素,利用多種能力,分析各種不同狀況,尊重利益的主體相關者 —— 乘客的自我選擇,即道德約束式事前尊重、法律限制式事後懲罰。
一家之言,僅供參考。
0 comments:
張貼留言