What is machine learning?
ifanr
隨著人工智慧的發展,人類將會把越來越多的決策權交給機器。但是,從目前的一些事例看,基於機器學習的決策,並非那麼公正完美,相反,那些決策也滲透著偏見。
近期的一份研究報告中,Google 的一名研究科學家 Mortiz Hardt 表示:「基於機器學習的決策是極為有用的,同時,它又會深刻影響我們的生活……儘管如此,在如何避免機器學習,可能產生的偏見方面,我們仍然缺乏一種可靠的方法。」
這份報告提交給了巴塞隆納舉辦的 NIPS 大會(NIPS,神經信息處理系統)。與此同時,其它人也提交了一些相關的論文。這證明此問題,正在受到更多人的重視。芝加哥豐田技術學院的計算機科學家 Nathan Srebro ,是上述研究報告的作者之一。他向衛報網站介紹了,研究員們使用的測試方法。
(圖片來自 springboard)
Srebro 說,這項測試是針對機器學習系統的。通過分析大量的數據,機器學習系統能夠對未來做出預測。問題在於,電腦的決策規則,並非實現事先編寫好的,而是電腦自己學會的,因此,決策背後的邏輯,通常是不可知的。即使編寫算法的程序員,也未必能夠搞清楚。
「算法是如此複雜,即使我們能夠進入其內部,搞懂其內在原理,也是幾乎不可能的,」 Srebro 說,「機器學習的全部要點,就是構建魔法黑箱子。」
為此,Srebro 與同事們設計了一種測試方法。他們只檢測進入算法的數據,以及算法給出的決策。「我們的方法並不關注機器學習算法的內部,」 Srebro 說,「我們只關注它,做出了什麼決策。」
(圖片來自 udemy)
這個方法基於一個基本原則:當算法做出與某人相關的決策時,它只能揭示數據提供的內容,而不能暴露個人的種族或者性別。例如,在償還銀行債務方面,男性拖欠債務的比例,遠遠超過女性,那麼,當數據庫裡的某人拖欠債務,你可能會推論,那很可能是一個男人。
但是,如果你推斷說,銀行的最佳策略是,拒絕所有男性的貸款請求,那麼,該決策就精確定位了個人的性別。「這可以視為不合理的歧視,」 Srebro 說。
但是,如果你推斷說,銀行的最佳策略是,拒絕所有男性的貸款請求,那麼,該決策就精確定位了個人的性別。「這可以視為不合理的歧視,」 Srebro 說。
針對這個方法,有人提出了質疑。他們認為,這等於是繞過了機器算法的決策過程,使其缺乏任何的透明性。西英格蘭的機器人道德學教授 Alan Winfield 說,「設想一下,如果某個案件涉及到機器算法的決策,法庭將需要專家證人解釋算法,做出決策的理由。」
不過,他也承認,如果要求機器決策的絕對透明度,那肯定會引起深度學習社群的強烈抗議。
謝菲爾德大學機器人和人工智慧學教授 Noel Sharkey 同意這種觀點。「如果你要找出輸油管道的最佳方案,機器學習是個很好的選擇,但是,在我們深入瞭解算法如何產生偏見之前,我會很在意,它做出一些影響人們生活的決策。」
謝菲爾德大學機器人和人工智慧學教授 Noel Sharkey 同意這種觀點。「如果你要找出輸油管道的最佳方案,機器學習是個很好的選擇,但是,在我們深入瞭解算法如何產生偏見之前,我會很在意,它做出一些影響人們生活的決策。」
0 comments:
張貼留言