Should You Worry About Facial Recognition?
吉米戈麥斯是加州民主黨人,哈佛大學畢業生,也是少數在美國眾議院任職的西班牙裔立法者之一。
但在亞馬遜的臉部辨識系統裡,他被辨識為一個潛在的罪犯。
戈麥斯是28名美國國會議員中的一員,與被逮捕的人的照片完全匹配,這是去年美國公民自由聯盟,對亞馬遜重新認知計劃,進行測試的一部分。
亞馬遜被警方使用工具中將近有40%的虛假匹配,涉及有色人種。
這些發現被公民自由團體,立法者甚至一些科技公司越來越多的關注,隨著技術變得更加主流,臉部辨識可能會傷害少數人種。iPhone和Android手機上,已經開始使用臉部辨識技術進行解鎖,警察、零售商、機場和學校也在慢慢接觸它。
但是研究顯示,臉部辨識系統更難以辨識女性,和膚色較黑的人,這可能導致災難性的誤報。
但是研究顯示,臉部辨識系統更難以辨識女性,和膚色較黑的人,這可能導致災難性的誤報。
「這是一個例子,說明技術在執法領域的應用,如何對已經過度監管的社區造成有害後果,」北加州ACLU的技術和公民自由律師Jacob Snow說。
臉部辨識有它的好處。馬里蘭州的警察利用這項技術,在首都公報的大規模槍擊案中,找出了一名嫌犯;在印度,它幫助警察在四天內,辨識了近3000名失蹤兒童;Facebook使用該技術,為視障人士辨識照片中的人物;它已成為解鎖智慧手機的便捷方式。
但這項技術並不完美,而且還有一些尷尬的失誤。谷歌照片曾將兩個黑人辨識成大猩猩。在中國,一位女士聲稱她的同事,能夠使用Face ID 解鎖她的iPhone X。當執法機構使用臉部辨識,來辨識犯罪嫌疑人,或在抗議中揭露人們時,被誤認的風險就會增加。
「當執法部門使用這項技術,確定某人是否因犯罪而被通緝時,那就是完全不同的情況,」戈麥斯說,「錯誤的身份,有可能會導致執法部門,和那個人之間發生致命的互動。」
立法者對ACLU的調查結果,並不感到震驚,並指出科技工作者,通常更多地考慮,如何使某些東西發揮作用,而不是關於他們建構的工具,如何影響少數人種。
科技公司透過改進,用於培訓臉部辨識系統的數據,來回應批評,但與民權活動家一樣,他們也呼籲更多的政府監管,以幫助保護技術不被濫用。喬治敦大學法學院的研究人員估計,每兩名美國成年人中,就有一名被用於執法人員,使用的臉部辨識網路。
亞馬遜不讚同ACLU研究,認為組織在測試辨識系統時,使用了錯誤的方法。
「機器學習是一個非常有價值的工具,可以幫助執法機構,雖然可能存在誤判,我們不能因為設定了錯誤的溫度,導致烤焦了披薩,而扔掉烤箱。」人工智慧總經理Matt Wood,在亞馬遜網路服務公司的一篇博文中辯解道。
辨識問題
與白人男性相比,臉部辨識服務,可能更難以辨識少數民族和女性,這有多種原因。
喬治城法學院,隱私與技術中心的高級助理克萊爾加維說,科技工作者,用來訓練電腦辨識臉孔的公開照片,可能包括比白人更多的白人。
例如,如果一家公司使用名人數據庫中的照片,那麼它就會傾向於白人,因為好萊塢的少數人種人數不足。
例如,如果一家公司使用名人數據庫中的照片,那麼它就會傾向於白人,因為好萊塢的少數人種人數不足。
Garvie說,科技公司的工程師,大多是白人,也可能在不知不覺中,設計臉部辨識系統,以更好地辨識某些種族。研究顯示,人們更難以辨識另一個種族的臉孔,並且「跨種族偏見」可能會滲入人工智慧。她還補充說,對於深色皮膚缺乏色彩對比的問題,以及女性使用化妝品,來掩蓋皺紋或頭髮不同的問題,都存在挑戰。
根據麻省理工學院媒體實驗室的研究人員,進行的一項研究,微軟,IBM和Face ++製作的臉部辨識系統,很難確定像非洲裔美國人這樣的黑皮膚女性的性別。35%的黑皮膚女性的性別,會被誤認為是高加索人等1%的淺膚色男性。
麻省理工學院於1月份發佈的另一項研究顯示,亞馬遜的臉部辨識技術,比微軟或IBM確定黑皮膚女性性別的工具更難。
科技公司的作用
亞馬遜對麻省理工學院的研究結果提出了質疑,一名女發言人指出,該研究稱這項研究「具有誤導性」。研究人員使用「臉部分析」來辨識臉部特徵,如性別或微笑,而不是人臉辨識,將人臉與照片或影像中的相似臉部相匹配。
「臉部分析和臉部辨識,在底層技術和用於訓練它們的數據方面完全不同,」伍德在一篇關於麻省理工學院研究的博客文章中說。「嘗試使用臉部分析,來衡量臉部辨識的準確性,是不明智的,因為它不是用於此目的的預期算法。」
這並不是說科技巨頭沒有考慮種族偏見。
微軟去年表示,它將辨識女性和膚色較深的男性的錯誤率,降低了20倍。
Facebook發言人,使用臉部辨識技術,在照片中標記用戶,該公司表示,該公司確保其使用的數據「平衡並反映出Facebook的用戶的多樣性」。谷歌指出了它發佈的關於人工智慧的原則,其中包括禁止「製造或加強不公平的偏見」。
為了推進臉部辨識的公平性和準確性研究,IBM於1月份為研究人員發佈了一個名為Diversity in Faces的數據集,該數據集不僅僅關注膚色,年齡和性別。該數據包括100萬張人臉圖像,注釋有臉部對稱,鼻子長度和前額高度等標籤。
「我們擁有所有這些,關於多樣性意味著什麼的主觀和鬆散概念,」IBM的首席科學家約翰史密斯說。「因此,IBM創建此數據集的目的,是深入研究如何真正衡量臉孔多樣性的科學。」
該公司收集了照片網站Flickr的圖片,本月受到一些攝影師,專家和活動家的批評,因為他們沒有通知人們他們的圖像,被用來改善臉部辨識技術。作為回應,IBM表示嚴肅對待隱私,用戶可以選擇退出數據集。
亞馬遜表示,它使用反映多樣性的培訓數據,並向客戶介紹最佳實踐。今年2月,它發佈了一些指導方針,稱立法者在考慮監管時應考慮到這一點。
亞馬遜全球公共政策副總裁邁克爾·龐克在一篇博客文章中說:「所有相關各方之間應該進行公開,誠實和認真的對話,以確保技術得到適當應用並不斷加強。」
需要明確的規則
即使科技公司努力提高,其臉部辨識技術的準確性,人們對這些工具可用於歧視移民,或少數民族的擔憂也不會消失。在某種程度上,這是因為人們仍然在個人生活中與偏見搏鬥。
民權組織和專家認為,執法部門和政府,仍然可以利用這項技術,來辨識政治抗議者或追蹤移民,使他們的自由處於危險之中。
「完美準確的系統也成為一種非常強大的監控工具,」加維說。
民權組織和科技公司呼籲政府介入。
「管理政府使用技術的唯一有效方法,是政府主動管理這種用途,」微軟總裁布拉德史密斯,在7月的一篇博客文章中寫道。「如果人們擔心,如何在整個社會中更廣泛地部署技術,那麼規範這種廣泛使用的唯一方法,就是讓政府這樣做。」
美國公民自由聯盟呼籲立法者,暫時禁止執法部門使用臉部辨識技術。民權組織還致信亞馬遜,要求它停止向政府提供Rekognition。
一些立法者和科技公司,如亞馬遜,已經要求評估臉部辨識技術的國家標準,與技術研究所認可,臉部辨識的種族偏見測試的行業標準和道德最佳實踐。
對於像戈麥斯這樣的立法者來說,這項工作才剛剛開始。
0 comments:
張貼留言