cookieOptions = {...}; .臉部辨識引發的隱私危機 - 3S Market「全球智慧科技應用」市場資訊網

3S MARKET

2020年8月12日 星期三

Why police use of facial recognition technology raises privacy fears



3S MARKET臉部辨識對隱私權的侵犯,或許在技術層面,大家並不是那麼清楚。這篇分享的報導,描述了很多國際上在公共領域對臉部辨識的應用,做了很多面向的探討。雖然我對臉部辨識在商業上的應用,也實際接觸很多的案例,也覺得值得發展。

但是在「資安即國安」這個角度,如果政府沒有積極地去重視,特別是台灣監視攝影機,非常高比例的使用海思晶片,這是全球目前在監視應用上,海思 3519 是支援臉部辨識,最完整、裝置量最大的晶片。

加上商湯、曠視等臉部辨識這些人工智慧演算法,也都是海思緊密合作的 Third Party Partner。3S MARKET 也陸續分享過,中國透過一帶一路的佈署,已經置入在歐、非、亞的公共基礎建設上,也一一在國際上被證實。

想想,台灣高比例採用海思晶片的網路攝影機佈署,台灣的道路監控、城市人流車流移動,有很大的「風險疑慮」,這些資訊將曝露在中國的掌握中。

這些因中國從晶片、人工智慧臉部辨識、網路攝影機的「分進合擊」,只要一個系統整合商採用這些組合,國家安全、公共安全將蒙上陰影,開啟了資安缺口。

特別是包括這些人工智慧臉部辨識、車牌辨識等的演算法,所製作出來的應用軟體或平台,台灣很多標榜「自行開發」的解決方案,其實也是源自於中國這些 AI 公司的開發引擎。

這些都不是秘密,只是政府在推動「資安即國安」,是不是有「系統性的規劃作業」?來看看這篇探討怎麼說 ……


臉部辨識技術已經失控了 - 其實這個影響是很深遠的。監管機關必須立即採取行動,來減輕這個危害。


你的臉是什麼原因讓你可以與眾不同。它使您擁有獨特的外觀,可以表達自己的心情、情緒和反應,並可以進行交流。在過去的幾十年中,您的臉已成為做更多事情的工具。

它可以解鎖您的手機、允許您登機、越境並支付咖啡費。所有這些都是由於臉部辨識技術(FRT,Facial Recognition Technology)的興起,FRT 是一種人工智慧,它利用深度學習,來量化單一個臉孔的唯一標識符誌,然後將其分析並與照片資料庫進行比較。

雖然 FRT 具有明顯的優勢 - 諸如預防犯罪和詐欺,提高效率和便利性 - 但其廣泛的使用所伴隨而來的風險,預示著隱私權的終結。然而,世界各地的政府一直在緩慢地進行公開辯論,並頒布有關其使用的法規。

一直以來,FRT 在公共部門和私人部門中的應用都在激增,導致持續不變的監視正常化,這將使我們讓 FRT 未來成為默認的設置:在這種監視中,如果沒有政府的緊急行動,我們的生存能力不受監視,將不復存在。


臉部辨識技術是如何變得司空見慣
FRT 曾經是反烏托邦小說的主題,在過去十年中,已經滲透到全球各地的日常生活中。在中國,FRT 是全球的領導者,其目的範圍包括:戴上具有 AI 功能眼鏡裝飾的警察,微笑著付錢,並抓捕丟棄垃圾的人。

2019 年 9 月,印度全國性身份驗證機構 Aadhaar 強制要求電信服務商,使用 FRT 驗證其 10% 的客戶。法國政府於 2019 年 10 月宣布,計劃在新的國家性身份驗證系統 Alicem 中使用它。俄羅斯已將該技術附加到莫斯科的 5,000 台 CCTV 攝影機上,並正在火車站,實施人臉辨識支付系統的試點。

在美國,以防盜為名,執法、邊境巡邏,以及越來越多的美國最大的商店(包括沃爾瑪和塔吉特)都使用了 FRT,有時甚至濫用了 FRT。克什米爾·希爾(Kashmir Hill)在《紐約時報》(New York Times)上,於 2020 年進行的一次曝光,揭露了 FRT 監視的另一家私人與公共部門的合作關係,這一次記錄了彼得·泰爾(Peter Thiel)資助的一家名為 Clearview AI 的公司,該公司將上傳到,包括 Facebook 在內的「數百萬」網站的圖像中的臉部進行比對, Venmo 和 YouTube,到大約 30 億張照片的私人資料庫。

Clearview AI 開發的人工智慧,還可以透過不完美的照片(例如來自監視攝影機的照片)來比對人臉,其中一名警長說:「一個人可以戴著帽子或眼鏡,或者可以是個人頭像,或是他們臉的局部視圖。」 Clearview AI 正在為近 600 個美國執法機構提供人臉辨識服務,並且擁有的圖像庫是 FBI 的七倍。

在英國,倫敦大都會警察局和南威爾士警察局,在體育比賽中進行了 FRT 審判,並監測和平抗議活動。儘管被激烈的反對和證明人臉辨識的不準確性,後一種情況在 2019 年 9 月被高等法院裁定為違憲。

在倫敦(僅次於北京的世界第二監視最多的城市,包括有 FRT 功能在內的約 420,000 台 CCTV 攝影機正在逐步升級),儘管現在這種做法已被取消,但房地產開發商使用它來監視,步行穿過英皇十字勳章的人員,並將其與警方提供的資料庫進行比對。

這項技術甚至被用來確定,在倫敦的一家酒吧的下一個服務對象,包括樂購(Tesco)和塞恩斯伯里(Sainsbury’s)在內的超市,正在加緊實施以驗證年齡。

FRT 隨處可見,從 Facebook「標記好友」的選項,到 Apple 的 iPhone 解鎖功能,無處不在。預計到 2020 年,將有 64% 的智慧手機使用該技術。所有這些都構成了全球十億美元起跳計算的產業,該產業將從 2019 年的 32 億美元,成長到 2024 年的 70 億美元。

全球對 FRT 的跨行業需求,呈指數上升曲線。推動這種持續成長的因素有三方面。首先,除了美國少數幾個城市以外,FRT 目前受到的法規限制很少,並且沒有行業標準。

其次,FRT 跟蹤系統價格便宜(不到 100 美元),並且「對於擁有網路連接和信用卡的任何人」都可以輕鬆獲得,《紐約時報》在 2019 年 4 月進行的實驗證明了這一點。

第三,FRT 背後的人工智慧非常聰明,而且學習速度越來越快。 FRT 軟體能夠分析品質差的圖像(低至 1 百萬像素)的能力,這歸功於深度學習,深度學習是一種模仿人類大腦功能的 AI,可以透過人工神經網路處理大量數據。

FRT 算法的進步依賴於人臉照片的累積,這些照片在大量資料庫中累積。這些資料庫是根據各種來源建構的,這些來源取決於使用它們的人和用途。有些是根據警察監視列表,或已知的犯罪者彙編的。其他人則來自將照片上傳到平台,或使用 app 的人。

Facebook 的「標記朋友」功能,就是這種情況,該功能用於訓練公司自己的 FRT 算法,以及像 Ever 這樣的照片儲存應用。其他照片,例如「野外貼標籤的臉」或「 MegaFace」,是由未經許可甚至不知道所描繪的照片,從網路上抓取的照片組成的。

學術界和私人公司,都利用這些公開可用的資料庫,來訓練 FRT 背後的算法。幾乎每家大型科技公司都在開發自己的系統:Facebook 擁有 DeepFace,Google 擁有 FaceNet,而 Amazon 擁有 Rekognition。兩家公司都在微軟首席執行官薩蒂亞·納德拉(Satya Nadella)所謂的「底下競標」上投入巨資,以開發功能最強大的 FRT 系統,來出售給政府,政府再將其佈署用於廣泛的警務,和應用在監控目的上。


終極的隱私威脅
儘管許多社會已經習慣了監視機制,例如公共場所中的閉路電視和其他攝影機,車牌辨識自動閱讀器,配備攝影機的門鈴和無人機,但是由於其即時的不可變性,讓臉部辨識標誌著對個人隱私的嚴重侵犯。

辨識有關個人的獨特心理事實。伍德羅·哈佐格(Woodrow Hartzog)和埃文·塞林格(Evan Selinger)在《紐約客》專欄中寫道,透過大規模自動化監視,「克服了任何人都可以即時辨識多少個人的生物學限制」,從而剝奪了公民走上街頭的自由,跨城市、在超市附近,以及透過交通樞紐,而不受政府或公司的監視,而這正是他們不知道的目的。以這種速度,我們被「帶走了消除任何不被監視的地方的道路」,澳洲數位權利觀察組織的戴維·巴黎警告說。

與我們在網路上擁有個人數據的權力程度不同,「在步行或在商場中瀏覽時沒有隱私設置。而且您無法刪除自己的臉。」戴維·巴黎解釋道。

FRT 記錄了我們的臉孔這一事實,意味著其使用使守法的個人處於「永久陣容」,否定了無罪推定的基本民主原則,為了獲得監視令,以及隨之而來的對合理懷疑有罪的要求,而執法通常需要證明這一點。在這方面,FRT 正在改變民主的性質。

一直以來,在全球各政府所採取得行動,煽動有關倫理及其用途的辯論和討論,一直是零散的,並且支配著全球。缺乏公司自願暫停開發和銷售 FRT 的公司(稍後會詳細介紹),隨著技術的不斷發展,採取的任何措施,基本上都在追趕上。正如 ACLU 北加州指出的那樣,「建立和佈署這些 FRT,將很難消除它所帶來的危害。」


過去的危害,未來的威脅
除了侵犯隱私權和破壞民主原則之外,FRT 的實際和潛在危害是多方面的:從偏見和歧視,到政府和不良行為者的虐待。用 AI Now 聯合總監 Kate Crawford 的話來說,「這些工具在發生故障時是很危險的,而在運作時是很有害的。」

關於算法偏差的危險,許多研究證明,儘管 FRT 在辨識白人時非常準確(根據 MIT 研究,誤識率為 1%),但已經發現 Microsoft、IBM 和 Face ++ 更有可能誤認跨性別者,和非二元人口,以及有色人種,尤其特別是有色人種。

在 2018 年,美國公民自由聯盟使用 Amazon Rekognition,將國會議員與 25,000 個犯罪臉部照片的資料庫進行比較,證明了這一問題。儘管有色人種僅佔國會的 20%,但該實驗導致有色人種的錯誤比對率,高達 40%。正如算法正義聯盟的創始人喬伊·布拉姆維尼(Joy Buolamwini)所寫的那樣:「無論誰編寫代碼,系統都會嵌入她的觀點。」

根據喬治敦法學院的項目「永久排隊」,這與「逮捕率過高,依靠搶劫資料庫的系統,可能包括不成比例的非裔美國人」這一事實更加複雜。與許多其他形式的人工智慧一樣,隨著對技術的採用,以最小的責任追趕,該技術對非裔美國人和其他有色人種的極大負面影響,只會更加根深蒂固。

在美國,執法部門具有收集,來自犯罪嫌疑人的生物特徵資料(例如指紋和DNA)的悠久傳統,並被普遍接受。但是臉部辨識讓警察們可以訪問成千上萬,非犯罪嫌疑人的生物特徵資料,而這些資料全都沒有國會或司法監督。

2019 年 7 月,《華盛頓郵報》透露,聯邦調查局和移民與海關執法局(ICE)一直在掃描駕駛執照,以創建廣泛的資料庫,然後將其用於搜索輕度盜竊等低級犯罪嫌疑人。濫用這些系統的可能性很高,並且都證明已被高度的利用。

據喬治敦法律隱私和技術中心的一份報告發現,紐約警察局已廣氾濫用其 FRT 系統,包括更改圖像,並將名人的肖像上傳到他們的照片數據庫中,以逮捕被描述的一名男子,這男子是像那個名人的人,他的罪行是偷啤酒。

正如美國公民自由聯盟(ACLU)所說,FRT「對當前政治環境中,早已成為不公正目標的社區構成了特殊威脅。」由爭議性的 Palantir Technologies 開發的臉部辨識系統,已被美國警察們用做事川普總統的反移民戰爭中,有力的監控工具,用於為驅逐出境和進行訴訟,而對無證件移民進行身份辨識。

這是我們現在對龐大的圖像資料庫,以及 Clearview AI 令人難以置信的功能,及其與美國執法部門的合作關係所知的補充。

在中國,FRT 資料庫中幾乎囊括了該國所有 14 億公民,中國共產黨使用該技術,來追蹤那些認為對其統治構成威脅的人。特別是,它已被用來對新疆地區的維吾爾族穆斯林人口進行監視。中國的 FRT 技術製造商,正在向更遠的地方出口他們的開發成果。 

2018 年,總部位於廣州的新創企業 CloudWalk(雲從科技),從其政府獲得了 3.01 億美元的資金,以解決社會保障問題為名,在辛巴威建立了大規模的 FRT 計劃。

FRT 系統自身俱有安全性問題 - 涉及嚴重問題,因為與密碼不同,如果不採取整形手術就無法更改臉部。 2019 年初,安全研究員 Victor Gevers 發現,中國政府一直在追蹤一個由 SenseNets 公司擁有的維吾爾人的數據庫之一,已經在網路上開放了幾個月。

傑弗斯說:「該資料庫包含超過 2,565,724 條具有個人資訊的人的記錄,例如身份證號的發放和到期日期、性別、國籍、地址、生日、護照照片、雇主,以及過去的 24 小時,哪些人經過了追蹤器,而被留下記錄。」

幾個月後,美國海關邊防總署洩露了他們的資料庫,其中包含旅行者和車牌的照片,而照片由分包商 Perceptics 管理。電子先進基金會的大衛·馬斯(David Maass)在就此事向 Fast Company 講話時評論說,美國政府應該能夠預見到這次駭客攻擊,「考慮到印度的生物辨識系統是在一年前被破壞的。」

根據 Maass 的說法,這次駭客攻擊突顯了人們對 FRT 資料庫的安全性,沒有得到充分監管的擔憂。他說:「我們還看到執法機構錯估了對供應商的信任,對他們而言,公共安全和網路安全可能不是主要問題。」


監管機構在哪裡?
在缺乏聯邦,國家或超國家政府法規的情況下,上述偏見,濫用和安全漏洞的問題激增了,這使 FRT 不受透明、相稱或民主問責機制的約束。這意味著對技術及其處理的照片資料庫的監管,很大程度上留給了私人公司(亞馬遜正在提出自己的監管框架,例如,公司希望立法者希望其採用),這是由商業激勵措施,或警察推動的沒有獨立監督的部門。

隱私權倡導組織《大哥大觀察》(Big Brother Watch)的西莉卡洛(Silkie Carlo)對《紐約時報》表示:「我們在辯論中跳過了一些真正的基本步驟。 政策制定者在討論中來得太晚了,還沒有完全理解其含義和大局。」

在世界各地,對此事的輿論各不相同。皮尤研究中心(Pew Research Center)的數據顯示,在中國,根據中國科學院的數據,有 83% 的人口認可「適當使用」政府主導的臉部辨識技術;而在美國,這一比例下降到 56%。

2019 年在英國,由 Ada Lovelace Institute 進行的調查發現,有 76% 的人反對公司將其用於商業目的,例如在購物中心中使用 FRT,還有 55% 的英國人希望政府規範警察對 FRT 的使用。過去幾年中,英國警察一直在試用該技術,其目的包括監測和平抗議活動。

倫敦高等法院於 2019 年 9 月批准了該用例,該用例符合人權法和個資保護法。正如倫敦警務道德小組的《 2019 年臉部表情辨識報告》所強調的那樣,FRT 對集會權和言論權產生了令人不寒而慄的影響。18-24 歲的年輕人中有 38% 的人表示,他們更有可能遠離,警方使用 FRT 監視的事件。

Ada Lovelace Institute 的奧利維亞·瓦利·溫特(Olivia Varley-Winter)表示:「人們擔心監視的正常化,但是當他們看到公共利益時,他們更有可能接受。」

她說,「如果存在明確的安全風險,人們會更願意接受它的使用。這是關於選擇用或不用的機會抉擇。對該技術真正知情的意識真的很低。尚未開展主動的外展活動 - 我們現在才剛剛開始在媒體上進行辯論。我們需要對話,不僅要由希望使用 FRT 的人,也包括所有不想用 FRT 的人。」

在世界對話和行動的需求日益成長:公眾、隱私權活動家,和民權組織、學者、政界人士,甚至一些警察們,都表示反對將 FRT 毫無限制地用於警務和商業目的。

美國的一些地方政府,正在引起注意。加利福尼亞州和麻薩諸塞州的發展情勢越來越大。在本文發布之時,舊金山、奧克蘭和伯克萊,以及薩默維爾、布魯克林和劍橋,都禁止包括警察在內的當地政府部門使用 FRT。

數據和社會 AI 政策顧問 Mutale Nkonde,期望地方政府層面的辯論和行動,可以繼續成長。在許多州,市議會正在通過社區控制我們的警察監視(CCOPS)立法,要求警察對使用該技術負責。包括波特蘭和劍橋在內的美國城市,都在辯論禁止私人部門使用 FRT。世界上最大的 40 個音樂節活動,已承諾不使用 FRT。歐洲聯盟正在整個大西洋範圍內起草立法,以對 FRT 施加「清掃規定」。


面對人工智慧:呼籲必須採取行動
在國家層面對 FRT 的立法進行嚴格辯論和起草之前,呼籲停止使用 FRT 的呼聲越來越高。根據 2020 年白皮書草案,歐盟委員會正在考慮,禁止在公共場所進行臉部辨識,已討論長達五年。在美國,代表 1500 萬會員的 30 個民間社會組織組成的聯盟,正在呼籲全國禁止執法人員使用 FRT。

然而,Varley-Winter 認為「採取反制徹底禁止,只是權宜之計。為了防止這種情況的發生,Ada Lovelace Institute 呼籲暫停執行,作為一種更具前瞻性的監管方法,是允許按比例考慮和審議。」

她說,「如果有方法使臉部辨識技術,為人們和社會服務,那麼我們必須弄清楚它們是什麼,但是產業、政策制定者和更廣泛的社會需要時間,以一種包容的、深思熟慮的方式來做到這一點。」

Varley-Winter 指出,蘇格蘭於 2017 年 5 月,成立了一個使用生物辨識數據的獨立諮詢小組,這是政府對此事採取行動的積極例證。她於 2019 年 5 月向蘇格蘭議會提交了《生物辨識資料法案》,目的在「確保在蘇格蘭刑事司法範圍內,對現有、新興和未來生物辨識資料的獲取、保留、使用和處置,進行獨立監督。」

「該法案將創建一個新的蘇格蘭生物辨識技術專案,特別關注使用生物辨識資料引起的倫理和人權方面的考慮,以及最大程度地利用生物辨識技術的利益。」 Varley-Winter 補充說,建立以人權為中心的獨立審查程序的方法,是「其他政府有希望可以考慮的模式」。

在美國,AI Now Institutes 的 Kate Crawford 還呼籲,自願暫停使用 FRT,敦促其製造商效仿 Axon 的足跡,Axon 是「全球領先的警用攝影機供應商」,該公司於 2019 年停止向警察部門出售支持 FRT 的攝影機,因為它可能「加劇例如在懲罰黑人,或 LGBTQ 社區方面的治安不公」的風險。她在《自然》雜誌的社論中,引用了 AI Now Institute 為潛在框架開發的四項原則:

(1)禁止 FRT 系統的資金或佈署,直到其經過審查並建立了強有力的法律保護為止; 

(2)立法要求使用前徵詢公眾意見,並對 FRT 進行嚴格審查,以解決偏見,隱私和民權問題;

(3)政府放棄對 FRT 系統研究或監督的限制;

(4)為科技公司員工提供更好的舉報保護。

在英國,英國上議院人工智慧專責委員會,於 2019 年底草擬了《自動臉部辨識技術法案》,該法案在發佈時正在國會通過。

在上述建議的基礎上,並考慮到歐盟關於人工智慧,對可信賴 AI 的七個關鍵,高級專家組織《隱私問題》要求:

1.各國政府就使用 FRT 進行廣泛的公眾諮詢和辯論,確保有廣泛的聲音,有機會被聽取並得到考慮;

2.在這次公眾諮詢過程的基礎上,立法者們優先通過規範私人和公共部門 FRT 使用的立法,包括:

.嚴格追究警察對 FRT 的使用,應遵守透明度和相稱性原則;

.FRT 的使用應由獨立的專員或監督委員會定期審核;

.個人在接受 FRT 之前已收到清晰且充分的通知,因此能夠給予肯定的同意,或者能夠給予肯定的同意(或撤回);

.對算法偏差及其對脆弱社區的影響,進行獨立研究;

3.參與開發和使用 FRT 的公司,自願中止 FRT 的銷售,直到該法規通過為止 - 這是麻薩諸塞州 ACLU ,和其他民間社會參與者所要求的。

艾達·洛夫雷斯(Ada Lovelace)研究所所長卡莉·金(Carly Kind)在《金融時報》上發表文章,列舉了一個成功的禁令,如何防止英國保險業受到歧視和剝削的例子。

1998 年,英國保險公司自願實施了一項為期兩年的禁止,將基因檢測用於健康或人壽保險單的禁令,準房主需要在英國獲得抵押權。由於法律上的空白,保險公司強迫客戶分享基因測試結果是合法的,然後他們可以利用基因測試結果,來提高保費或拒絕承保。

取而代之的是,英國保險業者協會通過了一項暫停措施,這一暫停措施得到了延長,並最終在與政府達成的正式協議中,正式確定下來,對  97% 的保險業具有約束力。

儘管公眾辯論和立法的步伐,可能總是落後於新技術發展的內在速度,但英國保險公司自願暫停執行的例子表示,可以有效實施徹底的行業變革,以防止對權利的侵犯,和限制潛在危害。


鑑於 FRT 的全球規模和發展速度,行動號召是一項大膽的行動。 然而,面對迅速擴散的技術,它不僅在侵蝕民主和公民自由,而且還經常被用作針對高危社區的武器,因此只需要大膽地採取監管行動即可。

0 意見: