BREAKING: Vancouver Police Are Using Prediction Technology For Pre Crime Arrests!
來源:
最近幾個月,軍用AI和主動攻擊型武器的問題,鬧得沸沸揚揚,很多AI研究者聯名反對這項技術的軍事化。
但令人無奈的是,AI的很多特徵,確實能夠與極端複雜環境相結合,類似技術很難在民用市場找到落腳點,軍用AI也就順理成章作為了技術加持的方向。但是換個角度想想,如果軍用AI容易引發普遍恐慌,那麼切換到警用會不會好很多?
用AI來加持公共安全,提升警方的工作效率,似乎是個不錯的主意?
當然,我們距離電影《機器戰警》中描繪的世界,還有很長的路要走。但在我們平時很少關心的警用技術世界裡,AI從未缺席,甚至很多技術非常先進,有點科幻味道的技術,已經投身到了實繼應用中。
就像眾多AI應用領域一樣,在AI+公共安全的旅程上,爭議和焦慮感,也是必不可少的話題。今天讓我們來盤點一下警用AI的發展方向、層次和背後引起的爭論。
在很多警匪片中,我們經常會分不清臥底和警察。說不定未來某一天,我們也會分不清執法的是真人警察,還是AI警察。想想也是蠻有意思的。
工利其器:從警具開始的AI進化
羅馬不是一天建成的,AI警察也不可能馬上取代人類。在現實世界裡,AI的首要任務,是升級警察杯杯手裡的警具,讓他們不用那麼辛苦。
美國電影中,警察用發射帶電飛鏢的泰瑟槍,摯服嫌犯(有時候是主角)的畫面可謂深入人心。而泰瑟槍的製造商Axon如今已經開始了全面的AI化轉型。比如他們就把AI技術用到了執法記錄儀中。
已經被美國多地警方,裝配的AI執法記錄儀,可以透過攝影機背後的算法辨識和分類功能,來對執法資訊,進行全自動編輯和存檔。這個功能原理,等同於我們手機中的圖片辨識,但要建立在海量數據庫,和針對警用資訊的強化機器學習基礎上。有了這個能力,執法警員就不必再對拍攝的資料,進行大量剪輯、歸檔,從而節省工作時間。
依靠警用設備起家的Axon,如今已經將企業目標,全面設定為AI。他們希望透過AI帶來的辨識、判斷和主動分析能力,來取代警察所有的文書和資料編輯工作。
假如你覺得只是取代文書工作不太給力,那當然還有更強悍的。比如用AI來配合審訊。
日立和麻省理工合作,推出過一個AI攝影機解決方案,可以精準辨識出被拍攝人的心跳、脈搏等數據。這項技術的一個應用場景就是在審訊時,監控嫌疑人的生理狀況和臉色變化等,並得出嫌疑人可能說謊,或者精神高度緊張等結論,其實就相當於是一個AI測謊機。
這項技術的價值,在於它並沒有收集太多嫌疑人資料,而是將一個審訊員察言觀色的能力,整合到了AI上,為審訊提供輔助。當然了,目前這類技術才剛剛開始出現。
另外還有一個很大的市場——警車。就在不久之前,美國媒體披露福特申請了一項新的自動駕駛警車專利。根據相關資訊,福特的新警車不僅能夠自動駕駛,還可以透過車載攝影機和傳感器,發現街上其他車輛的違規資訊,同時它還能連接到公共攝影機等設備,組成立體化的車輛自動執法體系。
根據專利資訊,這種警車可以在不用人類介入的情況下,自己開出罰單,甚至還能根據事態,來主動追蹤甚至跟蹤嫌疑車輛。
你的違規罰單,竟然是一輛警車給開出來的,這聽起來夠神的吧?然而福特只是自動駕駛警車眾多玩家中的一個而已,隨著自動駕駛產業的發展中,警車市場恐怕也會成為老牌車廠和新造車公司的必爭之地。
我是城市的眼睛和耳朵:攝影機背後的超級AI警察
以上說的那些AI,放在警匪片裡顯然都是配角。但是演主角的心是每個人都有的,AI大概也不例外。
如果AI能夠為我們,做一些人類警察做不到的事情,那麼它們當然也就順勢上位了。比如說,同時看完城市中無數個攝影機的拍攝數據。在城市攝影機網路與公眾安全這幕大戲中,AI已經準備作為一名「超級警察」粉墨登場。
城市攝影機背後的AI,第一個任務當然是從人海中找出逃犯。記得當年抓陳進興、高天民、林春生的時候,警方出動了大量警員日夜不停的看監控,假如AI能夠快速完成這項工作,那當然是一大善舉。
以今天人臉辨識技術的完成度來看,近距離認出逃犯並不難。難點是要在城市攝影機,拍攝到的人山人海中,精準辨識出某個人臉數據。
比如歐洲一個叫做Indect的攝影機+人臉定位項目,就號稱能在足球場定位觀眾席裡的嫌犯。用攝影機+人臉辨識抓捕逃犯的技術,得到了飛速發展。很多機器視覺公司,提供類似的算法解決方案。
另一個攝影機背後的AI安全應用,是預判人流密集度,從而即時示警引導人群疏散。在人群密集時,發生踩踏事故是嚴重的社會安全隱憂。用AI辨識人流擁擠程度,是有效的解決方案。
與人流控制相似,車流控制也是城市安全AI的一個主攻方向。比如透過攝影機,判斷車禍發生,從而第一時間報警,甚至透過車輛行駛軌跡異常,來判斷酒駕和疲勞駕駛。這些都已經在全世界部分城市中得到了應用。
比較好玩的是,負責城市安全的警用AI不僅能「看見」,還能「聽見」。
矽谷一個創業公司,開發了名叫Shot Spotter的城市警用系統,它的能力是透過麥克風,借助AI能力在複雜的城市聲音中,辨識出槍聲。一旦聽見槍響,系統就會自動向警方報警,並準確定位槍擊事發地。
當然了,能看能聽之外,還能想就最好了。別急,這個AI也能做到。2016年,富士通與日本電子通訊大學,公佈了一個合作項目,內容是透過城市攝影機監控到犯罪事件之後,AI系統自動規劃出警方案和警力調配計劃。
其算法包括就近警力分配原則、預判嫌犯逃跑路線,還能設計出封閉道路和設置路障的方案。目前這個系統在人口密集、地形複雜的東京,已經可以在五分鐘內給出一個警力調配方案。
躲在攝影機背後的AI警察,已經開始在全世界上班,注視著城市的一舉一動。假如你覺得這還是不夠厲害,那預測犯罪瞭解一下?
《關鍵報告》看過沒?大預測術已經在路上
不知道今天提《關鍵報告》是不是一件暴露年齡的事,但一說到AI預測犯罪,還是會聯想起電影裡的「先知」。
提起預測犯罪,就不能不提到警用科技界,赫赫有名的Pred Pol 公司。雖然IBM、摩托羅拉等企業,都涉足預防犯罪系統這個市場,但2012年才建立的Pred Pol已經覆蓋了全美上百個地區的警局,在降低犯罪率上,給出了很強勢的數據回饋。
Pred Pol的業務,說起來沒那麼神秘。它的基本邏輯是根據過往犯罪率曲線,和不斷變化的犯罪事件時間、地點等數據,透過大數據分析算法,來得出哪個街區犯罪事件高發、哪條街道搶劫事件較多、哪個時間段城市比較危險這樣的結論。
再透過這些結論,來指導警方調整巡邏路線和巡邏時間,把更多警力投入到犯罪率偏高的時間地點上去。
這好像聽起來也沒什麼,任何警員肯定都知道,重點巡邏這件事。但以前重點巡邏靠的是個人經驗,而且整個警隊難以統籌協調。Pred Pol在6年間擴大了幾十倍的使用率,已經在某種程度上說明瞭這種「犯罪預測」是有效的。
類似方案已經開始,從美國拓展到其他國家。比如前幾天日本神奈川縣警方剛向財政部門申請研究經費,希望能為2020年東京奧運會建立一個預測性治安體系。結合大數據體系和AI分析能力,來設定更嚴密的安全保護機制。
如果覺得已經投入使用的系統不夠神,那我們應該看看更先進的研究。Pred Pol最早並不是一個警用科技創業項目,而是兩名科學家的研究成果。站在Pred Pol背後的其中一個男人,就是加州大學洛杉磯分校的傑夫·布蘭汀漢姆教授,他是今天「預測犯罪」領域的先驅和代表人物。
不久之前,傑夫·布蘭汀漢姆團隊在名為Partially Generative Neural Networks for Gang Crime Classification的論文中,提出了這樣一種設想:用深度學習網路,來辨識幫派犯罪的特徵,從而將幫派分子從人群中找出來。
事情到了這裡,大概有一點「科幻」的味道了。
在布蘭汀漢姆團隊的研究中,他們收集了洛杉磯警局,2014年到2016年,所有關於黑幫犯罪的數據,輸入到一個深度學習神經網路中,由算法自動生成,對於幫派犯罪的特徵理解,和行為框架。
很多案件中缺失的證據環節,也將有AI來主動補完。經過長時間的訓練,AI開始掌握了一套對幫派犯罪,和黑幫分子的獨特理解。回到現實中,當警方把新的嫌犯資訊,輸入進AI系統後,就可以由AI來判斷,該人是不是參加了幫派組織和幫派犯罪。
布蘭汀漢姆團隊提出的城市時空犯罪預測模型
|
研究人員表示,這項研究的未來目標,是在缺少很多數據的情況下,依舊能判斷嫌疑人是否參加了幫派……可以說是非常先進的技術了。
千萬不要以為這項技術,僅僅是科學家搞著玩的,人家可是明確拿到美國國防部的資助,目標是以時空博弈論,和機器學習技術,打擊極端主義。在幫派犯罪預測之後,布蘭汀漢姆團隊還將在具體犯罪種類預測,和即時預測犯罪上展開進一步探索。
顯然,不管你願不願意,AI預測犯罪的「大預言術」已經向現實逼近。而一路伴隨他的,是關於隱私、歧視和不靠譜的爭議。
要安全還是要隱私:警用AI的原罪博弈
去年,谷歌曾經發長文指出,中國某高校用人臉數據,來預測罪犯的研究十分不靠譜。原因是這項研究,分析了犯罪分子數據庫,從而得出了「某種臉部特徵的人更容易犯罪」,顯然是把兩種不相關的資訊,強行結合到了一起。
這場類似於「相面」的AI鬧劇,告訴我們這樣一種可能:我們太想知道未來,也過分願意做數據歸因。很多看似神奇的結果,可能都是在這兩種有問題的心理下,被強行得出的。
比如就有批評者指責,上文提到的AI幫派犯罪預測。由於其數據來源,完全是洛杉磯警察局提供的案件資訊,和警察得出的結論。那麼AI想要判斷準確,就必須建立在洛杉磯警察局所有判斷都正確的基礎上,而對於幫派犯罪來說,這顯然不可能。
數據關係之間的牽強,讓很多預測類的警用AI,從一開始就備受質疑。而其深度學習過程中的黑箱性,也是觀察家和民眾批評的焦點:研究者都不明白AI是怎麼預測犯罪的,居然就敢說我有問題?
更無奈的是,技術問題還僅僅是警用AI科技,所面臨的第一重困境而已。向上一層則會撞上非常難辦的歧視問題,和隱私問題,在道德困境面前,技術會更加束手無策。
比如說前面說過的,AI預測重點巡邏地區。這件事在日本還沒開始,就已經有媒體擔憂,這很有可能加大,警方對某幾個具體區域的巡邏強度,從而讓這個區域的居民和店鋪產生不滿。
在美國,這種不滿早就體現出來了。2016年美國公民自由聯盟,曾經聯合十幾個人權組織發表聲明,認為警方用AI作為巡邏,甚至審訊和逮捕的工具並不恰當。其背後隱藏著警察系統對某些社區,甚至某些族裔居民嚴重的偏見。
也有媒體比較陰謀論地認為,加州很多城市的警方,過度熱愛搞一下AI預測犯罪的技術,或許含有警方希望在缺少,或者沒有證據的情況下實施執法。
而關於隱私的爭論就更嚴重了,城市攝影機追逃,按說已經是比較「溫柔」的技術,但還是有很多聲音批評,這些能夠高高在上認出街上每一個人的技術,其實是對居民隱私的侵犯。「不被認出來」也是隱私權力之一,更何況數據如何應用居民也無法自主。
當警方手裡的辨識工具越來越強力,犯罪分子的活動空間當然會越來越小,但普通居民感到的隱私壓抑感,也會隨之上升。在AI辨識能力爆炸式發展的今天,這可能會是一個無法圓滿解釋的矛盾。
在的警用AI科技領域,強調公眾安全,還是強調居民隱私,優先考慮技術的妥善度,還是應用效率,處在一場無止境的博弈裡。
AI從來都是一把雙刃劍,這一點在安全領域尤其明顯。
0 comments:
張貼留言