cookieOptions = {...}; .美國連鎖藥店在 200 個地點安裝了防扒手臉部辨識攝影機長達 8 年 - 3S Market「全球智慧科技應用」市場資訊網

3S MARKET

2020年8月17日 星期一

Rite Aid Used Facial Recognition Cameras; BootHole Hits GRUB2 - ThreatWire



MLPerf 的最新硬體結果,以及為什麼所謂的文本深度偽造很危險


簡而言之,美國一家藥店連鎖店 Rite Aid 秘密佈署了臉部辨識攝影機,以監視其 200 家商店中的購物者長達 8 年。


該零售商表示,希望該技術能夠幫助辨識先前在商店內被盜的人。如果攝影機發現吻合,則會向安全人員發送警報,然後他們可以對付可疑小偷並命令他們離開商店。

在接受路透社調查後,愛德·愛德(Rite Aid)表示已決定停止使用臉部辨識攝影機。該公司在一份聲明中對新聞通訊社說:「這一決定部分是基於更大範圍的行業對話。」它指出:「由於技術實用性的不確定性不斷增加,其他大型技術公司似乎正在縮減,或重新考慮他們在臉部辨識方面的工作。」

別開玩笑了由於教育訓練數據集,和使用的算法等因素,有太多證據表明這項技術,難以準確辨識膚色較深的女性和人們,專家們一再反對將其用於執法。

Nvidia 仍然為 AI 訓練制訂規則
MLPerf 項目的最新基準測試結果於本週宣佈,該項目測量了處理器晶片,訓練各種類型的 AI 模型所需的時間。


快速瀏覽圖片可顯示,每個晶片組最多執行八項任務,從圖像辨識到機器翻譯再到強化學習。

Nvidia 提交了最多的結果,毫不奇怪,它的速度最快。 Google 的 TPU 也排名很高; TPU4 甚至有結果,該版本尚未在雲中提供給客戶。 MLPerf 的結果令人關注,它跟蹤 AI 晶片的改進,顯示訓練時間越來越短。

但是使用它們作為比較硬體的方法要困難得多。通常,在特定任務中競爭的晶片通常沒有直接進行比較的結果。因此,像往常一樣,將其與少許鹽一起食用。

AI 生成的文本是所有內容中最危險的
專家警告說,與 AI 算法操縱的其他形式的內容相比,像 OpenAI 的 GPT-3 這樣的文本生成模型吐出的段落和句子,更普遍並且更難檢測。


史丹佛大學網路天文台的技術研究員蕾妮·迪瑞斯塔(Renee Diresta)認為,基於文本的 Deepfake 可以被用來以類似人類的話語自動淹沒 Twitter 和 Facebook 等線上平台。她在《連線》(Wired)中解釋說,假賬可能會製造出虛假新聞、虛假聲明和仇恨言論,以影響政治運動等事情。

人類也很擅長吐出很多廢話,但是生成文本的 AI 系統的危險,在於它們可以在工業規模上做到,並且很難被其他人類以及電腦檢測和阻止。

影像偽造品更容易發現;通常在視覺或聽覺品質上有些不正確。人們通常會注意到奇怪的效果,如耳朵模糊或機器人單調的聲音。在社交媒體上檢測虛假評論要困難得多。

現在,可以將 GPT-3 作為 API 進行訪問,以選擇開發人員,更多的人可以利用其預測能力,而無需完全掌握很多機器學習知識。

0 意見: