Rite Aid Used Facial Recognition Cameras; BootHole Hits GRUB2 - ThreatWire
MLPerf 的最新硬體結果,以及為什麼所謂的文本深度偽造很危險
簡而言之,美國一家藥店連鎖店 Rite Aid 秘密佈署了臉部辨識攝影機,以監視其 200 家商店中的購物者長達 8 年。
該零售商表示,希望該技術能夠幫助辨識先前在商店內被盜的人。如果攝影機發現吻合,則會向安全人員發送警報,然後他們可以對付可疑小偷並命令他們離開商店。
在接受路透社調查後,愛德·愛德(Rite Aid)表示已決定停止使用臉部辨識攝影機。該公司在一份聲明中對新聞通訊社說:「這一決定部分是基於更大範圍的行業對話。」它指出:「由於技術實用性的不確定性不斷增加,其他大型技術公司似乎正在縮減,或重新考慮他們在臉部辨識方面的工作。」
別開玩笑了由於教育訓練數據集,和使用的算法等因素,有太多證據表明這項技術,難以準確辨識膚色較深的女性和人們,專家們一再反對將其用於執法。
Nvidia 仍然為 AI 訓練制訂規則
MLPerf 項目的最新基準測試結果於本週宣佈,該項目測量了處理器晶片,訓練各種類型的 AI 模型所需的時間。
快速瀏覽圖片可顯示,每個晶片組最多執行八項任務,從圖像辨識到機器翻譯再到強化學習。
Nvidia 提交了最多的結果,毫不奇怪,它的速度最快。 Google 的 TPU 也排名很高; TPU4 甚至有結果,該版本尚未在雲中提供給客戶。 MLPerf 的結果令人關注,它跟蹤 AI 晶片的改進,顯示訓練時間越來越短。
但是使用它們作為比較硬體的方法要困難得多。通常,在特定任務中競爭的晶片通常沒有直接進行比較的結果。因此,像往常一樣,將其與少許鹽一起食用。
AI 生成的文本是所有內容中最危險的
專家警告說,與 AI 算法操縱的其他形式的內容相比,像 OpenAI 的 GPT-3 這樣的文本生成模型吐出的段落和句子,更普遍並且更難檢測。
史丹佛大學網路天文台的技術研究員蕾妮·迪瑞斯塔(Renee Diresta)認為,基於文本的 Deepfake 可以被用來以類似人類的話語自動淹沒 Twitter 和 Facebook 等線上平台。她在《連線》(Wired)中解釋說,假賬可能會製造出虛假新聞、虛假聲明和仇恨言論,以影響政治運動等事情。
人類也很擅長吐出很多廢話,但是生成文本的 AI 系統的危險,在於它們可以在工業規模上做到,並且很難被其他人類以及電腦檢測和阻止。
影像偽造品更容易發現;通常在視覺或聽覺品質上有些不正確。人們通常會注意到奇怪的效果,如耳朵模糊或機器人單調的聲音。在社交媒體上檢測虛假評論要困難得多。
0 comments:
張貼留言