2025年12月15日 星期一

★ 人工智慧對實體安全意味著什麼


SIA


Klacci life unlocked Klacci 凱樂奇 智慧門鎖

風險管理對於充分利用這項新興技術,非常重要。

Florian Matusek headshot
Florian Matusek 是 Genetec 的人工智慧策略總監

大型語言模型(LLM)近來風靡全球。OpenAI 推出人工智慧(AI)聊天機器人 ChatGPT 僅數月,使用者人數就突破 1 億,成為史上成長最快的消費級應用。

這不足為奇。LLM 幾乎無所不能,從回答問題、解釋複雜概念,到寫完整的電影劇本,甚至寫程式碼,無所不能。正因如此,人們對這項技術的潛力,既感到興奮又感到擔憂。

儘管 LLM 近來成為熱門話題,但值得注意的是,這項技術其實由來已久。隨著技術的不斷進步,LLM 和其他 AI 工具正在創造新的機會,推動各種任務的自動化程度不斷提高。因此,對 AI 的限制和潛在風險有深刻的理解非常重要。

術語澄清

人工智慧、機器學習、深度學習等術語經常被提及,但它們之間究竟有何不同?

  • 人工智慧:透過機器模擬人類智慧的概念。它指的是使機器能夠從經驗中學習,並適應新情況而無需明確編程的工具和流程。簡言之,機器學習和深度學習都屬於人工智慧的範疇。
  • 機器學習:能夠在極少人工干預的情況下,自動學習的人工智慧。
  • 深度學習:機器學習的子集,它使用基於大量資料進行學習的人工神經網路。
  • 自然語言處理:利用人工智慧和機器學習,來理解人類語言,並自動執行拼字檢查、翻譯和摘要等重複性任務的過程。
  • 生成式人工智慧(gen-AI):使用者能夠根據文字和語音等各種輸入,快速生成內容,並輸出圖像、影像和其他類型的資料。
  • 機器學習(LLM):一種能夠執行自然語言處理,並基於海量資料進行訓練的生成式人工智慧。



人工智慧與智慧自動化

自動化是指無需人工干預即可完成任務,無論任務難易。一旦在程式中設定好流程,它就可以在需要時重複執行,並且始終產生相同的結果。

傳統的自動化,需要從一開始就進行清晰的定義。從輸入到輸出的每個環節,都必須由人工精心規劃和制訂。一旦定義完成,自動化流程即可如預期運作。

智慧自動化 (IA) 允許機器處理簡單或複雜的流程,而無需明確定義這些流程。IA 通常使用基因人工智慧 (gen-AI) 和自然語言處理技術,根據現有數據和使用模式,提出分析數據或採取行動的方法。

大型語言模型的風險

在評估大型語言模型 (LLM) 的風險時,必須考慮 LLM 的訓練目標,是滿足使用者需求。LLM 也使用無監督人工智慧訓練方法,從網路上的大量隨機資料中,汲取訓練資料。這意味著它們給出的答案,並不總是準確、真實或客觀的。在安全領域,所有這些都可能帶來危險。

這種無監督人工智慧方法,開啟了所謂「幻覺」的大門,即人工智慧模型產生的答案看似合理,但實際上並非基於事實或真實數據。

使用邏輯學習模型(LLM),也可能造成嚴重的隱私和保密風險。該模型可以從包含個人和公司機密資訊的數據中學習。由於每個文字提示,都會用於訓練下一個版本,因此,如果有人向 LLM 詢問類似內容,則可能透過人工智慧聊天機器人的回應,來獲取敏感資訊。

此外,這項人工智慧技術還可能被惡意濫用。試想一下,即使缺乏程式設計知識的惡意行為者,也可以要求人工智慧聊天機器人,編寫利用已知漏洞的腳本,或提供一系列攻擊特定應用程式,或協訂的方法。人們不禁會思考,這些技術可能會以哪些尚未預料到的方式,被利用。


tyco 監控攝影機系列(總代理上敦企業


人工智慧在實體安全領域的應用

人工智慧應用,正以令人興奮的全新方式不斷發展。它們在幫助組織實現特定目標方面,展現出巨大的潛力,這些目標可以提高生產力、安全性和保障性。

利用人工智慧在實體安全領域,取得的進步的最佳途徑之一是實施開放式安全平台。開放式架構使安全專業人員能夠自由探索人工智慧應用,從而在營運中創造更大的價值。隨著人工智慧解決方案的上市,領導者可以試用這些應用(通常是免費的),並選擇最符合自身目標和環境的應用程式。

新的機會出現的同時,新的風險也隨之而來。因此,與那些優先考慮資料保護、隱私,和負責任地使用人工智慧的組織合作,非常重要。這不僅有助於增強網路韌性,提高組織內部的信任度,也是履行社會責任的一部分。

由於人工智慧演算法能夠快速處理大量數據,人工智慧正日益成為實體安全解決方案的重要工具。但隨著人工智慧的發展,它也大大增加了以侵犯隱私的方式,使用個人資訊的風險。以下三個支柱,可以為開發或評估人工智慧解決方案提供指導。

隱私和資料治理

僅使用符合相關資料保護法規的資料集。盡可能以合乎道德的方式取得、匿名化,並安全地儲存用於訓練機器學習模型的資料。極度謹慎地對待資料集,並將資料保護和隱私放在首位。這包括堅持嚴格的授權和身份驗證措施,以確保未經授權的人員,無法連線存取人工智慧驅動應用程式中的敏感資料和資訊。


可信度和安全性

在開發和使用人工智慧模型時,始終考慮如何最大限度地減少偏差。確保對人工智慧模型進行嚴格測試,並持續提高其準確性。最後,確保人工智慧模型易於解釋。當人工智慧演算法給出結果時,應該能夠清楚地看到它是如何得出該結論的。


人機協作

人工智慧模型無法獨立做出關鍵決策。最終決定權應始終掌握在人手中。在實體安全領域,優先考慮以人為中心的決策非常重要。機器無法像保全人員那樣理解現實事件的複雜性,因此僅僅依賴統計模型是不可行的。系統應始終致力於提供洞察,以增強人類的判斷能力。


人工智慧模型可能會無意中,基於各種偏見產生偏差的決策或結果。這會影響決策,並最終導致歧視。雖然人工智慧有能力徹底改變安全產業,及其他領域的工作方式和決策方式,但必須負責任地佈署。



沒有留言:

張貼留言