cookieOptions = {...}; ★ 代理式人工智慧(Agentive AI)將重塑安全定義嗎? - 3S Market「全球智慧科技應用」市場資訊網

3S MARKET

3S MARKET
2025年9月26日 星期五

據專家稱,代理人工智慧將重新定義角色 —— 而且速度很快。

這篇報導是美國知名安全雜誌 SDM 於 9 月 22 日所發佈,探討有關代理式人工智慧(Agentive AI)對未來安全產業的影響 ……

關於人工智慧近來有很多的探討與報導,也產生很多名詞。這篇報導可能要看懂有些壓力。不過拋開這些名詞,人工智慧的最基本,還是來自「演算法」!

問題來了,我曾請教一位從事演算法的專業人士,在他所接觸過的攝影機廠商,是否都能理解演算法?他的回答是否定的。而這也是最近的發現,既然 AI 安控攝影機越來越熱門,為什麼「演算法」在安控業,卻不是一個 應該熱門的話題 ……

Anyway,這篇報導是一篇重要的探討!


SDM


Klacci life unlocked

 Klacci 凱樂奇 智慧門鎖


隨著代理式人工智慧(Agentive AI 或稱 Agentic AI)成為現實,專家們探討了整合商如何為人工智慧引發的行業變革做好準備。


能夠自主行動的代理式人工智慧 (Agentive AI) ,並非是對這項技術未來發展的猜測,而是一項已經存在的技術。它正在快速發展,並重新定義安全產業的角色。監控中心可以感受到它的影響,安全整合商也可以在系統和解決方案的佈署和配置中,感受到它的影響。那麼,整合商和監控供應商,該如何應對這些由人工智慧引發的轉變呢?


重新定義角色

「對於整合商來說,代理式人工智慧可能會使系統設定變得更快、更輕鬆,」安迅士公司平台技術業務發展經理 Quang Trinh 解釋道。「構成業務邏輯的設備、組件和系統設置的邏輯複雜性,將由人工智慧代理進行翻譯。這意味著,只需像與人互動一樣與人工智慧代理互動,即可優化分析或設置。」


Trinh 提供了一個真實的例子:「如果整合商正在安裝攝影機來統計進入設施的人員和車輛數量,他可以簡單地說『我需要統計營業時間內進入設施的所有人員和車輛流量』。AI 代理會理解這一點,並連接所有為客戶收集這些資料的裝置。它會知道設施內有哪些攝影機和其他感測器,並設定複雜的業務邏輯,將所有這些感測器的數據關聯起來,為系統提供有價值的資訊。 」

這種代理型 AI 可以讓安全解決方案更加主動。 「我們在自動巡邏方面的工作非常有趣,」Immix 執行長 Chris Brown 說。 「我們主動利用人工智慧來發現情況並做出回應,無論是聯繫操作員,還是自動發送一系列訊息來改變行為,或將人員趕出現場。這就是目前的現狀。然而,我認為還有更高的層次 —— 這就是我們正在談論的,而且它確實已經存在。我們正在努力與機器人輔助設備 (RAD) 進行一些整合工作。


Ferndale 機器人輔助設備公司 (RAD) 執行長、技術長兼創始人 Steve Reinharz 補充道:「代理式人工智慧 (Agentive AI) 將迅速徹底重新定義傳統角色。那些依賴安裝舊硬體並採用人機互動 (human-in-the-loop)商業模式的整合商,將發現自己越來越不重要。像呼叫中心一樣運作的監控中心將面臨重大顛覆,因為人工智慧代理在速度、規模、一致性和成本方面,都優於人類操作員。


雖然代理式人工智慧可能存在新的漏洞,但放棄這項技術的風險卻被拋在了腦後。圖片由 Chayada Jeeratheepatanont / iStock / Getty Images Plus / Via Getty Images 提供


代理型人工智慧將迫使傳統角色迅速被徹底重新定義。那些依賴以人為本的商業模式安裝舊硬體的整合商,將發現自己越來越被邊緣化。 

代理式人工智慧會增加風險嗎?

隨著自主行動能力的到來,新的漏洞問題也隨之而來。 「最大的風險是意外行為,」Trinh 說。 「現實世界是動態的,儘管人工智慧是由公司或個人建構的,但不可能預想所有可能的情況。因此,人工智慧不會接觸到現實環境中,可能出現的指數級統計結果。」

Trinh 補充道:「缺乏防護措施和訓練數據不足,是另外兩個風險。如果人工智慧代理沒有設置足夠的防護措施,就有可能輸出不良結果。同樣,如果沒有足夠的訓練數據,讓人工智慧代理完全理解系統的邏輯結構,以及組織的業務流程和程序,它就無法恰當地實現預期結果。」

Trinh 警告說,風險始終存在。Trinh 表示:「減輕這些風險的關鍵,在於供應商的透明度,以及最終客戶是否了解自身在降低風險,和隨著改進和調整,而不斷改進系統方面的責任。」

儘管如此,有些人認為代理式人工智慧的風險較小,而不是更大。Brown 表示:「提供安全解決方案總是存在風險。如果是調度,就是將反應方派往尚未完全定義的事件中。有人會說錯過事件存在風險。我認為,人工智慧在捕捉事件、定義事件和隔離事件方面,做得比人類更好,因此可以更好地管理事件。所以,我認為風險並不大。我認為這種風險與我們行業一直存在的風險相同,因此可以更好地管理事件。所以,我認為風險並不大。我認為這種風險,與我們行業一直存在的風險相同。

Reinharz 直言不諱:「真正的風險並非 AI 失控,而是人類從一開始就未能正確定義成功。政策範圍不明確、監管薄弱,或者盲目信任任何未經驗證的 AI 系統,都會導致問題。即便如此,我們必須接受一個事實:AI 會做出決策,而且有時會犯錯,而且是大規模的。行業需要足夠成熟,能夠隨著當前權衡的人可能出現錯誤的風險,而且可能並非完美 AI 的風險。而消失,但它會變得可衡量、可訓練,最重要的是,可改進。

代理式人工智慧的最佳角色

那麼,哪些角色最適合代理型人工智慧呢? 「我們仍處於代理型人工智慧應用的早期階段,」Trinh 說。 「許多供應商都在思考,系統中哪些重複性的邏輯和任務可以交給人工智慧代理。在許多情況下,標準作業程序 (SOP) 以及系統設定、校準和最佳化都可以從代理型人工智慧中受益。能夠成功應用的,是那些能夠平衡業務成本和執行力的應用。在我們的市場和其他市場中,商業上的成功,將決定哪些應用會被接受並發展,哪些應用不會。 」

Brown 看到了監控領域的巨大潛力。 「在監控中心工作並非易事。 有很多資訊向你湧來,」他說。 「你必須一次性處理大量資料 —— 你必須做出生死攸關的決定,並且你正在與他人接觸來幫助解決問題。 這是一個利用技術簡化工作流程的機會,將更好的可操作資料交付給操作員,以便他們的決策更具策略性。 他們有更好的資訊來做出決定,直接切入問題的核心以及如何解決它。 我認為這些都是巨大的優點,我認為監控中心操作員越是適應這一點,就越好。」

Brown 說,一個例子就是能夠以不同於人類的方式,提取場景中的元素。 「從人類的角度來看,你會觀察一個場景,並發現最相關或最突出的威脅,」他解釋道。人類可能會因為過度專注於目標,而忽略背景中那些微妙的威脅。但場景中是否還有其他事件也構成威脅,需要人類或回應方傳達、表達或採取行動?答案有時是肯定的,我認為人工智慧將有能力,將這些細微差別帶到最顯著的位置,並為操作員提供全面的場景評估。

風險始終存在。降低風險的關鍵在於供應商的透明度,以及最終客戶是否了解,自身在降低風險和隨著系統改進,和調整而不斷改進方面的責任。 

為智慧代理 AI 做好準備

整合商該如何為未來賦予機器更多權力做好準備? 「首先要從教育和認知入手,」安迅士通訊公司的 Quang Trinh 說。 「透過使用像 NIST 這樣的可信資源,可以隨時了解不同 AI 系統和架構的最新功能。」

他補充說:「影像簽名是確保影像和圖像資料完整性的一步,因為可以驗證資料來源,是否存在任何篡改。展望未來,AI 社區必須借鑒網路安全的經驗,『信任但驗證』所有 AI 系統和架構。」

Reinharz 補充說:「影像監控、門禁控制和威脅分類,正面臨代理式 AI 的顛覆。這些領域需要全天候關注、快速模式辨識,和在壓力下做出決策 —— 而人類在這些任務中,往往難以應對疲勞、偏見和不一致。代理式 AI 在這方面表現出色。它可以標記異常,與入侵者或訪客,並根據建構策略進行升級,所有這些都是即時的 SARA(safety analysis risk assessment) 措施。正是為此而生,其成果也證明了這一點:更聰明、更快速、更經濟,而且可靠性絲毫不受影響 —— 事實上,通常情況下,它是一種改進。

WeSuite 總裁 Tracy Larson 強調了人類監督的重要性:「人工智慧的智慧程度目前有限 …… 它會持續學習,不斷進步。但你必須審視事物,必須審視它們,而我們人類有責任不斷思考,並不斷追問:「這真的符合我的目標嗎?’」

偽造與假造

另一個日益嚴重的擔憂是對「深度偽造」(deepfake)或偽造證據的擔憂。 「其影響將是巨大的,」Trinh 說。 「目前處理浮水印、加密和資料安全的系統,將需要轉向橫向策略。簽名影像,即影像的每一幀都可以追溯到根源設備,將確保任何被篡改的影像資料都將失效。」

Brown 認為影像完整性是亟待解決的問題。「如今,利用各種人工智慧工具製造證據的能力令人難以置信,任何人都能輕易獲得,」他說。 「所以,製造一個虛假事件,並將其用作證據的能力,如今已是捶手可得。我認為,業內人士都在努力對影像進行處理 —— 比如添加水印,無論什麼 —— 以保持影像的一致性和安全性,這樣即使它最終成為證據,也無法被篡改。」

Brown 繼續說道:「我們在審查線索中確實會這樣做。我們會將審查線索拼接在一起,因此很難甚至幾乎不可能編輯這些資訊。這是一個值得關注的有趣角度,人們需要開始更加關注。我們需要確保證據,確實來自可靠的來源或可靠的平台,而不僅僅是跳躍驅動器上的攝影機記錄。」

Reinharz 表示,應對措施必須不斷改進。 「生成式人工智慧既是武器,也是盾牌,」他說。一方面,它開啟了危險的全新攻擊媒介,例如令人信​​服的深度偽造、偽造音訊和合成憑證。另一方面,它也為防禦者提供了同樣先進的工具。業界的因應措施必須分層次進行:在邊緣進行身份驗證,跨多個訊號進行驗證,然後應用人工智慧驅動的分析,來檢測人類無法發現的不一致性。安全必須從信任所見所聞,發展到信任經過情報驗證的資訊。我們已經開始了這項轉變。其他人必須效仿,否則就會成為受害者。

責任轉嫁(Shifting Reliability)?

隨著我們邁向更具代理性的人工智慧,這將如何影響責任?

「是的,代理式人工智慧可以轉移責任,但我們需要補充背景資訊,」安迅士通訊公司的 Quang Trinh 說。 「美國目前已經有州、聯邦和其他全球立法將構成責任框架。圍繞人工智慧的許多主流討論,都高度重視這些輸出,但人工智慧的真正任務,是根據輸入的內容輸出結果。作為人類,我們根據自身的道德規範建構了防護欄;然而,這些防護欄因人而異。」

目前已經有關於資料隱私的規則,這將為制訂其他有關人工智慧,及其下游應用的法規奠定良好的基礎。

「對於行業而言,了解即將出台的法規、合規性和標準非常重要,」Trinh 說。 「利用 SIA、ASIS、NSCA 等信譽良好的組織,及時了解人工智慧將如何影響安全行業。」

Steve Reinharz 補充說:「責任將會轉移,而且必須轉移。如果人類安全保全人員做出錯誤判斷,就會產生一系列責任。這同樣適用於人工智慧。整合商、製造商和營運商需要明確的合約、記錄在案的政策,以及能夠解釋其推理的系統(可解釋的人工智慧)。



iF+ 系列雙系統免接觸式智慧門鎖

按此回今日3S Market新聞首頁

0 comments: