Klacci 凱樂奇 Kii Assistant 智慧酒店服務系統 |
來源:Forbes
雖然人工智慧(AI)系統在 2024 年繼續大肆宣傳,但資料隱私面臨的風險不能再被忽視。我認為,人工智慧必須被視為一種監控技術,因為它能夠收集、分析和解釋大量資料。現在是時候不僅要關注人工智慧的可能性,還要關注其風險,即每個人的隱私權。
人工智慧訓練和使用的快速發展,引發了人們對使用者同意、個人資料的道德使用,和一般隱私權的擔憂。讓我們來探索人工智慧是如何訓練的,一些鮮為人知的風險是什麼,以及可以採取哪些步驟來確保收益超過它們。
瞭解人工智慧訓練及其缺點
人工智慧訓練涉及將大量資料輸入機器學習演算法的過程,使他們能夠學習模式並做出預測或決策。重要的是,人工智慧開發人員必須考慮和解決訓練中的細微差別。
首先,現在眾所周知,人工智慧模型可能會繼承訓練資料中被忽視的偏見。如果資料沒有代表性或包含偏差,模型可以延續甚至放大它們。理解和解決這些偏見,是人工智慧發展的持續挑戰。
隨著人工智慧技術的不斷發展,利益相關者必須積極參與圍繞道德考慮、透明度和道德人工智慧佈署的討論。必須特別關注道德發展,因為人工智慧驅動的系統可以處理和分析,來自各種來源的大量資料。確保不僅任何可用資料可用於訓練目的是關鍵,因為這可能包括來自網路和社交媒體的資料,以及非公開資料,如技術平台上的使用者操作、使用者配置檔案,甚至來自安全攝影機的資料。
人工智慧系統經常透過合併,來自外部和內部來源的個人資料來進行訓練。大多數使用的人工智慧演算法都被認為是專有的,這使得它們難以仔細檢查。這些演算法的運作和決策方式缺乏透明度,這引發了人們對問責制和可能不成比例地影響某些群體,特別是少數群體的偏見的可能性的擔憂。必須明確關於如何使用資料、需要哪些同意,或如何規範其使用的資訊。
因此,人工智慧技術可以使用任何可用的資料。目前,很難知道個人資料,如何用於訓練人工智慧系統,資料的儲存位置,以及資料是否透過加密進行保護。
人工智慧工具對隱私的危害
眾所周知,人工智慧工具允許人們建立內容 —— 文字、圖像、影像等都可以用人工智慧快速建立,但這些工具也可以用來追蹤和剖析個人。人工智慧可以比以往任何時候,都更詳細地分析和追蹤個人的活動、動作和行為。例如,嵌入人工智慧的監控技術,可用於行銷目的和有針對性的廣告。
人工智慧使這種全面的監控成為可能,可能會導致侵犯隱私。個人可能會感到被仔細檢查,在不知情或未經他們同意的情況下,他們的私生活有可能以這種方式被使用。
人工智慧還促進了臉部辨識技術的實施,該技術可以根據個人的臉部特徵,辨識和追蹤個人,即使在現實世界中也是如此。這項技術已經在火車站或機場等公共場所,以及執法機構中使用。臉部辨識的廣泛使用,引起了人們對持續監控個人的擔憂。
預測未來
人工智慧演算法可以分析現實世界和線上空間的行為模式,這包括監控社交媒體活動、線上搜尋和溝通模式。
透過大規模使用個人資料來訓練人工智慧系統,這項技術變得很像一個監控系統,它可以「知道」人們在想什麼,並可以預測他們喜歡什麼、不喜歡什麼,或他們在給定背景下可能做什麼。
網站或線上搜尋,已經傾向於只向使用者顯示與他們之前的線上行為(稱為過濾氣泡)相吻合的資訊,而不是為多元化、平等可訪問,和包容性的公共辯論創造一個環境。如果不加以檢查,人工智慧可能會使這些過濾器泡沫變得更糟,有可能預測使用者可能希望看到什麼,並相應地應用過濾器。
克服挑戰
我們已經生活在一個大數據的世界裡,透過人工智慧擴充運算能力,可能會極大地改變隱私的保護方式。
人工智慧只是向消費者、企業和監管機構,帶來新挑戰的最新技術。這不是同類中的第一個,也不是最後一個。因此,企業應該應用資料隱私合規的最佳實踐,來建立使用者信任。例如,公司在使用歐洲公民的個人資料時,必須確保滿足歐洲隱私法規 GDPR 中規定的隱私要求。
此外,組織可以利用內部資源,並採取具體策略來增強隱私,和建立使用者信任。這包括培養透明和溝通文化,並投資於使用者教育計劃,以賦予個人保護自己隱私的知識。企業應提供有關安全線上行為最佳實踐的資源和指南,並推廣加密的使用。最後,每家公司都應該強調組織內的道德資料實踐,並透過設計納入隱私。優先只收集必要的資料,並確保資料得到負責任的處理,並符合隱私法規。
必須密切監測人工智慧軟體資料處理的未來,必須確保人們的隱私權不會受到這種新技術的損害。我們追求技術進步,不能以犧牲隱私為代價。
0 comments:
張貼留言