Gartner預測,到2027年,跨境生成式人工智能(GenAI)引起的AI相關數據泄露比例將超過40%。
GenAI在終端用戶中的普及速度已超過了數據治理和安全措施的發展速度,而支持這些技術所需的集中算力引發了對數據本地化的擔憂。
Gartner研究副總裁Joerg Fritsch表示:“由于監管不力,常常會發生意外的跨境數據傳輸,尤其是當GenAI被集成到現有產品但卻沒有明確的說明或公告時。企業注意到員工使用GenAI工具創作內容的變化。雖然此類工具可用于經過批準的業務應用,但如果它們將敏感提示發送到托管在未知位置的AI工具和 API,就會產生安全風險。”
全球AI標準缺失導致運營效率低下
缺乏全球統一的AI和數據治理最佳實踐與標準,導致市場碎片化,企業不得不制定針對特定地區的戰略,這加劇了企業所面臨的挑戰,這可能會限制企業在全球擴展業務和從AI產品與服務中獲益的能力。
Fritsch表示:“本地化AI政策增加了管理數據流和保持質量的復雜性,而這會降低企業的運營效率。為了保護敏感數據和確保合規性,企業必須投資于先進的AI治理和安全性。這一需求可能會推動AI安全、治理與合規服務市場的增長并促進提高AI流程透明度和可控性的技術解決方案的發展。”
企業必須在AI治理成為全球性規定之前采取行動
Gartner預測,到2027年,全球所有主權AI法律法規都將要求企業落實AI治理。
Fritsch表示:“如果企業無法整合所需要的治理模型和控制措施,就會處于競爭劣勢,尤其是缺乏資源快速擴展現有數據治理框架的企業。”
為了降低AI數據泄露風險,尤其是跨境GenAI的濫用風險并確保合規性,Gartner 建議企業采取以下戰略行動:
• 加強數據治理: 企業必須擴展數據治理框架并加入關于使用AI處理數據的準則,確保遵守國際法規并對意外的跨境數據傳輸進行監控。為此,企業需要將數據沿襲和數據傳輸影響評估納入常規隱私影響評估。
• 成立治理委員會:成立委員會加強AI監督,確保AI部署和數據處理的溝通透明。該委員會需要負責技術監督、風險和合規管理以及溝通和決策報告。
• 加強數據安全性: 使用先進技術、加密和匿名化保護敏感數據。例如,驗證特定地理區域的執行環境是否可信并在數據必須離開這些區域時使用差分隱私等先進的匿名化技術。
• 投資TRiSM產品:為專為AI打造的信任、風險和安全管理(TRiSM)產品與功能規劃和分配預算,包括AI治理、數據安全治理、提示過濾和編輯以及非結構化數據合成生成。Gartner預測,到2026年,采用AI TRiSM控制措施的企業將減少至少50%的不準確或不合法信息,并因此減少錯誤決策。
Gartner 客戶可在2025年預測:AI時代和未來量子計算時代的隱私中了解更多信息。