根據Gartner數據,到2027年超過40%的人工智能相關數據泄露將由跨境不當使用生成式人工智能(GenAI)引起。
用戶對GenAI技術的應用范圍和速度超過了數據治理和安全措施的發展,由于支持這些技術所需的集中計算能力有限,引發了人們對數據本地化的擔憂。
Gartner副總裁分析師Joerg Fritsch表示:“由于監管不足,經常會發生意外的跨境數據傳輸,特別是當GenAI在沒有明確描述或公告的情況下集成到現有產品中時。”“組織注意到員工使用GenAI工具生成的內容發生了變化。雖然這些工具可用于批準的業務應用程序,但如果向未知位置托管的AI工具和API發送敏感提示,則會帶來安全風險。”
全球人工智能標準化差距導致運營效率低下
人工智能和數據治理缺乏一致的全球最佳實踐和標準,導致市場碎片化,迫使企業制定針對特定地區的戰略,從而加劇了挑戰。這可能會限制他們在全球范圍內擴展運營并從人工智能產品和服務中受益的能力。
Fritsch說:“由于本地化的人工智能政策,管理數據流和保持質量的復雜性可能會導致運營效率低下。”“組織必須投資于先進的人工智能治理和安全,以保護敏感數據并確保合規性。這一需求可能會推動人工智能安全、治理和合規服務市場的增長,以及提高人工智能流程透明度和控制力的技術解決方案。”
在人工智能治理成為全球任務之前,組織必須采取行動
Gartner預測,到2027年,人工智能治理將成為全球所有主權人工智能法律法規的要求。
Fritsch說:“無法整合所需治理模型和控制的組織可能會發現自己處于競爭劣勢,尤其是那些缺乏快速擴展現有數據治理框架的資源的組織。”
為了降低人工智能數據泄露的風險,特別是跨境濫用GenAI的風險,并確保合規性,Gartner建議企業采取以下幾項戰略行動:
加強數據治理:組織必須確保遵守國際法規,并通過擴展數據治理框架來包括人工智能處理數據的指導方針,從而監控意外的跨境數據傳輸。這涉及將數據沿襲和數據傳輸影響評估納入定期隱私影響評估。
建立治理委員會:成立委員會以加強人工智能監督,并確保有關人工智能部署和數據處理的透明溝通。這些委員會需要負責技術監督、風險和合規管理以及溝通和決策報告。
加強數據安全:使用先進技術、加密和匿名化來保護敏感數據。例如,驗證特定地理區域的可信執行環境,并在數據必須離開這些區域時應用高級匿名技術,如差分隱私。
投資TRiSM產品:規劃和分配針對人工智能技術量身定制的信任、風險和安全管理(TRiSM)產品和功能的預算。這包括人工智能治理、數據安全治理、即時過濾和編輯以及非結構化數據的合成生成。Gartner預測,到2026年,應用人工智能TRiSM控制的企業將減少至少50%的不準確或非法信息,從而減少錯誤決策。