隨著OpenAI、Anthropic、Google和微軟等公司的生成式AI及大語言模型(LLM)用戶量呈指數(shù)級增長,企業(yè)IT安全決策者正努力跟上AI技術(shù)的快速發(fā)展步伐。非營利組織OWASP最新發(fā)布的《LLM AI網(wǎng)絡安全與治理清單》(PDF)正是為此而生。
LLM威脅分類體系
鑒于AI領(lǐng)域涉及面廣泛,OWASP清單主要幫助管理者快速識別生成式AI和大語言模型的關(guān)鍵風險并采取補救措施,確保企業(yè)具備基本安全控制能力來安全使用相關(guān)工具和服務。OWASP強調(diào)該清單將隨技術(shù)成熟度持續(xù)更新,其專家團隊將LLM威脅劃分為以下類別:
制定LLM戰(zhàn)略時,企業(yè)需重點應對生成式AI帶來的獨特風險,通過組織治理和安全控制加以緩解。OWASP建議采用六步法構(gòu)建有效的LLM部署策略:
針對不同類型的LLM部署方案,OWASP也提供了詳細考量框架:
OWASP AI安全清單詳解
(1) 對抗性風險
涵蓋競爭對手和攻擊者雙重維度,包括分析競對如何運用AI提升業(yè)務表現(xiàn),以及更新事件響應計劃等內(nèi)部流程以防范AI相關(guān)安全事件。
(2) 威脅建模
基于"安全設(shè)計"原則,需考慮攻擊者如何利用LLM加速漏洞利用、企業(yè)如何檢測惡意AI行為,以及如何實施系統(tǒng)防護措施。
(3) AI資產(chǎn)清點
遵循"未知即不可保護"原則,需全面記錄自研解決方案和第三方工具,明確責任歸屬。建議將AI組件納入軟件物料清單(SBOM),按敏感度分類數(shù)據(jù)源,并建立工具準入退出機制。
(4) AI安全與隱私培訓
通過系統(tǒng)化培訓使員工理解AI/LLM技術(shù)原理與安全挑戰(zhàn),培育信任透明的組織文化,從根本上杜絕"影子AI"現(xiàn)象。
(5) 商業(yè)價值論證
避免跟風炒作,需建立清晰的AI商業(yè)用例,如同當年云計算推廣時的戰(zhàn)略規(guī)劃。
(6) 治理框架
通過RACI矩陣明確AI項目權(quán)責,制定企業(yè)級政策和流程,實現(xiàn)可問責的管理體系。
(7) 法律合規(guī)
需法律團隊介入評估產(chǎn)品擔保條款、最終用戶許可協(xié)議(EULA)和知識產(chǎn)權(quán)風險等關(guān)鍵法律議題。
(8) 監(jiān)管應對
密切關(guān)注歐盟《人工智能法案》等新興法規(guī),識別適用的合規(guī)要求。
(9) LLM方案實施
具體控制措施包括:實施訪問控制、保護訓練管道、映射數(shù)據(jù)流、識別LLM及供應鏈漏洞,建議定期進行第三方審計、滲透測試和代碼審查。
(10) 測試評估驗證(TEVV)
參照NIST AI框架建議,持續(xù)開展功能測試、安全驗證及可靠性評估,覆蓋AI模型全生命周期。
(11) 模型與風險卡片
通過標準化文檔披露模型架構(gòu)、訓練方法和性能指標,提升系統(tǒng)透明度,主動應對偏見、隱私等倫理問題。
(12) 檢索增強生成(RAG)
通過優(yōu)化預訓練模型和增量訓練,提升LLM在特定數(shù)據(jù)源的檢索能力,最大化企業(yè)應用價值。
(13) AI紅隊演練
通過模擬攻擊檢驗防御體系有效性,但需明確演練邊界要求,避免引發(fā)合規(guī)風險。