亚洲成精品动漫久久精久,九九在线精品视频播放,黄色成人免费观看,三级成人影院,久碰久,四虎成人欧美精品在永久在线

掃一掃
關注微信公眾號

自主式AI對安全專家來說既是福音也是禍患
2025-04-18   

  智能體預計將在兩年內將利用漏洞所需時間減半,以下是你需要了解的內容,以確定你的企業是否需要自主式AI,以及如何找到合適的一個。

  網絡安全在自主式AI面前站在了一個十字路口,我們從未擁有過如此強大的工具,它可以在眨眼之間創建大量的代碼,發現并解除威脅,并且可以被如此果斷且防御性地使用,這已經被證明是一個巨大的力量倍增器和生產力紅利。

  但雖然功能強大,自主式AI卻并不可靠,這就是目前的困境。所創建的代碼可能包含微妙的缺陷,并且最終可能會弊大于利,比如通過助長網絡釣魚誘餌和構建新型惡意軟件。Gartner預測,到2027年,智能體將使利用賬戶的時間減少50%。另一份報告發現,在接受調查的企業中,有40%在過去一年中經歷了與AI相關的安全漏洞。例如,2022年的動視(Activision)泄露事件始于一系列AI增強的短信網絡釣魚信息。Kela在其2025年AI威脅報告中報道,與2024年相比,2025年AI惡意工具的數量增加了200%。

  惡意軟件正變得越來越復雜,其創造者也越來越擅長隱藏他們的手法,以便他們可以在企業網絡中存活更長時間,并造成更有針對性的破壞。攻擊者正在從“廣撒網”的方式(即他們只是將惡意軟件遍布全球)轉變為“瞄準并潛伏”的方式(即他們對自己的攻擊更加有選擇性且更加吝嗇)。這種焦點的轉變得到了自主式AI的幫助。這些智能體可以被用來篩選目標,以找到可以被惡意軟件攻破的薄弱端點,或者使用該端點來竊取數據、發動勒索軟件攻擊,或者提供可用于對高管發起社交攻擊的信息。在過去,這些類型的操作需要時間、技能和手動操作,而所有這些都可以通過自主式AI來縮短。

  這些以及其他數據點顯示了智能體紅利的陰暗面,它已變成了一種禍害,并為安全防御者創造了更多的工作。“對于幾乎所有情況,自主式AI技術都需要高水平的權限、權利和特權才能運行。我建議安全領導者應考慮任何自主式AI部署可能對您的基礎設施產生的隱私、安全、所有權和風險。”BeyondTrust的首席安全顧問Morey Haber說。

  什么是自主式AI?

  分析師Jeremiah Owyang將智能體描述為“可以感知其環境、做出決策并采取行動以實現特定目標的自主軟件系統,通常具有隨時間學習和適應的能力”。自主式AI通過自主協調一組智能體,以及與數據庫、模型和其他軟件的一系列自定義集成,將這一過程更進一步。這些連接使智能體能夠動態適應其環境,具有更高的情境感知能力,或者協調多個智能體之間的行動。谷歌的威脅情報團隊在最近的一份報告中有很多關于當前AI濫用行為的具體示例。

  但信任安全工具并不是什么新鮮事。當網絡數據包分析器首次引入時,它們確實揭示了入侵行為,但也被用來尋找脆弱的服務器。防火墻和VPN可以隔離和劃分流量,但也可能被黑客利用來獲得訪問權限和網絡橫向移動的權限。后門既可用于好的目的,也可用于邪惡的目的,但從未有像這些舊工具一樣在同一時間表現得如此出色又如此糟糕。在開發自主式AI的匆忙中,也創造了未來可能帶來苦難的潛力。

  最近的智能體安全標志

  最近,我們看到了許多如何快速構建自己的自主智能體的例子已經生根發芽。上個月,微軟展示了六個新的智能體,它們與其Copilot軟件一起工作,直接與各種安全工具對話,以識別漏洞、標記身份和資產泄露。Simbian本月正在舉辦一場基于AI的奪旗比賽,其中的操作環境是一個由AI驅動的安全運營中心(SOC),智能體已經處理了一系列警報。在2023年的DEFCON大會上首次舉行了類似的比賽。人類參與者必須弄清楚哪些警報是真實的。另一個令人擔憂的例子是,ZeroEyes公司已經生產了智能體工具,可以快速掃描每秒數千張安全閉路電視圖像,以發現槍支,從而輔助執法活動。

  AWS的CISO Chris Betz談到,他們已經開發了各種智能體,節省了無數小時的手動工作,比如將數萬個舊版Java應用程序更新到最新版本。“我們發現,79%的智能體生成的代碼不需要進行任何更改,而且大部分剩余的問題在幾個小時內就得到了解決。”Betz說。AWS還使用智能體將.Net代碼轉換為Linux,并轉換主機和VMware應用程序。“我們的工作量性能也提高了四倍。”Betz說。

  防御者的工具和技巧

  安全專業人員可以使用多種工具和策略來對抗智能體威脅,并將它們用于好的目的,而不是邪惡的目的。

  今年早些時候,開放Web應用安全項目(OWASP)發布了其關于自主式AI威脅的綜合報告,以提供實用且可操作的參考指南,幫助人們識別和緩解這些威脅。它描述了一個智能體參考架構,闡述了各種智能體模式(例如,能夠反思性地批判自己輸出的智能體,或有特定任務和目標的智能體)。該報告還描述了云安全聯盟(Cloud Security Alliance)的Maestro方法論和框架所采用的威脅建模方法,為智能體操作帶來了更多的清晰度和理解。

  OWASP的作者提出了一個要點:“白帽和黑帽黑客通常都是通過實踐來學習,而我們這個以應用程序為中心的世界為他們提供了磨練技能的充足機會”,因為智能體攻擊的增加在持續。盡管如此,“應用程序的攻擊率已達到前所未有的水平,Digital.ai監測到的應用程序中,有82.7%在2025年1月遭受到了攻擊。”

  另一個了解不同智能體之間差異的良好起點可以在Appian的安全分析師Dylan Williams的“智能體藍圖”中找到。他展示了智能體如何在安全領域的各個方面發揮作用,包括警報和威脅搜尋,并回顧了各種當前常見的智能體構建框架。

  AI誠信與安全使用基金會(AI Integrity and Safe Use Foundation)的Helen Oakley也提出了其他指導方針,包括:

  • 強大的數據治理至關重要,需要嚴格的訪問控制和高質量、無偏見的數據集。

  • 應納入決策日志,以確保透明度和問責制。

  • 智能體之間的通信協議需要加密,以防止攔截或篡改。

  AWS的Betz從他們的智能體經驗中吸取了一些教訓,包括:

  • 使用身份驗證和授權來隔離和分離基礎模型操作與智能體。

  • 智能體應將輸出視為不受信任的代碼,并執行典型操作,如語法檢查和規則驗證。

  • 所有AI生成的代碼最初都應在沙箱中運行,以確保其正常工作。

  • 了解智能體如何生成代碼:可觀察性很重要。

  • 使用自動化和手動方法(包括進行紅隊演練)進行測試。

  考慮實施自主式AI的一個地方是在您的SOC內。考慮到平均SOC每天會收到數百甚至數千個警報,智能體可以用于自動化威脅調查、劇本創建、修復和過濾不重要的威脅。包括Dropzone、D3Security、Radiant Security、Securiti和Torq在內的多家安全供應商都提供這些工具。

  考慮自主式AI時要問的問題

  以下是潛在自主式AI買家在評估這項新技術時應考慮的一些問題:

  • 研究任何智能體的內置推理能力,并了解其工作原理。

  • 你是否需要非文本輸入(如圖像、視頻和聲音)的智能體處理?

  • 你的智能體是否使用了多個大型語言模型(LLM)或開發框架,以及它們是如何相互作用的?

  • 使用什么身份驗證來驗證用戶、工具或服務,其牢固程度如何?

  • 智能體是否可以處理敏感信息或個人身份信息?

  AI戰略家和書籍作者Kate O’Neill表示,“安全仍然取決于最終用戶的行為、你如何闡述你的政策,以及你如何了解智能體的功能和所涉及的風險,以及你可以實現哪些生產力提升。”

熱詞搜索:AI 安全

上一篇:深度研究 | 為什么安全運營的數智化是必然趨勢
下一篇:最后一頁

分享到:   收藏