![]()
根據Pentera公司發布的《2026年AI與對抗性測試基準報告》顯示,大多數安全負責人正在努力用不適合挑戰的工具和技能來防御AI系統。
該報告基于對300名美國首席信息安全官和高級安全領導者的調查,研究了組織如何保護AI基礎設施,并突出了與技能短缺和依賴不適用于AI時代的安全控制相關的關鍵差距。
AI系統很少單獨部署。它們分層并集成到現有的企業技術中,從云平臺和身份系統到應用程序和數據管道。由于所有權分散在不同團隊之間,有效的集中監督已經崩潰。
因此,67%的CISO報告對AI在其組織中的使用方式缺乏可見性。沒有受訪者表示他們擁有完全的可見性;相反,他們承認意識到或接受某種形式的未管理或未授權的AI使用。
在無法清楚了解AI系統在何處運行或它們可以訪問哪些資源的情況下,安全團隊難以有效評估風險。基本問題,如AI系統依賴哪些身份、它們可以訪問什么數據,或者當控制失敗時它們如何表現,往往仍然沒有答案。
盡管AI安全現在是董事會和執行討論的常規話題,研究顯示最大的挑戰并非財務問題。
CISO確定了保護AI基礎設施的主要障礙
缺乏內部專業知識(50%)
對AI使用缺乏可見性(48%)
專門為AI系統設計的安全工具不足(36%)
只有17%的人將預算限制視為主要關切。這表明許多組織愿意投資AI安全,但尚未擁有在真實環境中評估AI相關風險所需的專業技能。
AI系統引入了安全團隊仍在學習評估的行為,包括自主決策制定、間接訪問路徑以及系統間的特權交互。在沒有正確專業知識和主動測試的情況下,很難評估現有控制是否按預期有效。
在缺乏AI特定最佳實踐、技能和工具的情況下,大多數企業正在擴展現有安全控制以覆蓋AI基礎設施。
研究發現,75%的CISO依賴傳統安全控制,如端點、應用程序、云或API安全工具來保護AI系統。只有11%的人報告擁有專門設計用于保護AI基礎設施的安全工具。
這種方法反映了在以前技術轉變期間看到的熟悉模式,組織最初會適應現有防御措施,然后出現更量身定制的安全實踐。雖然這可以提供基本覆蓋,但為傳統系統構建的控制可能無法考慮AI如何改變訪問模式并擴大潛在攻擊路徑。
綜合來看,研究結果表明AI安全挑戰源于基礎差距,而非缺乏意識或意圖。
隨著AI成為企業基礎設施的核心部分,報告建議組織需要專注于建立專業知識,并改進他們在AI已經運行的環境中驗證安全控制的方式。
注:本文由Pentera技術顧問總監Ryan Dory撰寫。
Q&A
Q1:為什么大多數CISO對AI系統的使用缺乏可見性?
A:AI系統很少單獨部署,它們分層并集成到現有的企業技術中,從云平臺和身份系統到應用程序和數據管道。由于所有權分散在不同團隊之間,有效的集中監督已經崩潰,導致67%的CISO報告對AI使用方式缺乏可見性。
Q2:保護AI基礎設施面臨的主要障礙是什么?
A:根據調查,CISO確定的主要障礙包括:缺乏內部專業知識(50%)、對AI使用缺乏可見性(48%)、專門為AI系統設計的安全工具不足(36%)。值得注意的是,只有17%的人將預算限制視為主要關切。
Q3:目前企業如何保護AI系統安全?
A:研究發現,75%的CISO依賴傳統安全控制,如端點、應用程序、云或API安全工具來保護AI系統。只有11%的人報告擁有專門設計用于保護AI基礎設施的安全工具。這種方法雖然可以提供基本覆蓋,但傳統控制可能無法應對AI帶來的新挑戰。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.