AI 超越勒索软件,成为增长最快的网络安全风险

人工智能已经无法再被视为“未来风险”。世界经济论坛(WEF)在最新发布的《全球网络安全展望 2026》中明确指出,AI 已成为企业当前面临的、增长速度最快的网络安全风险。
报告显示,87% 的受访者认为 AI 相关漏洞是 2025 年增长最快的安全风险,其增速已经超过勒索软件、供应链攻击、内部威胁以及 DDoS 攻击。这一结果表明,AI 风险并非边缘问题,而是正在快速上升为企业安全治理的核心挑战。
WEF 认为,AI 风险快速上升的根本原因在于:AI 系统的广泛集成正在显著扩大组织的攻击面。 大量 AI 能力被直接嵌入业务流程、数据处理、决策链路之中,而这些场景并非传统安全控制的设计对象。
与此同时,攻击者也在利用生成式 AI 提升攻击能力。尤其是在欺诈和社会工程领域,生成式 AI 正在降低攻击门槛,同时显著提高攻击的可信度和成功率,使攻击在规模、速度和精准度上全面升级。
一个重要变化在于,企业对 AI 风险的认知正在发生转向。
调查显示,34% 的受访者将“AI 相关的数据泄露”视为首要安全担忧,这一比例明显高于上一年;相比之下,对“攻击者因 AI 而变得更强”的担忧反而下降至 29%。
这表明,企业越来越清楚地意识到,真正的风险不一定来自外部攻击者,而可能源于自身对 AI 的不当使用。 如果缺乏治理,AI 工具可能泄露敏感数据、暴露核心资产,甚至引发严重的合规风险。
这种担忧在 Agentic AI(智能代理) 场景中尤为突出。WEF 警告称,具备自主行动能力的 AI Agent 如果缺乏控制,可能积累过度权限,被提示注入或设计缺陷操控,并在高速运行中放大错误和漏洞,带来系统性风险。
在防御侧,AI 同样被寄予厚望。调查显示,77% 的组织已经在网络安全领域采用 AI,主要用于钓鱼检测、入侵响应和行为分析。
但问题在于,部署速度正在超过治理能力。报告指出,仍有约三分之一的组织在部署 AI 之前,缺乏正式的安全评估和验证流程。
WEF 给出的结论非常清晰:AI 可以提升网络安全,但前提是必须置于健全的治理框架之内,并始终以人类判断为核心。
如果企业在尚未充分理解 AI 行为边界和风险的情况下,就将其深度嵌入安全与业务体系,那么 AI 不仅无法提升防御能力,反而可能成为下一次安全事件的根源。
