AI安全问题已成为企业经营关注的新重点
核心要点
根据两份报告,安全性、隐私及相关信任问题仍是企业对生成式人工智能(AI)的最大担忧。 随着企业面临将AI整合到工作流程中的压力,它们正面临关于技术可靠性与可审计性的难题。 许多企业正在预算中划拨新资金用于AI投资,包括代理型AI(即利用自主系统执行复杂任务的AI)。
分析洞察
毕马威(KPMG)周四发布的报告与泰雷兹(Thales)上月发布的报告均显示,生成式AI正引发企业领导者的安全忧虑。
毕马威调查的企业领导者中,67%表示计划为AI模型的网络与数据安全防护投入资金,52%将风险与合规列为预算优先项。这些支出反映了高管对AI安全日益增长的担忧。毕马威2025年第二季度报告显示,69%的领导者担忧AI数据隐私(较2024年第四季度的43%显著上升),对AI监管的担忧也从42%升至55%。
乔治城大学安全与新兴技术中心高级研究员Andrew Lohn指出,企业的安全支出“表明它们认真对待AI应用,而非仅停留在实验阶段”。
泰雷兹的年度数据威胁报告(基于20个国家、15个行业的3200名IT与安全专业人士的调查)揭示了相似趋势。生成式AI的四大风险包括:生态系统的快速变革(69%受访者提及)、数据完整性问题(64%)、信任(57%)与保密性(45%)。
AI安全在企业的安全支出中占比突出:10%受访者将其列为最大支出,13%列为第二,7%列为第三。但AI公司Frontier Foundry联合创始人Nick Reese认为,仅10%的企业将AI安全列为首要支出,表明“企业在采购和维护AI系统时存在认知偏差”。他呼吁市场需通过压力测试AI模型来“消除信任危机”。
泰雷兹还发现,73%受访者正通过新预算或现有预算投资AI专用安全工具。超三分之二从云供应商处采购此类工具,五分之三从安全供应商处购买,近半数选择新供应商。
随着代理型AI成为商业焦点,毕马威发现企业领导者对其的“适应程度正在变化”。2025年第二季度,55%受访者优先选择“可信技术提供商”的AI代理(低于2024年第四季度的63%);同时,45%表示“不允许AI代理在无人监督下访问敏感数据”(低于2024年的52%)。另一方面,对完全交由AI代理处理任务持谨慎态度的受访者比例从28%升至45%。