5个人工智能均承认自己是最大的网络威胁

攻防
1月前

1713169736602305.jpg

从现在到 2030 年,全球人工智能网络安全市场预计将增长 1095 亿美元,其原因不难理解。根据最近对安全专业人士的一项调查,四分之三(75%)的人观察到网络攻击有所增加。其中,研究发现更大比例(85%)归咎于人工智能。

那么人工智能在网络安全中的作用是什么?它是促进还是破坏我们的网络自由和安全?这是 Techopedia公司想要探索的问题。但是与人类专家交谈不同,这些调查关注的是另一种不同的专业知识……人工智能本身。因此,他们询问了五种流行的人工智能语言模型——ChatGPT、Claude、Llama、Perplexity 和 Gemini,提问的问题:最大的网络安全威胁是什么?

情节转折:是人工智能!是的,所有五个人工智能都以不同的方式将自己视为罪魁祸首。

人工智能将在2024年助长网络攻击的火焰

人工智能可以通过多种方式提高世界的网络安全(防御性人工智能这一研究分支就致力于此)。然而,在 Techopedia公司 与五个不同的人工智能平台进行的与网络安全有关的对话中,80% 的人直接提到了人工智能自身的作用,而不是在促进网络安全方面,而是在危及网络安全方面。

所有五位人工智能都讨论了人工智能在创建和传播恶意软件和勒索软件(网络钓鱼攻击的关键媒介)方面的作用,而几位人工智能则讨论了人工智能通过利用“高级加密方法和利用零日漏洞”来实现更复杂的网络攻击的作用。人工智能还可能涉及许多其他类型的网络入侵,包括 DDoS(分布式拒绝服务)攻击、暴力攻击和身份盗窃。

人工智能的网络钓鱼攻击变得更加复杂

网络钓鱼攻击变得越来越复杂。这些诈骗的狡猾程度也随着其对组织和个人的影响而增长——根据 FBI 的互联网犯罪报告,商业电子邮件泄露 (BEC) 攻击每年造成约 27 亿美元的损失。

ChatGPT 表示:“网络钓鱼技术变得越来越复杂,通常利用人工智能和机器学习来创建令人信服的虚假消息和网站。”而 Perplexity AI 也提到了“人工智能辅助的网络钓鱼攻击”。与此同时,Llama 还在人工智能的三个经典案例中提到了“人工智能驱动的网络钓鱼攻击和人工智能驱动的恶意软件”,暗示互联网上最大的网络安全威胁……人工智能本身!

人工智能正在助长假新闻并传播错误信息

在 Techopedia公司 对人工智能应对互联网主要网络安全威胁的分析中,所咨询的五个人工智能平台中有四个将深度造假标记为严重问题。

Deepfakes——人工智能生成的合成媒体,旨在操纵或用捏造的版本替换现有的视频、图像或音频内容——可以成为无害的喜剧素材。然而,深度造假也可能在煽动错误信息和“假新闻”活动方面起到不可或缺的作用,并且随着 2024 年英国和美国将举行关键的政治选举,加上欧洲和中东激烈的地缘政治斗争,这可能会对现实世界造成严重的影响。

Llama 重申了这一点,并表示:“深度造假和人工智能生成的诈骗可能会产生严重后果,例如影响政治决策或引起公众恐慌。”claude也表示表示:“互联网使虚假或误导性内容很容易在社交网络和其他平台上迅速传播,这可以操纵舆论、影响选举、宣扬极端主义观点等等。”

Gemini是唯一一个提到这类人工智能引发的网络犯罪不断演变,且复杂性日益增长,他写道:“深度伪造正变得越来越复杂,使得辨别真实内容和虚假内容变得更加困难。这一点,再加上错误信息和虚假信息的传播,可以对民主产生寒蝉效应,加剧社会分裂,并削弱对信息来源的信任。”

国家支持的攻击数量不断增加

鉴于仅 2024 年 1 月就发生了六次重大的国家支持的网络攻击——澳大利亚、加拿大和乌克兰政府都成为国家支持的网络犯罪分子的牺牲品——人工智能驱动犯罪让人感到震惊

ChatGPT 写道:“这些攻击可以针对关键基础设施、窃取知识产权并影响政治进程。”Gemini补充说,“针对医院和学校等关键基础设施的网络攻击变得越来越频繁且具有破坏性。”

Perplexity AI 称国家支持的关键国家基础设施 (CNI) 攻击是“各国的重大选举引起了重大的网络攻击”,而 Llama 则将矛头指向“地缘政治紧张局势;一些国家利用网络战作为间谍活动的一种形式”或破坏活动。”

数据泄露盛行——但这并不全是人工智能的“锅”

Techopedia公司 与五种人工智能工具的对话中的另一个发现是什么?人工智能作为一种不断发展、不断增加的网络安全威胁,在数据泄露中发挥着重要作用。

Perplexity AI 写道,到 2024 年,“数据泄露的可能性将[增加],以及绕过身份验证的新方法将开发出来”,而 ChatGPT 则写道,“随着在线存储的个人数据量不断增加,数据泄露仍然是一个重大威胁。”

然而,统计数据表明,人类并非完全没有负罪感,88%的数据泄露源于人为错误。此外,人工智能在减少人为错误方面的作用也是有目共睹的。根据 IBM 在 2023 年进行的一项调查,自动化和人工智能的使用为企业节省了约 180 万美元的数据泄露相关成本,并帮助企业平均缩短了 100 多天来识别和控制这些泄露。

人工智能正在成为一个越来越危险的道德雷区

Techopedia公司 调查结果中的五个人工智能中,有四个提到数据隐私是 2024 年及以后人工智能辩论的一个主要问题。

Claude是这里最激烈的批评者,他指出“公司和政府在未经同意的情况下收集用户数据的风险更大,位置跟踪、浏览器历史记录监控以及设备和应用程序中的后门都会造成影响。” (这也是绝对正确的——正如我们最近在一份关于数据经纪及其对匿名的可怕影响的报告中所介绍的那样。)

但数据隐私远不是讨论的唯一道德难题:监视、仇恨言论、网络欺凌、数字不平等、言论自由、互联网审查以及算法偏见和歧视都作为人工智能日益严重的道德泥潭的一部分而浮出水面。

Gemini说得最好,他指出“那些拥有和无法使用技术和互联网的人之间的差距仍然存在,限制了获得教育、医疗保健和经济机会的机会,同时进一步扩大了现有的社会和经济差距。”

* 本文为闫志坤编译,原文地址:https://www.tripwire.com/state-of-security/ai-platforms-name-cybersecurity-threats-and-advice-2024
图片均来源于网络,无法联系到版权持有者。如有侵权,请与后台联系,做删除处理。

— 【 THE END 】—