这些评估对人工智能公司所宣扬的夸大说法提出了强有力的反驳,许多公司寻求新一轮的风险投资,即人工智能生成的恶意软件广泛存在,并且是对传统防御构成当前威胁的新范式的一部分。
一个典型的例子是 Anthropic,它最近报道该公司发现了一个威胁行为者,利用其 Claude LLM 的学位“开发、营销和分发勒索软件的多种变体,每种变体都具有先进的规避功能、加密和反恢复机制。”该公司接着表示:“如果没有 Claude 的帮助,他们就无法实施核心恶意软件组件或对其进行故障排除,例如加密算法、反分析技术或 Windows 内部操纵。”
启动 ConnectWise最近说生成式人工智能“降低了威胁行为者进入游戏的门槛。”该帖子引用了单独报告OpenAI 发现 20 个独立的威胁参与者使用其 ChatGPT AI 引擎开发恶意软件,其任务包括识别漏洞、开发漏洞利用代码和调试代码。与此同时,BugCrowd说在一项针对自我选择的个人的调查中,“74% 的黑客认为人工智能让黑客攻击变得更容易,为新人加入这一行打开了大门。”
在某些情况下,此类报告的作者指出了本文中指出的相同限制。谷歌周三的报告称,在对用于开发管理命令和控制通道代码并混淆其操作的人工智能工具进行分析时,“我们没有看到成功自动化或任何突破性能力的证据。”OpenAI 也说了同样的事情。尽管如此,这些免责声明很少被放在显着位置,而且在由此产生的将人工智能辅助恶意软件描绘成构成近期威胁的狂热中往往被淡化。
谷歌的报告至少提供了另一项有用的发现。一名利用该公司 Gemini AI 模型的威胁行为者能够通过冒充白帽黑客进行研究以参与夺旗游戏来绕过其护栏。这些竞争性练习旨在向参与者和旁观者教授和展示有效的网络攻击策略。
所有主流法学硕士都内置了此类护栏,以防止它们被恶意使用,例如网络攻击和自残。谷歌表示,此后它已经更好地调整了应对措施来抵制此类策略。
最终,迄今为止出现的人工智能生成的恶意软件表明,它主要是实验性的,结果并不令人印象深刻。这些事件值得关注,以了解人工智能工具产生以前未知的新功能的进展。但就目前而言,最大的威胁仍然主要依赖于老式策略。