英语轻松读发新版了,欢迎下载、更新

DeepSeek隐藏的安全风险预示了AI的未来

2025-02-07 17:46:00 英文原文

作者:Reed Albergotti

关于未来的风险,当AI代理成为常态时,Stamos引用了Openaié的新深度研究工具,该工具可以访问开放式互联网,在相对较长的时间内自动运行,并编译信息以构成详尽的研究报告的基础。

最终,可能会有一个相当于的人。他说,在将来,这可能会更危险。”他说。现在,所有这些事情都可以做的就是导出输出文本,但这不会是未来。未来,您将能够下载某种具有所有这些内置代理功能来读取屏幕,聆听麦克风,从网络中获取内容的某种文件格式。在该模型中,显然会更加关注。

AI模型中的一个可能的漏洞是提前注射攻击,在该攻击中,给出了一个提示,使其使其完全出乎意料或违反其自身的规则。关于黑客如何完成这些攻击的其他创意。例如,如果LLM能够从数据库中检索信息,则攻击者可以尝试注入恶意提示数据。可能很简单发送电子邮件给有一串文本的人,这些文字被摄入了LLM并导致其开始泄露机密信息。

尽管这些攻击尚未成为现实世界中的问题,但它们可能会临近,如果开源中国人工智能模型在美国公司获得广泛收养,这可能会导致立法者和国家安全官员之间的关注。

对华为5G网络设备的类似担忧导致美国和其他国家禁止使用它。

像参议员乔什·霍利(Josh Hawley)这样的议员们已经呼吁立法如果美国人使用中国的开源AI模型,那将对美国人的监禁进行处罚。

从安全的角度来看,即将到来的AI景观可能会使狂野的西部局势让人联想到1990年代的点-COM时代或早期移动网络。

人们会说,在1990年代,我构建了一个安全的Web应用程序。1999年,这是不可能做出的陈述,Stamos说,他是早期黑客文化的一部分联系与著名的枯牛群体一起。人们会说,在2008年,我构建了一个安全的移动应用程序。

斯坦福大学的计算机科学讲师Stamos说,当前的AI时刻使他想起了早期的互联网时代,当时网络安全景观是空白的画布。我告诉我的学生,这是您活着的令人兴奋的时刻,因为我们不知道这些系统中的脆弱性是什么。任何说他们已经建立了完全安全的AI系统的人都在骗您。

关于《DeepSeek隐藏的安全风险预示了AI的未来》的评论


暂无评论

发表评论

摘要

Stamos警告说,未来的风险与高级AI代理有关,这些风险可以自主编译研究并与用户的设备进行交互。他以Openai的深入研究工具为例,表明这种功能可能会导致AI系统可以广泛访问用户数据的更危险的情况。人们对潜在的迅速注射攻击以及在美国采用开源中国AI模型的安全含义也引起了人们的关注,这可能会引起监管审查。Stamos将当前的AI景观比作早期的Internet和移动应用时代,强调,由于未知漏洞,目前不可能建立完全安全的AI系统。