作者:Reed Albergotti
关于未来的风险,当AI代理成为常态时,Stamos引用了Openaié的新深度研究工具,该工具可以访问开放式互联网,在相对较长的时间内自动运行,并编译信息以构成详尽的研究报告的基础。
最终,可能会有一个相当于的人。他说,在将来,这可能会更危险。”他说。现在,所有这些事情都可以做的就是导出输出文本,但这不会是未来。未来,您将能够下载某种具有所有这些内置代理功能来读取屏幕,聆听麦克风,从网络中获取内容的某种文件格式。在该模型中,显然会更加关注。
AI模型中的一个可能的漏洞是提前注射攻击,在该攻击中,给出了一个提示,使其使其完全出乎意料或违反其自身的规则。关于黑客如何完成这些攻击的其他创意。例如,如果LLM能够从数据库中检索信息,则攻击者可以尝试注入恶意提示数据。可能很简单发送电子邮件给有一串文本的人,这些文字被摄入了LLM并导致其开始泄露机密信息。
尽管这些攻击尚未成为现实世界中的问题,但它们可能会临近,如果开源中国人工智能模型在美国公司获得广泛收养,这可能会导致立法者和国家安全官员之间的关注。
对华为5G网络设备的类似担忧导致美国和其他国家禁止使用它。
像参议员乔什·霍利(Josh Hawley)这样的议员们已经呼吁立法如果美国人使用中国的开源AI模型,那将对美国人的监禁进行处罚。
从安全的角度来看,即将到来的AI景观可能会使狂野的西部局势让人联想到1990年代的点-COM时代或早期移动网络。
人们会说,在1990年代,我构建了一个安全的Web应用程序。1999年,这是不可能做出的陈述,Stamos说,他是早期黑客文化的一部分联系与著名的枯牛群体一起。人们会说,在2008年,我构建了一个安全的移动应用程序。
斯坦福大学的计算机科学讲师Stamos说,当前的AI时刻使他想起了早期的互联网时代,当时网络安全景观是空白的画布。我告诉我的学生,这是您活着的令人兴奋的时刻,因为我们不知道这些系统中的脆弱性是什么。任何说他们已经建立了完全安全的AI系统的人都在骗您。