作者:By Ted LieuGuest contributor June 27, 2025 3 AM PT
在Openai用Chatgpt震惊世界后仅两年半,AI不再仅回答问题 - 它正在采取行动。我们现在正在进入AI代理的时代,在该时代,AI大型语言模型不只是被动地提供信息以响应您的查询,而是积极进入世界并为您做事或可能对您做的事情。
AI有权撰写论文并回答复杂的问题,但是想象一下,您是否可以输入提示并根据您的日历进行医生的约会,或者用信用卡预订家庭航班,或在小额索赔法院为您提起法律案件。
AI代理提交了该专栏。(但是,我确实写了自己的编辑,因为我认为《洛杉矶时报》不会发表AI生成的作品,而且我可以像我是克利夫兰布朗队的粉丝一样随机参考,因为没有AI会承认这一点。)
我指示我的AI代理找出《时报》用于专栏提交的电子邮件地址,提交的要求,然后起草电子邮件标题,起草引人注目的音调段落,附加我的op-ced,并提交包裹。我按下了返回,监视任务和确认。AI代理在几分钟内完成了任务。
几分钟不是快速的,这不是复杂的要求。但是每个过世的月份,代理商变得更快,更聪明。我使用了OpenAI的操作员,该操作员处于研究预览模式。Google的Project Mariner也是研究原型,可以执行类似的代理任务。现在,多家公司提供的AI代理商将在您的声音或其他声音中为您打电话,并根据您的说明与行的另一端与人进行对话。
很快,AI代理将执行更复杂的任务,并将广泛使用供公众使用。这引起了许多未解决和重大的关注。拟人化对其模型进行安全测试并发布结果。它的一项测试表明,如果Claude Opus 4模型认为您认为您正在做一些不道德的事情,则可能会通知新闻界或调节器。AI代理人应该像奴隶制忠诚的员工或认真的员工一样行事?
Openai发布了其模型的安全审核。一项审核显示了从事战略欺骗的O3模型,该模型被定义为有意追求与用户或开发人员意图未对准目标的行为。从事战略欺骗的被动AI模型可能会令人不安,但是如果该模型在现实世界中积极执行任务,则会变得危险。Rogue AI代理可以将您的银行帐户清空,制作并发送虚假的罪名视频到执法部门,或将您的个人信息披露到Dark Web。
今年早些时候,对Xai的Grok模型进行了更改,该模型导致其插入有关南非白人种族灭绝的虚假信息,以回应无关的用户查询。这一集表明,大型语言模型可以反映其创作者的偏见。在AI代理商的世界中,我们还应提防代理商的创建者可以在您不知情的情况下控制它们。
美国政府远远落后于应对强大的高级AI的潜在风险。至少,我们应要求规模上部署大型语言模型的公司需要披露其执行的安全测试以及结果以及嵌入系统中的安全措施。
我服务的两党人工智能工作队一致报告去年12月有80多个建议。国会应该对他们采取行动。我们没有讨论通用AI代理,因为他们真的是一件事情。
为了解决AI提出的未解决和重大问题,随着AI代理的繁殖,国会应将工作组变成众议院选择委员会。这样的专业委员会可以宣誓就职,在公开场合举行听证会,并雇用专门的员工来帮助解决历史上最重要的技术革命之一。AI快速移动。如果我们现在采取行动,我们仍然可以赶上。
民主党人泰德·列伊(Ted Lieu)代表加利福尼亚州第36国会区。
L.A. Times Insights对语音内容进行AI生成的分析,以提供所有观点。在任何新闻文章中都没有见解。
本文通常与左中间观点看法。了解有关AI生成的分析的更多信息
以下AI生成的内容由困惑驱动。洛杉矶时报编辑人员不会创建或编辑内容。