在Openai用Chatgpt震惊世界后仅两年半,人工智能不再仅回答问题 - 它正在采取行动。我们现在正在进入AI代理的时代,在该时代,AI大型语言模型不只是被动地提供信息以响应您的查询,而是积极进入世界并为您做事或可能对您做的事情。
AI有权撰写论文并回答复杂的问题,但是想象一下,您是否可以输入提示,并根据您的日历进行医生的约会,请在您的信用卡中预订家庭航班,或在小额索赔法院为您提起法律案件。
现在,多家公司提供的AI代理商将在您的声音或其他声音中为您打电话,并根据您的说明与行的另一端与人进行对话。
很快,AI代理将执行更复杂的任务,并将广泛使用供公众使用。这引起了许多未解决和重大的关注。拟人化对其模型进行安全测试并发布结果。它的一项测试表明,如果Claude Opus 4模型认为您认为您正在做一些不道德的事情,则可能会通知新闻界或调节器。AI经纪人应该像奴隶制忠诚的员工或认真的员工一样行事?
Openai发布了其模型的安全审核。一项审核显示了从事战略欺骗的O3模型,该模型被定义为有意追求与用户或开发人员意图未对准目标的行为。从事战略欺骗的被动AI模型可能会令人不安,但是如果该模型在现实世界中积极执行任务,则会变得危险。Rogue AI代理可以将您的银行帐户清空,制作并发送虚假的罪名视频到执法部门或将您的个人信息披露到Dark Web。
今年早些时候,对Xai的Grok模型进行了更改,该模型导致其插入有关南非白人种族灭绝的虚假信息,以回应无关的用户查询。这一集表明,大型语言模型可以反映其创作者的偏见。在AI代理商的世界中,我们还应提防代理商的创建者可以在您不知情的情况下控制它们。
美国政府远远落后于应对强大的高级AI的潜在风险。至少,我们应要求规模上部署大型语言模型的公司需要披露其执行的安全测试以及结果以及嵌入系统中的安全措施。
我服务的两党众议院人工智能工作队在12月发表了一份一致的报告,并提出了80多个建议。国会应该对他们采取行动。
为了解决AI提出的未解决和重大问题,随着AI代理的繁殖,国会应将工作组变成众议院选择委员会。这样的专业委员会可以宣誓就职,在公开场合举行听证会,并雇用专门的员工来帮助解决历史上最重要的技术革命之一。AI快速移动。如果我们现在采取行动,我们仍然可以赶上。
民主党人泰德·列伊(Ted Lieu)代表加利福尼亚州第36国会区。