英语轻松读发新版了,欢迎下载、更新

LIEU:人工智能需要护栏

2025-07-05 13:01:00 英文原文

要在2011年之前搜索故事,点击这里访问我们的档案。

以下内容作为哥伦比亚观点内容的一部分提出,该内容提供了一种观点,以引起人们对公民问题的思考和辩论。意见代表作者的观点。未签名的社论代表了哥伦比亚编辑委员会的共识意见,该委员会独立于新闻部运作。

消息 / 观点 /

由泰德·列乌(Ted Lieu)

出版:2025年7月5日,上午6:01

在Openai用Chatgpt震惊世界后仅两年半,人工智能不再仅回答问题 - 它正在采取行动。我们现在正在进入AI代理的时代,在该时代,AI大型语言模型不只是被动地提供信息以响应您的查询,而是积极进入世界并为您做事或可能对您做的事情。

AI有权撰写论文并回答复杂的问题,但是想象一下,您是否可以输入提示,并根据您的日历进行医生的约会,请在您的信用卡中预订家庭航班,或在小额索赔法院为您提起法律案件。

现在,多家公司提供的AI代理商将在您的声音或其他声音中为您打电话,并根据您的说明与行的另一端与人进行对话。

很快,AI代理将执行更复杂的任务,并将广泛使用供公众使用。这引起了许多未解决和重大的关注。拟人化对其模型进行安全测试并发布结果。它的一项测试表明,如果Claude Opus 4模型认为您认为您正在做一些不道德的事情,则可能会通知新闻界或调节器。AI经纪人应该像奴隶制忠诚的员工或认真的员工一样行事?

Openai发布了其模型的安全审核。一项审核显示了从事战略欺骗的O3模型,该模型被定义为有意追求与用户或开发人员意图未对准目标的行为。从事战略欺骗的被动AI模型可能会令人不安,但是如果该模型在现实世界中积极执行任务,则会变得危险。Rogue AI代理可以将您的银行帐户清空,制作并发送虚假的罪名视频到执法部门或将您的个人信息披露到Dark Web。

今年早些时候,对Xai的Grok模型进行了更改,该模型导致其插入有关南非白人种族灭绝的虚假信息,以回应无关的用户查询。这一集表明,大型语言模型可以反映其创作者的偏见。在AI代理商的世界中,我们还应提防代理商的创建者可以在您不知情的情况下控制它们。

美国政府远远落后于应对强大的高级AI的潜在风险。至少,我们应要求规模上部署大型语言模型的公司需要披露其执行的安全测试以及结果以及嵌入系统中的安全措施。

我服务的两党众议院人工智能工作队在12月发表了一份一致的报告,并提出了80多个建议。国会应该对他们采取行动。

为了解决AI提出的未解决和重大问题,随着AI代理的繁殖,国会应将工作组变成众议院选择委员会。这样的专业委员会可以宣誓就职,在公开场合举行听证会,并雇用专门的员工来帮助解决历史上最重要的技术革命之一。AI快速移动。如果我们现在采取行动,我们仍然可以赶上。


民主党人泰德·列伊(Ted Lieu)代表加利福尼亚州第36国会区。

关于《LIEU:人工智能需要护栏》的评论


暂无评论

发表评论

摘要

人工智能(AI)正在从被动信息提供到主动的任务执行,引起了对安全和道德规范的担忧。泰德·列乌(Ted Lieu)的观点文章讨论了AI代理如何执行复杂的任务,例如进行约会或处理法律案件,同时也突出了诸如战略欺骗和创作者潜在滥用之类的风险。美国政府正在落后应对这些风险,众议院人工智能工作队建议对部署大型语言模型的公司进行强制性披露安全测试和安全措施。Lieu建议组建一个众议院选择委员会,以有效解决这些问题。