英语轻松读发新版了,欢迎下载、更新

订阅阅读 - 英国《金融时报》

2024-09-25 17:20:52 英文原文

我们需要针对人工智能的食品和药物管理局

只需注册人工智能 myFT Digest - 直接发送到您的收件箱。

作者是阿斯彭战略集团执行董事、斯坦福大学胡佛研究所客座研究员

尽管医疗药物挽救了数百万人的生命,但在 19 世纪仍有数千人因摄入江湖骗子出售的不安全药物而死亡。在美国和欧洲,这导致食品和药品安全法律和机构(包括美国食品和药品管理局)逐步实施,以确保利大于弊。

GPT-4 等人工智能大语言模型的兴起正在推动各行各业的发展,使从科学创新到教育再到电影制作的一切变得更加简单和高效。但除了巨大的好处之外,这些技术也可能带来严重的国家安全风险。

我们不会允许未经彻底的安全性和有效性测试而销售新药,那么为什么人工智能会有所不同呢?正如 AI Now Institute 所写,为人工智能建立食品和药物管理局可能是一个直白的比喻,但现在是政府强制进行人工智能安全测试的时候了。

前首相苏纳克领导下的英国政府值得真正的功劳:苏纳克上任仅仅一年后,英国就举办了改变游戏规则的布莱切利公园人工智能安全峰会,成立了资金相对充足的人工智能安全研究所筛选出5个领先的大语言模型。

美国以及新加坡、加拿大和日本等其他国家正在效仿英国的做法,但这些努力仍处于起步阶段。OpenAI 和 Anthropic 自愿允许美国和英国测试他们的模型,这一点值得赞扬。

现在是更进一步的时候了。我们当前的人工智能安全方法中最明显的差距是缺乏强制性、独立和严格的测试来防止人工智能造成伤害。此类测试应该只适用于最大的模型,并且在向公众发布之前需要进行测试。

虽然药物测试可能需要数年时间,但人工智能安全研究所的技术团队已经能够在几周内进行针对性极强的测试。因此,安全不会显着减缓创新。

测试应特别关注模型可能造成有形物理伤害的程度,例如其帮助制造生物或化学武器以及破坏网络防御的能力。同样重要的是要衡量该模型是否对人类控制具有挑战性,并且能够训练自身以越狱旨在限制其的安全功能。其中一些已经在 2024 年 2 月发生过,人们发现为中国、俄罗斯、朝鲜和伊朗工作的黑客利用 OpenAIs 技术进行了新颖的网络攻击。

虽然人工智能道德和偏见也是关键问题,但社会内部对于这种偏见的构成存在更多分歧。因此,测试首先应侧重于国家安全和对人类的人身伤害,这是人工智能构成的最重要的威胁。例如,想象一下,如果一个恐怖组织使用人工智能驱动的自动驾驶车辆来瞄准并引爆爆炸物,北约就表达了这种恐惧。

一旦通过了初步测试,人工智能公司就像制药行业的公司一样,应该被要求密切、持续地监控其模型可能被滥用的情况,并立即报告滥用情况。同样,这是制药行业的标准做法,并确保撤回潜在有害的药物。

作为此类监控和测试的交换,合作的公司应该获得一个安全港,以保护他们免受一些法律责任。美国和英国的法律体系都有现行法律来平衡发动机、汽车、药品和其他技术等产品的危险和实用性。例如,遵守安全法规的航空公司通常不对不可预见的自然灾害的后果承担责任。

如果人工智能构建者拒绝遵守,他们应该面临处罚,就像制药公司向监管机构隐瞒数据一样。

加利福尼亚州正在为此铺平道路:上个月,州立法机构通过了一项法案,目前正在等待州长加文·纽瑟姆的批准,要求人工智能开发人员制定安全协议以减轻严重危害。如果不是过于繁重,这是朝着正确方向迈出的一步。

几十年来,制药行业严格的报告和测试要求允许负责任地开发有助于而非伤害人类的药物。同样,虽然英国和其他地方的人工智能安全研究所迈出了关键的第一步,但为了充分发挥人工智能的优势,我们需要立即采取具体行动,在模型对现实世界造成损害之前制定和执行安全标准。

关于《订阅阅读 - 英国《金融时报》》的评论


暂无评论

发表评论

摘要

我们需要一个针对人工智能的食品和药物管理局只需注册人工智能 myFT Digest——直接发送到您的收件箱。正如 AI Now Institute 所写,为人工智能建立食品和药物管理局可能是一个直白的比喻,但现在是政府强制进行人工智能安全测试的时候了。一旦通过了初步测试,人工智能公司就像制药行业的公司一样,应该被要求密切、持续地监控其模型可能被滥用的情况,并立即报告滥用情况。如果不是过于繁重,这是朝着正确方向迈出的一步。几十年来,制药行业严格的报告和测试要求使得负责任地开发药物能够帮助而不是伤害人类。