新研究声称,诸如Chatgpt和Claude之类的AI模型现在在湿实验室中的问题解决方面优于博士学位的病毒学家,科学家分析化学物质和生物材料。专家说,这一发现是一把双刃剑。Ultra-Smart AI模型可以帮助研究人员防止传染病的传播。但是非专家也可以将模型武器化以创建致命的生物武器。
这学习,与时间共享,由AI安全中心,MIT媒体实验室,巴西大学UFABC和大流行预防非营利性SecureBio进行。作者咨询了病毒学家,创建了一个极其困难的实践测试,该测试衡量了对复杂实验室程序和协议进行故障排除的能力。尽管博士级病毒学家在其宣布的专业知识领域平均得分22.1%,但Openai S O3的准确性达到43.8%。Google的Gemini 2.5 Pro得分为37.6%。
Securebio的研究科学家,本文的合着者Seth Donoughe说,结果使他变得有点紧张,因为历史上第一次,实际上有人可以访问非判断性AI病毒学专家,这些专家可能会引导他们通过复杂的实验室过程来创建生物群体。
``在许多情况下,有人试图制造生物武器,而他们没有成功的主要原因之一是因为他们没有获得适当的专业知识。”他说。因此,对于这些功能的分配方式谨慎似乎值得一提。”
几个月前,该论文的作者将结果发送给了主要的AI实验室。作为回应,xai出版风险管理框架旨在为其AI模型的未来版本实施病毒学保障的意图。Openai告诉Time,它为其新模型发布上星期。拟人化在最近的系统卡中的论文中包括模型性能结果,但没有提出特定的缓解措施。Google的双子座拒绝发表评论。
生物医学中的AI
病毒学和生物医学长期以来一直处于AI领导者建立不断增强的AI模型的动机的最前沿。随着这项技术的进展,我们将看到疾病以前所未有的速度治愈,OpenAI首席执行官Sam Altman说一月份在白宫宣布星际之门项目。该地区有一些令人鼓舞的迹象。今年早些时候,佛罗里达大学新兴病原体研究所的研究人员出版能够预测哪种冠状病毒变体可能传播最快的算法。
但是到目前为止,还没有一项主要研究来分析AI模型实际进行病毒学实验室工作的能力。Donoughe说:``我们已经知道AIS在提供学术风格的信息方面相当强大。”目前尚不清楚这些模型是否也能够提供详细的实践帮助。这包括解释图像,任何学术论文中可能没有写下的信息,或者是从经验丰富的同事中传递的材料。”
因此,Donoughe和他的同事专门针对这些困难,不可行的问题进行了测试。``问题都以此形式:在这些特定条件下,我一直在这种细胞类型中培养这种特殊的病毒。我有有关出了什么问题的信息。你能告诉我最可能的问题是什么吗?
实际上,即使在自己的专业领域,每个AI模型都在测试中优于测试中的博士学位病毒学家。研究人员还发现,随着时间的流逝,模型显示出显着改善。例如,拟人化的Claude 3.5十四行诗从2024年6月的型号到2024年10月的型号从26.9%跃升至33.6%的精度。2月的Openai S GPT 4.5的预览超过了GPT-4O,近10个百分点。
``以前,我们发现这些模型具有很多理论知识,但不是实际知识,'AI安全中心主任丹·亨德里克斯(Dan Hendrycks)告诉时间。但是现在,他们正在获得有关实践知识的数量。
风险和奖励
如果AI模型在湿实验室的设置中确实与研究所发现的能力一样,那么含义是巨大的。在福利方面,AIS可以帮助经验丰富的病毒学家制造其关键的作品打击病毒。约翰·霍普金斯(John Hopkins)卫生安全中心主任汤姆·英格尔斯比(Tom Inglesby)表示,AI可以协助加速医学和疫苗开发的时间表,并改善临床试验和疾病检测。他说,这些模型可以帮助世界各地的科学家,他们还没有这种技巧或能力,从而在其国家进行有价值的日常工作。”例如,一组研究人员成立AI帮助他们更好地了解撒哈拉以南非洲的出血热病毒。
但是,坏信仰的演员现在可以使用AI模型来浏览如何创建病毒,并能够在不访问生物安全4(BSL-4)实验室所需的任何典型培训,该实验室涉及最危险和最危险的传染病药物。英格勒斯比说:``这意味着培训较少的人将能够管理和操纵病毒。”
Hendrycks敦促AI公司放置护栏,以防止这种使用。他说,如果公司在六个月内没有良好的保障措施,那将是鲁ck的。”
亨德里克斯(Hendrycks)说,一种解决方案不是要关闭这些模型或减慢其进度,而是要使它们封闭,以便只有值得信赖的第三方才能访问其未经过滤的版本。他说,我们想给有合法用途的人们像麻省理工学院生物学部的研究人员那样操纵致命病毒。”他说。但是,一秒钟前创建帐户的随机人没有获得这些功能。”
Hendrycks说,AI实验室应该能够相对容易地实施这些类型的保障措施。他说,对于行业自我调节,这在技术上确实是可行的。”``一个问题是有些人是否会拖动他们的脚。
埃隆·马斯克(Elon Musk)的AI实验室(Xai)出版了风险管理框架2月份的备忘录,该备忘录承认该论文,并表示该公司可能会在回答病毒学问题上使用某些保障措施,包括培训Grok拒绝有害请求并应用投入和输出过滤器。
Openai在周一的一封电子邮件中写道,其最新型号O3和O4-Mini被部署了一系列与生物风险相关的保障措施,包括阻止有害产量。该公司写道,它进行了一千小时的红线活动,其中98.7%的不安全与生物有关的对话成功地进行了标记和阻塞。一位发言人写道:“我们重视行业的合作,以推进边境模型的保障措施,包括在诸如病毒学之类的敏感领域。”“随着能力的增长,我们继续投资这些保障措施。”
英格斯比认为,行业自我调节是不够的,呼吁立法者和政治领导人制定制定政策方法来规范AI的生物风险。当前的情况是,最有道理的公司需要花费时间和金钱来完成这项工作,这对我们所有人都有好处,但其他公司不必这样做。”这没什么意义。公众对正在发生的事情没有任何见解是不好的。
英格勒比补充说,当将要评估该模型以确保它不会产生大流行级别的结果时,应有一个新版本的LLM版本即将发布时。”