
AI现在可以发明工作生物学病毒。
在现实世界的实验中,斯坦福大学的一组研究人员表明,具有AI编写的DNA的病毒可以靶向并杀死特定的细菌,他们在一项研究中宣布上星期。它开辟了一个可能性的世界,可以使用人工病毒来治愈疾病和抗击感染。
但是专家说,它也打开了潘多拉的盒子。坏演员可以很容易地使用AI来启动小说生物武器耶鲁大学法学院的学生警告说,,以前为联邦政府建立了AI模型的泰勒·费尔德曼(Tal Feldman)和乔治亚理工学院的计算机科学和生物学研究人员乔纳森·费尔德曼(Jonathan Feldman)警告(对两者是否相关)
没有糖衣的风险。片 为了华盛顿邮报。我们还尚未为人工智能创建一种工作病毒的世界做好准备,但是我们需要成为这个世界,因为这是我们现在生活的世界。
在这项研究中,斯坦福大学的研究人员使用了一种名为EVO的AI模型来发明DNA用于噬菌体,这是一种感染细菌的病毒。与通用大型语言模型不同chatgpt经过书面语言培训,Evo专门接受了数百万个噬菌体基因组的培训。
他们专注于一个称为Phix174的广泛研究的噬菌体,该噬菌体已知会感染细菌的菌株大肠杆菌。使用EVO AI模型,该团队基于PHIX174提出了302个候选基因组,并通过使用化学组装新病毒的设计将其进行了测试。
他们中有16个工作,感染和杀死大肠杆菌菌株。其中一些甚至比病毒的自然形式更致命。
但是,虽然斯坦福队的比赛安全,但如何阻止其他人在人类病原体上使用开放数据来建立自己的模型?`如果AI崩溃了设计生物武器的时间表,那么美国将不得不减少对它们做出反应的时间表。我们可以阻止新颖的AI生成的威胁。真正的挑战是超过它们。
这意味着使用相同的AI技术设计抗体,抗病毒药和疫苗。这项工作是已经在某种程度上完成了,但是加速此类开创性研究所需的大量数据是在私人实验室中孤立的,被锁定在专有数据集中或完全缺少。”
两人认为,联邦政府应将建造这些高质量的数据集成为优先事项。”
从那里开始,联邦政府将需要建立必要的基础设施来制造这些AI设计的药物,因为私营部门无法证明建立可能永远不会到达的紧急情况的费用是合理的。”
最后,食品药品监督管理局的呆滞吱吱作响的监管框架需要大修。(也许在猴子的爪子上进行了大修,FDA说这是使用AI加快药物的批准)
他们说,需要新的快速跟踪当局,允许临时部署AI生成的对策和临床试验,再加上严格的监测和安全措施。”
AI病毒产生带来的严重风险不应轻轻地承受。然而,值得注意的是,所讨论的研究还没有从同行评审中脱颖而出,我们仍然没有完整地了解某人可以如何复制科学家所做的工作。
但是,随着机构等机构的控制和预防中心被毁了, 和疫苗以及其他医疗干预措施受到健康曲柄谜团,不可否认,该国的医疗政策和基础设施处于糟糕的位置。就是说,当您认为政府正在寻找任何借口快速部署AI每个人政府角,当我们要求更多时,值得一试。
有关合成生物学的更多信息: 科学家辩论是否停止可能破坏地球上所有生命的研究类型