人工智能正在迅速学习自主设计和运行生物实验,但旨在管理这些能力的系统正在努力跟上步伐。
人工智能公司 OpenAI 和生物技术公司 Ginkgo Bioworks 于 2026 年 2 月宣布,OpenAI 的旗舰模型 GPT-5自主设计和运行36,000 次生物实验。它通过一个机器人云实验室是由计算机远程控制的自动化设备进行实验的设施。人工智能模型提出研究设计,机器人执行这些设计并将数据反馈给模型进行下一轮。人类设定目标,机器在实验室完成大部分工作,将生产所需蛋白质的成本降低了 40%。
这是可编程生物学:在计算机上设计生物组件并在物理世界中构建它们,并通过人工智能关闭循环。
几十年来,生物学大多从观察以理解。科学家对生物体的基因组进行测序,对它们的所有 DNA 进行编目,了解基因如何编码执行生命功能的蛋白质。的发明CRISPR 等工具然后允许科学家出于特定目的编辑 DNA,例如禁用与疾病相关的基因。人工智能现在正在加速第三阶段,计算机既可以设计生物系统,又可以快速测试它们。
这个过程看起来不太像实验室中的传统台式工作,更像工程:设计、构建、测试、学习和重复。传统实验可能会检验单个假设,而人工智能驱动的可编程生物学会并行探索数千种设计变体,迭代工程师完善原型的方式。
作为一个数据科学家 研究基因组学和生物安全,我研究人工智能如何重塑生物学研究以及需要什么保障。当前的安全措施和法规尚未跟上这些能力的步伐,人工智能在生物学领域的作用与治理系统准备处理的能力之间的差距正在扩大。
人工智能使什么成为可能
研究人员如何使用人工智能实现研究自动化的最明显例子是人工智能加速的蛋白质设计。
蛋白质是分子机器执行活细胞中的大部分功能。传统上,设计新的蛋白质需要多年的反复试验,因为即使是蛋白质序列的微小变化也会以不可预测的方式改变其形状和功能。
蛋白质语言模型,这是经过数百万天然蛋白质序列训练的人工智能系统,可以快速预测突变将如何改变蛋白质的行为或设计新蛋白质。这些AI模型正在设计潜在新药和加速疫苗开发。
与自动化实验室配对,这些模型创建了紧密的实验和修订循环,在几天内测试数千种变化,而不是人类团队需要的几个月或几年。
更快的蛋白质工程可能意味着对新出现的感染的更快反应和更便宜的药物。
双重用途问题
研究人员担心这些相同的人工智能工具可能会被滥用,这一挑战被称为“双重用途问题:为有益目的而开发的技术也可能被重新利用以造成伤害。
例如,研究人员发现人工智能模型与自动化实验室集成可以优化病毒的传播方式,即使没有经过专门培训。科学家们已经开发了风险评分工具评估人工智能如何修改病毒的能力,例如改变其感染的物种或帮助其逃避免疫系统。
当前的人工智能模型能够引导用户完成以下技术步骤:从合成 DNA 中回收活病毒。研究人员已经确定,人工智能可以降低生物武器开发过程中多个阶段的障碍,并且当前的监管没有充分解决这种风险。

生物人工智能的风险
经验丰富的科学家已经使用人工智能 计划和设计生物实验。人工智能是否可以帮助受过有限生物学训练的人进行危险的实验室工作,这一问题是目前正在积极研究的主题。
最近的两项研究得出了不同的结论。
人工智能公司 Scale AI 和生物安全非营利组织 SecureBio 进行的一项研究发现,当生物学经验有限的人能够访问大型语言模型(这是 ChatGPT 等工具背后的人工智能类型)时,他们能够完成生物安全相关任务,例如以四倍的准确度对复杂的病毒学实验室方案进行故障排除。在某些领域,这些新手的表现优于训练有素的专家。大约 90% 的新手表示,让模型提供危险的生物信息(例如处理危险病原体的详细说明)没有什么困难,尽管内置的安全过滤器旨在阻止此类输出。
相比之下,由研究人工智能在合成生物学中的应用的研究非营利组织 Active Site 领导的一项研究发现,人工智能的帮助并没有导致新手完成任务的能力出现显着差异。生产病毒的复杂流程在生物安全实验室。然而,人工智能辅助的小组在大多数任务上更成功,并且更快地完成了一些步骤,尤其是在实验室中培养细胞方面。
传统上,实验室的实践工作是将设计转化为结果的瓶颈。即使再出色的学习计划,仍然需要熟练的人类双手来实施。随着云实验室和机器人自动化的发展,这种情况可能不会持续下去更便宜、更方便,允许研究人员将人工智能生成的实验设计发送到远程设施进行执行。
应对人工智能驱动的生物风险
人工智能系统现在能够大规模自主运行实验,但现有法规并不是为此设计的。管理生物学研究的规则并没有考虑到人工智能驱动的自动化,管理人工智能的规则也没有专门解决其在生物学中的应用。
在美国,拜登政府发布了 2023 年人工智能安全行政命令,其中包括生物安全规定,但特朗普政府撤销了它。对商业供应商生产的合成 DNA 进行筛选以确保其不会被滥用来制造病原体或毒素仍然主要是自愿的。2026 年提出的一项两党法案强制 DNA 筛查尚未解决人工智能设计的逃避当前检测方法的序列。
1975年生物武器公约禁止生产和使用生物武器的国际条约不包含有关人工智能的条款。英国人工智能安全研究所和美国国家新兴生物技术安全委员会两人都呼吁政府采取协调行动。
人工智能实验室在发布新模型之前进行的安全评估通常是不透明且不适合捕捉现实世界的风险。研究人员估计,即使人工智能模型帮助规划病原体相关实验的能力略有提高,也可能会转化为生物恐怖主义造成数千人死亡每年。这些能力何时跨越关键阈值的时间表仍不清楚。
核威胁倡议已提出了管理访问框架对于生物人工智能工具,将可以使用给定工具的人员与模型的风险级别相匹配,而不是一揽子限制。兰德人工智能、安全和技术中心概述了一系列研究人员可以采取的行动提高生物安全性,包括改进 DNA 合成筛选和发布前的模型评估。研究人员还认为生物数据本身需要治理,特别是可以训练具有危险能力的模型的基因组数据。
一些人工智能公司已经开始自愿实施自己的安全措施。人择激活最高安全级别当它在 2025 年中期发布其最先进的型号时。与此同时,OpenAI更新了其准备框架,修改模型在需要额外保护措施之前可能造成的生物风险的阈值。但这些都是自愿的、公司特定的步骤。Anthropic 首席执行官 Dario Amodei 写道,人工智能的发展步伐可能很快超越任何一家公司的能力评估给定模型的风险。
当在控制良好的环境中使用时,人工智能可以帮助科学家快速实现他们的研究目标。当相同的能力在这些控制之外运行时会发生什么,这是政策尚未回答的问题。反应过度,人才和投资可能会转移到其他地方,而技术无论如何都会继续进步。反应不足,该技术的风险可能会被利用来造成真正的伤害。