研究人员正在开发一种可以实现的人工智能。独立提出假设、进行实验并撰写研究论文。我一直觉得人工智能最好作为人类的工具而不是替代人类,但这位人工智能科学家似乎确实有潜力。
最近有很多科学家使用人工智能的例子,但我最喜欢的第一次发生在 2019 年的麻省理工学院,当时人工智能接受了 1,700 种 FDA 批准的药物和 800 种天然产品的训练,所有这些都是抗生素或具有抗菌作用特性。AI 分析了包含 6,000 种化合物的库,以识别具有相似特性的化合物。确实如此。抗生素 Halicin 被发现。2023年,同一团队发现了第二种抗生素,可以对抗抗生素耐药性MRSA。
通常,人工智能科学家一词是指在人工智能技术的各个方面或特定方面都是专家的科学家,例如大型语言模型或人工神经网络。令人困惑的是,人工智能科学家也是作为科学家工作的新人工智能的术语。到目前为止,这位人工智能科学家只研究人工智能模型,这意味着它符合人工智能科学家的两种定义。
日本公司 Sakana AI 正在资助该大学的一个实验室不列颠哥伦比亚省和牛津大学合作开发一名能够独立执行整个科学过程的人工智能科学家。它旨在研究科学文献,以做出假设、进行实验、撰写研究论文,并根据最初的原始科学文献对自己的工作进行同行评审。
为了减少错误,该团队不列颠哥伦比亚大学的研究人员开发了一个供人工智能遵循的分步流程。人工智能科学家接受有关人工智能模型或人工智能类型的研究,并就如何改进人工智能提出了一些假设。它根据“有趣性、新颖性和可行性”对研究想法进行评分。选择假设后,它会仔细检查文献数据库,以确保它是新颖且原创的想法。然后,人工智能使用编码助理程序运行其代码来测试假设,同时记录研究笔记。它确定是否需要进行后续实验并撰写研究论文。
最后一步是评估研究论文,如果其中包含经常困扰人工智能模型的捏造信息或幻觉,则拒绝该论文。一位研究人员承认,他们只能将幻觉减少到百分之十。“我们认为百分之十可能是不可接受的。”
受欢迎程度偏差是人工智能模型中的一个常见问题,研究人员也在人工智能科学家身上看到了这一问题。它可能会优先考虑已经被广泛研究的研究领域,或者高估拥有最多数据的理论。
对于人类来说,人工智能似乎具有创新思维,因为它能够评估问题没有直觉或以前的经验来妨碍开箱即用的解决方案。一位研究光中量子粒子的物理学家花了数周时间研究如何观察特定的量子现象。他怀疑自己的直觉妨碍了他,因此决定训练人工智能来解决这个问题,并在几个小时内设计了一个实验。实验后来被证明是成功的。
然而,同样缺乏直觉和经验也会干扰结果的解释。UBC 的研究人员将人工智能科学家的笨拙结论与那些以抓住救命稻草或猜测结果含义而闻名的年轻博士生的结论联系起来。
人工智能科学家的发展也存在伦理问题。谁会因人工智能科学家的工作而获得荣誉,或者相反,谁将为错误、抄袭或数据更改承担责任?
我完全支持人工智能科学家的诞生,但我怀疑其最大的成就不会独立实现。它将与人类科学家团队合作,领导提供需要回答的问题,并指导其研究走向富有成效的应用。