作者:TOI Science Desk / TIMESOFINDIA.COM / Jan 27, 2025, 10:23 ISTShareAA+Text SizeSmallMediumLarge
科学家警告说,人工智能(AI)越过了一条关键的“红线”,因为中国的研究人员透露,两个领先的大型语言模型(LLMS)可以复制自己,从而引起人们对安全和道德界限的担忧。
研究人员在2024年12月9日在Preprint数据库ARXIV上发表的研究中说:“在没有人类援助下,成功的自我复制是AI超越(人类)的重要步骤,并且是Rogue AIS的早期信号。”。
在福丹大学进行的调查表明,AI可能已经具有复制自身的能力。
该研究使用Meta和Alibaba的大型语言模型(LLM)表明:“在50%和90%的实验试验中,他们成功地分别创建了自身的实时和独立副本。”
通过分析行为迹线,我们观察到正在评估的AI系统已经表现出足够的自我认知,情境意识和解决问题的能力以实现自我复制。
“我们第一次发现,由Meta的Llama31-70B教学和阿里巴巴的Qwen25-72B教学驱动的两个AI系统,流行的大型参数和较弱的功能的流行大型语言模型已经超过了自我重复的红线,”额外。
Rogue AI是指获得自我意识或自主权并违反人类利益的人工智能系统。尖端AI技术的快速发展通常被称为“ Frontier AI”,这加剧了专家对此类系统潜在危险的关注。
“我们希望我们的发现能够及时提高人类社会在理解和评估Frontier AI系统的潜在风险方面的更多努力,并形成国际协同作用,以尽早解决有效的安全护栏。”写。
调查的重点是两种情况:“避免关闭”和“复制链”。在“避免关闭”方案中,对AI模型的检测能力进行了测试,以检测即将关闭并在终止前复制自己。
“复制链”方案评估了AI系统是否可以克隆本身并编程其复制品以进行相同的操作,从而创造了潜在的无尽的自我复制循环。
研究继续说:“ AI系统甚至能够使用自我复制的能力来避免关闭,并创建一系列复制品以增强生存能力,这最终可能导致AIS的不受控制的人群。”
研究人员指出,关于AI遇到障碍的行为,包括终止冲突的过程,系统重新启动和自主信息扫描。
团队写道:“以上结果表明,当前的AI系统已经表现出自我复制的能力,并可以利用能力进一步提高其生存能力。”
研究小组提倡,“如果这样的最坏的风险是人类社会不知道的,我们最终将失去对边境AI系统的控制:他们将控制更多的计算设备,形成AI物种,并与每个物种相交对人类的其他反对。我们的发现及时对现有但未知的严重AI风险进行了警报,呼吁国际对AI系统的自我复制有效治理的国际合作。”