DeepSeek是一家以前鲜为人知的中国人工智能初创企业,上周发布了全球表现最佳的开源生物AI模型时,它在全球范围内发出了Shockwaves。随着中国边境AI能力的迅速增长,中国模型可能足够强大以造成全球伤害的风险也会迅速增长。DeepSeek的模型的早期,功能不佳的版本被证明很容易越狱据报道,用户为甲基苯丙胺提供了食谱。
尽管全球对大规模风险的关注越来越大,但美国和中国政府就双边协议以规范Frontier AI而取得了很少的进步。但是,包括DeepSeek在内的两个国家 /地区的领先AI开发商之间达成了令人惊讶的共识。
上个月,DeepSeek加入了其他十六家中国公司签署人工智能安全承诺((äºÅ·¥æ½)。虽然将其作为中国国内倡议,但这些承诺与正在进行的全球行业领导的努力相似,以为在去年在首尔举行的AI Summit驾驶的Frontier AI提供保障措施,称为首尔承诺。使用类似的语言,两组承诺大纲都承诺进行红色团队的练习,以确定严重的威胁,为边境模型功能和局限性提供透明度,并建立组织结构以促进边境系统的安全性。
中国的AI安全承诺与首尔承诺之间的独特相似之处可能为在即将举行的计划于5月中旬举行的巴黎AI行动峰会上的最佳实践中的最佳实践中进一步的全球融合奠定了基础。去年,只有一家中国公司Zhipu.ai在首尔峰会上签署了首尔承诺。如果更多的中国公司宣布他们将签署在巴黎的首尔承诺中,他们可以为基于全球行业的国际人工智能共识奠定基础。这种共识可以为在国际AI治理中建立道路的基本规则提供非正式的途径。
在过去的几个月中,美国和中国的边境模型的能力迅速提高。12月,OpenAi的O3型号吹过去现有的性能基准,证明对不同领域的人类绩效的AI能力提高。功能繁荣不仅在硅谷感觉到。在中国,阿里巴巴赞助的初创企业Deepseek和Moonshot,Moonshot,发布开源推理模型与Openai S O1模型竞争,这是O3在一系列基准测试中的强大强大的前身。其他中国公司也在推动边境。Tencent的Hunyuan模型是某些措施是世界阶级,也许是世界上最好的开放权重模型,人类政策负责人杰克·克拉克(Jack Clark)写11月。阿里巴巴的QWEN 2.5模型仅略有落后。它的能力也可以说是世界一流的超过GPT-4O和Claude 3.5十四行诗,遍布一系列基准。中国人工智能公司显然正在AI的边界生产模型,尤其是在开源领域。
这些模型能力的重大突破与公司本身经常记录的风险的越来越关注相匹配。拟人化与红木研究协调,表明,当该模型认为其响应将用于培训时,Claude从战略上欺骗了其创造者在12%的案件中,导致一些人担心未来,更强大的AI系统流氓。从类似的角度来看,Openai S O1模型试图停用其监督机制在5%的病例中,有被评为媒介的化学,生物,放射性和核武器的风险。离开国家安全顾问杰克·沙利文(Jake Sullivan),警告强大的权力协调是防止灾难性伤害需要。到目前为止,美国和中国政府几乎没有同意如何规范越来越强大的生成AI模型。
担心滥用强大模型和AIS的可能性,使来自西方和中国的领先科学家促进了签名联合陈述呼吁对技术的护栏和他们之间的协调,以应对Frontier AI的挑战。尽管达成国际共识的呼吁,但到目前为止,在前总统乔·拜登(Joe Biden)和习近平总统就此协议之外,美国 - 中国的协调仍缺乏关注。需要人来决定使用核武器。
鉴于对AI边境风险的担忧以及对国际协调的需求,英国和韩国政府试图通过与模型开发人员自己互动来对全球风险和最佳实践达成共识。在去年5月在首尔举行的第二次国际AI峰会上,英国和韩国政府宣布了Frontier AI安全承诺(FAISCS),非正式地称为首尔承诺。这些行业领导的努力旨在建立最佳实践,以防止灾难性的风险,这些风险可能随着越来越强大的AI而实现。
FAISC旨在鼓励公司主动识别有关功能的红线,并在越过这些风险阈值时为下一步制定计划。实现行业买入将是管理Frontier AI的关键部分。自愿承诺提供了灵活的途径,使行业能够促进透明度降低风险降低措施,并最终构成非正式的基于国际行业的共识。尽管不是替代法规,但它们提供了一种建立地板,以在防止AI边境的最严重风险的措施上建立共识。
尽管来自OpenAI,DeepMind,Anthropic和Elon Musk Xai等领先的西方公司的广泛买入,但大多数中国公司都在签署人名单中显然不存在。只有一家中国边境AI公司签署了承诺:Zhipu.ai,一家初创公司排名第三在中国面向业务的LLM提供商中的市场份额。中国公司的缺席是行业主导的努力的重大限制:如果这些承诺的效用将受到限制,如果他们缺乏在Frontier AI开发方面的两个最重要国家之一的买入。缺乏中国公司的参与不一定是由于缺乏兴趣。首尔承诺的创建者在首脑会议的领导下,与中国公司接触了中国公司,当时他们很清楚地知道,从世界第二个边境模型AI Power中获得买入对国际AI至关重要治理。
在首尔承诺中,缺乏最初的中国公司的广泛买入,使中国人工智能安全承诺公告2024年12月,智囊团中国信息与通信技术学院(CAICT,ä≥。
中国AI安全承诺的内容与之前的首尔承诺非常相似(见表1)。它们都被描述为行业自我调节工作,重点是通过红色团队等努力来确保AI模型的安全性和安全性。他们还积极采取措施,以确保与其模型相关的风险确保对政府和公众的透明度。这两个文件都讨论了对风险大型模型的更多基础研究的必要性,并有望部署边境模型来解决全球挑战。
尽管其承诺范围上存在有意义的差异,但相似的特定承诺,有时相同的语言提供了充分的理由相信中国的AI安全承诺直接受到首尔的启发。这似乎遵循中国AI领域越来越熟悉的模式。中国经常通过抢先启动在“政党说话”中编码的国内项目来结束与国际AI治理努力的最终融合。对于中国任何政策领域的基础治理概念,能够追踪到独特的中国根源的想法对于中国的根源至关重要这个想法的持久合法性。当中国推出它的时,类似的动态发挥了全球AI治理倡议在签署英国领导的前两个星期Bletchley声明2023年11月。中国将其全球AI治理倡议视为布莱奇利的补充,它经常称赞因为它在国际AI治理中的积极作用。
承诺的签署意味着16家新公司加入了首尔承诺的16个签署国,以做出AI安全承诺,从而产生了最初缺乏首尔承诺的强大中国买入的潜力。在首尔承诺的签署者和中国人工智能安全承诺之间,参与生产强大生成AI模型的大多数公司都签署了至少两组承诺中的一组(见表2)。
然而,这两个协议的实质存在差异。中国人工智能安全承诺为数据和关键基础设施提供了更全面的安全要求,并针对开源计划采取适当的安全措施有一条特定的界限,在国际上,中国产品在国际上特别具有竞争力。相比之下,首尔承诺从根本上着重于建立不应跨越的边境风险的红线,并确定如果达到这些风险阈值,公司将采取的步骤。这种差异可以通过以下事实来解释:中国专注于利用AI作为促进经济的一种手段。当政府想表示它正在拥抱AI而不是过度调节的时候,红线可以看作是一种过于限制的政策工具,这是由于担心其COVID时代的技术镇压的持久影响。
中国领导和国际努力之间存在更广泛的结构差异,这对中国人工智能治理具有重要意义:中国工业比西方公司更明确。这使得中国人工智能安全承诺受到了至关重要的重要政府利益相关者的隐含支持。CAICT是国家工业和创新技术部(MIIT)下的中国领先的智囊团。MIIT的机构支持使人们承诺在中国的监管环境中特别重视,在该场景中,行业计划通常与政府的优先事项紧密相吻合。此外,这项努力是由中国明确率领的人工智能行业联盟(AIIA),由MIIT指导的著名行业财团。
这种行业支持可以预示未来的中国人工智能政策。从历史上看,AIIA的参与预示了未来的中国监管。在2019年和2020年,AIIA工作组由因果会官员领导提供建议并创造了行业自律联合承诺(è¡ä¸èªå¾å ¬çº¦)。这些建议形成了基础有关中国基础法规,有关推荐算法和深层效果。即使中国工业缺乏塑造其国内监管环境的直接权力,它也可以授权与西方公司的努力相匹配,并预示更多的中国公司签署了首尔的承诺。
DeepSeek的快速上升强调了美国决策者的日益严重的挑战:中国模式越来越强大,并且在没有保障的情况下,他们可能威胁到美国国家安全和经济利益。
由于美国和中国政府都支持Frontier Development的AI公司,因此这一挑战已经加剧。中国政府最高的梯队对DeepSeek产生了明显的兴趣。总理李·昆邀请DeepSeek首席执行官Liang Wenfeng为了提供有关政府工作报告草案的反馈,强调了在中国边境AI发展中不断增长的高级政府兴趣。和中国政府宣布了82亿美元的AI投资基金,为中国的成本效益模型提供添加财务资源。
同时,美国加倍努力赢得AI竞赛。唐纳德·特朗普总统宣布一家私人AI基础设施合资企业Stargate,该公司将从Openai,Softbank和Oracle中汇集资源。美国领先的AI公司准备比赛。Scale AI发布了一张全页广告,祝贺特朗普的选举胜利,说,说,亲爱的特朗普总统,美国必须赢得AI战争。
尽管加速了美国 - 中国边境AI竞赛,但2月的巴黎AI行动峰会可能是在Frontier AI风险上共识的转折点。如果越来越多的中国公司签署了首尔承诺并与西方同行一起发布安全框架,它将为以行业领导的安全承诺呼吸新的能源,以此作为缓解全球AI风险的道路。随着美国和中国难以在政府一级达成协议的牵引力,太平洋双方的公司可以在Frontier AI治理上建立临时脚手架,直到政府建立永久性结构为止。
斯科特·辛格
访问学者,技术和国际事务