英语轻松读发新版了,欢迎下载、更新

意见|DeepSeek不是Sputnik:与中国的AI比赛很疯狂

2025-02-01 17:00:00 英文原文

作者:By Garrison Lovely

当Openai于2022年发行Chatgpt时,美国显然领导着世界人工智能。上周,这家中国的初创公司DeepSeek挑战了其R1推理模型,以相当于成本的一小部分与美国模型媲美。

亿万富翁投资者和挑衅者马克·安德森(Marc Andreessen),硅谷最响亮的牛角推文DeepSeek R1是Ai的爆发时刻,援引1957年的苏联卫星发射,刺激了美国在太空竞赛中的支出。他的评论引发了广泛的媒体报道和辩论。

但是安德烈森(Andreessen)既是错误又不信任。

R1令人印象深刻,但这并不是美国突然失去AI比赛的迹象。但是,这是一种最能为安德森(Andreessen)提供广泛的投资组合和更广泛议程的叙述。他的520亿美元风险投资公司Andreessen Horowitz(A16Z)投资于Anduril和Ai Giants等国防技术初创公司,例如Openai和Meta(Andreessen,坐着在董事会上) 

安德森建议特朗普总统,并正在帮助新政府配备人员,将A16Z的合作伙伴处于关键立场:斯科特·库珀(Scott Kupor)作为人事管理办公室的负责人Sriram Krishnan作为人工智能的高级顾问。

被安德烈森(Andreessen)等夸张的索赔提出的敬畏的狂热,可以释放一大堆政府合同,补贴和放松管制,从而奖励AI行业。

美国有没有国家人工智能安全法规,但有几个州正在考虑对强大模型进行护栏的法案。在成功游说加利福尼亚州州长加文·纽瑟姆(Gavin Newsom)在9月否决了一项此类法案之后,安德森(Andreessen)和AI行业可能会利用中国的担忧来推动联邦抢先立法,这将使这些州的努力无效。

中国人工智能主导地位的幽灵也为有利可图的国防合作伙伴关系增添了贡献。Openai和Anthropic对齐与Anduril和Palantir这样的国防技术公司。

通过提出AI行业刚刚获得Sputnik-Ed的想法,Andreessen正在寻求欺骗政策制定者成为他庞大的帝国中无偿合作伙伴。” 

安德森(Andreessen)是一位掠夺者,而不是先知。 

让我们很清楚:人造卫星是苏联太空的胜利,但DeepSeek并没有超越美国AI。R1是在很大程度上取得了令人印象深刻的实施。尽管R1是顶级的开放式系统,但OpenAI即将推出的O3模型的拥有较高基准分数,以及Google DeepMind的新自由推理模型最高额竞争性排行榜(R1是第四)。

DeepSeek的价格为600万美元的价格也忽略了大量的开发费用,仅反映了边际培训成本并掩盖了所需的真正投资。我与我聊天的大多数AI员工都认为公众对R1的反应是对预期的结果的过度反应算法进度

有一个比Sputnik更好的冷战类比:John F. Kennedy在1960年的总统竞选中创造了一个短语。肯尼迪警告说,美国在核导弹中落后于苏联。国防鹰队扩大了这种恐惧,推动了巨大的支出。苏联总理尼基塔·赫鲁晓夫(Nikita Khrushchev)参加了演奏,吹牛苏联正在弹出导弹。

现实?到1961年,国内情报确认的美国为苏联有数十枚远程导弹。但是到那时,叙述已经达到了目的,使那些夸大威胁并丰富国防承包商的人有能力。在1940年至1996年之间,美国在核武器上花费了11万亿美元。 

Openai的首席游说者似乎忽略了讽刺意味,最近也警告了美国与中国的弥补,即使在承认美国目前的优势时。公司经济蓝图呼吁将1750亿美元转移到美国AI基础设施中,警告说,资金将不采取快速行动而流向CCP支持的项目。

今天的疯狂反映了导弹差距的时刻:我们再次相信像安德森(Andreessen)这样的恐惧者,他们会从恐慌中受益。

尽管美国 - 中国AI差距小于导弹差距,但美国AI的进步帮助中国追赶。Openai的推理模型在9月展示了道路。AI创新就像四分钟英里一样:一旦破碎,其他人就会跟随。

安德森(Andreessen)只是技术虚伪的合唱中最响亮的声音。即使是曾经对中国赛车的人的AI领导人也发生了变化。2017年,拟人化的首席执行官达里奥·阿莫迪(Dario Amodei)警告说,美国 - 中国AI竞赛可能会为AI引起的灾难造成完美的风暴。

DeepSeek释放后,Amodei敦促建立自我建议的人工智能以超过中国。同样,Openai首席执行官Sam Altman枢纽主张合作2023年与中国一起断言在7月,我们面临民主和专制AI之间的二元选择。他的鹰派转弯已经回报了 - 特朗普正在考虑快速追踪Openai领导的Stargate,这是一个耗资5000亿美元的美国数据中心项目,这是有道理的,这是有道理的。

这种加速有严重的风险。第一份国际AI安全报告警告该竞争可能会导致开发人员在安全性和生物武器设计等危险能力方面迅速提高安全性。” 

尽管有这些风险,Andreessen还是公开致力于不惜一切代价加速写作在他2023年的技术 - 优势宣言中,我们相信任何人工智能的减速都会付出生命。AI可预防的死亡是一种谋杀的一种形式。中国的恐惧为前进的最终理由提供了理由,由政府合同和没有护栏束缚。

美国不知道如何控制AI的自我辩护方法,而是不知道如何控制APOLLO计划,以确保强大的AI系统为人类提供服务。” 

确保对该技术的安全和负责任的使用是共同的全球当务之急。正如冷战期间核武器控制成为必要的一样,今天的国际AI治理协调至关重要。 

最终,美国和中国需要就如何管理AI达成协议。让我们从导弹缝隙中学习,并明智地投资于对全球安全的优先级优先于制造的恐慌,而自欺欺人的竞赛则是最底层的。

驻军可爱(@garrisonlovely)是Omidyar网络居住的记者,也是即将出版的《过时的书:权力,利润和建造机器超级智能的竞赛》的作者。过时的通讯,他在AI上的著作出现在《纽约时报》,《时代》,《卫报》,《边缘》,《国家》和其他地方。 

关于《意见|DeepSeek不是Sputnik:与中国的AI比赛很疯狂》的评论


暂无评论

发表评论

摘要

DeepSeek发布的R1“推理”模型挑战了美国在人工智能中的统治地位,但并不表示AI种族中美国对美国的损失。亿万富翁投资者马克·安德森(Marc Andreessen)声称,DeepSeek的发射是一个“ AI Sputnik时刻”,引发了辩论和媒体报道,尽管批评家认为这种叙述使他对国防技术和AI初创公司的既得利益s faste。尽管R1令人印象深刻,但它不会超过美国的AI进步。美国缺乏国家人工智能安全法规,但正在考虑州级的任务。安德森(Andreessen)的言论可能刺激联邦立法,从而提高这些努力,并增加政府在AI上的支出,从而使他的投资组合受益。与冷战的“导弹差距”进行比较,强调了对中国能力和随后的恐慌驱动投资的潜在高估。批评者主张关注AI治理方面的国际合作,而不是不受控制的种族。