作者:By Ben Wray
人工智能(AI)很可能是历史上最受欢迎的技术。在半个多世纪的时间里,AI取代大多数或所有人类技能的潜力在科幻幻想与科学任务之间的公众想象中纵横交错。
从2000年代的预测性AI为我们带来了搜索引擎和应用程序,再到2020年代的生成AI,它带给我们的聊天机器人和深击,AI的每一次迭代显然都是朝着人类可观的AI的山顶或现在被广泛称为人工通用情报(AGI)的山顶。
Karen Hao的力量详细分析美国的AI行业人工智能帝国,是她不懈地扎根的方法拒绝玩AI Hype商人的游戏。Hao令人信服地说,专注于AI的未来的假设是错误的,当时它目前的化身充满了许多问题。她还强调,夸大了《厄运》和《潮一代》对即将到来的事情的看法,两者最终都帮助行业的泰坦人建立了当前和未来的AI,最能满足他们的利益。
此外,AI是一个过程,而不是目的地。我们今天拥有的AI本身就是基于在硅谷占主导地位的意识形态,基础设施和IP的路径依赖性的产物。因此,AI正在沿着高度寡头的发展道路进行路线,该道路故意旨在最大程度地减少市场竞争并将力量集中在非常少数的美国公司高管手中。
但是,AI的未来仍然是有争议的领土。在对硅谷泡沫的震惊中,中国成为了我们AI主导地位的严重竞争对手。因此,AI现在以与过去的核和太空种族相媲美的方式移至了大国政治的正面和中心。要了解AI的位置以及它的去向,我们必须在美国找到自己的更广泛的经济和地缘政治背景下对技术进行分析。
Hao的故事围绕Openai围绕Openai,这是旧金山公司Chatgpt最著名的AI Chatbot,它引起了世界的关注。通过其首席执行官山姆·奥特曼(Sam Altman)的考验和磨难,我们被带入了一个马基雅维利人的欺骗和操纵世界,在那里,高falutin的道德野心不断与企业权力的残酷现实相交。阿尔特曼(Altman)幸免于难,但只有垃圾来欺骗他曾经声称相信的一切。
Openai始于建立AGI的使命,该任务受益于人类作为非营利组织,该组织将通过公开共享其研究而不开发任何商业产品来与他人合作。这一目标源于奥特曼(Altman)和开泰(Openai)的第一个主要赞助人埃隆·马斯克(Elon Musk)的信念,他认为,如果以错误的方式发展,AI会给世界带来重大风险。因此,AI需要谨慎的发展和严格的政府监管,以控制它。
因此,Openai是Ai s doomer派别的产物。这个想法是成为第一个开发AGI以最好地将其限制在内的人。Altman最终会翻转OpenAi 180度的事实 - 创建创建一家产生的营利性公司,该公司基于公司的保密性和鲨鱼的极端水平,使其能力在任何速度中取得了巨大的态度,以使其在AI的竞争中脱颖而出。追求财富和权力。
第一次转变向Openai最终将成为其AI发展学说的战略考虑的动机,称为“缩放”。缩放的想法是,AI可以通过大规模数据能力的蛮力来突飞猛进。这反映了对联系主义的虔诚信念,这是一所AI发展学校,比其竞争对手(象征主义)容易得多。
连接主义者认为,AI的关键是建立神经网络,即人脑中真实神经元的数字近似。Openai的大思想家,最重要的是,这是其第一位首席科学家Ilya Sutskever,他认为,如果该公司拥有的数据处理节点(神经元)比其他任何人都多,那么它将位于AI开发的最前沿。问题在于,扩展是一种本质上具有数据密集型策略,需要大量资本 - 远远超过非营利组织能够吸引的资本。
在规模规模的驱动下,Openai在2019年创建了一个营利性部门,以筹集资金并建造商业产品。一旦这样做,Altman和Musk之间就会接任首席执行官。阿尔特曼(Altman)获胜,马斯克(Musk)被淘汰了,一夜之间从盟友转向敌人,指责阿尔特曼(Altman)以虚假的借口筹集资金为非营利组织。这是一种批评,后来将发展为对Openai的诉讼。
但是麝香的意识形态理由是事后的想法。如果他赢得了权力斗争,那么世界上最富有的人计划向他的电动汽车公司特斯拉(Tesla)开放。无论谁成为首席执行官,Openai都走上了像其他任何大型科技巨头一样成为不可逆转的道路。
然而,由于公司的起源,它具有一种奇怪的治理结构,这使董事会级别的控制权几乎是无关紧要的非营利部门,但基于可笑的假装,尽管它新近接受了利润动机,但Openai的使命仍然是为人类建立AGI。有效的利他主义(EA)运动给Openai的奥威尔意识形态戒律提供了一致的贴面。EA提倡最好的做事方式是尽可能富有,然后将您的钱捐给慈善事业。
这种垃圾哲学在硅谷获得了大力支持,在那里追求最大的财富积累并以道德方式证明这一点的想法非常方便。阿尔特曼(Altman)在2025年在专制统治者宣布之后,在2025年与特朗普一起高兴的沙特王子穆罕默德·本·萨尔曼(Mohammed Bin Salman)他自己的AI冒险,体现不可避免的EA姿态最终游戏:权力不可避免地成为其自己的目的。
营利性成立仅四个月后,奥特曼从微软获得了10亿美元的投资。随着Musk的了解,Openai找到了一个替代性的大型技术恩人来资助其扩展。与Google这样的大型竞争对手,OpenAI更愿意践踏数据保护规则,而Openai开始从任何地方和任何地方提取数据,对其质量或内容几乎没有照顾 - 类似于Uber或airbnb的经典技术创业者的心态。
这些数据赏金是推动OpenAi缩放的原材料。在打动微软创始人兼前首席执行官比尔·盖茨(Bill Gates)的愿望的推动下,该公司希望看到Openai创建一个对研究有用的聊天机器人,因此该公司开发了Chatgpt,并期望这将取得中等成功。令所有人惊讶的是,在两个月内,Chatgpt成为历史上增长最快的消费者应用程序。生成的AI时代诞生了。
从那时起,Openai就开始不懈地专注于商业化。但是Chatgpt的冲击波远远超出了公司。Scailing成为AI开发的标准赛车者:观察员认为哪个公司可以大量的计算(数据能力)成为AI Tech竞赛的冠军。Alphabet和Meta开始花费在AI开发上,这使美国政府和欧洲委员会编组的人相形见war。
随着Big Tech竞争生成的AI,资金Rush几乎席卷了该领域的所有人才。这改变了包括大学在内的AI研究的性质,教授越来越多地与一位大型科技运动员联系在一起。随着赌注的增长,公司内部的研究变得越来越秘密,持不同政见者却被拒绝了。公司专有墙正在划分AI开发领域。
我们必须将这种广泛的人工智能发展形式放在其整体结合中。如果在1950年代在美国开发了生成的AI,那么它将消失数年甚至数十年,在很大程度上得到了美国军事研发预算的支持。即使经过商业化,该州仍将一直是该技术的主要购买者数十年。这是发展路径半导体。
然而,在2020年代,在新自由主义时代的尾端,是企业国家的联系在美国推动和框架技术发展,减少了长期思考的激励措施,并阻碍了任何开放的科学探究过程。这将对AI的发展产生长期的后果,无论是对整个社会还是针对美国全球领导力,不太可能是积极的。
AI的神话之一是,这是一种不依赖工人的技术。生成AI重新生产过程基本上有三个部分:提取数据,处理数据以及测试或修复数据。提取部分依靠死亡而不是活着的劳动。例如,Openai从图书馆和学术文章的在线存储库中删除了数据,免费利用数百年的知识劳动。
生成AI的重新数据部分是关于计算能力的,该计算能力仅依赖于人工,仅在计算所需的基础架构(最重要的是数据中心)基于一个长的数字价值链,其中包括台湾芯片制造商和智利铜矿。虽然数据的测试和修复是最常被遗忘的生成AI重新生产的一部分,但它也是最直接取决于工人的部分。
测试和修复生成AI的巨大数据要求需要两种类型的数字工人。第一个是点击工人,也称为数据注释(或数据标签)。这些是演出工人,他们可以通过完成简短的数字任务来赚取零钱,例如对图像中包含的内容进行分类。
点击工人至关重要,因为没有他们,像chatgpt这样的AI系统将带有错误,尤其是在边缘案例:罕见或不寻常的情况下,位于AI分类参数的边界。点击工人将生成AI系统的数据从低级转变为高质量。这对于OpenAI尤其重要,因为公司的大部分数据都是从互联网的沟渠中提取的。
点击工作的入境障碍非常低,因为任何可以访问Internet的人都可以执行最基本的任务。点击工人在全球劳动力市场上运作,与其他工人几乎没有联系,这意味着他们对数字老板的杠杆作用非常有限。因此,工资率是岩石底部,条件不稳定。
豪发现,由于高等教育水平,良好的互联网访问和巨大的经济危机,委内瑞拉成为点击工作的全球温床。美国对委内瑞拉的严厉制裁并没有阻止其AI公司剥削南美国家的绝望和贫穷的劳动力。一旦单击工作外包公司,例如远程审判,他们就会感到最大程度地利用了一个危机危机国家的劳动力开发,或者开始在工作条件上面对阻力,他们只是“从该地点开始的机器人工人,并将工人带到船上的其他地方。
AI行业的第二类工人是内容主持人。由于Openai和其他AI公司正在刮擦互联网的碎屑以获取数据,因此很大一部分饱满了种族主义,性别歧视,儿童色情,法西斯观点以及人们可以想到的其他所有丑陋的事情。没有被过滤互联网的恐怖的AI版本会在其响应中发展这些特征。的确,较早的版本将成为chatgpt的宣传确实引起了新纳粹的宣传,这使Openai的合规团队令人震惊。
该解决方案是转向人类内容主持人,以从AI系统中提取污垢,就像内容主持人多年来通过对社交媒体内容进行维持的方式。与点击工人不同,内容主持人的劳动力往往受到数字泰勒主义政权的影响,而不是其中之一。这采用了呼叫中心风格的设置的形式,在该设置中,工人一直以目标驱动环境的奖金为动机,一直以人类主管和数字监视的注视。
像点击工人一样,他们通过注释数据来完成小数字任务,但是它们注释的数据由人类可以产生的最卑鄙的内容组成。由于他们正在训练AI,因此内容主持人有必要仔细查看所有屏幕上闪烁的血腥细节,以便正确标记每个部分。反复和详尽地接触到这是一场心理健康的噩梦。
Hao遵循Mophat Okinyi的故事,Mophat Okinyi是肯尼亚内容主持人,用于外包公司SAMA,主持Meta和OpenAI内容。Okinyi在SAMA工作的时间越长,他的行为变得不稳定,他的个性改变了,破坏了他的关系,并导致了心理健康支持的螺旋成本。
有报告了我自己的内容适度,我知道Okinyi的案件绝不是出色的。内容主持人的想法是,他们必须反复见证的无情的残酷行为系统地打破了自己的思想,这是一种常态。
尽管大多数点击工作和内容审核是在全球南部进行的,但有迹象表明,随着人工智能变得更加复杂,它将越来越需要全球北方的数据工作者。造成这种情况的主要原因是,从人类反馈(RLHF)到AI发展的增强学习的重要性越来越重要。
RLHF是一种更复杂的数据注释形式,因为点击工人需要比较AI的两个响应,并能够解释为什么一个人比另一个更好。由于AI工具是针对特定行业开发的,因此对专业知识的需求以及对文化特定提示的理解意味着RLHF越来越需要高技能工人进入AI行业。
为了与书的风格保持一致,Hao并未推测RLHF可能会在哪里启用,但值得一试,考虑其对工作未来的潜在影响。如果生成的AI工具可以产生比人类材料一样好或更好的内容,那么这种工具可以替代任何内容生产行业的工人并不是不可想象的。
但是,这并不意味着这些工人的技能将完全消失:例如,对于律师助理而言,仍然需要,但他们的工作是测试和修复律师助理AI。到那时,这些专业服务部门的工作将接触到单击全球南方工人多年来经历的Uberized Work模型。Altman并非一无所有已经说过社会契约将需要一些变化。
当然,关于在广泛的内容生产中生成的真实能力仍然存在重大问号。但是,无论一个人坐在怀疑者和真正的信徒之间的规模中,毫无疑问,AI不仅与工人阶级最贫困地区的工作相关,而且还与习惯于拥有一定程度的金融安全的工人,因为他们的职位更高,因此劳动力市场上的职位更高。将更大的工人池绘制到preatiate乱的范围内可能会带来爆炸性的社会后果。
AI对环境的影响可能与对劳动的影响一样引人注目,甚至更多。生成的AI大量数据使用情况需要巨大的数据中心,并用高能量使用GPU芯片来为其提供服务。这些数据中心需要大量的土地才能建造,并大量的水冷却。随着生成AI产品的使用越来越广泛,行业的生态足迹不断扩大。
hao强调了一些令人惊叹的统计数据和预测。每个AI生成的图像都具有同等的能源消耗,即向智能手机充电25%。AI的用水量可能与2027年英国使用的所有水相匹配。到2030年,AI可能比全球第三大电力消费者的能源更多的能源。
环境后果已经很大。爱荷华州陷入了两年的干旱,Microsoft耗时1150万吨该州的饮用水。乌拉圭是一个经历了反复干旱的国家,在法院迫使其政府揭示Google数据中心使用的饮用水范围之后,大规模抗议活动。这不是干旱,这是蒙得维的亚的涂鸦。
是什么使数据中心的到来集团对于当地人口而言,尤其是难以忍受的事实是,他们几乎没有提供任何好处。数据中心在其所在地几乎没有工作,同时消耗了其土地和水的当地地区,从而积极损害了更多的劳动密集型行业。
尽管如此,遵循缩放学说的逻辑,我们应该期望数据中心随着计算扩展以保持AI的前进而增长。尽管阿尔特曼(Altman)作为获得丰富和自由能源的黄金票的核融合初创公司大量投资,就像阿吉(Agi)一样,这是明天的奇迹疗法的赌注,它分散了AI缩放量的真正问题。
但是,对于世界的生态学来说,这是一个难得的好消息,该规模学说在一月份获得了远东的锤子。DeepSeek是一种中国生成的AI聊天机器人,并迅速超过了Chatgpt,这是美国下载最多的应用程序。
DeepSeek的出色之处不是它的所作所为,而是它是如何做到的。聊天机器人仅需600万美元才能培训约有五十五十的Chatgpt,而某些基准的质量更高。DeepSeek接受了由NVIDIA设计的旧GPU芯片的培训,其质量较低,以符合美国对中国的芯片出口限制。由于其效率,DeepSeek的能源消耗比Chatgpt低90%。这个工程奇迹背后的技术运作是制造的开源,因此任何人都可以看到它是如何完成的。
DeepSeek是一场技术奇迹,是一场地缘政治地震。它不仅标志着中国的到来是一项技术超级大国,而且还表明,整个硅谷所接受的扩展学说是生成AI的首选方法论,证明是曲线的后面。一家中国公司可能使硅谷感到尴尬的震惊是如此之大,以至于它引起了华尔街的恐慌,因为已经投资于美国AI的数万亿美元构成了一个赌注,这是错误的错误。
在一天之内,科技股的市值下降是等效于墨西哥的整个财务价值。甚至唐纳德·特朗普(Donald Trump)也称赞DeepSeek的出现对我们大型技术来说是一个警钟。在X上,Altman击中回应的积极语气,但Openai迅速开始简要媒体DeepSeek可能在创建其聊天机器人时可能会蒸馏出Openai的模型,尽管此后几乎没有听说过这种说法。无论如何,与OpenAI相比,蒸馏可以解释DeepSeek的巨大效率。
不幸的是,DeepSeek没有出现人工智能帝国。豪写道,她于2025年1月(DeepSeek发行的月份)完成了这本书。对于出版商来说,给Hao延长了六个月的延期是明智的,写一章关于DeepSeek和美国的后果,尤其是考虑到这本书中有多少是对教条的批评,即缩放是认真发展AI的唯一方法。
但是,她有在其他地方发表评论关于DeepSeek的戏剧性到达及其对美国AI行业的缺陷:DeepSeek表明,不断地介绍AI模型,这是一个范式的Openai派出和冠军,并不是唯一的,也不是发展AI的最佳方法。
DeepSeek还提出了有关AI发展的意识形态问题。如果一家中国公司能够以开源为基础开发尖端的技术,使其他所有人都有机会测试其创新的基本假设并在其基础上建立,为什么美国公司忙于围绕其技术建造巨型专有软件笼子 - 一种围绕其技术的形式而言,这种形式一定会抑制科学进步的速度?有些人开始询问中国共产主义是否比美国资本主义为人工智能发展提供了更好的生态系统。
实际上,开源与专有方法的问题只是刮擦了社会对人工智能的辩论的表面。最终,DeepSeek和Chatgpt都基于资本主义商业模式,仅具有不同的技术发展原则。虽然Android开源软件操作系统将Google与Apple区分开来,但今天没有人投资Google作为社会公正技术开发的模型。我们应该问的更大的问题是:如果我们能够相信寡头垄断的资本主义企业的技术强大,那么如何管理AI?
豪才真正使自己的牙齿进入这本书的结语中,“帝国是如何跌倒的。Te Hiku试图振兴te reo通过将存档的音频磁带的语言te reo演讲者进入AI语音识别模型,教导新一代的MäOri,他们剩下的人类老师很少。
该技术是根据MäOri社区的同意和积极参与而开发的,它仅获得尊重MäOri价值观的组织的许可。豪相信te hiku表明还有另一种做AI的方法:
模型可能很小且特定于任务,其培训数据包含和可知,从而消除了广泛的剥削性和心理有害劳动实践的激励措施,以及生产和运行大量超级计算机的全部耗尽的提取主义。AI的创建可以是社区驱动的,自愿的,尊重当地环境和历史;它的应用可以提升和加强边缘化的社区;它的治理可能是包容性和民主的。
霍说,更广泛地说,我们应该沿三个轴上的AI重新分配权力:知识,资源和影响力。对于追求AI研究的新方向,持有大型技术来负责或开发基于社区的AI工具等新指导的组织应该有更多的资金。AI培训数据,其环境影响,供应链和土地租赁也应具有透明度。
应支持劳动工会,以在受到自动化威胁的数据工作人员和工人之间发展权力。最后,需要基于广泛的教育来破坏围绕AI的神话,以便公众可以对AI工具的构建方式,其约束以及他们所服务的利益有了更扎实的了解。
尽管这些是重要的想法,但本身就不会威胁到Openai这样的公司的力量。该州显然没有霍的愿景来降低AI技术巨头。关于如何调节AI的问题以及它应该尚未探索的所有权结构人工智能帝国。
也许在特朗普时代,进步主义者之间有一种怀疑的感觉,即国家可以成为巩固企业精英力量的工具以外的任何东西。当面对诸如Openai支持的私营部门合作之类的项目时,很难不愤世嫉俗,以投资5000亿美元的AI基础设施。星际之门是支撑通过特朗普政府的承诺,它将根据需要弯腰和违反法规,以确保该项目获得所需的能源供应 - 一个明确的国家公司联系无缝工作的情况,对整个社会的后果几乎不在乎。
然而,左派可以避开国家权力和人工智能问题。虽然像Te Hiku这样的项目无疑是有价值的,但从定义上讲,它们不能缩减美国AI Capital的集体力量,该国的指挥资源远大于世界许多州。如果像Chatgpt这样的AI工具受到硅谷和硅谷的管辖,我们可能会冒险看到内容生产的主要手段集中在少量的技术男爵手中。
因此,我们需要在桌子上放置大型解决方案。首先,法规:必须有一系列规则对AI公司从何处获取数据,如何培训以及如何管理其算法的规则。此外,所有AI系统都应被迫在严格调节的环境范围内运行:在巨大的生态压力下,生成AI的能量使用不能在行星上自由地成为全部。应禁止使用AI驱动的自动化武器系统。所有这些都应接受严格的独立审核,以确保合规性。
其次,尽管AI行业的市场力量集中受到DeepSeek的到来的打击,但AI内部仍然存在着强烈的趋势,而且实际上在整个数字技术方面都倾向于垄断。分解技术寡头将意味着消除集中力量和控制数据流的看门人。
最后,所有权问题应该是辩论的严重一部分。Te Hiku表明,当AI工具由具有完全不同激励结构的组织构建时,它们可能会产生截然不同的结果。只要人工智能是为了具有竞争性资本积累而设计的,公司将继续寻找利用劳动力,降低环境,缩短数据提取的方法并妥协安全的方法,因为如果他们为竞争对手来说,他们的竞争对手之一就会。
可以想象一个社会化的人工智能对人类的真正援助的世界。AI将是为了帮助工人减少他们在技术和官僚任务上花费的时间,而是将人类的能量集中在解决问题上,并减少工作周的时间长度。人工智能不会吞噬水供应,而是作为资源计划工具,可以帮助识别能源系统内部和跨能量的浪费和重复。
These possibilities are far removed from the fantasies of AGI, whereby artificial intelligence will supposedly become so powerful that it will resolve problems deeply embedded in the social relations of capitalism.Instead, this is a vision for AI that presupposes structural change.
On May 29, the US Department of Energy推文the following message: âAI is the next Manhattan Project, and THE UNITED STATES WILL WIN.â US government agencies are not the only ones to have compared AI favorably to the Manhattan Project.
From the days when OpenAI was just an idea in Altmanâs head, he was proposing a âManhattan Project for AIâ to Musk.When he watchedOppenheimer, the Oscar-winning biopic of the man who led the Manhattan Project, Altmanâs conclusion was that the mushroom cloud over Japan was a bad look for the atomic age â itâs important to get the PR right when it comes to emerging technologies.The obvious moral lesson of the story â the idea that scientists with good intentions can cause monstrous damage by naively assuming they are (and will always be) on the side of the good guys â never seemed to cross his mind.
The Manhattan Project is an imperfect analogy for the AI tech race.While geopolitical tension is undoubtedly growing between the United States and China, with technology at the heart of it, we are thankfully not yet in the midst of a world war.
The point at which the comparison holds best is this: in both cases, the scientists at the technological vanguard were and are the ones most loudly warning about the risks.As in the case of the Manhattan Project, the interests of US politicians in seeing their scientists develop the technology faster than anyone else is drowning out the warnings about the risks for humanity as a whole.
âA nation which sets the precedent of using these newly liberated forces of nature for purposes of destruction,â Leo Szilard, who first developed the concept of the nuclear chain reaction, wrote, âmay have to bear the responsibility of opening the door to an era of devastation on an unimaginable scale.â Today, it is the likes of Geoffrey Hinton, known as the âgodfather of AI,â who are playing the role of Szilard.Hinton resigned from Google over the âexistential riskâposed bythe way the technology is being developed.
Moreover, we donât need to speculate about future risks â we can see it in the here and now.以色列军队已经使用了an AI machine called âLavenderâ to identify âtargetsâ in its genocide in Gaza.Lavenderâs kill list was made up of thirty-seven thousand Palestinians, with no requirement to check why those individuals were on the list.Human input was limited to a rubberstamp process, even though its overseers knew that Lavender makes errors in at least 10 percent of cases.As has been long clear, Palestine serves asa laboratoryfor the use of emerging military technologies, which are refined and then exported to the world.
The Left should actively oppose a Manhattan Project for AI.A frenzied geopolitical competition to develop highly militarized and propagandistic use cases for AI is not in the interests of the United States, China, or the rest of the world.Whether it is Gaza today or Hiroshima and Nagasaki in the 1940s, we should recognize what the United States âwinningâ the tech race in this sense looks like.Loosening the grip of the US corporateâstate nexus over AI should be a key priority for all those interested in a world of peace and social justice.