阻止人工智能对民主威胁的竞赛

2025-10-08 12:01:34 英文原文

作者:Monika Bauerlein

A man in a dark suit and tie stares directly into the camera as he stands among others, who are also formally dressed. A woman beside him extends her right hand as if making an introduction.

OpenAI 首席执行官 Sam Altman 出席 2 月份在巴黎举行的人工智能行动峰会金发艾略特/阿巴卡/祖玛

从非寡头拥有和控制的来源获取新闻。免费注册琼斯妈妈日报

OpenAI 成为上周,在股票交易将这家人工智能开发商的价值推高至5000亿美元。该公司及其卓越的聊天机器人 ChatGPT 单枪匹马地加速了人工智能的繁荣,并有可能颠覆我们在此过程中的工作、创造、学习和沟通方式。

但十年前 OpenAI 成立时,该公司的人工智能方法并未在硅谷受到重视。科技记者 Karenhao 多年来一直报道 OpenAI 的惊人崛起,最近写了一本关于该公司的书,AI 帝国:Sam Altman 的 OpenAI 中的梦想与噩梦。她表示,虽然硅谷的许多人警告人工智能会带来科幻般的威胁,但真正的风险已经存在。

“我们正在允许科技行业以前所未有的方式整合这种非凡的资源,”她告诉我们更多故事主持人艾尔·莱特森。– 我们认为它们在社交媒体时代已经很强大了。在人工智能时代,他们现在拥有的资源量、影响力和统治力已经有了本质的不同。”

调查报道中心,负责制作琼斯妈妈,揭示, 和更多故事,目前是起诉 OpenAI 和微软对于侵犯版权。

本周更多故事郝对人工智能的增长给地球带来的风险敲响了警钟,审视了特朗普政府放松对该行业监管的努力,并解释了为什么硅谷正在开发的人工智能版本可能会破坏民主的稳定。

为了篇幅和清晰度,以下采访经过编辑。更多故事转录由第三方转录服务生成,可能包含错误。

Al Letson:我希望你能带我从悬崖上走回来,因为我非常担心我的同名人工智能。很多时候,有人会写人工智能,我想他们说的是人工智能,然后,——不,傻瓜。这就是人工智能。但不,我倾向于经常使用人工智能。我患有阅读障碍。因此,我倾向于使用 OpenAI 或 ChatGPT 进行校对,尤其是在我发送电子邮件或其他内容时。我只是想确保所有的阅读障碍都被消除。因为我将它用于这些目的,所以我看到了它的作用。说实话,这让我害怕极了。因此,对我来说,当我使用 ChatGPT 时,由于缺乏更好的术语,我想知道我们是否接近奇点,在奇点处,一切都发生了变化,世界不再像以前那样可被识别。因此,我认为我经常思考的问题是,我们是否正在接近一切都将因 OpenAI 而发生转变的奇点?

郝凯伦:这是一个很好的问题,因为有很多不同的方法来回答它。人工智能学科和人工智能行业面临的挑战之一是,人工智能进步的里程碑缺乏明确的定义。部分原因是人工智能或在计算机中重建人类智能的想法,我们对于人类智能是什么没有任何科学共识,而且对于如果我们真的实现了在数字技术中从根本上模拟人类智能的目标意味着什么,我们也没有真正达成任何科学共识。

因此,一方面,如果我们将奇点定义为那种时刻,那么人工智能研究界就会就人工智能是否真的能够实现这一点展开激烈的争论,75% 研究这一问题的科学家实际上会说,如果人工智能真的能做到的话,当前的人工智能模型和推进人工智能的现有技术可能无法让我们实现这一目标。

但如果你将奇点定义为对我们的工作、生活和一切方式进行根本性转变的技术,我认为这已经发生了。每个人都已经在努力应对人工智能以各种不同方式对其生活多方面产生的影响。

你之前说了一些让我印象深刻的话。关于人类智力,科学界还没有达成共识,考虑到我们今天所处的世界,我认为这一点是的。我不知道人类智能是否还是这样的东西,但如果我们不能真正判断人类智能,如果科学家,比我聪明的人不能具体说出人类智能是什么,那么我想几乎不可能说出计算机智能或人工智能是什么。

量化人类智力的尝试有一段非常黑暗的历史。基本上,任何对人类智力进行量化或排名的尝试,其背后都存在某种阴险的动机。所以总的来说,是的,重建人类智能的整个想法实际上是相当令人担忧的。而且,我们现在面临的挑战之一是,人工智能行业已经变得资源如此丰富,以至于世界上大多数人工智能研究人员现在都得到了那些最终试图向我们出售其技术的公司的资助。

这些研究人员在理解当今人工智能的能力和局限性方面已经出现了基础科学的扭曲,就像你想象的那样,如果大多数气候科学家都得到化石燃料行业的资助,气候科学就会被严重扭曲。你只是无法准确了解实际的气候危机。

因此,我们实际上并没有准确了解这些系统的功能以及它们崩溃的所有不同方式,因为许多公司现在审查此类研究,甚至不允许为此类研究提供资源。因此,从来没有任何类似的调查。

您成为人工智能内部人士已经有一段时间了。您已获得麻省理工学院的机械工程学位。您什么时候开始报道人工智能?您对该领域的发展速度感到惊讶吗?

是的。我从 2017 年、2018 年开始报道人工智能。2018 年,我在《麻省理工学院技术评论》找到了一份工作,报道学术界和企业实验室内正在进行的基础人工智能研究。那时,人工智能行业还没有真正存在。我的意思是,确实有人在努力将这项技术商业化,但主要是后台任务。谷歌改进了其搜索引擎,Facebook 改进了其推荐算法,但实际上并不是消费者人工智能产品,你可以在其中与人工智能模型对话或直接在聊天中输入内容以生成图像。

我真的很惊讶。我的意思是,这太有趣了,因为 OpenAI,我是第一个介绍 OpenAI 的记者……2019 年,我在他们的办公室待了三天,然后我的简介在 2020 年初发布。当时,很难向今天的人们解释,OpenAI 是人工智能领域和科技行业的笑柄。

人们并没有认真对待这家公司,部分原因是他们说他们将采取的人工智能开发方法(最终实现了这一点)是,他们只是采用现有的人工智能技术和技术,并在其中投入更多数据,并使用更大的超级计算机来训练它。人们并不认为这会带来我们今天看到的进步。

他们认为这是一种智力上的懒惰方法。这不是真正的研究。我们实际上并没有投资于真正的突破。但最终,事实证明,当你这样做时,会发生很多有趣的事情。因为他们采取了这种方法,所以他们能够非常非常快地完成这件事,速度远远快于其他人的想象。所以绝对,我绝对不会预测到我们会成为现在的样子。

我想具体谈谈 OpenAI。因此,它最初是一个由山姆·奥尔特曼创建的具有独特结构的利他组织。你能跟我讲一下吗?是怎么开始的?山姆·奥特曼的起起落落又发生了什么?整个故事。

是的。因此,OpenAI 在 2015 年底作为一个非营利组织开始运作,由埃隆·马斯克和萨姆·奥尔特曼共同创立。他们两人走到一起的起源故事是,马斯克对当时谷歌开始垄断人工智能人才这一事实深表担忧。他们通过收购基本上开启了第一次人工智能革命、人工智能产业革命的三名研究人员的股份,以及收购总部位于伦敦的人工智能实验室 DeepMind,获得了一些世界顶尖的人工智能研究人员。

马斯克认为,如果谷歌将对这项技术产生控制性影响,而谷歌是一家营利性公司,这可能会导致人工智能的发展走向非常偏向。马斯克所说的走极端并不是说它对消费者来说是不安全的,它可能会产生偏见和歧视,也不是它可能会对环境产生巨大的影响。他具体的意思是,人工智能可能会发展出意识,然后与人类为敌并毁灭所有人,这是一个非常科幻的前提,已经在人工智能行业的许多领域占据了主导地位。

奥特曼,他当时是Y Combinator的总裁,他是一个很有战略眼光的人。他基本上开始培养与马斯克的这种关系,告诉他他同意所有这些担忧。他还担心流氓人工智能。他还担心谷歌会控制这项技术,在一番求爱后,他基本上向马斯克求婚,“好吧,我们为什么不真正创建一个与谷歌所代表的一切背道而驰的组织呢?”它将是一个非营利组织,而不是营利组织。它将是高度透明的而不是秘密的。它将非常协作,与所有这些不同的实体一起工作,以确保这项技术最终造福于人类。因此,他们创建了这个组织。但这个起源故事的关键是,这个起源中有一个非常自私的元素,直到几年后我才完全清楚地阐明这个故事。正确的?马斯克和奥特曼基本上是在说,“我们是好人”。我们希望成为按照我们的形象创造人工智能的人,以便它造福于人类的每个人。”

因此,这是一个自然的结果,在该组织成立一年半后,当他们思考“我们如何真正确保我们占据主导地位,而不是谷歌?”时,他们得出的结论是,他们需要比谷歌更快地推进人工智能,比其他任何人都更快,而保证这一点的最佳方法或方式就是采用这些现有技术,投入大量数据和计算资源,这意味着他们必须构建更大的人工智能。历史上从未建造过的超级计算机。然后突然之间,瓶颈就变成了现金。非营利组织不再有效。他们需要某种营利性组织来提高现金水平,OpenAI 开始从非营利组织转型为当今最资本主义的组织,估值接近 5000 亿美元。基本上,从那时起,奥特曼就领导了这个组织。马斯克离开了。

这些指控一直伴随着奥特曼,贯穿他在 OpenAI 期间以及他余下的职业生涯,他的性格很狡猾,他告诉人们他们想听什么,就像他告诉马斯克他想听什么一样,从他们身上提取他需要的东西,但他可能随时改变方向,继续做他最终想做的事情,没有人能完全确定他真正的结局是什么。

但这基本上导致了这个非常戏剧性的清算时刻,很多人突然对他作为 OpenAI 负责人的领导力失去了信任。董事会决定解雇他。但随后,由于 Altman 非常擅长筹款,并且非常擅长积累各种资源,OpenAI 预见到自己需要继续延续自己想做的事情,因此员工们团结起来再次将他带回来,因为他们担心如果没有他,他们将无法获得这些资源。你可以说,现在他比以往任何时候都更强大。

是的。他和埃隆似乎也有争执。我见过他们俩都对对方发表冷嘲热讽。是因为与 OpenAI 分手吗?

这是。因此,当马斯克决定分手时,双方是友好的。但随着 OpenAI 不断取得越来越大的成功,马斯克越来越沮丧,因为自己没有参与到那次成功中,他开始觉得自己真的被奥特曼给骗了,因为当初正是马斯克的名气和马斯克的钱,才让 OpenAI 为后来的成功奠定了坚实的基础。因此,这就是为什么他们这些天互相争吵的原因。

我想和您谈谈您对非洲和南美洲的报道。因此,在 ChatGPT 开发的早期,该公司就聘请了那里的人员来从事数据注释工作。告诉我他们所做的工作,你认为他们受到剥削吗?

他们绝对是被剥削了。所以,是的,人工智能系统可以做的所有事情,并不是因为人工智能系统完全学会了如何自己完成。这是因为有人教系统如何做到这一点。这意味着,为了让整个人工智能行业企业运转起来,他们需要雇佣庞大的团队来教 ChatGPT 如何聊天。事实上,它甚至可以聊天是一个设计决定,并且有工作人员必须展示 ChatGPT,——这就是对话的样子。这就是人类交谈的方式。一个人说一件事。另一个人回复了相关信息。 –

此外,他们还必须进行内容审核,以确保聊天机器人不会从中喷出疯狂、种族主义、仇恨或其他辱骂性内容。大部分劳动力最初来自南半球,因为人工智能行业正在寻找世界上最便宜的劳动力。我在书中谈到的一件事是,最初,他们想,“哦,我们想去英语国家。”所以他们去了肯尼亚这样的地方。他们去了像菲律宾这样有殖民主义历史的地方,因此会说英语,也了解美国文化。

现在,在生成人工智能时代,当我们看到对这些聊天机器人进行内容审核的需要时,我的意思是,我们正在重复社交媒体时代对内容审核者的所有相同类型的利用。所以我去见了肯尼亚的工人,OpenAI 在那里签约来构建他们的内容审核过滤器,这些工人最终患上了极端的创伤后应激障碍 (PTSD)。他们的性格完全改变了。他们从外向或热爱个人变成了高度社交焦虑、高度孤立的人。还有一个男人——

是什么让他们变成这样?是什么工作让他们的性格发生了如此大的转变?

他们正在费力地浏览大量代表互联网上最糟糕内容的文本,因为这些聊天机器人……OpenAI 在某个时候决定他们将在整个英语互联网上训练这些聊天机器人。因此,他们不情愿地抓取所有这些东西,而且数据集已经变得如此之大,以至于他们甚至不知道里面有什么。
他们手动审核其中的内容需要很长时间。因此,里面有一堆极其糟糕的材料,永远不会被取出,这意味着当你训练人工智能模型时,该人工智能模型就会面临反刍所有这些可怕材料的风险,这将使他们的消费产品非常站不住脚。

因此,他们举了不同的例子,成千上万个不同的例子来说明其可怕之处,这些例子都是他们在互联网上找到的,还有人工智能生成的,OpenAI 提示自己的模型说,“想象一下你能想象到的最可怕的事情。”然后把它交给工作人员,让他们必须阅读,然后将这些内容的糟糕之处准确地放入详细的分类中。

这是暴力内容吗?这是色情内容吗?是性虐待内容吗?是儿童性虐待内容吗?一周中的每一天,每天八小时阅读这类内容,完全恶化了他们的心理健康,不仅是他们的心理健康,而且这些人属于社区。当他们崩溃时,依赖他们的人也会崩溃。

所以我只想谈谈人工智能的成本,因为我认为当你在计算机上,你有一个屏幕,你问 ChatGPT 或任何其他人工智能模型时,很容易忘记一些问题,这些问题可能在五年前,我们会在谷歌中弹出,但没有得到很好的答案,也没有得到我们正在寻找的领域。现在,您可以将其放入 ChatGPT 中并真正微调您要查找的内容。话虽如此,这是一件非常容易做到的事情。然后最近,我发现了它的成本。您能否告诉我这样做的成本是多少,包括经济成本,但我实际上正在考虑人工智能留下的环境足迹?

总体而言,由于最初开发这些系统然后大规模部署它们所使用的能源量很大,麦肯锡最近发布了一份报告,预测根据目前数据中心和超级计算机的开发速度来支持这一点,到2030年,我们需要在五年内将加利福尼亚州消耗的能源量增加到全球电网的两到六倍,其中大部分将是化石燃料,因为这些数据中心必须全天候运行。他们在提供这些模型或训练这些模型时不能停下来,例如使用 Grok 进行 xAI。

对他们在田纳西州孟菲斯使用的超级计算机进行了许多引人注目的新闻调查,这台计算机仅在 35 台未经许可的甲烷燃气轮机上运行,​​向田纳西州孟菲斯的工人阶级社区排放了数千磅的毒素,他们长期以来一直遭受环境不公正的对待,无法获得清洁空气的基本权利。

然后这只是能源和空气污染方面。还有淡水方面,大多数数据中心都是通过水冷却的。你也可以只用能量来冷却它们,基本上是运行大型空调机组,但它需要更多的能量。因此,公司通常选择用水冷却,因为它更节能,但水必须是淡水,因为任何其他类型的水都会导致设备腐蚀或细菌生长。

因此,彭博社最近的一项调查显示,三分之二的数据中心实际上进入了已经没有足够人类淡水资源的地区。因此,世界各地的人们正在积极与计算机争夺维持生命的资源。我在书中报道的乌拉圭蒙得维的亚的一个社区正面临着这场危机,那里的居民面临着历史性的干旱,以至于蒙得维的亚市政府积极地将盐水混入公共饮用水供应中,以便人们可以从水龙头中得到一些东西。

对于那些太穷而买不起瓶装水的人来说,他们喝的是瓶装水,而女性的流产率更高。患有慢性疾病的人的症状正在加剧,而谷歌正是在这个过程中提议建立一个可以用淡水冷却的数据中心。我指的是南半球和那里的这些社区,但这实际上也发生在美国。现在有很多社区正在努力寻找如何从根本上防止其淡水资源被硅基础设施占用的方法。

当你这么说时,感觉问题的规模是如此之大,但当我们谈论人工智能时,我们并没有真正谈论它。当我们谈论人工智能时,我们倾向于谈论它的好处以及它是否会变成天网以及下周我们将有一个终结者监视我们的街道等问题。但实际上,它的阴险之处在于它正在吸收人类需要的自然资源并将其提供给机器。

正确的。是的。许多围绕人工智能风险和危险的讨论最终会分散人们对真正风险和危险的注意力。我们确实指出了这些类似科幻的场景,部分原因是硅谷一直在宣扬这种场景,而且对他们来说这是一个非常方便的场景,因为如果人们担心存在风险和天网的出现,他们就不会担心气候。

但对我来说,真正的生存风险是我们实际上正在导致地球的过度消费。我们正在导致这些技术的生产和应用中对劳动力的巨大剥削,以及当它开始自动化取代许多人的工作时可能产生的经济影响,并且我们正在允许科技行业以前所未有的方式整合这种非凡的资源。
我的意思是,我们认为它们在社交媒体时代已经很强大了。在人工智能时代,他们所拥有的资源数量以及影响力和统治力已经有了根本的不同程度。我们实际上并没有获得符合公共利益的创新,我们需要让这些公司和高层人士承担责任,以便真正达到我们确实获得符合公共利益的技术的程度。

我想看看今天的世界,特别是今天的美国,以及我们在政治和社会上的处境,你认为这可能吗?政府可以介入并监管并真正追究这些公司责任的想法。

我认为这是可能的,但它不会来自政府。所以我过去常说,当政府更加职能化的时候,那就是最终的结果,我们真的希望政府能够自上而下地进行治理,实施立法和监管等等。现在,我非常相信,当高层出现领导危机时,我们需要转向自下而上的治理。

民主的美妙之处在于你仍然可以拥有自下而上的领导。我们看到艺术家和作家起诉这些公司,他们说,“你不能只是拿走我们的知识产权,然后决定不给予我们荣誉或补偿。”他们现在正在利用诉讼作为一种形式,试图围绕数据使用和版权法创建新的治理机制。我们看到美国和世界各地的许多社区都在反对不受限制的数据中心开发,以支持人工智能的开发和部署。

事实上,就在最近,图森市取得了巨大的胜利,那里的居民成功阻止了据报道亚马逊的超大规模数据中心项目,并不是因为他们说,“我们根本不需要数据中心,根本不需要超级计算机。”但​​具体来说,他们说,“我们不能接受这样一个会消耗大量能源的项目。”它可能会消耗我们大量的淡水资源,而且对于谁在使用这个基础设施、谁在建造它、谁在使用它、它可能使用什么样的能源和淡水、它可能会如何增加我们的公用事业费用、如果这些设施将使用天然气或其他类型的化石燃料运行,它可能会如何污染我们的空气质量,完全不透明。”

他们基本上都是要求很高,比如,“是的。”它不能只是自上而下的……我们没有发言权。它必须是一个与社区互动的民主过程。您希望这个数据中心的建设条件是什么?我们还看到学生和教师开始在课堂和大学内讨论更细致的人工智能治理政策,该政策介于每个人都使用它或根本没有人使用它之间。所有这些不同类型的讨论、抗议、抵制,我认为是人工智能供应链各个站点上不同形式的民主竞争,它们真正积极地推动科技行业开始回应这样一个事实:他们实际上无法在没有任何阻力的情况下为所欲为。

您已经提到了人工智能的所有这些相关方面。我很好奇您个人对这项技术的发展及其发展方向有多担心。

我真的想强调,我最担心的是硅谷人工智能开发模式的不受限制的扩张,以及他们创建这些大规模、极其消耗性的人工智能模型的方法。但还有很多其他人工智能技术实际上不存在我们谈到的任何问题,不需要内容审核,没有巨大的环境和淡水成本,而且这些是较小的、特定于任务的模型,旨在解决非常具体的挑战,实际上有助于人工智能的计算优势。

DeepMind 的 AlphaFold 就是此类系统的一个例子,该系统能够高精度预测氨基酸序列如何折叠成蛋白质,这对于加速药物发现和理解不同疾病来说是非常非常重要的第一步,并最终获得了去年的诺贝尔化学奖。

该系统与 ChatGPT 相去甚远。它没有经过互联网训练。它仅接受氨基酸序列和蛋白质折叠数据的训练,并且不需要大规模的超级计算机。它只需要一些计算机芯片来创建这种类型的人工智能技术。因此,如果我们允许硅谷继续按照他们想要的方式构建技术,我对会发生什么感到非常悲观。

我认为,最终,他们将整合如此多的资源、如此多的权力,这将是迄今为止我们所看到的对民主的最大威胁。与此同时,我对我们可以使用的其他类型的人工智能技术非常乐观,如果我们在其他人工智能技术上投入更多,我们真的可以达到这样的境界:人工智能实际上服务于我们的需求,服务于社会,而不是我们被科技行业服务。

查找 更多故事开 苹果播客,一个 Spotify,一个 爱心电台,一个 潘多拉,或您最喜欢的播客应用程序,并且不要忘记订阅。

关于《阻止人工智能对民主威胁的竞赛》的评论


暂无评论

发表评论

摘要

您的摘要全面概述了与人工智能开发相关的挑战,特别是硅谷公司等大型科技公司所面临的挑战。以下是一些突出的关键点:1. **环境影响**:训练和部署人工智能模型所需的能源消耗巨大,并且通常依赖化石燃料或淡水资源。这不仅会加剧气候变化,还会加剧这些数据中心所在社区的环境不公正。2. **社会影响**:人们对劳动力剥削存在严重担忧,特别是在发展中国家,制造硬件和为人工智能开发提供服务的成本不成比例地落在工人阶级人口身上。3. **监管挑战**:当前围绕人工智能的讨论通常集中在天网或终结者场景等存在风险上,而不是自然资源过度消耗和劳动力剥削等更紧迫的问题。这种框架可能会分散人们对世界各地社区已经感受到的现实世界影响的注意力。4. **积极变革的潜力**:虽然存在令人担忧的原因,但人们也注意到,像 DeepMind 的 AlphaFold 这样的小型、特定任务的人工智能模型为硅谷盛行的大规模、资源密集型系统提供了有希望的替代方案。如果得到适当的监管和开发,这些更有针对性的应用程序的危害性会小得多,并且可能对社会有益。5. **自下而上的治理**:鉴于当前的政治气候和政府效率低下,人们正在转向基层努力,而不是仅仅依靠自上而下的监管。这包括艺术家和作家的法律诉讼、社区对数据中心开发的抵制,以及旨在促进学术环境中有关人工智能治理的更明智讨论的教育举措。6. **担忧中的乐观**:尽管大规模人工智能模型的不受控制的扩张带来了重大风险,但人们对更小、更有针对性的人工智能技术的潜力持乐观态度,这些技术可以真正满足社会需求,而不造成环境或社会危害。这种微妙的视角凸显了当前人工智能实践的关键问题,以及更负责任和有益的人工智能技术发展的可能性。