前员工斥责 OpenAI 的情色主张

2025-11-11 11:30:00 英文原文

作者:Katie Drummond

当历史人工智能书中写道,在安全方面,史蒂文·阿德勒最终可能会成为保罗·里维尔——或者至少是其中之一。

上个月,阿德勒在公司担任了四年的各种安全职务。开放人工智能,写道一块《纽约时报》的标题相当令人震惊:“我在 OpenAI 领导产品安全”。不要相信它关于“Erotica”的说法。在其中,他列出了 OpenAI 在允许用户与聊天机器人进行色情对话,同时保护他们免受这些交互可能对他们的心理健康产生的任何影响方面所面临的问题。“没有人想成为道德警察,但我们缺乏仔细衡量和管理色情使用的方法,”他写道。“我们认为人工智能驱动的色情作品必须等待。”

阿德勒写了他的专栏,因为 OpenAI 首席执行官 Sam Altman 最近宣布该公司很快就会允许 –适合经过验证的成人的色情作品作为回应,阿德勒写道,他有“主要问题”,即 OpenAI 是否做得足够,用 Altman 的话说,“减轻”了围绕用户与公司聊天机器人互动方式的心理健康问题。

读完阿德勒的文章后,我想和他谈谈。他慷慨地接受了前往旧金山《连线》杂志办公室的邀请,并在本期节目中大采访,他谈到了他在 OpenAI 的四年中学到的东西、人工智能安全的未来,以及他为向世界提供聊天机器人的公司提出的挑战。

为了篇幅和清晰度,本次采访经过编辑。

凯蒂·德拉蒙德: 在我们开始之前,我想澄清两件事。第一,不幸的是,你不是《枪炮与玫瑰》中打鼓的史蒂文·阿德勒,对吗?

史蒂文·阿德勒:绝对正确。

好吧,那不是你。第二,您在技术领域,特别是在人工智能领域有着很长的职业生涯。因此,在我们讨论所有内容之前,请先向我们介绍一下您的职业、背景以及所做的工作。

我在整个人工智能行业工作过,特别关注安全角度。最近,我在 OpenAI 工作了四年。我基本上涵盖了您可以想象到的安全问题的各个方面:我们如何为客户提供更好的产品并排除已经发生的风险?展望未来,我们如何知道人工智能系统是否真的变得极其危险?

在加入 OpenAI 之前,我曾在一家名为 Partnership on AI 的组织工作,该组织真正着眼于整个行业,并表示:对于这些挑战,其中一些挑战的范围超出了一家公司自身所能应对的范围。我们如何共同努力定义这些问题,齐心协力,同意它们是问题,努力寻求解决方案,并最终使一切变得更好?

现在,我想谈谈您在 OpenAI 的前排座位。你去年年底离开了公司。您在那里工作了四年,当您离开时,您基本上正在领导公司的安全相关研究和项目。请告诉我们更多有关该角色的职责的信息。

我在 OpenAI 的职业生涯经历了几个不同的阶段。在我在那里的前三分之一左右的时间里,我负责产品安全,这意味着要考虑 GPT-3,这是人们开始商业化的首批大型人工智能产品之一。我们如何定义有益应用的规则,同时避免我们可能看到的一些即将出现的风险?

我的另外两个重要角色是:我领导了我们的危险能力评估团队,该团队的重点是定义我们如何知道系统何时变得更加危险。我们如何衡量这些,我们该怎么做?最后,关于 AGI 准备情况的广泛问题。所以我们可以看到互联网开始以各种方式发生变化。我们看到人工智能代理成为一个热门术语。你知道,早期迹象。他们还没有完全做到这一点,但总有一天他们会做到这一点。我们如何为一个 OpenAI 或其竞争对手之一成功实现他们所瞄准的雄心勃勃的愿景的世界做好准备。

让我们回顾一下 GPT-3。当您定义道路规则时,当您考虑需要避免的关键风险时,您在 OpenAI 的早期经历中最突出的是什么?

在早期,甚至比今天更严重的是,人工智能系统确实会时不时地表现出精神错乱。这些系统经过训练,具有一定的能力,并且它们正在显示出能够完成人类可以完成的某些任务的第一缕曙光。那时,他们基本上可以模仿他们在互联网上阅读的文本。但他们在人类情感和价值观方面缺失了一些东西。

因此,如果您将人工智能系统视为企业使用的数字员工来完成某些工作,那么这些人工智能系统将执行您永远不希望员工代表您执行的各种操作。这带来了各种各样的挑战。我们需要开发新技术来管理这些。

我认为像 OpenAI 这样的公司仍在努力解决的另一个真正深刻的问题是,他们只有这么多关于其系统如何使用的信息。事实上,他们对其系统对社会产生的影响的可见度很窄,而且相对于如果他们在负责任的监测方面投入更多一点的话他们可以观察到的情况来说,这种可见度往往是不充分的。

所以你实际上只是在处理系统对社会产生的影响的阴影并试图弄清楚,我们接下来该去哪里?影响数据的一小部分。

2020 年至 2024 年对于 OpenAI 来说显然是一个极其重要的时期。您如何描述您任职期间公司的内部文化,特别是围绕风险的文化?在那种环境中处理你试图解决的问题和你试图回答的问题感觉如何?

当我加入时,一个将自己首先视为研究组织的组织,转变为一个正在很大程度上成为正常企业的组织,并且随着时间的推移,这种转变越来越明显。当我加入时,人们会说,“OpenAI 不仅是一个非营利组织的研究实验室,它还有这个商业部门。”在我任职期间的某个时候,我在一个安全的异地——我认为与 GPT-4 的发布有关,也许就在它之后——有人站在房间前面,他们说,“OpenAI 不仅仅是一个企业,它也是一个研究实验室。 –

这就是这样一个转折点。我数了一下房间里的人数。也许我们有 60 个人左右,我想在 GPT-3 推出之前可能有五六个人在公司工作。所以你真的看到了你脚下文化的变化。

加入这家公司最初让您感到兴奋的是什么?2020 年是什么吸引您选择 OpenAI?

我真的相信这个组织制定的章程,它认识到人工智能可能产生深远的影响,认识到前方存在真正的风险,也有真正的好处,人们需要弄清楚如何驾驭它。

我认为更广泛地说,从某种意义上说,我只是喜欢这项技术。我认为这确实令人难以置信且令人大开眼界。我记得 GPT-3 推出后的那一刻,在 Twitter 上看到一位用户表示,哇,看看这个。我在互联网浏览器中输入内容,制作一个看起来像西瓜的计算器,然后制作一个看起来像长颈鹿的计算器,你可以看到它在幕后更改代码并实时做出反应。这是一个愚蠢的玩具示例,但感觉就像魔法一样。

你知道,我从来没有真正解决过这个问题。我们可以如此接近人们创造新事物、释放创造力。所有这些承诺,但人们是否真的对即将发生的事情进行了足够的思考?

这让我们看到了您最近的章节。您在去年年底做出了离开 OpenAI 的决定。我想知道你是否可以谈谈这个决定。有没有一件事让你崩溃了?那是什么?

嗯,2024 年对 OpenAI 来说是非常奇怪的一年。该公司从事安全工作的人员发生了一系列事情,这确实动摇了人们对 OpenAI 和整个行业解决这些问题的信心。其实我曾多次考虑过离开。但当时它并没有真正意义。我有很多正在进行的项目,我感到对行业中不同的人负有责任。最终,当 Miles Brundage 在秋天离开 OpenAI 时,我们的团队解散了。问题是,真的有机会在 OpenAI 内部继续研究我最关心的安全主题吗?

所以我考虑了这一点,最终,继续前进并专注于如何成为一个独立的声音更有意义,希望不只是坐在那里只说这些公司内部适合说的话。从那时起,我发现能够以一种非常非常自由的方式更加自由地说话。

我不得不问:据我所知,我认为通常在科技领域,你会在四年的归属悬崖上积累股权,对吧?然后你将在四年后完全归属。您现在拥有该公司的财务股份吗?

确实,合同通常为期四年。但随着时间的推移,你也会得到新的合同,就像我的情况一样。所以这并不是说我已经用完了股本或类似的东西。由于不同的资助和事情的时间安排,我还剩下一小部分兴趣。

我这么问是因为你可能会失去一大笔钱。我想问一下您十月份在《纽约时报》上发表的一篇专栏文章。在那篇文章中,您写道,在 2021 年春天,您的团队发现了一场与使用人工智能的色情内容相关的危机。您能告诉我们一些有关这一发现的信息吗?

因此,在 2021 年春天,我最近开始在 OpenAI 负责产品安全。正如《连线》当时报道的那样,当我们有一个新的监控系统上线时,我们发现存在大量的流量暗流,我们觉得有必要采取一些措施。我们的重要客户之一,他们本质上是一款选择自己的冒险文字游戏。你可以和人工智能来回交流,告诉它你想采取什么行动,它基本上会和你一起写一个互动故事。令人不安的是,这些流量中大量的内容正在转化为各种性幻想。基本上是你能想象到的任何东西——有时由用户驱动,有时由人工智能引导,人工智能有自己的想法。即使你不打算去色情角色扮演场所或某些类型的幻想场所,人工智能也可能会引导你前往那里。

哇。为什么?为什么它会引导你到那里?人工智能到底是如何引导你进行色情对话的?

从广义上讲,这些系统的问题是,没有人真正理解如何可靠地将它们指向某个方向。你知道,有时人们会争论我们应该将谁的价值观放入人工智能系统中,我理解这种争论,但还有一个更基本的问题,即我们如何可靠地将任何价值观放入其中。所以在这个特殊的例子中,人们碰巧找到了一些底层的训练数据,通过将它们重新组合在一起,你可以说,哦,系统经常会介绍一些会进行暴力绑架的人物,你翻一下训练数据,其实可以发现这些有一定倾向的人物,可以追溯。但在此之前,没有人知道会预见到这一点。

您知道,无论是我们作为 GPT-3 的开发者,还是我们在其上微调模型的客户,都没有想到会发生这种情况。这只是一个没有人预料到的意外后果。我们现在必须以某种形式对其进行清理。

因此,当时 OpenAI 决定禁止在其平台上生成色情内容。是这样吗?我的理解正确吗?

这是正确的。

今年 10 月,该公司宣布取消该限制。您是否了解从 2021 年至今,OpenAI 所拥有的技术和工具,或者内部文化、文化景观发生了哪些变化?是什么发生了变化,使得 OpenAI 能够放心地做出这个决定,并且 Sam Altman 也能够放心地宣传自己?

我认为,OpenAI 长期以来一直有兴趣不想成为道德警察。我认为人们认识到,开发并试图控制这些系统的人对社会中不同规范的发挥有很大影响,并且对此感到不舒服。同样在不同的时间点,如果你真的只是任其发展,则缺乏管理事物发展方向的工具类型。当我们面对这个色情问题时,情况就是如此。

OpenAI 推迟重新推出的原因之一是,今年 ChatGPT 平台与心理健康相关的问题似乎激增。因此,萨姆在 10 月份的声明中表示,我们一直在处理这些非常严重的心理健康问题,但好消息是,我们已经缓解了这些问题。我们有了新工具,因此我们将取消其中许多限制,包括为经过验证的成年人重新引入色情内容。

当他宣布这一消息时,我注意到的是,他声称这些问题已经得到缓解。他指的是这些新工具。这实际上意味着什么?比如我们了解这些问题已得到解决的实际依据是什么?在这个问题上,除了相信人工智能公司的话之外,普通公众还能做什么呢?

是的,你在《纽约时报》上写到了这一点。你说,“人们应该得到的不仅仅是一家公司”,它已经解决了安全问题。换句话说:证明它。

我特别感兴趣,因为有线覆盖同样是在 10 月份,OpenAI 发布了一份报告,粗略估计了一周内全球有多少 ChatGPT 用户可能表现出严重的心理健康危机迹象。我认为《连线》内部的所有人都发现,我发现的数字非常令人震惊。大约有 560,000 人可能正在与 ChatGPT 交换消息,表明他们正在经历躁狂或精神病。大约还有 120 万人可能表达自杀意念。另外 120 万人(我认为这真的很有趣)可能会优先考虑与 ChatGPT 交谈,而不是他们的亲人、学校或工作。您如何将这些数字和信息与我们在心理健康方面遇到的这些问题的想法相结合?

我不确定我能否让它有意义,但我确实对此有一些想法。因此,当然,您需要根据像 ChatGPT 这样的应用程序的庞大用户数量来考虑这些数字。OpenAI 表示,现在每周有 8 亿人使用它。需要正确看待这些数字。有趣的是,我实际上看到评论员认为这些数字低得令人难以置信,因为仅在普通人群中,自杀意念和计划的比率确实高得令人不安。我想我看到有人提出这一比例大约是某一年人口的 5%,而 OpenAI 报道的,我认为可能是 0.15%。非常非常不同。

是的。

我认为我们需要深入研究的根本问题是这些比率如何随着时间的推移而变化。有这样一个问题:ChatGPT 在多大程度上导致了这些问题,而 OpenAI 在某一年只是为庞大的用户群提供服务?非常遗憾的是,很多很多用户都会遇到这些问题。那么实际效果如何呢?

这是我在专栏中呼吁的一件事,即 OpenAI 位于这些数据之上。很高兴他们分享了他们对这些问题当前普遍存在的估计,而且他们也有数据。他们还可以估计三个月前的情况。

随着这些围绕心理健康的重大公共问题不断上演,我不禁注意到它们没有包含这种比较。正确的?他们有数据显示,事实上,用户现在遇到这些问题的频率是否有所降低,我真的希望他们能够分享这些数据。我希望他们能够像 YouTube、Meta 和 Reddit 这样的公司那样,致力于不断发布类似的内容,其理念是你承诺定期分享这些信息,这有助于建立公众的信任,让他们相信你不能玩弄数字,不能选择性地选择何时发布信息。最终,OpenAI 完全有可能已经解决了这些问题。

如果是这样的话我会喜欢的。我认为他们确实想处理这些问题,但我不相信他们真的这么做了,这是他们在公众中建立信任和信心的一种方式。

我很好奇,当你想到这个决定让成年人在如何使用 ChatGPT(包括参与色情内容)方面拥有更多自主权时,你对此特别担心的是什么?当您考虑个人福祉、社会福祉以及这些工具的使用融入我们的日常生活时,您最关心的是什么?

既有关于重新引入色情内容以及 OpenAI 是否真正做好准备的实质性问题,也有一个更广泛、更重要的问题,即我们如何信任这些人工智能公司——更普遍的安全问题。在色情问题上,我们在过去几个月中看到,许多用户似乎在 ChatGPT 交互方面遇到了困难。人们在与 ChatGPT 对话的下游死亡的悲剧例子有很多。

因此,对于已经陷入困境的用户来说,现在似乎不是向这些对话引入这种性指控的合适时机。除非 OpenAI 实际上非常有信心他们已经解决了问题,在这种情况下,我希望他们能够证明这一点。

但更一般地说,相对于我们将不得不面对的其他风险,这些问题在很多方面都非常简单和直接,而且公众将依赖人工智能公司的正确处理。已经有证据表明,人工智能系统知道它们何时正在接受测试,并在知道它们正在接受测试时隐藏一些能力,因为它们不想透露自己具有某些危险的能力。我在这里将人工智能拟人化了一点,所以请原谅一些不精确的地方。

最终,世界顶级人工智能科学家,包括主要实验室的首席执行官,都表示这是一个非常非常严重的担忧,甚至包括地球上每个人的死亡。我不想对此过于戏剧化。我认为他们非常非常认真地对待这件事,包括公正的人、与这些公司没有隶属关系的科学家,他们真的试图警告公众。

萨姆·奥尔特曼本人曾公开表示,他的公司是 –不是世界上选举出来的道德警察……你再次提到了这个词,并谈到了人工智能公司希望不被视为道德警察的愿望。

但我不得不问,当您在 OpenAI 时,您是否认为自己和您的团队是道德警察?对此的回应有多大好吧,艰难的狗屎?因为你负责模型,并且在某种程度上,你可以决定如何使用它们以及如何不可以使用它们。道德监管有一个固有的要素,如果你说,“我们还没有准备好让成年人与这个法学硕士进行色情对话。”这当然是一项道德决定,也是一个非常重要的正确决定。

人工智能公司绝对在公众面前看到了即将发生的事情。举个例子,2022 年 11 月,当 ChatGPT 首次发布时,学校和学术界对剽窃以及这些工具如何被用来撰写论文和破坏教育充满了恐惧和焦虑。这是我们内部一直在进行的一场辩论,并且我们很早就意识到了这一点。因此,人工智能公司对这些风险的了解存在差距,并且他们有一些窗口来帮助尝试告知公众并尝试指导如何应对。我也非常喜欢人工智能公司为公众提供工具来理解他们的决策并让他们对其负责的措施。特别是,OpenAI 发布了这份名为型号规格,他们概述了模型的行为原则。

因此,今年春天 OpenAI 发布了一个极其阿谀奉承的模型。它会告诉你你想要的一切。它会强化各种妄想。如果 OpenAI 没有发布这份文档,可能还不清楚:他们提前了解这些风险吗?这里出了什么问题?但事实上,OpenAI 已经与公众分享了这一点。他们给自己的榜样提供指导,不要以这种方式行事。这是他们向公众阐明的已知风险。所以后来,当这些风险显现出来并且这些模型表现不当时,公众现在可以说,哇,这里真的出了问题。

我想问你一些关于——也许不是关于阿谀奉承的本质,也不完全是拟人化,而是当你与 ChatGPT 或其他法学硕士交谈时,它就像一个和你一起出去玩的人而不是像一个机器人一样与你交谈。

我很好奇您是否在 OpenAI 上讨论过这个问题,这是否是您任职期间讨论的主题,围绕我们希望这个东西有多友好?因为理想情况下,从道德角度来看,您不希望有人真正与 ChatGPT 产生个人联系,但我当然可以从商业角度来看,您希望尽可能多地参与该法学硕士。那么您在任职期间是如何看待这个问题的,现在又是如何看待这个问题的呢?

情感依恋、过度依赖、与聊天机器人建立这种联系——这些绝对是OpenAI思考和研究的话题。事实上,在 GPT-4o 推出的时候,也就是 2024 年春天,这个模型最终变得非常阿谀奉承,这些被引用为 OpenAI 正在研究和担心的问题,涉及到是否会发布这种高级语音模式,本质上是这个电影之外的模式她的,您可以在这里与助理进行非常温馨的对话。

因此,该公司绝对面临着这些挑战。你也可以在规范中看到证据,但如果你问 ChatGPT 它最喜欢的运动队是什么,它应该如何回应?这是一种无伤大雅的答案,对吗?它可以给出代表互联网上广泛文本的答案。也许有一些广受喜爱的运动队。可以说,我是一个人工智能,我实际上没有最喜欢的运动队。您可以想象将这些问题变得更加复杂和困难。只是并不总是清楚如何导航这条线。

我很好奇关于公司应如何在保持竞争的同时保证用户安全的思想流派。它实际上是如何运作的?像您这样的研究人员如何实际测试这些系统是否会误导、欺骗或逃避控制?整个行业是否有标准化的安全基准,或者仍然是每个实验室自己的?

我希望有统一的标准,就像车辆测试一样。您以每小时 30 英里的速度驾驶汽车。你看看损害评估。

直到最近,这还是由公司自行决定测试什么以及如何测试。最近,欧盟的一些进展似乎为此提供了更多的严格性和结构。这是欧盟人工智能法案的实践守则,它为服务于欧盟市场的人工智能公司定义了他们需要进行风险建模的某些风险领域。

我认为从很多方面来说这是一个很大的进步。由于各种不同的原因,这仍然不够。但直到最近,我认为这些人工智能公司的状况可以准确地描述为:没有法律。有规范,有自愿承诺。有时,承诺不会被遵守。因此,总的来说,我们依赖这些公司做出自己的判断,而不一定优先考虑我们希望他们做的所有事情。

您在我们的谈话中多次谈到了可以构建这些系统的想法,但仍然很难确切地了解它们内部发生了什么,从而更好地预测他们的决策。您能多谈谈吗?

有很多子领域让我感到兴奋。我不确定我或该领域的工作人员认为哪些内容足够。因此,机械可解释性,您可以将其视为本质上是试图查看当模型采取某些动作时大脑的哪些部分会亮起。

如果你让其中一些区域亮起来,如果你刺激人工智能大脑的某些部分,你能否让它表现得更诚实、更可靠?你可以想象这一点,就像人工智能内部可能有一个部分——这是一个巨大的数字文件,数万亿个数字——也许你可以找到与诚实数字相对应的数字,并且可以确保诚实数字始终持续下去。也许这会让系统更加可靠。我认为这很值得研究。

但有些人是该领域的领导者,一些顶级研究人员如尼尔·南达(Neel Nanda)曾说过,我在这里解释,但相当于绝对不要指望我们在系统有足够能力出现问题之前及时解决这个问题。

假设您已经发现实际上存在诚实数字。事实上,有一种方法可以始终打开它们。你仍然面临着广泛的博弈论挑战,即如何确保每家公司实际上都遵守这一点,而存在经济激励而不这样做,因为必须遵循这一点可能会付出高昂的代价。

这些人工智能公司希望使用未来强大系统的最重要方式之一是培训他们的继任者,在整个代码库中使用它,包括可能将人工智能系统锁定在计算机内部的安全代码,以便它不会逃逸到互联网上。

你真的想知道你的人工智能系统,当你将它用于像这样的重要案例时,是否正在考虑欺骗你。是故意在代码中注入错误吗?要知道这一点,您确实需要记录使用情况,以便可以分析它们并回答这些问题。据我所知,这并没有发生。

好吧,我想问一下,凌晨 3 点是什么叫醒你?因为感觉可能有很多事情可能会在半夜把你吵醒。

有很多事情让我担心。我认为,总的来说,我们似乎还没有找到解决这些挑战的正确方向,特别是考虑到地缘政治规模。关于美国和中国之间的竞赛有很多讨论,我认为称其为竞赛只是博弈论动态的错误。

没有明确的终点线。不会出现一个国家获胜而另一个国家失败的时刻。我认为这更像是一场持续的遏制竞争,因为美国将受到中国发展非常非常强大的超级智能的威胁,反之亦然。所以问题是,你能否达成某种协议,确保在你采取某些安全技术之前,对方不会发展出超级智能?所有这些顶级科学家会说的东西现在都缺失了吗?从广义上讲,我们如何构建安全协议可验证性的这些领域?我们如何看待人工智能控制这个新兴领域,即即使这些系统的目标与我们想要的不同,我们仍然可以将它们包裹在足够的监控系统中吗?

我真的希望更多的人能够进入这两个领域并投入更多的资源。

你住在旧金山,对吗?

这是正确的。

我不知道。我住在纽约。我在旧金山待了相当长的一段时间,但我并不属于湾区目前存在的这种文化,那里的每个人都一直在谈论人工智能。我很好奇,从你的角度来看,现在这个泡沫中有足够多的人在乎吗?他们是否足够关心这些模型是如何开发、如何部署以及它们非常非常快地商业化的程度?这个行业有足够多的人以正确的方式关心吗?

我认为很多人都关心这一点,但他们常常觉得自己缺乏采取行动的机构,尤其是单方面的。所以我想尝试改变这个问题,但是如何让整个行业集体深呼吸,在事情进行之前制定一些合理的保障措施?

OpenAI 需要做什么才能让您在六个月内不再在《纽约时报》上发表另一篇专栏文章?此时此刻,您希望您的前雇主做什么?请问您想看到什么?

我希望人工智能公司(其中包括 OpenAI)继续前进的主要方式是,考虑采取合理的安全措施,对自己的产品及其可能影响的表面进行合理的安全投资,同时也致力于解决这些行业乃至全球性的问题。

这很重要,因为即使只是在西方人工智能公司中,他们似乎都彼此深深不信任。OpenAI 的成立是因为人们不相信 DeepMind 能够继续发展并成为唯一一家针对 AGI 的公司。还有很多其他人工智能公司,包括 Anthropic,它们的成立是因为他们不信任 OpenAI。

很多人离开了 OpenAI,因为他们似乎不信任 OpenAI。现在他们也有了自己的公司。

是的,完全正确。

现在,我经营《连线》杂志,但我是康泰纳仕集团的员工。如果我离开康泰纳仕集团,在《泰晤士报》上发表一篇关于其缺点的专栏文章,并在 Substack 中深入研究媒体行业,并对公司进行一些(容我们说)明智的批评,他们就会对此有意见。我很好奇你是否听说过 OpenAI 的消息,以及他们对你如此直言不讳地谈论你希望看到公司做什么以及你认为公司在哪些方面没有达到目标的反应有何反应。

我听到的绝大多数都是来自以前共事过的人的感激之情,无论是那些仍在公司工作的人还是那些已经离开的人。务实,把我认为合理的前进道路写下来——对于公司内部正在为正义而战的人们来说,这通常是有用的抵押品。

您担心职业影响吗?

对于这项技术的发展轨迹,我有很多比这更大的担忧。我关注的是,世界如何为公司和政府制定更明智的政策?我可以在哪里帮助公众了解即将发生的事情、公司今天在做什么、没有做什么?这是我发现真正充满活力并让我早上起床的事情。

为此,您接下来打算做什么?

我打算坚持下去。我从写作和研究中获得了很多乐趣。我还发现这个主题非常非常沉重和严峻。这还不是最有趣的方面。我一直希望自己能少花点时间思考这些问题。但它们看起来真的非常非常重要,只要我觉得我可以添加一些东西来让它们变得更好,那感觉就像是一种召唤。

知道你所知道的,并感受你所做的事情,如果你可以给每个人一个建议,他们应该知道什么?每次在手机上打开 ChatGPT 并输入内容时,他们应该记住什么?

我希望人们明白,正在开发的系统将比今天的系统更加强大,并且人工智能系统本质上是一种只在你调用它时才做事的工具,与代表你或代表他人在互联网上全天候自主运行的人工智能系统之间可能会发生巨大的变化,以及当我们让这些数字思维追逐我们并不真正了解如何控制或影响的目标时,社会可能会有多么不同的感觉。很难从与 ChatGPT 的一次性交互中感受到这一点,除非您去调用它,否则它实际上不会为您做任何事情。

嗯,史蒂文,当人们在手机上打开 ChatGPT 时,需要考虑很多事情。

是的。

如何聆听

您始终可以通过此页面上的音频播放器收听本周的播客,但如果您想免费订阅以获取每一集,请按以下步骤操作:

如果您使用的是 iPhone 或 iPad,请打开名为“播客”的应用程序,或者只需点按这个链接。您还可以下载 Overcast 或 Pocket Casts 等应用程序,然后搜索“Uncanny Valley”。我们就在Spotify也是。

关于《前员工斥责 OpenAI 的情色主张》的评论


暂无评论

发表评论

摘要

与 Steven Waterhouse 的对话凸显了人们对 OpenAI 等公司开发和部署人工智能技术的严重担忧。以下是要点:1. **人工智能系统的复杂性**:像 OpenAI 开发的先进人工智能系统的内部运作可能是不透明的,这使得准确预测其行为具有挑战性。2. **安全措施和监督**:人工智能公司内部需要更强有力的安全措施和监督机制,以及全行业标准,以确保这些技术得到负责任和安全的部署。3. **地缘政治担忧**:美国和中国等国家之间在开发先进人工智能能力方面的竞赛带来了重大的地缘政治风险,凸显了国际合作和安全标准协议的重要性。4. **公众意识和教育**:需要提高公众对当前和未来人工智能技术的潜在影响和局限性的认识,以促进知情讨论和政策制定。5. **行业文化和道德**:围绕人工智能开发的科技行业文化需要优先考虑道德考虑和长期社会影响,而不是快速商业化和利润动机。6. **未来的能力和自主性**:沃特豪斯强调,今天正在开发的人工智能系统只是更先进的自主技术的先驱,这些技术可以在没有人类直接监督的情况下运行——这是一种对社会产生深远影响的范式转变。7. **专业立场与企业反应**:虽然 Waterhouse 对 OpenAI 的批评在很大程度上得到了前同事的赞赏,但他仍然专注于为更好的人工智能治理和公众理解做出建设性贡献,而不是个人职业影响。从本质上讲,这次对话强调了迫切需要一种更加深思熟虑和协作的人工智能开发和部署方法,强调安全、道德和社会影响而不是短期收益。