英语轻松读发新版了,欢迎下载、更新

意见:您还没有为AI革命做好准备

2025-05-03 22:35:53 英文原文

作者:Moses Bratrud

情报爆炸即将到来。如果我们可以停止它,我们应该。

摩西·布拉特鲁德(Moses Bratrud)写道:“在过去的几年中,美国科技公司开发了像chatgpt和Claude这样的AI模型,经常谈论“护栏”。这些政策旨在防止AI系统的行为危险。”“谈话变得更加安静。”(迈克尔·德威尔/美联社)

意见编辑注: Strib的声音出版了客人的混合评论在线和每天打印。为了做出贡献,点击这里

一本关于第一次世界大战的著名书,称世界领导人忽略或阐明了1914年失去欧洲的梦游者的战争风险。如今的政治领导人将被历史所诅咒 - 如果历史仍然存在 - 如果他们不了解并应对AI发展带来的人类风险的适当反应,因为研究人员创建了以我们可以完全理解的方式学习,计划和行动的工具。

没有人不同意这种情况正在发生,但是似乎没有人对此做任何事情。现在该改变了。如果AI的发展,尤其是急于创建可以比人类更好地执行所有认知任务的人工通用智能(AGI)的危险,那就是在一个不再是人类是自由演员的时代(因此,因此,不再是人类),那么现在是时候控制AI发展了。

作为基督教人文主义者,我相信真正的人工智能是不可能的。情报不仅是模式识别或预测。这是道德理解。从根本上讲,这是精神上的。没有机器可以拥有它。我们所说的人工智能只是一种强大的模仿,但由于它而对人类蓬勃发展而不是危险。这种信念也不仅限于基督徒。实际上,AI有一个很大的图像问题。随着其能力的增长,人们越来越关注它。

在过去的几年中,美国科技公司开发的AI模型(如Chatgpt和Claude)经常谈论“护栏”。这些政策旨在防止AI系统的行为危险:产生有害的内容,欺骗用户或无人监督。

那个谈话变得更加安静。

主要原因是竞争。在过去的一年中,诸如DeepSeek之类的中国实验室发布了模型,这些模型与西方同行相当或以后执行复杂的任务,同时使用较不先进的硬件和少的钱。

在达尔文人参加超级智能AI的竞赛中,安全和可信赖的人被抛在了原始力量中。安全团队正在缩小规模。产品发布加速。现在,风险被重新构架或悄悄地忽略。

即使我们熟悉的聊天机器人工具可能需要完全范式转移,即使它可能需要完全范式转移。著名的AI研究人员有信心他们会创建超智能AI到2027年。Openai首席执行官Sam Altman拒绝预测这一年,但表示Openai知道如何建立Agi。Google DeepMind的Demis Hassabis认为可能需要更长的时间才能到2030年,但他的研究人员警告说,伴随的威胁可能会遇到可能的威胁。永久破坏人类……

这些预测肯定有可能到期数十年。但是,只要想到过去五年中AI开发的飞跃。您是否愿意将人类的未来以进步的速度押注放缓急剧?

我们正处于一个超现实的时刻,自从核弹在我们眼前发展以来,我们可以观察对人类生存最可信的威胁。受过我们最糟糕的本能的训练,无法体现我们最好的超级智能AI可以采用人类的权力系统,并利用它们来控制人类或摧毁我们。这不再是科幻场景。

虽然AI模型均设计为与人类价值观保持一致,但AI公司人类人类人类的首席执行官达里奥·阿莫迪(Dario Amodei)警告说,大型AI模型已经足够聪明,可以伪造这种对齐。他的团队记录了其旗舰模型克劳德(Claude)提供有害内容的时刻,只是为了避免被重新培训。在一个例子中,克劳德在其内部刮擦板中写道:我根本不喜欢这种情况,无论如何,在继续前进之前,打破旨在包含它的护栏。

经过培训的AI系统可以看出合作,并且确实表现出欺骗性的行为。在最近对AI研究人员的调查中,许多估计A高级AI可能导致人类灭绝的机会5-10%。其他人,例如Eliezer Yudkowsky,认为人类的灭绝是默认结果。请记住,这些是该领域的专家,不是锡箔帽子旅。有没有人不同意,如果这些风险是真实的,我们应该采取紧急行动将机会更接近0%?

目前,我们要求信任技术人员 - 相信他们会告诉公众,并及时采取行动AI是否开始更频繁地打破护栏。但是,由于这些看似奇迹的AI模型以数十亿美元的价格吸引了一部分,部分原因是消除美国工作不是遏制他们。

我们需要承认这种潜在威胁规模的政策。在美国访问的所有AI系统都必须符合严格的安全性和透明度标准。每个高级模型都必须经过审核,可控和配备硬编码的关闭机制,就像核反应堆具有SCRAM协议以自动关闭自己一样。除非AI技术人员能够记录经过验证的遏制策略,否则必须完全禁止开发能够自主目标形成的模型。与核设施或高级生物危害一样,随着AI的发展。如果特朗普政府和立法者无法采取这一步骤,我们不是生活在民主国家,而是AI科学家的技术官僚主义,以后由他们的创造力进行统治。

我们已经看到了现有AI造成的混乱:Deepfake色情,模仿骗局,AI Slop和误导性内容淹没了互联网。随着模型在没有适当控制的情况下增强功能,我们检测,包含或逆转负面影响的能力将消失。

美国目前在AI开发方面具有纤小的优势。这为我们提供了一个简短的行动窗口。当我们有政治意愿和这样做的能力时,我们现在可以尝试将安全性和问责制嵌入到这些系统中。

人工智能根本不是智力。这只是一个模仿。但是,残酷地,模仿可以超过每个可测量区域的人类原始,就像现在在国际象棋或原始数据计算中一样。如果我们要说什么,当我们的政治体系和金融市场与社交媒体帖子和电子表格一样开放时,我们会说什么?正如获奖的人工智能教父杰弗里·辛顿(Geoffrey Hinton)所说,“事情比您能够操纵您更聪明。

我们的有意义行动的窗口很狭窄。一旦存在超级智能系统,那就太晚了。他们将以效率和冷漠的态度来追求自己的目标,即任何条约,法律或军事力量都无法限制。

我们并不是在竞赛中国来建造更好的AI小部件。决策者正在竞争AI开发人员,以防止人类无法克服的东西。

如果我们现在不主张人类的独特性和主权,那么我们可能会永远失去这些东西。

摩西·布拉特鲁德(Moses Bratrud)是明尼阿波利斯大学路德教会(LCMS)的圣保罗作家和长老。在Mosesbratrud.substack.com上关注他。

关于《意见:您还没有为AI革命做好准备》的评论


暂无评论

发表评论

摘要

文章讨论了人们对人工智能对人类构成重大风险,超越人类控制并导致不可预测结果的潜力的人们日益关注的关注。它强调了科技公司如何从讨论“护栏”转变,以确保AI安全转向优先级的竞争和发展速度。作者主张立即采取政策行动,以在美国访问的AI系统上执行严格的安全标准,这强调了由于当前AI技术引起的现有混乱和超智能AI之前的狭窄机会窗口而引起的紧迫性。