为了上帝的爱,请停止制作晦涩难懂的世界末日时钟

2024-10-15 18:00:03 英文原文

作者:Matthew Gault

位于瑞士的一所由沙特支持的商学院启动了一个“末日时钟”,以警告世界关于“失控的人工通用智能”的危害,它将这种人工智能称为“神一般”的存在。想象一下,如果上世纪80年代在Excel电子表格上销售办公室软件的人试图告诉工人说,这些软件是通往创造一个“神明”的途径,并用一只滴答作响的劳力士手表来警示你,你就明白了我们现在面对的是什么。

迈克尔·韦德——这位时钟的创造者,同时也是位于瑞士洛桑的国际管理发展学院(IMD)的战略与数字TONOMUS教授,以及TONOMUS全球数字和AI转型中心的主任——最近揭开了这枚时钟的面纱。时代杂志的社论文章.

一个倒计时至午夜的钟表是从原子时代流传下来的一个曾经强有力但现在已显陈旧的比喻。这个形象如此古老和过时,它刚刚庆祝了它的75岁生日。在美国对日本投放原子弹之后,一些曾参与开发该武器的研究人员和科学家成立了《原子科学家公报》。

他们的项目是警告世界即将面临的毁灭。末日时钟是他们用来传达这一信息的方式之一。每年,来自各个领域的专家——从核武器到气候变化再到人工智能等——聚集在一起讨论这个世界正处于多大的危机之中。然后他们会设定时钟的时间。越接近午夜,人类离其灭亡就越近。现在它显示为午夜前90秒时钟调得最近的一次。

Wade 和 IMD 与《原子科学家公报》无关,末日时钟是独立存在的。Wade 创造的是人工智能安全时钟。“目前时钟的读数——距离午夜29分钟——衡量了我们离失控的人工通用智能可能带来生存风险的关键转折点有多近,”他说。时间文章“虽然至今尚未发生灾难性的危害,但人工智能发展的迅猛速度和监管的复杂性意味着所有利益相关者都必须保持警惕并积极参与。”

硅谷最热衷于宣扬人工智能的人喜欢借用核武器的比喻。OpenAI首席执行官Sam Altman将其公司的工作比作曼哈顿计划。参议员Edward J. Markey(马萨诸塞州民主党)写了美国急于拥抱人工智能的情况类似于奥本海默追求原子弹的行为。其中一些恐惧和担忧可能是真实的,但最终这一切都是营销手段。

我们正处于关于人工智能的炒作周期中。公司承诺它可以带来前所未有的回报并削减劳动力成本。他们说,机器很快就会为我们做一切事情。现实是,人工智能是有用的,但也主要将劳动力和生产成本转移到链条的其他部分,在那里最终用户看不到这些成本。

对AI发展到如此先进程度以至于灭绝人类的恐惧只是另一种炒作。关于文字计算器和预测建模系统的悲观论调只不过是另一种激发人们对这项技术可能性兴趣的方式。掩盖真正的危害它创建。

在最近的一次特斯拉活动中,机器人调酒师为参与者调制饮品。从表面上看它们是由人类远程控制的。大型语言模型消耗大量的水和电在提出答案时往往依赖于细微而持续的关注力人类“训练师”在贫穷国家辛勤工作却只获得微薄报酬的人们。人类利用技术在网络上大量传播未经同意制作的他人裸照。这些只是硅谷迅速拥抱人工智能所造成的现实世界危害中的一部分。

而只要你还担心斯凯尼德在未来觉醒并消灭人类,你就没有注意到眼前的问题。《 Bulletin》的末日时钟表面上可能难以理解,但背后有一支杰出的思想家队伍每天都在研究核武器和新技术的真实风险。

九月,《 bulletin》在一篇文章中放了一张阿尔特曼的照片揭穿夸张的说法关于AI可能被用来研发新型生物武器的文章。文章指出,“尽管有很多悲观的预测,实际上在AI将如何影响生物武器及更广泛的生物安全领域方面存在许多不确定性。”

它还强调,围绕人工智能的极端情景讨论有助于人们避免进行更艰难的对话。《 Bulletin》表示,“挑战在于,在二十多年的时间里,如何避免对影响生物武器裁军和防止暴力行为者将生物武器纳入战争计划和武库的科学技术发展漠不关心或夸大其词。”“关于 AI 的辩论吸引了高层和社区的关注……并且它们存在过分狭隘地关注威胁的风险,从而忽略了其他风险和机遇。”

每年都会有几十篇类似的文章由末日时钟的运营者发布。虽然这个瑞士人工智能时钟在其FAQ中声称在监测这些文章,但它并没有相应的科学依据。

它从沙特阿拉伯获得资金。瓦德在学校的位置得以存在是可能的得益于资金支持来自TONOMUS,它是NEOM的子公司。NEOM是沙特阿拉伯备受期待的未来之城,正试图在沙漠中建造。NEOM的其他承诺还包括机器人恐龙、飞行汽车和一个人造大月亮.

如果你不介意,我不会认真对待沃德或人工智能安全倒计时。

关于《为了上帝的爱,请停止制作晦涩难懂的世界末日时钟》
暂无评论

摘要

位于瑞士的一所由沙特支持的商学院启动了一个末日时钟,以警告世界关于“失控的人工通用智能”的危害,它将这种AI称为“神一般的存在”。他说,在他的《时代》杂志文章中,“当前时钟显示为凌晨前29分钟”,这表明我们离不受控制的AGI可能带来的生存风险临界点有多近。对于文字计算器和预测建模系统的悲观论调只是另一种让人们对该技术的可能性感到兴奋,并掩盖它实际造成的危害的方式。今年九月,《 bulletin》发布了一篇文章,该文章在驳斥关于AI可能被用来制造新生物武器的夸张说法时附上了Altman的照片。NEOM是沙特阿拉伯正在沙漠中建设的一个备受瞩目的未来城市。