英语轻松读发新版了,欢迎下载、更新

谷歌前首席执行官警告说,如果人工智能开始发展,我们就需要停止它

2024-12-17 15:06:58 英文原文

“技术专家不应该是唯一做出这些决定的人。”

自我提升

谷歌前任负责人埃里克·施密特警告说,人类可能必须“拔掉”人工智能,以免为时已晚。

在一个采访 ABC乔治·斯特凡诺普洛斯施密特表示,人工智能技术的创新速度如此之快,以至于我们可能还没意识到它所带来的危险,就已经与我们擦肩而过。

“我已经这样做了 50 年,[而且]我从未见过如此规模的创新,”这位前谷歌首席执行官说道。“这确实是一项了不起的人类成就。”

与微软前高管 Greg Mundie 一起已故的亨利·基辛格施密特在一本新书中警告说,除了人工智能可能给人类带来难以置信的好处,例如快速发现新药物之外,该技术也将变得更加自给自足。

“我们很快就能让计算机自行运行,决定它们想做什么,”他说。“当系统能够自我完善时,我们需要认真考虑拔掉它。”

终止开关接合

在采访中,斯蒂芬诺普洛斯问道,正如任何看过有关人工智能杀手的科幻电影的人都可以想象的那样,超级智能人工智能是否有能力阻止任何摧毁它的企图。

“那样的系统难道没有能力对抗我们拔掉它的努力吗?”斯蒂芬诺普洛斯问道。

“嗯,从理论上讲,我们最好有人负责插头,”施密特回答道。

那个拔掉插头的人应该是谁?

“智能的未来……不该留给我这样的人吧?”施密特说道。

“技术专家不应该是唯一做出这些决定的人,”他说。“我们需要就如何在这些事情上设置正确的护栏以维护人类尊严达成共识。这非常重要。”

他自己人工智能投资者施密特提出——以一种元扭曲的方式——人工智能本身可能能够充当技术的监督者。

“人类无法监管人工智能,”他说,“但人工智能系统应该能够监管人工智能。”

对于一个有过这种经历的人来说,这是一个非常奇怪的想法合写了两个 整本书关于该技术带来的危险 – 但也许这只是硅谷对他的大脑做了什么

有关施密特的更多信息:谷歌前首席执行官对青少年男孩爱上人工智能女友感到震惊


关于《谷歌前首席执行官警告说,如果人工智能开始发展,我们就需要停止它》的评论


暂无评论

发表评论

摘要

谷歌前首席执行官埃里克·施密特警告说,人类可能需要在人工智能 (AI) 变得过于危险之前“拔掉”它。在接受美国广播公司 (ABC) 的乔治·斯特凡诺普洛斯 (George Stephanopoulos) 采访时,施密特与合著者格雷格·蒙迪 (Greg Mundie) 和亨利·基辛格 (Henry Kissinger) 在一本关于人工智能技术快速创新的新书中提出警告,人工智能技术的快速创新可能会超出人类对其风险的理解。他建议,随着人工智能系统变得更加自给自足,应该采取措施确保它们不会反击关闭它们的企图。施密特强调,有关人工智能治理的决策应该涉及技术专家之外的更广泛共识,以维护人类尊严并防范该技术带来的潜在危险。