自认为可以保证人工智能安全的人
作者:Sebastian Mallaby
乍一看,DeepMind 人工智能实验室的联合创始人 Demis Hassabis 似乎是一个熟悉的类型:传教士企业家和开箱即用的科学家,在特定时刻成为合适的人选。在这种情况下,硬件、软件和数据的结合使超级智能成为可能。但哈萨比斯并不是一个传统人物。他一生致力于创造一种他认为有可能毁灭世界的技术。
哈萨比斯同意与我谈论他的追求,因为他相信社会永远不会信任发明家,除非他们了解他们的动力。我花了近三年的时间写书无限机器,我们定期在他位于伦敦北部的家附近的一家酒吧见面。我们会爬上破旧的木楼梯到二楼的一个房间,坐在曾经宏伟的枝形吊灯下喝着卡布奇诺,花两个小时聊天:我有一份详细的话题清单要讲完;我和我在一起。哈萨比斯对智力和生活、计算机科学和神经科学、哲学和电影进行了精彩的阐述。在每次谈话中,动机问题都悬在空中,就像洛斯阿拉莫斯上空的蘑菇云一样。
哈萨比斯精通所有人工智能末日场景。他在一场关于人工智能安全的讲座上结识了 DeepMind 联合创始人之一 Shane Legg。他在一次奇点峰会上找到了他的第一个财务支持者彼得·蒂尔(Peter Thiel),未来学家在峰会上分享了机器比人类聪明的愿景。有一次,哈萨比斯告诉傲慢的火箭制造商埃隆·马斯克,太空殖民并不能确保人类的生存,给他留下了深刻的印象。哈萨比斯观察到,超级智能系统还可以建造火箭。如果这些系统被证明是恶意的,那么火星上的殖民地将无法提供任何保护。
当谷歌在 2014 年收购 DeepMind 时,哈萨比斯表明了他是多么认真地对待自己的使命所面临的风险。他的出售条件是谷歌同意控制他的技术,拒绝让一家营利性公司对人工智能的推出拥有最终决定权。他坚持由独立智者组成的外部委员会来监督这一过程,并表示将严格禁止人工智能的军事应用。从青少年时期起,哈萨比斯就决心打造强大的人工智能。只有确保其安全,他才能证明自己一生的工作是合理的。
谷歌的谈判代表从未遇到过这样的要求。伦敦的一家小型初创公司建议谷歌支付数亿美元购买一项它无法完全控制的资产。但哈萨比斯组建了世界上最好的人工智能智囊团。谷歌接受了他的条件。
哈萨比斯还对发明超级智能的物理环境有自己的想法。他想象着与他的顶尖研究人员一起潜逃到一个秘密掩体,躲避敌人,远离世俗的干扰。来自学术界的哲学家和科学家将加入这一努力,来自世界各地的梦之队将代表全人类助产强大的人工智能。这个愿景中隐含的是所谓的单例场景。一个单一的科学机构,大概由哈萨比斯指挥,将确保超级智能的安全。
有一天,我遇到了一位研究员,他在 DeepMind 被谷歌出售后不久就加入了。在研究人员的最后一次采访中,哈萨比斯警告他,如果他签约,他应该为最后一场比赛做好准备,届时他将消失在掩体中。
“地堡只是一个比喻吗?”我问道。
不,他说。“在任何阶段,当我在 DeepMind 时,如果 Demis 让我搭乘飞往摩洛哥某个秘密地点的航班,我都会觉得我已经得到了公平的通知。”
“为什么选择摩洛哥?”我问道。
——哦,沙漠。我只是在想曼哈顿计划。那是在沙漠里。”
2015 年,为了兑现谷歌成立人工智能监督委员会的承诺,DeepMind 安排了一次哲学家和技术专家的秘密聚会。为了锁定潜在的竞争对手,并促进他的单一愿景,哈萨比斯授予埃隆·马斯克在位于加利福尼亚州霍桑的马斯克总部召开会议的荣幸。但这一策略适得其反。这次聚会标志着哈萨比斯的安全愿景开始崩溃的时刻。
马斯克听取了哈萨比斯及其联合创始人的演讲。然后他做了与他们想要的相反的事。马斯克与 Sam Altman 合作创立了 OpenAI,这是一家明确反对谷歌、反 DeepMind 的企业。后来,单身异象的信徒将这一时刻描述为“堕落”:蛇把邪恶带进了花园。但鉴于人性,堕落是不可避免的。当面对普罗米修斯技术的前景时,人们不会联合起来共同努力。他们好争论、嫉妒、有部落意识。
此时,哈萨比斯可能会停下来重新考虑。如果单例场景很幼稚,那么人工智能开发人员如何才能避免悬崖上的竞争呢?此外,既然马斯克已经抄袭了 DeepMind 的想法,谷歌拒绝召开第二次监督会议,拒绝让更多竞争对手进入,这是可以理解的。但哈萨比斯并没有暂停他的努力,而是开始超速运转。2016年,DeepMind开发了一个系统,在古代棋盘游戏围棋中击败了一位人类顶级棋手。机器霸权的时间表缩短了。
为了平衡这一进步,哈萨比斯提出了让人工智能为人类服务的新想法。他与联合创始人穆斯塔法·苏莱曼 (Mustafa Suleyman) 一起开始与谷歌谈判一套新的治理保障措施。为了推进这个秘密“马里奥计划”,他聘请了一支一流的法律团队,并从 LinkedIn 创始人里德·霍夫曼那里获得了 10 亿美元的承诺,如果他无法控制自己的技术,他还考虑将 DeepMind 从谷歌剥离出来。与此同时,Suleyman 领导了 DeepMind 的一项工作,帮助英国国家医疗服务体系管理急性肾病。如果人工智能可以被独立管理,如果它可以改善普通英国人的健康状况,哈萨比斯就会感到满意,因为他的追求确实是良性的。
这两项举措都失败了。与谷歌的治理之争持续了三年,这表明将非营利性监管嫁接到营利性公司上是困难的。这个帮助 NHS 的项目遭到了隐私活动人士的强烈反对,他们对美国科技巨头的子公司可能掌握患者数据感到愤怒。到了 2019 年,Hassabis 和 DeepMind 已经在两条战线上都退缩了。苏莱曼被公司开除。
哈萨比斯对良性人工智能的下一次尝试涉及科学。如果 DeepMind 无法直接帮助 NHS,它可能会渴望加速药物发现。2020 年,DeepMind 推出了一个令人惊叹的系统,可以绘制微观蛋白质的形状,哈萨比斯和一位同事因此分享了诺贝尔化学奖。该奖项展示了人工智能的巨大优势。但它并没有消除同样真实的危险。
巧合的是,就在 2022 年,就在我向哈萨比斯提出与我交谈我的图书项目一周后,OpenAI 发布了它的对话伴侣 ChatGPT,这是科技史上最火爆的产品。这给哈萨比斯带来了又一次道德考验。从理论上讲,他本可以将聊天机器人业务留给他的新贵竞争对手,坚持走有益科学的大道。但哈萨比斯是我所认识的竞争最激烈的人,并且承认聊天机器人市场对于谷歌来说无论如何都是不可能的。我记得 2023 年初拜访过哈萨比斯。“现在是战时,”他说。
结果是一场可怕的资本主义竞争,哈萨比斯的 Gemini 系统与 ChatGPT 和其他一些竞争对手展开了斗争。数千亿美元正在推动这股热潮,尽管一些竞争者认真努力确保他们的模型安全,但国家法规和公司治理结构都无法阻止其他竞争者竞相跌入谷底。与之前的态度相反,谷歌现在渴望利用人工智能为美国国防机构提供服务。这与哈萨比斯想要的超级智能结局相反。
摘自 2026 年 4 月号:人工智能数据中心肮脏、反乌托邦的世界内部
哈萨比斯承认遇到了挫折,但他仍在继续前进。他对治理机制的信心现在已经破碎,矛盾的是,他在自己的职业发展中看到了救赎。他知道他的个人目标是为了人类的利益塑造人工智能。因此,他的新安全议程涉及确保个人影响力。
“安全与治理结构无关,”哈萨比斯现在表示。“我的意思是,即使你有一个治理委员会,在紧要关头它也可能不会做正确的事情。”相反,他的目标是赢得“在谈判桌上的一个席位,这样当出现安全问题时”他可以帮助决定解决方案。
“事情并不是非黑即白的,尤其是当你处理的是一种后果未知的技术时,”他告诉我。– 所以你必须具有适应能力。你必须从理想主义者转向现实主义者,但希望仍然坚持你的价值观。”
我仔细考虑了这个判决。一方面,哈萨比斯损害了他原有的价值观。另一方面,他认为需要超越自己年轻时的愿景,这是正确的。一旦多个国家的多个实验室加入到构建强大人工智能的行列中,他们就发现不参加比赛是不可能的。一个善意的人出现在众所周知的餐桌上,为惊慌的世界提供了一个脆弱的保证。但在各国政府施加限制之前,善意的个人可能是最好的安慰。
本文改编自塞巴斯蒂安·马拉比的新书,无限机器:Demis Hassabis、DeepMind 和对超级智能的探索。
– 当您使用此页面上的链接购买书籍时,我们会收到佣金。感谢您的支持大西洋。
