作者:Kaitlyn Tiffany
在萨姆·基什内尔失踪之前在旧金山警察局开始警告他可能携带武器并且很危险之前,在 OpenAI 因潜在威胁而关闭其办公室之前,那些遇到他的人都认为他是一名普通但热情的活动家。几个月前,菲比·托马斯·索尔根 (Phoebe Thomas Sorgen) 在旧金山东北部的特拉维斯空军基地会见了基什内尔,抗议移民政策和美国对以色列的军事援助。
索尔根是一位长期的活动家,他的第一次抗议活动是反对越南战争的,她打算和另外六名老年妇女一起封锁基地的入口。27 岁的基什内尔和一个名为 Stop AI 的新组织的其他几名成员一起在那里,他们都同意一起用手机录制视频,以防与警察发生冲突。
——我相信,他们主要是为了招募那些可能愿意参与非暴力公民抗命的人,他们认为这是阻止超级人工智能的关键——索根认为这种方法非常聪明,她告诉我。之后,她开始参加伯克利的“停止人工智能”每周会议,了解人工智能行业,并将该激进组织的事业视为自己的事业之一。基什内尔和其他领导人给她留下了深刻的印象,他们给她的印象是热情且消息灵通。他们对人工智能和抗议运动进行了研究;他们知道自己在说什么以及该做什么。“他们致力于非暴力的实质和战略,”她说。
他们遵循典型的激进主义剧本。他们在 T 恤制作派对上分发传单并提供披萨和啤酒。他们每月组织一次示威活动,并就各种宣传噱头的想法进行辩论。“停止人工智能”组织呼吁在全球范围内永久禁止超级人工智能的发展,该组织一直比其他一些抗议通用人工智能发展的团体更加激进,更容易冒犯,其成员显然愿意被捕,但索根告诉我,领导人在任何时候都清楚,暴力在道德上不可接受,也不是制胜战略的一部分。(“这就是帝国的游戏,暴力,”她指出。“即使我们愿意,我们也无法在这个层面上竞争。”)聚集在“停止人工智能信号”聊天中的组织者仅收到一次警告,因为他们对暴力行为进行沉思甚至开玩笑。在那之后,他们将被禁止。
基什内尔从西雅图搬到了旧金山,并于去年与他人共同创立了 Stop AI,他多次公开表达了自己对非暴力的承诺,朋友和盟友都表示相信他。然而他们也说,他可能性急、教条,他似乎因为相信比人类更聪明的人工智能即将诞生、而且几乎肯定会导致所有人类生命的终结而承受着压力。他经常谈论人工智能可能杀死他妹妹的可能性,而他似乎正是受到这种恐惧的驱使。
“我确实感受到了一种强度,”索尔根说。她有时会与基什内尔谈论缓和呼吸,为了“阻止人工智能”的利益,这需要大众的支持。但她很有同理心,年轻时曾有过抗议核扩散的经历,但当她遭到冷漠时,她陷入了深深的沮丧。“思考我们物种的终结是非常有压力的”,因为意识到这种情况很有可能发生。这在情感上可能会很困难。”
无论确切的原因或确切的触发事件是什么,基什内尔最近似乎对非暴力策略失去了信心,至少是暂时的。这一所谓的危机时刻导致他被 Stop AI 开除,他的同胞拨打了一系列 911 电话,显然还导致他失踪。他的朋友们说,他们每天都在寻找他,但近两周过去了,仍不见他的踪影。
尽管目前尚无法得知基什内尔的真实意图,而且他的故事仍然模糊,但粗略的轮廓足以引发人们对整个人工智能安全运动的担忧。专家们对人工智能的存在风险存在分歧,一些人认为超级智能人工智能摧毁所有人类生命的想法只不过是一个幻想,而对其他人来说这实际上是不可避免的。“他肩负着整个世界的重担,”Stop AI 的核心组织者之一温德·考夫明 (Wynd Kaufmyn) 向我讲述了基什内尔的事。如果你真的有这样的感觉,你会怎么做?
——我我不再是 Stop AI 的一部分了,â基什内尔发布到 X太平洋时间 11 月 21 日星期五凌晨 4 点左右。当天晚些时候,OpenAI 封锁了其旧金山办事处,据报道有线,告诉员工,它收到的信息表明基什内尔“表示有兴趣对 OpenAI 员工造成人身伤害。”
考夫明和最近当选的“停止人工智能”领导人(代号为 Yakko)的马修·霍尔(Matthew Hall)均表示,问题是从上周日开始的。在一次计划会议上,基什内尔与其他人就即将举行的示威活动的一些信息的措辞产生了分歧——考夫明和霍尔告诉我,他非常沮丧,以至于会议完全转移,基什内尔离开了,说他将自己继续他的想法。据称,当晚晚些时候,他与 Yakko 发生冲突,并要求获得“阻止人工智能”资金。“考虑到他的举止,我担心他会用这笔钱做什么,”Yakko 告诉我。他说,当他拒绝给基什内尔钱时,基什内尔对他的头部打了几拳。据两人称,考夫明在所谓的袭击事件中并不在场,但她和亚科一起去了医院,亚科接受了脑震荡检查。(雅科还与我分享了他的急诊室出院表。我无法联系到基什内尔发表评论。)
据亚科说,周一早上,基什内尔表示歉意,但似乎很矛盾。他表示,他对运动进展如此缓慢感到愤怒,并且他认为非暴力不起作用。“我相信他的原话是:“非暴力之船已为我启航,”Yakko 说道。Yakko 和 Kaufmyn 告诉我,Stop AI 成员此时给 SFPD 打电话,表达了对基什内尔可能采取的行动的一些担忧,但电话没有任何结果。
此后几天,Stop AI 私下处理了这个问题。由于所谓的暴力对抗,基什内尔无法再加入“阻止人工智能”组织,但情况似乎是可控的。当基什内尔没有出席与该事件有关的预定法庭听证会时,该组织的成员开始感到新的担忧他二月份被捕用于堵住 OpenAI 办公室的门。他们前往基什内尔位于西奥克兰的公寓,发现它没有锁,而且空无一人,此时他们觉得有义务再次通知警方,并通知各家人工智能公司,他们不知道基什内尔在哪里,而且他可能存在危险。
考夫明和索尔根都怀疑基什内尔可能在某个地方露营——他随身携带了自行车,但留下了其他物品,包括笔记本电脑和手机。他们想象他感到受伤和背叛,并且可能担心他所谓的崩溃的后果。亚科告诉我,他不确定基什内尔的心态,但他不相信基什内尔能够获得资金,使他能够按照他所谓的暴力建议采取行动。Stop AI 的顾问雷梅尔特·艾伦 (Remmelt Ellen) 告诉我,他担心基什内尔的安全,特别是如果他正在经历心理健康危机。一个
近两周基什内尔失踪后,他的处境变得更糟。旧金山标准最近报道11 月 21 日,SFPD 内部发布了一份内部公告,其中援引两名来电者的话说,基什内尔曾明确威胁要购买高性能武器并在 OpenAI 杀人。考夫明和亚科都告诉我,他们对这份报告感到困惑。“据我所知,Sam 没有对 OpenAI 或其他任何人发出直接威胁,”Yakko 说。从他的角度来看,基什内尔构成危险的可能性很低,但该小组不想冒任何风险。(SFPD 的一位代表拒绝对该公告发表评论;OpenAI 没有回复评论请求。)
更广泛的人工智能安全运动的反应是快速且一致的。许多人否认暴力。其中一个组织 PauseAI 是一个比 Stop AI 规模大得多的人工智能安全活动团体,具体来说基什内尔否认了这一点。PauseAI 非常保守,例如,它在暴力定义中包含了财产损失,并且不允许志愿者做任何非法或破坏性的事情,例如将自己锁在门上、路障门上,以及以其他方式侵入或干扰人工智能公司的运营。“我们所做的抗议是人们站在同一个地方,也许是在传达某种信息,”该组织的首席执行官马克西姆·福尼斯告诉我,“但不会阻止人们去上班或封锁街道。”
这是 Stop AI 成立的初衷之一。基什内尔和其他人在 PauseAI Discord 服务器上认识,他们认为这种温和的方式还不够。相反,“停止人工智能”将自己定位于更具对抗性的抗议传统,并参考了吉恩·夏普 (Gene Sharp) 1973 年的经典著作:非暴力行动的方法,其中包括静坐、“非暴力阻挠”和“寻求监禁”等策略。
在早期阶段,反对不负责任的人工智能发展的运动必须面对与任何其他新兴社会运动相同的问题:如何赢得广泛的支持?你怎样才能既讨人喜欢、有吸引力,又足够尖锐、极端,足以引起注意,但又不至于破坏自己?如果赌注像你所说的那么高,你会如何表现?
迈克尔·特拉齐(Michael Trazzi),一位活动家绝食抗议9 月份在 Google DeepMind 伦敦总部外,他也认为人工智能可能导致人类灭绝。他告诉我,他相信人们可以做出足够极端的事情来“表明我们正处于紧急状态”,同时仍然保持非暴力和非破坏性。(PauseAI 也不鼓励其成员绝食。)
PauseAI 和 Stop AI 之间最大的区别在于它们的名称所隐含的区别。PauseAI 主张暂停超级人工智能的开发,直到它能够安全地进行,或者与民主决定的理想结果“保持一致”。阻止人工智能的立场是,这种联盟是一种幻想,不应允许人工智能进一步向超人智能发展。因此,他们的言辞和策略都不同。“你不应该听到 PauseAI 官方频道说“我们肯定会死”之类的话。”Fournes 说。相比之下,Stop AI 选择了非常直率的消息传递。去年 10 月,组织者宣布计划封锁旧金山 OpenAI 办公室的大门,并发布了一份新闻稿,其中部分内容是:“OpenAI 正在试图构建比人类更聪明的东西,它会杀死我们所有人!”最近,该组织晋升另一场抗议活动中,一张数字传单上写着:“关闭 OpenAI,否则我们都会死!”
乔纳森·卡莱 (Jonathan Kallay) 是一位 47 岁的活动家,他不在旧金山,但他参与了一个拥有不到 400 人的 Stop AI Discord 服务器,他告诉我,Stop AI 是一个“庞大且多元化的群体”,他们出于各种原因(失业、环境影响、创意产权等)担心人工智能。并非所有人都担心世界末日即将来临。但他们都签署了一项将这种可能性放在首位的运动版本。
是akko,今年早些时候加入 Stop AI10 月 28 日,他被选为该组织的新领导人。他和 Stop AI 中的其他人并没有完全接受基什内尔所青睐的悲观信息,这是两人闹翻的原因之一,他告诉我:“我认为这让他感到被背叛和害怕。”
Yakko 表示,展望未来,Stop AI 将专注于传达更有希望的信息,并努力强调另一种未来仍然是可能的,而不仅仅是试图吓唬人们,即使事实很可怕。他的想法之一是帮助组织一场全球总罢工(并这样做)之前人工智能在人类工作中占据了足够大的份额,以至于抑制劳动力产生任何影响都为时已晚)。
Stop AI 并不是唯一一个考虑并重新考虑如何谈论这个问题的团体。这些关于言辞和策略的辩论一直在一个与世隔绝的文化飞地里进行,论坛的话题在这里变得生动起来。有时,很难弄清楚谁站在谁一边。例如,“停止人工智能”似乎是埃利泽·尤德科斯基(Eliezer Yudkowsky)的天然盟友,埃利泽·尤德科斯基是一位著名的人工智能毁灭者,他最近的书,如果有人建造它,每个人都会死与内特·苏亚雷斯(Nate Soares)合着的《人类灭绝》在书名中预言了人类的灭绝。但他们实际上是矛盾的。(尤德科斯基通过代表拒绝对本文发表评论。)
哲学家兼历史学家 Amile P. Torres 与基什内尔关系友好,并参加了今年夏天的“停止人工智能”抗议活动。批评的尤德科夫斯基参与了一项思考活动,思考为了防止超级人工智能统治世界,让多少人死去是合乎道德的。他还试图说服基什内尔和其他“停止人工智能”领导人采取更微妙的方式来谈论人类灭绝作为先进人工智能发展的可能结果,因为他认为这种言论可能会引发暴力,要么让它看起来正义,要么通过扰乱人们达到完全非理性的行为。后一种担心不仅仅是猜测:一个臭名昭著的团体那些担心人工智能会终结世界的人变成了邪教,然后与几起谋杀案有关(尽管这些谋杀案似乎与人工智能的发展没有任何关系)。
“人们可能会陷入这种世界末日的心态,”托雷斯告诉我。—赌注是巨大的,而且简直不能再高了。这种言论在硅谷随处可见。”他从不担心 Stop AI 中的任何人会诉诸暴力;他从来不担心任何人会诉诸暴力。他总是更害怕理性主义人群,他们可能会使用“长期主义”作为当前暴力的不良道德理由(现在杀掉一些人以防止以后灭绝)。但他确实认为,接受世界末日的框架总体来说可能是有风险的。“我一直担心人工智能安全群体中的人们会诉诸暴力,”他说。– 有些人可以有这种心态并致力于非暴力,但这种心态确实会让人思考,好吧,也许任何措施都是合理的. –
Stop AI 顾问艾伦也有同样的担忧。尽管他没有出席十一月与基什内尔发生的事情(艾伦住在香港,从未亲自见过基什内尔,他告诉我),但过去两年频繁与基什内尔交谈,他感觉到基什内尔承受着巨大的压力,因为他感觉世界即将终结。“山姆很恐慌,”他说。“我认为他感到自己被剥夺了权力,觉得自己必须做点什么。”在 Stop AI 发表关于涉嫌袭击事件的声明并致电警方后,艾伦写了自己的帖子,要求人们“阻止 AGI 可能会在 2027 年杀死我们”,拜托。
尽管有这样的要求,他并不认为世界末日言论是造成这起事件的唯一原因。“我想补充一点,我认识很多人,他们担心个位数年内的近期灭绝事件,他们甚至不会考虑采取暴力行动,”他说。他对世界末日的框架有疑问,除了那种认为它会导致人们走向暴力的模糊想法之外。他还担心,如果人工智能泡沫破裂、发展放缓、末日没有像警报者所说的那样到来,那么这“会让这场运动陷入被嘲笑的境地”。他们可能会站在那里看起来很可笑,就像一个失败的末日邪教。
他对基什内尔身上发生或未发生(或发生或未发生)的事情的另一个担忧是,它将“被用来大肆描绘”人工智能安全运动,它将参与者描绘成激进分子和恐怖分子。上个月早些时候,他看到了一些类似的对话,当时一名代表 Stop AI 的律师在一次谈话中跳上讲台传唤 Sam Altman。被广泛浏览的帖子针对该事件,称该组织“危险”和“精神错乱”。针对基什内尔的消息,有新的闲聊关于激进分子如何可能成为等待中的极端分子。这是有权势的人经常使用的策略,试图抹黑他们的批评者:Peter Thiel 认为那些公开反对人工智能的人才是真正的危险,而不是技术本身。
在采访去年,基什内尔表示,“我们完全支持非暴力,我们永远不会变得暴力。”在同一次采访中,他表示他愿意为自己的事业而死。这两种说法听起来都很直接,但却很难被重视——无法证明他是否是这个意思,如果是的话,他是如何表达的。听到基什内尔愿意赴死的后一种说法,一些人认为这是一个激进分子在执行某种疯狂的使命。其他人看到一个人笨拙地表达了真诚的承诺。(或者也许他只是太戏剧化了。)
艾伦说,与他交谈过的年长活动人士认为这是善意的,但仍然是一个危险信号。一般来说,当你全身心投入一项事业时,你不会指望为了胜利而牺牲。你预计会花费数年的时间去战斗,感觉自己正在失败,但仍步履维艰。据许多认识基什内尔的人说,问题在于基什内尔确实相信人类没有那么多时间。