作者:By Rob Price
亨利(Henry)是一个看上去很男孩的人工智能研究员,他认为未来几年有大约50/50的机会AI将变得如此强大精致的,它将对所有人类生命构成生存威胁。在他的日常工作中,他试图通过为小型工作来防止这种情况以安全为重点的人工智能研究湾区的实验室。他认真对待这一任务:他宣誓浪漫的关系奉献自己的事业,他将收入的三分之一捐赠给AI安全非营利组织。
在空闲时间,他正在为失败的可能性做准备DIY Bioshelters保护他和他的家人免受AI启示录。
亨利(Henry)在他办公室的视频电话中讲话时告诉我,建立一个能够保护由或借助于或借助高级AI。首先,您购买了一个现成的正加压帐篷,这种帐篷通常用作植物的种植房间。然后,您将多个专业级的HEPA过滤器堆叠在进气口前。最后,您可以尽可能适合货架稳定的食物,水和供应。
他告诉我,亨利(Henry)的Bioshelter将“很便宜”,“可能不到10,000美元,包括我要放在那里的三年食物。”他问我因为社交而使用化名与“ Prepper”有关的污名尤其是如果他的恐惧没有通过,人类占上风。
亨利远不孤单地把钱放在他最深切的恐惧和对人工智能的嘴里的地方。对于某个类别硅谷居民,AI不仅是下一个嗡嗡的技术浪潮;它有望从根本上改变我们的社会。对于他们来说,几乎没有时间来谈论在松弛的频道和晚宴上,人工通用情报或AGI可能的未来。现在进行根本变化的时间。理性主义者是一种以硅谷一致的哲学为中心,以试图改善人类的理性和道德性为中心,越来越关注所感知的人工智能风险在过道的另一侧,启动助推器对技术的预测正在变得越来越热烈。
“我们中的许多人将回顾接下来的两年,因为我们可以做些事情的时候。”
有些人认为我们正处于一个超丰富时代的曙光中智力劳动可以自动化解锁了前所未有的人类繁荣浪潮。他们正在拥抱他们称为“智能狂热”的生活方式转变。其他人则为经济灾难做好准备,并进行重大投资和职业转移。还有其他人认为AI不可避免地会摆脱人类控制和获得的人杀死所有有机生活的能力。他们花了退休储蓄,拥有“怪异的狂欢”,并建造生存掩体。
亨利说:“我们中的许多人将回顾接下来的两年,因为我们可以做些事情的时候。”“很多人会回顾这个问题,然后说,'为什么我不辞职,尝试做有机会时真正重要的事情?'''
Apoorva Srinivasan在2024年摆脱了长期的关系之后,她意识到,由于AI的发展,她想要一些不同的人。
她告诉我,斯里尼瓦桑(Srinivasan)是一位生物医学研究数据科学家,历史上一直被某种聪明的人所吸引,优先考虑智慧而不是传统的吸引力。现在她看到了,因为AI正在做智力劳动在越来越多的人中,原始情报对她而言变得不那么重要,而不是魅力,社会吸引力和热情。或者,正如她最近在半病毒推文中打趣的那样,“如果您很聪明,那么旋转/热很酷。”
我为这个故事交谈的许多人都相信这种变化:因为AI很快就会涵盖许多知识生活,社会生活将变得更加与人类社会不可或缺,并且身体上的吸引力将变得更加重要。大脑结束了,美丽和勇士在。
佛罗里达州的科技企业家索伦·拉尔森(Soren Larson)说:“我一直很喜欢健身,我宁愿认为,当AI可以做所有类型的知识分子时,变得炙手可热,风度翩翩和有趣。”
随着人工智能更多的智力生活,有些人认为,在社会内繁荣发展将变得更加重要。
AI顾问Jason Liu告诉我他“已经使那个枢纽”了。几年前,他手中的令人衰弱的重复应变损伤使他作为软件工程师的职业停滞不前。他重新制作了一生,从柔术和陶瓷等休闲追求中进行了闲暇,并塑造了第二个顾问职业,试图优化委托和空闲时间进行社交而不是喧嚣。他说:“我个人不想因为我的智慧而受到重视。”“我当时想,这种智慧在身体上伤害了我,并导致我失业。”
当我们通过电话讲话时,他出去漫步在巴黎的街道上,这是一场延伸的国际骚扰的一部分。“真的倾向于休闲是一种我如何看待Agi,”他说。
我遇到的其他人今天重塑了他们的社交生活,不是因为他们对AI的希望,而是因为他们的恐惧。
“如果我们都将被一个原子弹," C.S. Lewis wrote in 1948, "let that bomb when it comes find us doing sensible and human things â praying, working, teaching, reading, listening to music, bathing the children, playing tennis, chatting to our friends over a pint and a game of darts â not huddled together like frightened sheep and thinking about bombs." In my conversations with people concerned about AI's impact, a few explicitly cited this Lewis quote,许多人也表达了类似的观点,因为他们如何珍惜他们现在的时间。
“这确实在某些方面释放了,”旧金山湾区的恋物癖研究员和性工作者艾拉(Aella对AI发展的担忧。“我喜欢扔怪异的狂欢,我就像 - 我们要死了。什么是奇怪的,更激烈,更疯狂的狂欢我们可以做的?现在就做。”
当我们坐在Lighthaven的Astroturf草坪上时人工智能可能摧毁人类。她说:“我不能立即面对一切。”“我可以从眼角抓住大事,然后在可能的时候感到悲伤,但我没有真正吸收它的情感能力。”结果,她目前的生活更多。她逐渐消除了自己的积蓄。她锻炼少。她尝试了“硬毒品”,否则她会避免使用。尽管担心痴呆症风险,她仍在服用更多的安眠药。她正在冻结一堆鸡蛋。“我只是想尽我所能,为了好玩。”
在旧金山的多洛雷斯公园(Dolores Park)上,风险投资人维沙尔·梅尼(Vishal Maini)告诉我一些类似的东西,尽管也许不那么极端。他说:“我认为只采用一点库列表是有意义的。”“在我们拥有的时间里做对您很重要的事情。”
当我们喝草药时,Maini在未来几年通过他的心理模式与我交谈。他不确定我们是否正在接近通过人工智能从根本上增强人类能力的未来,或者是一个更黑暗的未来,在该技术中,该技术将人类“贬低”。在这种不确定性之中,他主张“古兴奋主义”:在世界上有意识地将人类互动的优先级优先考虑,充满了过度参与,无休止的个性化数字内容。“当我们进入时代AI同伴他说,而且我们有越来越多的多巴胺数字体验,我们有这种选择。
对于霍莉·埃尔莫尔(Holly Elmore)来说,对AI的担忧对她的生活更加亲密:这有助于她决定离婚。在旧金山宣教区的一家咖啡店,她告诉我,她和她的丈夫都深深地满意不受限制的AI开发,但采用不同的方法来重新制作它。
Anti-AI抗议组织执行董事Elmore暂停AI她认为,对像Openai这样的大型实验室的坚定群众组织是唯一可行的前进道路,她说她的前夫Ronny Fernandez是“不支持的”。她说:“我们遇到了很多问题,我本来应该从来没有参加过婚姻,但是很清楚,如果我们在一起在一起,我将无法继续暂停AI。”“我对此有着非常强烈的道德信念,它确实很好地组织了我生活中的优先事项。老实说,我喜欢那样的生活。”
“我确实认为,试图使用羞辱和促进小组内思维来实现政策目标的往绩都很差,” Lighthaven的经理Fernandez通过电子邮件写道。“这些分歧引起了我们两端的不满,这导致我们最终离婚。”尽管他认为将AI缩放实验室施放为“政治敌人”可能会适得其反,但他强调说:“在几十年之内,比人AI聪明的人很有可能会杀死大约每个人,或者在几十年之内导致更糟的结果。”
对于其他人来说,他们的梦想和对AI的最恐惧改变了他们的金钱方式。2020年的某个时候,当时28岁的丹尼尔·科科塔(Daniel Kokotajlo)停了下来节省退休。
AI研究人员越来越担心AI可能对人类构成的威胁。他从2022年在Openai工作,直到他在2024年辞职,因为担心它如何处理AI安全 - 他继续努力的问题。今年早些时候,他出版了AI 2027,一篇广泛阅读的在线论文,探讨了人工智能中的迅速发展可能导致几种“控制丧失”情况,从2020年代后期的AI军备竞赛的世界大战到2035年的人类生活灭绝,通过AI通过AI释放跨文明的致命化学药品。
AI初创公司创始人Haroon Choudery将接下来的几年视为他的最后机会创造世代相传的机会。
他的原因,在这些威胁中,为什么几十年来,即使接下来的几年看起来越来越不确定?他在伯克利的一家咖啡店告诉我:“我有大量的钱,尤其是因为股权,但我打算将其倒下。”“我打算每年减少。”他说,他知道许多其他AI研究人员都在做同样的事情。
在德瓦克什·帕特尔(Dwarkesh Patel)流行的科技播客的最近一集中Openai竞争对手人类,分享说,他也辞去了退休的钱,因为他认为阿吉(Agi)正在快速接近。他说:“我很难想象一个我拥有的所有这些钱坐在这个帐户中并等到我60岁,然后看起来如此不同。”
科技行业的其他人正在采取截然不同的钱。在一些关于他们看不到未来的最不看情的最看涨的人中,人们普遍存在的担心,只有几年的时间才能在音乐智力劳动在很大程度上变得过时时,只剩下几年的时间才能赚取尽可能多的“在音乐停止之前”。
中西部的一位加密作家说:“我们只有几年的时间才能在财务上进行财务。”“如果您不这样做,那么在控制AI的技术霸主下,您的血统可能会降级为这种农民阶级。”
Facebook的前数据完整性分析师Haroon Choudery现在经营着一个名为Autoblocks的AI初创公司,他也有类似的关注。他5岁时从巴基斯坦移民到美国。他的父亲是出租车司机,而母亲不在家里工作。他将接下来的几年视为为自己和他的孩子创造世代财富的最后机会。他告诉我:“从向上的流动性角度来看,事情会更加稀缺,因此人们通常会冻结其社会经济地位。”
AI Hedge Fund Alphafund的高管Massey Branscomb以更直言不讳地将这个概念提交我:“如果您不将自己定位为这些关键公司的关键成员,”他的意思是顶级飞行AI实验室和人类实验室,“而且您的生活 - 讽刺的是一个'Wagie' - 您过着瓦吉的生活,那么您可能会在切碎的街区上,然后会变得更加困难。这些工作不会回来。”
其他人则不太确定AI很快就会推翻全球经济。作为范德比尔特大学哲学助理教授,戴维·索斯塔德(David Thorstad)可以被视为瓦吉(Wagie)。但是他告诉我他不太担心。尽管他增加了由于AI的不确定性而增加了他节省的金额,但他敦促对任何宏伟的预测谨慎。他说:“我认为有很多社区,尤其是在湾区在一个非常聪明,志趣相投的人在一起,共同努力,阅读类似的论坛和播客的地方,当他们非常沉浸在一种关于AI的极端世界观中时,很难爆发。”
然后有些人不仅准备AI驱动的金融启示录;他们正在准备AI驱动的启示录启示录。
乌尔里克·霍恩(Ulrik Horn)一直对“社会问题”感兴趣,这导致2008年从宾夕法尼亚大学毕业后在可再生能源上工作。但是近年来,这位位于斯德哥尔摩的企业家一直担心另一种问题:生物安全。霍恩(Horn)担心“镜像生活”,这是一个新兴的生物学研究领域,涉及创造自然发生的生活的镜像。具体来说,他担心AI可能有助于加速该领域的研究,并可能导致毁灭性的生物武器。他认为,我们从AI开发了这种能力的五到十年。
在筹集了慈善资金以研究对生物治疗的保护措施后,他创立了一家具有高级空气过滤器的现成的初创企业建筑。只需39,000美元,您就可以购买一个避难所,如果SCAT撞到了风扇,则可以在家中架设。他说,他收到了一些预订,预计在2026年的运费。
亨利说,在AI赢得了与人类的战争之后,“也许他们会照顾幸存者,他们会把人类置于某种人的动物园中。”
Horn并不是唯一将AI的威胁视为商机的人。威奇托州立大学商业分析助理教授罗斯·格鲁茨玛赫(Ross Gruetzemacher)正在成立一家“弹性”咨询公司,以帮助企业和个人为AI和其他生存风险造成重大冲击准备。他还购买了怀俄明州的土地,他计划在其上建造自己的安全设施。詹姆斯·诺里斯(James Norris)是一位企业家和长期担心对人类威胁的人,最近在东南亚一个未公开的地点中介入了他所描述的“生存庇护所”,并正在向其他人提供咨询服务和援助。他告诉我,诺里斯也宣誓就生孩子,因为他认为AI会在世界上造成的破坏。
尽管他个人的恐惧,但Openai研究员,对今天为不良AI结果做好积极准备的任何尝试都非常持怀疑态度。他说:“我认为我们要么已经死了,要么我们都很好。”“我认为,如果我花了几个星期我可以制作一个漏洞的袋子,然后制作一个生物货车或其他任何东西,然后在可能的未来,这将拯救我的家人。但是,我要做实际的工作比这样做更重要。”
我第一次与年轻的AI安全研究人员亨利(Henry)聊天几周后,我通过电子邮件签到了。他改变了主意,不再试图建立DIY生物壳。他确定自己的想法还不够大。
取而代之的是,他现在正试图在加利福尼亚购买土地,在那里他可以建立更多的永久防御结构来保护更多的朋友和家人。“我想的主要情况是未对准的情况超级智能AI接管,他说。他想为一场近乎全面的AI发动战争对人类的战争做好准备,但是“ AI仍然有一点同理心。”一旦AI赢得了这场战争,他总结说:“也许他们会照顾幸存者,并将人类放在某种人类动物园中。我宁愿生活在人类动物园中,也不愿被生物武器杀死。”
罗布·普莱斯(Rob Price)是业务内部人士的前高级通讯员。
Business Insider的话语故事提供了有关当天最紧迫的问题的观点,并通过分析,报告和专业知识告知。