历史首先重复自己,首先是悲剧,然后作为闹剧。上周,美国能源部发出的电话在社交媒体上进行一个新的曼哈顿项目,这次是赢得所谓的人工智能竞争。
但是曼哈顿项目不是蓝图。这是一个警告的警告故事,讲述当科学被征集到国家权力服务时,公开询问让位于民族主义竞争以及进步崇拜从道德责任中切断时,会发生什么。它显示了保密性如何滋生恐惧,腐蚀公众信任并破坏民主制度。
曼哈顿项目可能是哈里·杜鲁门总统声称,历史上最伟大的科学赌博。但这也代表了地球上生命的连续性的赌博。它使世界陷入了歼灭的边缘,我们仍然凝视着它。第二个这样的项目很可能会将我们推向边缘。
如果我们认真对人工智能构成的威胁,我们必须放弃安全的幻想,即安全在于竞争对手。
原子时代的起源与人工智能的兴起之间的相似之处令人震惊。在这两个方面,在技术创新的最前沿的个人也是最早发出警报的人之一。
在第二次世界大战期间,原子科学家提出了对核能军事化的担忧。然而,在战时保密的限制下,他们的异议受到了压制,他们继续参与了他们在纳粹德国面前制造炸弹的当务之急。实际上,由于德国已经放弃了开发核武器的努力,因此这种威胁在很大程度上取得了曼哈顿项目的势头。
这首次技术研究评估炸弹的可行性得出的结论是,它确实可以建造,但警告说,由于随风散布放射性物质,炸弹可能不会在不杀死大量平民的情况下使用炸弹,这可能使它不合适,因此它是一种武器!
1942年,科学家认为第一个原子链反应可能会激发大气时,亚瑟·霍莉·康普顿(Arthur Holly Compton)回忆起思考如果这种风险被证明是真实的,那么绝对不能制造这些炸弹……接受纳粹的奴隶制要比有机会在人类上绘制最后的窗帘。”
狮子座起草了一份请愿书敦促杜鲁门总统不要对日本使用它。他警告说,这样的爆炸在道德上是无可辩驳的,而且在战略上是短视的:一个国家为他写道,该国家的先例是将这些新解放的自然力量用于破坏目的。
今天,我们不能掩盖世界大战的借口。我们不能声称无知。我们也不能唤起存在对手的幽灵。围绕人工智能的警告是明确的,公开的和明确的。
2014年,斯蒂芬·霍金(Stephen Hawking)警告那``完整人工智能的发展可能会阐明人类的终结。在近年来,被称为AI的教父的杰弗里·欣顿(Geoffrey Hinton)辞去了Google的辞职,同时引用了对这一问题的越来越关注。存在风险由未选中的AI开发提出。不久之后,一个研究人员和行业领导人联盟发布了联合声明断言“减轻AI灭绝的风险应该是全球优先事项,以及其他社会规模的风险,例如大流行和核战争。一个公开信,由一千多名专家和成千上万的其他专家签署,要求暂时停顿AI开发,以反思其轨迹和长期后果。
然而,发展越来越强大的人工智能的竞赛持续不断,远见卓识的推动力少于担心停止进步意味着落后于竞争对手,尤其是中国。但是面对如此深刻的风险,必须问:赢得什么,到底是什么?
反思类似未能在自己时代面对技术进步的危险的情况下,阿尔伯特·爱因斯坦警告说除了我们的思维方式,原子的释放力量改变了一切,因此我们向无与伦比的灾难转移。今天,他的话仍然同样紧迫。
该课程应该很明显:我们无力重复原子时代的错误。援引曼哈顿项目作为AI发展的典范不仅在历史上是无知的,而且在政治上也是鲁ck的。
我们需要的不是因恐惧,竞争和保密性而推动的新军备竞赛,而是相反的:一项全球倡议,将技术发展民主化和非军事化,这是优先于人类需求,中心尊严和正义的,并促进了所有人的集体福祉。
30多年前,丹尼尔·埃尔斯伯格(Daniel Ellsberg),前核战争策划者变成举报人,呼吁另一种曼哈顿项目。一个不是要建造新武器,而是消除第一个武器的危害,并拆除我们已经拥有的世界末日机器。该愿景仍然是值得追求的唯一理性和道德上可辩护的曼哈顿项目。
我们不能像原子弹一样,仅在事后看来就承认并采取行动。作为约瑟夫·罗比特(Joseph Rotblat),唯一以道德理由辞职的科学家反映了他们的集体失败:
核时代是科学家的创造,完全无视科学的基本宗旨。它是在保密中构思的,甚至在一个国家出生之前就篡夺了政治主导地位。由于这种先天性的缺陷,并被Strangeloves博士的大军培育,也就不足为奇的是,该作品成长为一个怪物。我们,科学家,可以回答很多。
如果我们走上灾难的道路,答案不是要加速。作为医生Bernard Lown和Evgeni Chazov在冷战武器竞赛的高峰期间警告:–“朝着悬崖竞争时,要停下来进步。
我们必须不再反对进步,而要追求另一种进步:一个植根于科学伦理,对人类的尊重以及对我们集体生存的承诺。
如果我们认真对人工智能构成的威胁,我们必须放弃安全的幻想,即安全在于竞争对手。正如那些最熟悉这项技术的人警告的那样,在这场比赛中没有胜利,只有加速共享的灾难。
到目前为止,我们已经在核时代幸存下来。但是,如果我们不理会其课程并放弃我们自己的人类智力,那么我们可能无法在人工智能时代生存。