作者:Bhaskar Chakravorti
诺贝尔奖在表彰人类最伟大的成就和面临的最大挑战方面几乎没有其他奖项可以与其媲美。在今年斯德哥尔摩的颁奖之后,许多人工智能社区的人士都处于庆祝的气氛中。在一个时刻当人工智能的采用一直是不均衡的,甚至高盛——可能算是最具有代表性的之一也认为可靠的商贩AI热潮——具有爬上了从无忧无虑的乐观高峰跌落下来,诺贝尔奖给了这项技术新的推动。随着对人工智能“的说法宣布,诺贝尔时刻以及物理学和化学奖项被视为其“出柜派对”,人们重燃希望,认为人工智能终于准备就绪,即将塑造历史.
“诺贝尔科学奖一直以其独特的方式表彰人类的智慧。今年,人工智能(AI)变革潜力首次得到了认可。”经济学家 写了.
诺贝尔奖在彰显人类最伟大的成就及其面临的最大挑战方面几乎没有其他奖项可以与之媲美。随着今年斯德哥尔摩的宣布,许多人工智能社区的人们正处于庆祝的氛围中。在这样一个时期,人工智能的采用一直很不平衡,甚至高盛——或许是最具代表性的之一也认为可靠的商贩关于AI炒作——有爬上了从无拘束的乐观高峰回落,诺贝尔奖给了这项技术新的动力。随着对人工智能“的说法,诺贝尔时刻以及物理学和化学领域的奖项被视为它的“出道派对”,终于有理由重新燃起希望,人工智能即将准备就绪,以实现其潜力。塑造历史.
“科学的诺贝尔奖一直以来以某种方式表彰人类的智慧。今年,人工智能(AI)变革潜力首次得到了认可。”经济学家 写了.
慢着。AI可能已经获得了科学界的认可,但更重要的是要认识到无限制发展所带来的风险。
首先,不要只关注那些明确表彰人工智能成就的奖项,也要注意其他奖项所传达的信息。以诺贝尔和平奖为例。该奖项授予了日本原爆被害者团体“日本被団連”,旨在消除再次部署核武器的可能性。和平研究研究所所长亨里克·厄达尔表示:“在一个自动武器系统和由AI驱动的战争正在兴起的时代,他们呼吁裁军不仅是历史性的,更是对我们未来的至关重要信息。”在理解该诺贝尔和平奖的意义时,应当将其视为一种警示,提醒人们当技术——如人工智能——脱离人类控制时可能会导致灾难性后果。
AI的使用会导致这样的结果吗?确实,诺贝尔物理学奖被授予了被称为“AI教父”的杰弗里·辛顿,他是一位对技术有可能变得比我们更智能持谨慎态度的主要声音,并且掌控汉顿担忧一种可能绕过人类决策者和机构保障的技术无限制发展,这种技术甚至可以发动核攻击。在许多方面,汉顿继承了弗雷德里克·约里奥的传统,他与妻子伊伦·约里奥-居里一起因发现第一种人工制造的放射性原子而获得了诺贝尔化学奖。约里奥曾警告过灾难性的后果在使用原子能时——正是日本被爆者团体尼弘秘邓祁所经历的那场浩劫。
超出辛顿对其自身工作的不安之外,今年的化学奖由Demis Hassabis和John Jumper分享,他们领导了使用AI的工作预测所有生命分子的结构——开启了药物、治疗和其他疗法方面众多医学发现的大门。虽然哈萨比斯无疑是人工智能领域的先驱,但他也为那些狂热者们带来了一个警示;他有敦促为了将AI的风险视为与气候变化等全球性问题一样严重,气候变化目前正产生灾难性的影响。哈萨比斯也可以提出谨慎的警告,因为他的公司DeepMind已被谷歌收购。与此同时,整个行业对追逐生成型AI的痴迷带来的风险拨走资源从DeepMind工具的进一步发展中。这些工具如果得到进一步发展,具有拯救生命的意义。DeepMind最核心的工具,AlphaFold,可以预测科学界已知几乎每一种蛋白质的结构,这可能会彻底改变药物发现、疾病研究以及蛋白质与人体内各种分子相互作用的方式。希望诺贝尔奖的认可现在能够帮助重新调配资源,以加速实现AlphaFold潜力的相关发现。不过,哈萨比斯有更广泛的观点警告谈到气候变化,他警告说:“国际社会协调有效的全球应对措施花费了太长时间,我们现在正承受着这种延迟的后果。我们不能在人工智能方面重蹈覆辙。”一种不同的诺贝尔之声;一种不同形式的不安。
即将获奖的人们仍然在高度公开的情况下协调他们的担忧。公开信2023年5月,呼吁将人工智能导致人类灭绝的风险视为与其它主要全球危机同等重要的全球优先事项。值得注意的是,辛顿是首位签署人,哈萨比斯则是名单上第三位的签署者,在超过一百人的名单中。350个签名来自杰出人物的。
但诺贝尔的争议并未就此结束。事实上,在这合唱中甚至还有不和谐的声音,那就是经济学领域的诺贝尔奖。2024年的奖项由麻省理工学院(MIT)的达伦·阿西莫格鲁获得,他认为将焦点放在人工智能导致人类灭绝的风险上是误入歧途的阿西莫格鲁认为,我们应该调查控制AI开发的行动者的动机,并探讨是否应该对其进行监管;他担心关于遥远风险的声音淹没了更紧迫的风险。这些风险源于各种原因:辅助国家监视的AI、技术掌握在少数企业手中的问题、企业匆忙忽视了人力劳动的价值并用机器取代工人,以及由此产生的收入和社会不平等。阿西莫格鲁还担忧人工智能带来的生产力提升被夸大了。他的关切和他的诺贝尔奖部分源自于分析在与2024年诺贝尔经济学奖得主、麻省理工学院的西蒙·约翰逊教授讨论了变革性技术的历史后,他们发现,从蒸汽机到纺纱机再到生产线等突破性技术带来的繁荣主要惠及了一个狭隘的精英阶层,而社会的大部分并没有分享到这些成果。
无论是否听取阿塞莫格鲁和约翰逊、欣顿和哈萨比斯甚至日本原爆被害者团体的警告,这更多是关于人工智能风险的诺贝尔时刻,而不是人工智能本身的成就。这一季的宣布是一个及时的警示,如果我们只是单纯地投资一万亿美元在人工智能上——如预期的那样——并且未能投资于缓解由人工智能无序发展加速的诸多风险,我们可能不得不为技术负面影响的幸存者预留一个未来的诺贝尔和平奖,在人工智能时代设立一个类似于日本广岛和平运动(Nihon Hidankyo)的组织。
我们必须在哪些风险缓解领域进行投资?有几个领域应该是下一个诺贝尔奖候选人的清单上的重点:改进监督;组织内部和多边论坛中的问责制和控制,以及监管法律框架和标准;培训与AI相伴的人类“飞行员”并重新培训受AI影响的劳动力;减少公司和政府对少数AI瓶颈的依赖;扩大AI在教育、医疗保健和金融获取方面的利益(大规模),以确保及时的信息,从而为最大比例的人口带来关键干预措施;以及扩大AI行业的地理分布及用于训练算法的数据集,以确保更广泛的包容性分散AI的利益,可能将其可用性变成像核心互联网一样的全球公共产品。
AI真正的诺贝尔时刻可能到来的那一天,就是我们在这些领域进行了投资的时候。那时我们将开发出一项真正能够促进社会发展的激动人心的技术,而不是像现在这样:一个非常高效地放大我们所有分歧的技术。