英语轻松读发新版了,欢迎下载、更新

“野蛮”的人工智能

2024-11-25 17:50:03 英文原文

作者:Hatem Sadek

一份奇特而令人震惊的声明已经出现,强调了未来可能面临的前所未有的风险。它的表述强调了地球未来的不确定性,即使对于这个令人畏惧的世界的决策者来说也是如此。最近,在一年一度的亚太经济合作组织(APEC)峰会上,美国总统乔·拜登和中国国家主席习近平一致认为,有关使用核武器的决定应由人类而不是人工智能做出。领导人还强调了仔细评估与军事人工智能技术发展相关的风险的重要性,并声称必须以“智慧和责任”来实现这些进步。

这标志着两国首次就人工智能及其军事影响发表联合声明。尽管存在重大政治和经济分歧,习近平仍向拜登表示,“中国准备与美国新政府合作,继续探索正确道路”,以实现相互理解和“实现长期和平共处”。

该声明并未引起西方或美国媒体的关注。这或许并不令人意外,因为美国总统在其执政末期的言论或行动往往受到的考虑有限。

直到第二次世界大战结束时,核武器才在人类身上进行了测试,当时美国在广岛和长崎投下了两颗原子弹,造成至少 129,000 人死亡,并造成了毁灭性的长期健康影响。这些轰炸迫使日本天皇无条件投降。从那时起,核武器就没有被用于人类,从一种威慑力量演变成了对人类和地球上所有生命潜在的大规模灭绝的象征。因此,在处理这些致命武器时出现了一条基本原则:虽然政治操纵是允许的,而且对于经济和社会收益最大化而言往往是必要的,但核武器的使用仍然受到限制,这是生存和生命延续的条件。

The ‘savage’ artificial intelligence

尽管有这条黄金法则,任何国家都渴望成为核俱乐部的成员,并成为少数拥有这种武器的国家之一,这至少可以确保他们在与对手对抗时不会面临毁灭性的失败缺乏核威慑。即使那些已经拥有核能力的国家也在考虑改变其使用原则。例如,俄罗斯总统弗拉基米尔·普京提议修订俄罗斯的核理论,该理论此前的重点是对任何瞄准其领土的核国家使用核武器。新方法表明,即使无核国家在核国家的支持下攻击俄罗斯,也可能使用核武器。事实上,没有明确的方法来评估单个核弹的影响,因为它受到多种因素的影响,包括爆炸时的天气、爆炸的时间、爆炸地点的地理布局、以及爆炸是发生在地面还是空中。

然而,如果核俱乐部成员将数千枚核导弹和氢导弹交给过去两年迅速发展的人工智能手中,会发生什么?这项技术已经开始执行以前仅限于人类的任务,能够生成逼真的图像和坐标、模仿声音以及前几年的技术领域中不存在的其他功能。这种不受监管的智能如何不仅控制数十亿人和地球本身,而且控制我们居住的整个太阳系?此外,这种担忧还延伸到了美国的情报界、研究中心和学术机构,它们对外国敌对实体构成的潜在威胁表示警惕,这些实体能够获得先进的人工智能能力,并可以利用它们来管理和激活人工智能。核武器。

领先的人工智能公司 OpenAI 的 11 名现任和前任员工最近发表了一封公开信。这封信声称,人工智能公司的财务动机阻碍了对人工智能开发的有效监督,可能导致超出人类控制的情况。它还警告不受监管的人工智能带来的危险,从错误信息的传播到自主人工智能系统在敏感军事地点失去控制的风险,这可能导致“人类灭绝”。这封信强调人工智能公司在与政府共享有关其系统能力和局限性的信息方面,这些公司的承诺很薄弱,这表明这些公司不可靠。

这封公开信是对快速发展的生成人工智能技术提出安全担忧的最新一封信,该技术以惊人的速度和低成本发展。显然,拜登和中国同行之间的口头协议是一种文学和道德尝试,缺乏约束力,最终是徒劳的,没有有效的法规来限制或至少控制被认为不道德或不道德的行为。我想起了受人尊敬的作家列宁·埃尔拉姆利 (Lenin El-Ramly) 的杰出作品,特别是他的戏剧《野蛮人》,该剧由艺术家穆罕默德·索比 (Mohamed Sobhi) 在近 40 年前演出,仿佛这是对黑暗未来的预警。可以使人类倒退到原始、野蛮的时代。

Hatem Sadek 博士 — Helwan 大学教授

关于《“野蛮”的人工智能》的评论


暂无评论

发表评论

摘要

在亚太经合组织峰会上,美国总统乔·拜登和中国国家主席习近平一致认为,有关核武器的决定应该由人类而不是人工智能做出。他们强调需要谨慎评估与军事人工智能技术相关的风险。这是两国首次针对人工智能的军事影响发表联合声明。尽管存在分歧,习近平表示中国愿意与美国合作,相互理解、和平共处。该声明很少受到媒体关注,这是总统后期行动中经常出现的趋势。领导人还讨论了核武器政策不断变化的性质,以及在技术快速进步可能构成生存威胁的情况下将此类武器委托给人工智能的危险。