1989年,政治学家弗朗西斯·福山(Francis Fukuyama)预测我们正在接近历史的尽头。他的意思是,类似的自由民主价值观在世界各地的社会中也占有一席之地。他怎么办?今天的民主显然正在下降。独裁者和专制人数正在上升。
但是,您可能会认为福山一直是对的。但是以不同的方式。也许我们真的在接近结尾历史。就像在人类上进行游戏。
现在有很多方法可以结束。全球大流行。一个巨大的流星(也许恐龙会欣赏的东西)。气候灾难。但是越来越多地谈论的是人工智能(AI)。这是那些潜在的灾难之一,例如气候变化,似乎已经慢慢地爬上了我们,但是现在许多人担心,很快可能会使我们失望。
2022年,Openai首席执行官Wunderkind Sam Altman增长最快的人之一资本主义历史上的公司解释了利弊:
我认为[围绕AI]的好案例真是太好了,以至于您听起来像个非常疯狂的人,开始谈论它。不好的案件 - 我认为这很重要,就像我们所有人都亮了。
2024年12月,杰夫·欣顿(Geoff Hinton10%至20%的机会AI可能会在未来30年内导致人类灭绝。这些对人工智能了解很多的人来说是非常严重的。
Altman和Hinton Arent第一个担心AI比我们聪明时会发生什么。带艾伦·图灵(Alan Turing),许多人认为是创始人人工智能领域。Time Magazine将图灵排名100个最有影响力的人之一20世纪。在我看来,这让他卖了。图灵(Turing)与牛顿(Newton)和达尔文(Darwin)在一起,而不是上个世纪最伟大的头脑之一,而是过去一千年。
1950年,图灵(Turing)写了通常认为是关于AI的第一篇科学论文。就在一年后,他做出了一个预测,今天困扰着像我这样的AI研究人员。
一旦机器可以从人类等经验中学习,图灵就预测 - 在某个阶段,不久就要超过我们微弱的力量了,因此我们必须期望这些机器能够控制。”
当1970年接受Life Magazine采访时,该领域的另一个创始人马文·明斯基,,,,预测,,,,
人的思想有限,可能无法控制这种巨大的心态[â]一旦计算机得到控制,我们可能永远都无法将其恢复。我们将在他们的痛苦中生存。如果我们很幸运,他们可能会决定将我们保留为宠物。
那么,机器如何控制呢?我们应该多么担心?我们该怎么做才能阻止这一点?
第二次世界大战期间在布莱奇利公园(Bletchley Park)与图灵(Turing)一起工作的数学家欧文·善(Irving Good)预测了如何。好称呼它情报爆炸。这是机器变得足够聪明以开始改善自己的点。
现在,这被更为普遍地称为“奇点”。良好预测奇异性将创建一台超智能的机器。他有点不祥地建议这是人类需要做出的最后一个发明。
AI何时会超越我们?
当机器智能可能超过人类智能时,不确定。但是,鉴于Chatgpt等大型语言模型的最新进展,许多人担心这可能很快。为了在伤口中加盐,我们甚至可能正在加速这一过程。
当今AI的发展最让我感到惊讶的是变化的速度和规模。近10亿美元正在每天投资人工智能由Google,Microsoft,Meta和Amazon等公司进行。大约是四分之一全球的总研发(R&D)预算。
我们从来没有在一项技术上进行如此大规模的赌注。结果,许多人何时匹配机器的时间表,并且不久之后,人类的智能正在迅速缩小。
埃隆·马斯克(Elon Musk)预测这些机器将在2025年或2026年之前超越我们。建议我们将在2026年或2027年到达那里。Google DeepMind的联合创始人Shane Legg,预测2028年;NVIDIA首席执行官Jensen Huang,将日期放在2029年。对于这样一个预处理的事件,这些预测都非常接近。
当然,也有反对的声音。元首席科学家Yann Lecun辩称如果不是几十年,这将需要数年。我的另一位AI同事,名誉教授加里·马库斯(Gary Marcus)已经预测,现在可能是10或100年。而且,为了将我的卡放在桌子上,早在2018年,我写了一本书,标题为2062。这预示着人工智能首先超过人类智能的40年左右的时间。
场景
一旦计算机与我们的智能相匹配,就会想到他们不会超过它。毕竟,人类智力只是进化的事故。我们经常设计的系统比自然更好。例如,飞机比鸟类更快,更高,更快。而且有很多原因是电子智能可能比生物智能更好。
例如,计算机在许多计算中要快得多。计算机有巨大的回忆。计算机永远不会忘记。在狭窄的域中,下棋,,,,阅读X射线, 或者折叠蛋白,计算机已经超越人类。
那么,超级智能计算机到底如何使我们失望呢?在这里,论点开始变得更加模糊。欣顿告诉《纽约时报》
如果它比我们聪明得多,那将非常擅长操纵,因为它会从我们那里学到,而且很少有一个更聪明的事情受到不太聪明的事情控制的例子。
欣顿的论点有反例。婴儿控制父母,但不聪明。同样,美国总统也不比所有美国公民都聪明。但是从广义上讲,欣顿有一点。例如,我们应该记住,正是智力使我们负责地球。现在,猿类和蚂蚁非常依赖我们的善意来持续存在。
以一种令人沮丧的捕获方式22的方式,那些害怕人工超级智力的人常常认为我们无法确切地知道它如何威胁我们的存在。我们如何预测比我们更聪明的计划的计划?这就像要求狗想象一场热核战争的世界末日。
一些情况已经提出。
AI系统可以自主识别关键基础架构(例如电网或金融系统)中的漏洞。然后,它可能会攻击这些弱点,从而摧毁将社会融合在一起的结构。
另外,AI系统可以设计新的病原体,这些病原体是致命和可传播的,以至于最终的大流行使我们消失了。在Covid-19之后,这也许是我们许多人可以与之联系的场景。
其他场景更具梦幻般。AI毁灭者Eliezer Yudkowsky提出了一种这样的情况。这涉及通过自我复制的纳米机器的AI创造,从而渗透到人类的血液中。这些微观细菌由钻石样结构组成,可以使用太阳能复制并通过大气电流分散。他想象他们将进入未发现的人体,并在收到同步信号后,释放致命的毒素,导致每个宿主死亡。
这些场景需要赋予AI系统代理机构 - 在世界上采取行动的能力。尤其令人不安的是,这正是像Openai这样的公司现在正在做的事情。可以回答您的电子邮件或帮助在新员工上是今年最时尚的产品。
在我们的关键基础设施上提供AI代理将是非常不负责任的。的确,我们已经将保障措施放入我们的系统中,以防止恶意行为者黑客入侵关键基础设施。例如,澳大利亚政府需要关键基础设施的运营商``确定并且就合理的可行而言,采取步骤最小化或消除可能对其资产产生相关影响的物质风险。
同样,赋予AI合成(潜在有害)DNA的能力将是高度不负责任的。但再次我们已经将保障措施安装到位为了防止坏(人)参与者邮购有害的DNA。人工智能不会改变这一点。我们不希望有这样的代理人,不希望人工或人工。
欧洲联盟现在领导着监管AI的道路。最近巴黎的AI行动峰会强调了那些热衷于看到更多监管的人与希望加速AI部署的人之间的鸿沟。赢得AI种族并忽略此类风险的财务和地缘政治激励措施令人担忧。
超级智能的好处
抛开代理,超级情报并不是出于很多原因而对我的关注。首先,智力带来了智慧和谦卑。最聪明的人是知道他们很少知道的人。
其次,我们已经对我们的星球有超级智慧。这并没有造成人类事务的终结,情况恰恰相反。不一人们知道如何建造一个核电站。但是总的来说,人们有这些知识。我们的集体情报远远超过了我们的个人智能。
第三,竞争可以使这种集体智能保持控制。苹果和三星等公司的集体智慧之间存在健康的竞争。这是一件好事。
当然,仅竞争是不够的。政府仍然需要介入并规范以防止诸如寻租垄断之类的不良结果。市场需要规则才能运行良好。但是在这里,政客之间以及思想之间的竞争最终导致了良好的结果。我们当然需要担心调节AI。就像我们监管汽车和手机以及超级智能公司一样。
我们已经看到欧盟加紧了。这欧盟AI法在2025年初生效的,在面部识别,社会信用评分和潜意识广告等领域,对AI的高风险使用。欧盟AI法案可能会证明病毒,就像许多国家遵循欧盟的隐私领导通用数据保护法规。
因此,我相信,您不必担心太多,因为聪明的人 - 即使是像杰夫·欣顿(Geoff Hinton)这样的诺贝尔奖的人也警告了人工智能的风险。毫不奇怪的是,聪明的人对智力分配了太多的重要性。
人工智能当然会带来风险,但它们并不是新的风险。我们调整了过去的治理和机构,以适应过去的新技术风险。我认为我们没有理由可以通过AI再次进行。
实际上,我欢迎智能人工智能即将到来。这是因为我期望这将导致我们自己人类的更大的欣赏,甚至可能增强。
智能机器可能通过使人际关系更加有价值,使我们变得更好。即使我们可以在将来有了更大的情感和社会智力的程序机,我怀疑我们会像对人类一样对他们同情。一台机器不会坠入爱河,哀悼一个死去的朋友,敲打他们有趣的骨头,闻到美丽的气味,大声笑或被悲伤的电影哭泣。这些是人类独特的经历。而且由于机器没有分享这些经验,因此我们将永远不会像彼此那样与它们联系。
机器将降低创造许多生命必需品的成本,因此生活成本将暴跌。但是,仍然由人手制造的那些事情必然会更稀有且令人放心。我们今天看到了。人们对手工制作,手工和艺术有更加欣赏。
智能机器可以通过比以往任何时候都更加聪明来增强我们。例如,AI可以通过在太大的数据集中找到无法理解的数据集或在一生的计算时间内将更多的数字误解来超越人类的智能。最新的抗生素不是人类的创造力,而是通过机器学习。然后,我们可以期待一个未来的科学和技术被人工智能增压。
智能机器可以通过给我们对人类价值观的更加欣赏来增强我们。尝试(在许多情况下)到具有道德价值的机器的目的(在许多情况下)可能会使我们对自己的人类价值观有了更好的了解。这将迫使我们非常精确地回答我们过去经常避开的问题。我们如何重视不同的生活?公平和公平意味着什么?我们想生活在哪种社会中?
我希望我们的未来很快就会成为神圣的人工智能。这些机器像众神一样,是不朽的,无误的,无所不知的,我怀疑 - 这太难以理解了。但是我们的未来是相反的,易谬的和致命的。因此,让我们拥抱使我们成为人类的原因。这就是我们所拥有的一切,我们将拥有的一切。
托比·沃尔什(Toby Walsh)是AI五本书的作者。AI的最短历史:您需要知道六个想法将于4月出版。他将于2月19日在悉尼大学举行院长的杰出演讲。AI奇异性:当机器远离我们时会发生什么。