作者:James Somers
达里奥·阿莫代 (Dario Amodei),首席执行官人工智能公司 Anthropic 的创始人一直预测,A.I.在生物学、数学、工程和写作等领域“比诺贝尔奖得主还要聪明”的人可能会在 2027 年上线。他设想数以百万计的模型副本会飞速运转,每个模型都在进行自己的研究:一个“数据中心里的天才国家”。6 月,OpenAI 的 Sam Altman 写道,该行业正处于构建“数字化”的风口浪尖。超级智能。————2030 年代可能会与之前的任何时期都大不相同,”他断言。与此同时,A.I.目前大多数人日常交互的工具都会让人想起 Clippy,它曾经是 Microsoft Office 的“助手”,但实际上更像是一只牛虻。Zoom 人工智能该工具建议您询问它“有哪些会议破冰活动?”或指示它“写一条短信来表达感激之情。”Siri 擅长设置提醒,但其他方面就不那么擅长了。我的一位朋友在 Gmail 中看到一个按钮,上面写着“感谢并讲述轶事”。当他点击该按钮时,Google 的人工智能就会启动。编造了一个关于他从未去过的土耳其之旅的有趣故事。
人工智能的推出仓促且参差不齐。造成了一种迷雾,人们很容易得出这样的结论:这里没有什么可看的——这都是炒作。可以肯定的是,有大量的炒作:阿莫迪的时间表是科幻小说。(人工智能模型的改进速度没有那么快。)但是,认为大型语言模型只是在打乱单词的想法是另一种一厢情愿的想法。我曾经对这种观点表示同情。我从人工智能的想法中寻求安慰。与真正的智力或理解力没有什么关系。我什至庆祝它的缺点——为主队加油。然后我开始使用人工智能。在我作为一名程序员的工作中,我担心如果不这样做我就会落后。(我的雇主是一家贸易公司,对人工智能公司进行了多项投资并与其建立了合作伙伴关系,其中包括 Anthropic。)从许多方面来看,编写代码是人工智能公司所做的事情。最擅长;代码比散文具有更多的结构,并且通常可以自动验证给定的程序是否有效。我的转变很快。起初,我咨询了 A.I.模型来代替查找东西。然后我给他们提出一些独立的小问题。最终,我给了他们真正的工作——我整个职业生涯都训练去做的那种工作。我看到这些模型在几秒钟内消化了数千行代码的复杂细节。他们可以发现细微的错误并协调复杂的新功能。最后,我被调到一个快速发展的团队,旨在更好地利用人工智能。工具,并创建我们自己的。
据说,科幻小说作家威廉·吉布森 (William Gibson) 观察到,未来已经到来,只是分布不均匀,这或许可以解释为什么人工智能会出现。似乎创造了两种文化,一种不屑一顾,另一种令人着迷。在我们的日常生活中,A.I.可以预订假期或报税的“代理”是一个失败,但我有一些同事使用人工智能编写大部分代码。有时一次运行多个编码代理。模型有时会犯业余错误或陷入愚蠢的循环,但是,随着我学会有效地使用它们,它们使我能够在一个晚上完成以前需要一个月的时间。不久前,我在不知道如何制作iOS应用程序的情况下制作了两个iOS应用程序。
我曾经有一位老板说,求职面试应该探究优点,而不是寻找缺点。大型语言模型有很多弱点:众所周知,它们会产生听起来合理的谎言;即使你错了,他们也会卑躬屈膝;他们被简单的谜题所愚弄。但我记得曾经有一段时间,当今人工智能的明显优势。模型——流畅、流畅、能够“理解”别人正在谈论的内容——被认为是圣杯。当您亲身体验这些优势时,您会想:理解的幻觉必须有多令人信服才能停止称其为幻觉?
今年夏天一个酷热的日子,我的朋友马克斯在游乐场与家人见面。由于某种原因,儿童洒水器被关闭,麦克斯的妻子向所有人保证她的丈夫会修好它。面对红着脸的六七岁孩子,麦克斯走进一间公用设施棚,希望找到一个又大又胖的“接通”开关。相反,他发现了一个由古老管道和阀门组成的迷宫。正当他准备放弃时,他突发奇想,拿出手机,将一张照片输入 ChatGPT-4o,并附上对问题的描述。人工智能想了一会儿,或者也许没有想,但无论如何,它表明他正在寻找一种典型的灌溉装置的防回流系统。他看到底部那个黄色球阀了吗?这可能控制了流量。麦克斯全力以赴,当水打开时,操场上响起了欢呼声。
ChatGPT 是无意识地将单词串在一起,还是它理解了问题?这个答案可以教会我们一些关于理解本身的重要知识。“神经科学家必须面对这个令人羞愧的事实,”加州大学伯克利分校的神经科学教授 Doris Tsao 告诉我。“机器学习的进步让我们更多地了解了智能的本质,这比神经科学在过去百年中发现的任何东西都多。”曹最出名的是破译猕猴如何感知面孔。她的团队学会了预测当猴子看到特定面孔时哪些神经元会放电;更引人注目的是,考虑到神经元放电的模式,曹的团队可以渲染脸部。他们的工作建立在对人工智能内部人脸如何表示的研究之上。模型。如今,她最喜欢问人们的问题是“您从 ChatGPT 中获得的最深刻的见解是什么?”“我自己的答案,”她说,“我认为它从根本上揭开了思维的神秘面纱。”
关于我们如何走到这一步的最基本的描述是这样的。在十九世纪八十年代,一个由认知心理学家和计算机科学家组成的小团队试图在机器中模拟思维。其中比较著名的有大卫·鲁梅尔哈特 (David Rumelhart)、杰弗里·辛顿 (Geoffrey Hinton) 和詹姆斯·麦克莱兰 (James McCleland),他们后来在加州大学伯克利分校组建了一个研究小组。圣地亚哥。他们将大脑视为一个巨大的网络,其中神经元按模式放电,导致其他神经元组放电,依此类推。这种模式之舞就是思考。大脑通过改变神经元之间的连接强度来学习。至关重要的是,科学家们通过创建人工神经网络来模仿这一过程,并应用一种称为梯度下降的简单算法来提高其预测的准确性。(该算法可以比作徒步旅行者从山顶导航到山谷;最终找到路的一个简单策略是确保每一步都是下坡。)在大型网络中使用此类算法称为深度学习。
A.I. 中的其他人他们怀疑神经网络是否足够复杂来完成现实世界的任务,但是,随着网络变得越来越大,他们开始解决以前无法解决的问题。人们会用整篇论文来开发区分手写数字或识别图像中人脸的技术;然后深度学习算法会消化底层数据,发现问题的微妙之处,并使这些项目显得过时。深度学习很快就征服了语音识别、翻译、图像字幕、棋盘游戏,甚至预测蛋白质如何折叠的问题。
当今领先的人工智能模型使用一种称为下一个令牌预测的技术在互联网的很大一部分上进行训练。模型通过猜测接下来将读取的内容来学习,然后将这些猜测与实际出现的内容进行比较。错误的猜测会激发神经元之间连接强度的变化;这就是梯度下降。最终,该模型变得非常擅长预测文本,以至于它似乎了解事物并且有意义。所以这是值得考虑的事情。一群人寻找大脑工作原理的秘密。随着他们的模型向类脑尺寸发展,它开始做一些被认为需要类脑智能的事情。他们有可能找到他们要找的东西吗?
对于如此简单而胜利的人工智能描述,存在着抵制是可以理解的。Ted Jiang 对此进行了很好的论证,他于 2023 年初为本杂志撰写了一篇文章,题为“ChatGPT 是模糊的”JPEG是网络的一部分。”他的意思或多或少是通货紧缩的:那就是全部ChatGPT 是。你把整个互联网输入到一个程序中,它会不完美地把它反馈给你,就像一张照片的副本一样——但它有足够的能力来欺骗你,让你相信这个程序是智能的。今年春天,语言学家艾米丽·M·本德 (Emily M. Bender) 和社会学家亚历克斯·汉纳 (Alex Hanna) 所著的《人工智能骗局》一书中提出了类似的论点。Bender 最为人所知的也许是将 L.L.M. 描述为“随机鹦鹉”。“大型语言模型根本不会、不能、也不会‘理解’任何东西,”作家泰勒·奥斯汀·哈珀 (Tyler Austin Harper) 在大西洋月刊。模型——不是通过思考,而是通过对哪个词汇项可能紧随另一个词汇项进行统计猜测来产生写作。——哈珀用道德论证来支持这些技术论证。人工智能。强者致富,消耗足够的能源来加速气候变化,并使工人边缘化。他的结论是“人工智能产业的基础是一个骗局。”
一位顶尖的神经科学家认为 ChatGPT “从根本上揭开了思维的神秘面纱。”
但针对人工智能的道德理由最终可能比技术性更强。“‘随机鹦鹉’这种东西在某个时候一定会消亡,”塞缪尔·J·格什曼 (Samuel J. Gershman) 是哈佛大学的认知科学家,但他并不是人工智能领域的专家。炒作的人告诉我的。“只有最顽固的怀疑论者才能否认这些系统正在做我们许多人认为不会实现的事情。”普林斯顿大学的认知神经科学家乔纳森·科恩强调了人工智能的局限性,但他认为,在某些情况下,法学硕士似乎反映了人类大脑最大、最重要的部分之一。“初步估计,你的新皮质就是你的深度学习机制,”科恩说。相对于身体尺寸,人类的新皮质比其他动物大得多,而拥有最大新皮质的物种——大象、海豚、大猩猩、黑猩猩、狗——是最聪明的。
2003 年,机器学习研究员埃里克·B·鲍姆 (Eric B. Baum) 出版了一本名为《什么是思想?》的书(我在大学的图书馆书库中偶然发现了这本书,是根据书名绘制的。)鲍姆的论点要点是理解就是压缩,而压缩就是理解。在统计学中,当您想要理解图表上的点时,可以使用一种称为线性回归的技术来通过它们绘制一条“最佳拟合线”。如果数据中存在潜在的规律性(也许您正在根据身高绘制鞋子尺寸),那么最佳拟合线将有效地表达它,预测新点可能落在的位置。新皮质可以被理解为将大量的原始经验——声音、视觉和其他感觉——提炼成“最适合的线”,并用它来做出预测。探索世界的婴儿试图猜测玩具的味道或食物落地时的去向。当预测错误时,神经元之间的连接就会被调整。随着时间的推移,这些联系开始捕捉数据中的规律性。它们形成了世界的压缩模型。
人工神经网络就像真实的神经网络一样压缩体验。最好的开源人工智能之一DeepSeek 模型能够写小说、提出医疗诊断建议,并且听起来像数十种语言的母语人士。它是使用对许多 TB 数据的下一个令牌预测进行训练的。但当你下载模型时,它只是六分之一。互联网的精华,经过压缩以适合您的笔记本电脑。Ted Jiang 认为 ChatGPT 的早期版本是模糊的,这是正确的JPEG但在我看来,这正是这些模型变得越来越智能的原因。蒋在他的文章中指出,要压缩包含数百万个算术示例的文本文件,您不会创建 zip 文件。您将编写一个计算器程序。“通过理解文本可以实现最大程度的压缩,”他写道。也许法学硕士学位已经开始这么做了。
想象一个计算机程序实际上能够理解,实际上是不自然的,甚至是令人厌恶的。认为。我们通常将思维概念化为有意识的东西,就像乔伊斯式的内心独白或普鲁斯特式白日梦中的感官记忆流动。或者我们可能指的是推理:逐步解决问题。在我们关于人工智能的对话中,我们经常将这些不同类型的思维混为一谈,这使得我们的判断变得正确。一种说法是,ChatGPT 显然没有思考,因为它显然没有普鲁斯特式的遐想;另一种说法是,ChatGPT 显然正在思考,因为它比你能更好地解决逻辑难题。
一些更微妙的事情正在发生。我不相信 ChatGPT 有内在的生命,但它似乎知道自己在说什么。理解——掌握正在发生的事情——是一种未被充分重视的思维方式,因为它大多是无意识的。印第安纳大学认知科学和比较文学教授道格拉斯·霍夫施塔特喜欢说认知就是识别。霍夫施塔特因一本关于心智和意识的书《哥德尔、埃舍尔、巴赫:永恒的金辫子》而闻名,该书于 1980 年获得普利策奖。霍夫施塔特的理论是经过数十年的研究而发展起来的,它认为“视如是”是思维的本质。您将一块颜色视为一辆车,另一块颜色视为钥匙链;无论字母是用什么字体写的,或者字迹有多糟糕,你都能认得出来。霍夫施塔特认为,同样的过程是更抽象的感知的基础。当一位大师审视棋盘时,多年的练习会转化为一种观察方式:白棋的象很弱;白棋的象很弱;最后的比赛很可能是平局。您会看到河流中出现涡流,这表明河流有危险。你看到你正在参加的一场会议就像一个皇帝没穿衣服的情况。我快两岁的儿子意识到,清晨推着婴儿车散步可能是吃羊角面包的机会,并提出了相应的要求。对于霍夫施塔特来说,简而言之,这就是智慧。
霍夫施塔特是最早的人工智能之一。紧缩论者,而我自己的怀疑论也植根于他的怀疑论。他写道,大多数人工智能。研究与真正的思考没什么关系,当我上大学时,在两千人中,我同意他的观点。也有例外。他找到了 U.C.S.D.组有趣。他还欣赏一位不太出名的芬兰裔美国认知科学家彭蒂·卡内尔瓦 (Pentti Kanerva) 的工作,后者注意到高维空间数学中的一些不寻常的特性。在高维空间中,任意两个随机点可能相距极远。但是,与直觉相反的是,每个点周围都有一大群邻居,所以如果你“足够近”,你就可以轻松找到到达该点的路。这让卡内瓦想起了记忆的运作方式。在 1988 年出版的《稀疏分布式记忆》一书中,Kanerva 认为思想、感觉和回忆可以用高维空间中的坐标来表示。大脑似乎是存储这些东西的完美硬件。每个记忆都有一种地址,由当你回忆它时活跃的神经元定义。新的经历会导致新的神经元组放电,代表新的地址。两个地址可能在很多方面不同,但在其他方面可能相似;一种感知或记忆会触发附近的其他记忆。干草的香味让人想起夏令营的记忆。贝多芬第五交响曲的前三个音符产生了第四个音符。你从未见过的国际象棋走法会让你想起旧游戏——不是所有游戏,只是附近的那些游戏。
霍夫施塔特意识到卡内瓦所描述的东西就像是一台“视之为”的机器。“彭蒂·卡内尔瓦的记忆模型对我来说是一个启示,”他在卡内尔瓦书的前言中写道。“这是我遇到的第一项研究,让我感觉自己能够瞥见理解大脑作为一个整体如何运作的遥远目标。”每种思维方式——无论是乔伊斯式的、普鲁斯特式的还是逻辑式的——都取决于在正确的时间想到的相关事物。这就是我们如何弄清楚我们所处的情况。
卡内尔瓦的书从人们的视野中消失了,霍夫施塔特自己的明星也逐渐黯淡了——除非他偶尔会抬起头来批评一个新的人工智能。系统。2018 年,他在谈到谷歌翻译和类似技术时写道:“这种方法仍然存在严重缺陷,这一点可以通过一个词来表达:理解但 2023 年发布的 GPT-4 却产生了 Hofstadter 的转变时刻。“我对系统所做的一些事情感到难以置信,”他最近告诉我。“即使在十年前,这也是不可想象的。”最坚定的紧缩论者也无法再紧缩了。这是一个可以像专家一样进行翻译、进行类比、即兴发挥、概括的程序。我们凭什么说它不理解?“他们所做的事情非常类似于思考,”他说。– 你可以说他们是思考,只是以一种有点陌生的方式。”L.L.M. 的核心似乎有一个“视为”机器。
它们用一系列数字表示每个单词,表示其在高维空间中的坐标(其向量)。在 GPT-4 中,词向量有数千个维度,描述了它与其他词的相似性和差异性。在训练过程中,大型语言模型每当出现预测错误时都会调整单词的坐标;一起出现在文本中的单词在空间上被推得更近。这产生了用法和含义的极其密集的表示,其中类比变成了几何问题。在一个经典的示例中,如果您采用“巴黎”的词向量,减去“法国”,然后添加“意大利”,那么最接近的其他向量将是“罗马”。 L.L.M. 可以通过编码图像中的内容、情绪、甚至人们脸上的表情,都有足够的细节以特定的风格重新绘制它或写一个关于它的段落。当 Max 请求 ChatGPT 帮他修理公园的洒水装置时,模型不仅仅是喷出文字。管道的照片连同麦克斯的提示一起被压缩成一个矢量,捕捉了其最重要的特征。该向量充当调用附近单词和概念的地址。当模型建立起对形势的认识时,这些想法反过来又唤起其他人的兴趣。它根据这些想法做出了回应——牢记在心。
几个月前,我读到了对人类研究人员特伦顿·布里肯 (Trenton Bricken) 的采访,他与同事一起探索了该公司的人工智能系列产品克劳德 (Claude) 的内部情况。模型。(他们的研究尚未经过同行评审或在科学期刊上发表。)他的团队已经确定了人工神经元的集合,或“特征”,当克劳德要说一件事或另一件事时,它们就会激活。功能就像概念的音量旋钮一样;打开它们,模型就不会谈论其他的事情。(在一种思想控制实验中,出现了代表金门大桥的功能;当一名用户向克劳德询问巧克力蛋糕的配方时,其建议的成分包括“1/4 杯干雾”和“1 杯温暖的海水”。)在采访中,布里肯提到了谷歌的 Transformer 架构,这是一种用于构建领先人工智能基础神经网络的配方。模型。(ChatGPT 中的“T”代表“Transformer”。)他认为 Transformer 架构核心的数学非常接近几十年前 Pentti Kanerva 在“稀疏分布式内存”中提出的模型。
我们应该对人工智能之间的通信感到惊讶吗?和我们自己的大脑?毕竟,法学硕士是心理学家和神经科学家帮助开发的人工神经网络。更令人惊讶的是,当模型死记硬背地练习一些东西(预测单词)时,它们的行为方式就开始变得像大脑一样。如今,神经科学和人工智能领域正变得纠缠在一起。大脑专家正在使用人工智能。作为一种模式生物。麻省理工学院的神经科学家 Evelina Fedorenko 使用 L.L.M. 来研究大脑如何处理语言。“我从来没有想过我能在有生之年思考这些事情,”她告诉我。“我从没想过我们会有足够好的模型。”
人们普遍认为,A.I.是一个黑匣子,但事实恰恰相反:科学家可以探测单个人工神经元的活动,甚至改变它们。“拥有一个能够实例化人类智能理论的工作系统,这是认知神经科学的梦想,”普林斯顿大学神经科学家肯尼思·诺曼告诉我。诺曼创建了海马体的计算机模型,海马体是存储情景记忆的大脑区域,但在过去,它们非常简单,他只能向它们提供可能进入人类大脑的粗略近似值。“现在你可以为记忆模型提供与你给予一个人的刺激完全相同的刺激,”他说。
莱特兄弟在早期制造飞机的过程中研究了鸟类。他们指出,鸟类会迎着风起飞,尽管一个理智的人可能会认为它们希望背后有风,并且它们会弯曲翅膀的尖端以保持平衡。这些发现影响了他们的基本滑翔机设计。然后他们建造了一个六英尺长的风洞,使他们能够在精确控制的条件下测试一组人造翅膀。他们的下一轮滑翔机飞行要成功得多。奇怪的是,直到他们制造出一台可以工作的飞行器很久之后,才有可能准确地了解鸟类是如何做到这一点的。
人工智能。使科学家能够将思维本身置于风洞中。在一篇标题为“大型语言模型的生物学”的论文中,人类研究人员观察了克劳德对查询的反应,并描述了“电路”和一系列功能,这些功能一起执行复杂的计算。(调出正确的记忆是迈向思考的一步;在电路中组合和操纵它们可以说是另一步。)对 L.L.M. 的一个长期批评是,因为他们必须一次生成一个反应标记,所以他们无法计划或推理。但是,当你要求克劳德完成一首诗中的押韵对句时,电路会开始考虑新行的最后一个单词,以确保它押韵。然后它向后工作以将线组成一个整体。人类研究人员将此视为他们的模型确实参与规划的证据。稍微眯起眼睛,你可能会第一次感觉到心灵的内部运作尽在眼前。
不过,你确实必须眯着眼睛。“我担心的是,人们会从“我真的对此表示怀疑”转变为完全放弃他们的防护,”普林斯顿大学神经科学家诺曼告诉我。“许多事情仍然需要弄清楚。”我是诺曼正在谈论的人之一。(也许我太容易被“稀疏分布式内存”和人择模型表面上的融合所感动。)在过去的一两年里,我开始相信杰弗里·辛顿(Geoffrey Hinton)的观点,他最近因其人工智能获得了诺贝尔奖。研究报告在 2020 年告诉记者 Karenhao:“深度学习将无所不能。”但我们也看到,更大的模型并不总是更好的模型。绘制模型性能与尺寸的曲线已经开始变平。找到模型尚未消化的高质量数据变得越来越困难,而且计算能力也越来越昂贵。当 GPT-5 在 8 月份问世时,它只是一个渐进式的改进,而且令人非常失望,以至于它威胁到了人工智能的发展。投资泡沫。这个时刻需要一种中间的怀疑态度:一种将今天的人工智能视为一种怀疑态度。认真建模,不相信没有任何难题。
也许这些问题中最重要的是如何设计一个像人类一样高效学习的模型。据估计,GPT-4 在训练中接触了数万亿个单词;孩子们只需要几百万就可以说流利的语言。认知科学家告诉我们,新生儿的大脑具有某些可以加速学习的“归纳偏差”。(当然,大脑是数百万年进化的结果,它本身就是一种训练数据。)例如,人类婴儿期望世界是由物体组成的,其他生物也有信念和意图。当妈妈说“香蕉”时,婴儿会将这个词与她正在看的整个黄色物体联系起来,而不仅仅是它的尖端或果皮。婴儿做一些小实验:我可以吃这个吗?我能把它扔多远?他们的动机是欲望、好奇和沮丧等情绪。孩子们总是试图做一些超出他们能力范围的事情。他们的学习是高效的,因为它是具体的、适应性的、深思熟虑的和持续的。也许真正了解世界需要参与其中。
相比之下,人工智能的体验是如此贫乏,以至于它不能真正被称为“体验”。大型语言模型是在已经非常精致的数据上进行训练的。“我认为它们之所以有效,是因为它们依赖于语言”,曹,加州大学伯克利分校伯克利神经科学家告诉我的。语言就像预先咀嚼过的经验;其他类型的数据意义较弱。“为什么我们在视频数据推理方面没有发生类似的革命?”哈佛大学认知科学家格什曼问道。“我们仍然在与物理常识推理作斗争的视觉模型。”DeepMind 最近的一个模型可以生成正确混合颜料并解决迷宫的视频,但它们也描绘了玻璃弹跳而不是破碎,以及绳索被压成一个结,违反了物理原理。艾达·莫内贾德 (Ida Momennejad) 是一名认知神经科学家,现供职于微软研究院。虚拟地浏览一座建筑物,然后询问有关路线和捷径的问题,这些问题对于人类来说很容易进行空间推理。除了最基本的设置之外,人工智能往往会失败或产生不存在的路径。“他们真的做计划吗?”她说。– 并非如此。 –
在与神经科学家的交谈中,我感受到了人工智能的担忧。工业界正在不假思索地向前推进。普林斯顿大学认知科学家布伦登·M·莱克 (Brenden M. Lake) 告诉我,如果我们的目标是让人造思维像人类思维一样有能力,那么“我们就没有以正确的方式训练系统”。当人工智能训练完成后,神经网络的“大脑”就被冻结了。如果你告诉模型一些关于你自己的事实,它不会重新连接它的神经元。相反,它使用了一个粗略的替代品:它写下了一些文本——用户有一个小孩,正在学习法语——并在你给出的其他指令之前考虑这一点。人类的大脑不断地自我更新,并且有一个关于其更新方式的美丽理论:当你睡觉时,你的情景记忆中选定的快照会在你的新皮质中重播,以训练它。你的高维思维空间会因记忆的重播而变得凹凸不平;当你醒来时,你会发现一种稍微新的看待事物的方式。
人工智能社会已经变得如此沉迷于并在经济上投入如此巨大的进步,以至于有时假装进步是不可避免的,并且没有科学可做。科学有一个令人不便的特性,那就是有时会停滞不前。硅谷可能会称 A.I.公司——实验室——以及那里的一些员工——研究人员,但从根本上来说,它拥有一种做任何有效的事情的工程文化。“机器学习界很少关注、更不用说尊重之前的历史和认知科学,这真是太引人注目了,”科恩说。
今天的人工智能模型的成功归功于几十年前关于大脑的发现,但它们仍然与大脑有很大不同。哪些差异是偶然的,哪些是根本的?每个神经科学家群体都有其钟爱的理论。这些理论可以以一种以前不可能的方式进行检验。尽管如此,没有人期望得到简单的答案。继续困扰人工智能的问题诺曼说,模型的问题——可以通过仔细识别模型没有像我们希望的那样智能地表现的方式来解决,然后解决它们。“这仍然是一个人类科学家参与的过程。”
九十年代,人类基因组计划投入了数十亿美元,假设 DNA 测序可以解决医学上最棘手的问题:癌症、遗传性疾病,甚至衰老。那是一个狂妄和自信的时代——克隆羊多莉和《侏罗纪公园》的时代——生物技术方兴未艾,评论界开始思考人类是否应该扮演上帝。生物学家很快发现现实更为复杂。我们没有治愈癌症,也没有发现阿尔茨海默病或自闭症的病因。我们了解到 DNA 仅讲述了生命故事的一部分。事实上,有人可能会说,生物学卷入了一种基因热潮,专注于 DNA,因为我们有办法研究和理解它。
尽管如此,当弗朗西斯·克里克在 1953 年帮助确认 DNA 结构的那一天,走进剑桥一家酒吧谈论发现生命的秘密时,没有人会说他错了。他和他的同事们在揭开生命的神秘面纱方面所做的工作比几乎任何人都多。他们发现之后的几十年是科学史上最富有成果和最令人兴奋的时期。DNA 成为家喻户晓的术语;每个高中生都了解双螺旋。
有了人工智能,我们再次发现自己处于一个狂妄和自信的时刻。萨姆·奥尔特曼 (Sam Altman) 谈到筹集 5 万亿美元来建设 Stargate,这是一个新的人工智能集群。人们以一种严肃而紧迫的态度讨论超级智能的竞赛,这似乎毫无根据,甚至愚蠢。但我怀疑世界上的阿莫迪斯和奥特曼们发表弥赛亚式的声明的原因是他们相信智力的基本图景已经被制定出来;剩下的只是细节。
甚至一些神经科学家也认为,一个关键的门槛已经被跨越。“我真的认为这可能是正确的认知模型,”科恩、诺曼和莱克在普林斯顿大学的同事乌里·哈森 (Uri Hasson) 在谈到神经网络时说道。这让他既兴奋又不安。“我的担忧与大多数人相反,”他说。– 我担心的不是这些模型与我们相似。而是我们与这些模型相似。如果简单的训练技术可以使程序表现得像人类一样,也许人类并不像我们想象的那么特殊。这是否也意味着 A.I.不仅在知识上超越我们,而且在判断力、独创性、狡猾以及由此而来的力量上超越我们?令我惊讶的是,哈森告诉我,他现在“担心我们能否成功理解大脑的工作原理”。对人类来说,追寻这个问题可能是一个巨大的错误。”十九世纪三十年代的研究人员对核科学家说:这是这些人一生中最有趣的时期。同时,他们知道他们正在从事的工作对人类有着严重的影响。但他们无法因为学习的好奇心而停下来。”
我最喜欢的一本霍夫施塔特写的书是一本书呆子书,名叫《流动概念和创造性类比:思维基本机制的计算机模型》。当我上大学时,它让我兴奋不已。前提是像“什么是思考?”这样的问题不仅仅是哲学问题,而且有一个真正的答案。1995 年,当这本书出版时,霍夫施塔特和他的研究小组只能示意答案可能是什么。回想这本书,我想知道霍夫施塔特是否会对人工智能感到兴奋。研究人员可能已经实现了他所渴望的:对思维基本原理的机械描述。然而,当我们交谈时,他听起来非常失望,而且很害怕。当前的人工智能研究——证实了我的很多想法,但它也剥夺了人性之美,”他告诉我。– 当我年轻得多的时候,我想知道创造力的基础是什么,创造力的机制。这对我来说是一个圣杯。但现在我希望它仍然是一个谜。——也许思考的秘密比任何人想象的都要简单——高中生甚至机器都能理解的东西。——