作者:Edward Ongweso Jr.
为什么我们如何谈论人工智能很重要?一些人,主要是科技公司和他们有用的白痴,坚持认为我们即将实现末日的内在化(大致翻译为:解决所有社会问题)。其他人坚持认为,我们正在召唤一个以通用人工智能形式出现的虚假神,它将摧毁文明。这些敬畏和恐惧的感觉并没有因为数字而得到特别缓解:筹集了数百亿美元每年由该领域的初创公司开发——现有企业希望筹集资金还有数万亿。
欢迎来到人工智能时代及其革命潜力。人工智能将使我们变得更有生产力或失业,使文化多样化或同质化,通过休闲减轻人类痛苦或通过灭绝将其归零。对预测性和生成式人工智能的炒作,对通用人工智能的生存威胁的歇斯底里,对自动化系统部署的担忧,波将金人工智能(人力驱动的产品和服务重新命名为人工智能驱动的)和哈布斯堡人工智能(功能失调的人工智能训练)的扩散关于人工智能生成的数据),人们对人工智能到底是什么以及它如何工作感到困惑——所有这些都是在雇主、政府和军队购买它并集成它时建立起来的,而不太关心他们的福祉科目。
科技行业让我们很难批判性地讨论这些发展,因为它训练我们使用人工智能一词来指代截然不同的系统:确定少付多少费用的算法优步司机在向顾客多收费的同时,声称预测犯罪但只是将警察派往非白人社区,错误地指控移民福利欺诈,然后生成句子一个可以冒充为人造的。
Arvind Narayanan 和 Sayash Kapoor 打开了他们的新书,AI蛇油,进行一个思想实验:想象一个世界,其中“车辆”是我们用来指代每种交通方式的唯一词。关于环境影响、安全、成本等的争论会令人困惑,因为我们会将自行车与航天器或卡车与公共汽车混为一谈。“车辆技术”领域将充斥着诈骗、宣传、欺骗和铺天盖地的废话。“现在用“人工智能”取代“车辆”这个词,我们就可以很好地描述我们所生活的世界了,”纳拉亚南和卡普尔宣称。
普林斯顿大学计算机科学家纳拉亚南和卡普尔认为,如果我们知道哪些类型的人工智能存在和不存在,以及它们能做什么和不能做什么,那么我们就能做到这一点更善于发现废话并释放真正创新的变革潜力。现在,我们被“人工智能万金油”或“人工智能不能像广告宣传的那样工作”所包围,这使得我们无法区分炒作、歇斯底里、广告文案、诈骗、或市场整合。“由于人工智能涉及大量的技术和应用,”纳拉亚南和卡普尔解释说,“大多数人还无法清楚地区分哪些类型的人工智能实际上能够按照承诺发挥作用,哪些类型只是万金油”. –
纳拉亚南和卡普尔的努力以及他们平息炒作的努力正在澄清这一点。它们轻松揭开了我们所谓的人工智能背后的技术细节的神秘面纱,从而避免了该领域企业营销的泛滥。然而,他们的目标是将人工智能万金油与他们认为有前途、甚至是理想主义的人工智能区分开来,这意味着他们不会与某些最大的问题这项技术构成。为了了解人工智能及其重塑社会的方式,我们不仅需要了解它如何以及何时发挥作用,还需要了解谁控制它以及控制它的目的。
按照纳拉亚南和卡普尔的分类法,人工智能大致分为三种主要类型:预测、生成和内容审核。预测人工智能用于通过预测未来事件来为决策提供信息,尽管两人令人信服地证明了尽管它在社会上广泛使用,但它从根本上无法做到这一点。生成式人工智能是最近一波人工智能炒作的对象,能够合成和生成媒体。内容审核人工智能不仅指负责评估社交媒体平台政策违规情况的算法,还指那些个性化用户信息流和体验的算法。
这本书的起源源于纳拉亚南在麻省理工学院的一次演讲。2019 年,关于招聘自动化如何成为未稀释的人工智能万金油。招聘中使用的算法可以通过简单的改变来操纵,例如用简历填充关键字,或者在视频面试中“戴围巾或眼镜”。纳拉亚南将继续共同教授“预测的局限性”,该课程的重点是自动招聘等预测性人工智能系统的局限性。在这里,他遇到了卡普尔——一位前 Facebook 软件工程师,刚刚加入普林斯顿大学计算机科学博士学位。程序。卡普尔问每一位潜在的顾问,“如果一家科技公司对你提起诉讼,你会怎么做?”,然后在纳拉亚南找到满意的答案(“如果一家公司威胁要因我的行为而起诉我,我会很高兴”)。研究,因为这意味着我的工作正在产生影响 –)。于是开始了接下来四年的研究。
社会上的大部分人已经悄悄地使用算法,通过根据过去数据中的模式生成规则来自动化决策,从而预测未来会发生什么。各州使用自动风险评估工具来决定准予保释。无数福利机构使用自动化系统指控福利欺诈。这些模型中的大多数都被宣传为准确,因为它们使用复杂的统计技术;高效,因为它们可以根据现有数据进行训练;以及节省成本,因为它们不需要人工监督。事实上,它们都不是——以至于开发人员经常会——附上细则,说明它们应该始终在人工监督下使用——尽管他们很清楚这不会发生。
以自动化风险系统为例,这些系统往往过于狭窄或过于笼统,无法做出合理的评估(根据本地数据进行训练以供全国使用,反之亦然);结果是无数人被错误地标记为“高风险”,并因与证据无关的原因而被关进监狱。自动化福利可能会做出不可上诉的决定,而且这些决定往往是错误的。作者引用了两个例子:荷兰首相及其整个内阁辞职了2021 年,30,000 名家长(主要是土耳其、摩洛哥和东欧移民)被错误指控欺诈;从 2013 年到 2015 年,密歇根州税务机关由于自动化决策错误地征收了 2100 万美元。
预测人工智能对预测系统施加了根本限制。自动化系统无法解释自动化决策的影响;接受由一个群体生成但应用于不同群体的现有数据集的训练;而且,当保持低成本(无人)时,往往会保留或加剧歧视——鼓励人们玩弄所谓的公平、客观和准确的系统。
人们可能会立即建议的解决方案——收集更多数据,开发更多创新算法,并整合人类进行监督和问责——不仅揭示了采用自动化系统的意义是没有意义的(承认这些系统不能做出准确、节省成本且无偏差的预测),但很可能不会产生显着的改进。“尽管计算预测在社会环境中得到广泛使用,但你可能会惊讶地发现,关于其有效性的公开证据却非常少,”纳拉亚南和卡普尔写道。当谈到人类行为时,存在太多的未知数:我们可以收集的数据量存在实际限制;超过限制可能还不够;有些数据我们可能永远不会想到或无法收集(例如关于授予保释的累积优势或劣势的数据)。由于所有这些都无法阻止公司“出售人工智能,通过预测人们的未来来做出对人们产生重大影响的决定”,作者坚持认为,我们必须抵制“今天已经广泛使用的人工智能万金油”而不是渴望更好的预测人工智能技术。
生成式人工智能的许多局限性是众所周知的。生成式人工智能聊天机器人只是使用需要大量计算资源、数据和劳动力的方法来“预测”序列中的下一个单词。虽然他们无法“思考”或“理解”语言,但他们可以通过训练过程产生“世界的内部表征”,从而使他们能够“学习”一门语言结构而不对其语法进行编码。创作一首诗、回答事实问题、在游戏中击败人类——所有这些表演都是关于学习模式和直觉规则,然后重新混合数据集中的任何内容以生成输出。当下棋或生成一首诗时,这相对简单。在回答涉及事实主张的问题时,我们很快就会遇到“自动废话”:例如回想一下 Google 的人工智能生成的建议今年早些时候每天吃一块石头,或者在披萨中添加一份胶水。
纳拉亚南和卡普尔对生成式人工智能可能带来的一些风险有着清醒的认识。自动胡说八道是一回事,但他们也担心人工智能生成的音频、图像和视频的激增(例如,深度造假,其中绝大多数是未经同意的色情内容)。他们用了一章的篇幅论证“将现有风险重新定义为人工智能风险将是一个严重的错误”,因为这种框架将这项技术描绘成无所不能的,导致批评者“夸大其能力而低估其局限性”。“赋予那些希望减少审查的公司”权力,并最终削弱我们识别和根除人工智能万金油的能力。
对于作者来说,人工智能带来的最大有形风险是“劳动力剥削,这是当今人工智能构建和部署方式的核心。”人工智能依赖于成千上万的人类测试技术的工人,这通常意味着以极低的工资大量审查有害和仇恨内容;“这项工作是如此令人痛苦,”作者报告说,“许多数据注释公司已经开始招募囚犯、难民营中的人和经济崩溃的人。”人们怀疑市场是否会修复这一问题。作者本身预计需要一场新的劳工运动:
众所周知,工业革命导致了长达数十年的可怕工作条件,因为对劳动力的需求从农场转移到了位于过度拥挤、疾病肆虐的城市中事故多发的矿山和工厂。现代工人运动的出现就是对这些条件的回应。或许我们可以从这段历史中汲取教训。
这不是一项特别详细的建议(对于组织非法的国家中的流离失所者和工人来说,也不是一项特别实用的建议)。而且,在其他地方,作者们显得非常天真。早些时候,纳拉亚南和卡普尔(两位普林斯顿大学的研究人员可能已经很多年没有找工作了)表示,如果你“反对人工智能招聘”,你可以“选择不这样做”申请涉及人工智能的工作来判断简历。当然可以。
他们还表明人工智能研究人员存在潜在的理想主义。他们证明这种谨慎乐观态度的一些证据是图像网。ImageNet 创建于 2007 年,于 2009 年公开发布,是一个从网络上提取的大型图像数据集,用于训练机器学习模型。2010 年,ImageNet 发起了一场竞赛,看看哪种人工智能模型最能对图像进行分类。2012 年的获胜者是亚历克斯网– 深度学习 – 神经网络,使用更多(更深)的网络层来提高准确性。纳拉亚南和卡普尔称赞 ImageNet 竞赛强调基准测试,迫使每个人的模型使用相同的秘密训练数据,对结果进行排名,并共同调整最佳模型,从而催生了一种广泛传播的开放文化领域:
如果一家公司决定不公布其方法,人工智能研究人员会发现在那里工作的吸引力降低,因为他们希望自己的发现能够为人类知识做出贡献,而不仅仅是为公司的利润做出贡献。这将使这样的公司处于竞争劣势。如今,随着公司优先考虑利润,这种文化已经发生了一定程度的变化。人工智能知识应该共享还是隐藏的问题已经成为社区的一大热点。
这种愿景再次显得天真,它甚至没有开始提供一个连贯的解释,为什么今天的主要参与者——开放人工智能,人择,微软, 和谷歌,仅举几例,不要分享研究成果,除非它可以提高公司公关或利润率。这种轻信导致了万金油——掩盖了对资源分配、劳动力和资本市场结构、权力动态、政治经济和国家政策的实质性分析,并忽略了一个关键问题:为什么我们的“人工智能领域看起来是这样的吗?
在AI蛇油,你必须眯着眼睛才能找到军方密切参与人工智能领域的证据。纳拉亚南和卡普尔历史的第一部分始于 1943 年该出版物神经元的简化数学模型。20 世纪 50 年代末,弗兰克·罗森布拉特 (Frank Rosenblatt) 和他的团队创建了感知器,用于模式匹配的神经元的人工等效物。这种联结主义方法试图通过模拟神经元网络来复制人类认知,但受到其对计算资源的强烈需求的严重限制——神经网络研究在 20 世纪 70 年代陷入停滞,人们的兴趣转向了由规定计算机如何操作符号的逻辑规则编码的符号方法。20 世纪 80 年代,研究人员发现“深层”或多层神经网络可以通过某种方式进行训练,以帮助规避某些计算需求,从而出现了复兴。人们的兴趣在 20 世纪 90 年代逐渐减弱,并转向支持向量机(计算效率更高且适用于更便宜的硬件),直到 2012 年 ImageNet 再次激发了人们对神经网络和深度学习的兴趣。
由此,纳拉亚南和卡普尔宣布了一个明确的模式:随着人工智能社区对特定方法感到兴奋,研究是由炒作驱动的。这种兴奋创造了“反馈循环”,其中“研究人员和资助者相互影响,推动该领域的工作向前发展。”纳拉亚南和卡普尔还指出同行评审员是主要影响因素,坚称他们的怀疑主义阻碍了研究的积极性已经失宠了。结果呢?就好像有一只看不见的手在引导一样,“该领域经常朝着当下的方向同步发展,几乎完全放弃了早期的研究项目。”
他们历史的第二部分以炒作为中心,拒绝接受“Gartner 技术成熟度曲线——它将炒作想象为一种技术的最初期望被夸大、崩溃,然后随着主流采用而回升到一个更现实的平台。从罗森布拉特、纳拉亚南和卡普尔的观点来看,1969年书由麻省理工学院研究人员 Marvin Minsky 和 Seymour Papert 强调了感知器的局限性。一个1972年报告由英国政府委托数学家詹姆斯·莱特希尔 (James Lighthill) 进行的一项研究认为,许多人工智能研究进展都是“虚幻的”。这些因素共同加速了第一个“人工智能冬天”的到来,导致资金枯竭。20 世纪 80 年代,随着“人工智能春天”的出现,经济解冻到来,这要归功于“专家系统”的兴起,这些系统根据专家决策对规则和数据进行编码。这种兴奋是短暂的,十年末又一个冬天到来了。这个循环一直持续到 2012 年,再次感谢 ImageNet。纳拉亚南和卡普尔观察到了第二个主要模式:
短期内,炒作可以吸引大量投资并带来强劲增长。但这种炒作也为现实世界的影响设定了很高的标准。当人工智能应用程序的实用性达不到宣传的程度时,就会出现人工智能冬天。
这些炒作原则——人工智能研究人员进行炒作,资助者试图抓住它,而每个人都对此感到失望——考虑起来很有趣,但这就是全部情况吗?这一切是否都归结为容易兴奋的研究人员和容易失望的资助者?前者是否真的关心公共利益,但却因同行评审者和企业资助者而感到沮丧?不完全是。
Rosenblatt 在 1957 年提出了感知机计划,第一台感知机(MARK I 感知器)实际上是用资金来自1958 年美国海军。当时的 MARK I 感知器所使用的中央情报局从1960年到1964年识别军事目标,并于1965年发布了一系列关于自动目标识别系统可行性的报告。书中有一次间接提到了这一切,可以在纳拉亚南和卡普尔的历史的第二部分中找到,并作为有关泄漏的警告(当人工智能模型在训练数据上进行测试时)提出:我们了解到——这是计算机视觉早期的杜撰故事,其中“分类器经过训练,能够以看似高精度的方式区分俄罗斯和美国坦克的图像”,但事实证明苏联坦克是在阴天拍摄的,美国坦克是在晴天拍摄的,分类器正在检测亮度。
本书完全忽视了军队的作用。AI蛇油没有提到兰德公司不可或缺的附属物冷战时期的军工联合体核心作用主持、资助和联系人工智能研究领域的主要先驱。兰德公司的员工、校友和机构对模拟、人类心理建模和该领域的问题解决进行了早期尝试。大西洋报 一旦打电话兰德——美国战略思想的准军事学院——因为它热衷于融合军事和文职人员、资产和思想——这与德怀特·D·艾森豪威尔的号召一致下属民用科学研究到大战略。也没有AI蛇油提到国防高级研究计划局(DARPA)——只用一句话来描述它在资助早期互联网方面所发挥的作用。我们没有提及如何美国国防部高级研究计划局(DARPA)使用再次资助在美国大学创建主要人工智能研究实验室,这也是美国战后合并民用和军事研究计划的设想。可以这样继续下去,但问题很明显:尽管纳拉亚南和卡普尔着手解构当代有关人工智能的神话,但他们提出了自己的神话,以慷慨的眼光展示了该行业,而忽略了其起源所产生的制度特征和历史发展。
如果你忽略军队的作用,神经网络的兴衰和崛起就是一个关于炒作周期、古板的同行评审员、高贵的研究人员和最近贪婪的公司的故事。但如果你想一想我们战后军队在国内外,我们的人工智能研究不断循环回到监视、数据提取、预测、模式匹配和社会控制,这是有道理的。走出冷战军工联合体后,资助者(即风险投资家和大科技公司)是否正在设计和追求优先考虑这些令人厌恶的目的的自动化系统?
这段非政治化的历史给我们留下了纳拉亚南和卡普尔相对贫乏的建议。以他们的建议为例,重点是减少人工智能万金油的需求,而不是供应。是的,经销商包括渴望销售预测人工智能的公司、想要华丽结果的研究人员以及耸人听闻的记者(或公众人物)。然而,对人工智能万金油的需求是“对采用人工智能的失败机构的误导性激励”。
招聘经理、媒体组织、教育机构和教师在这个故事中有什么共同点?纳拉亚南和卡普尔写道,他们代表了“资金不足或无法有效履行职责的机构”。我们这些破碎机构中的人应该通过在我们的工作场所或社区内组织起来,以及寻找拥抱随机性的替代决策系统来反对“有害的预测人工智能”,例如招聘、拨款和资助的部分抽签。大学招生。应支持监管以促进负责任的创新,同时阻止监管捕获(定义为监管机构“要么被误导,要么缺乏资源和资金来独立于其所监管的公司运作”)。
但是,如果机构的功能失调有其目的,或者机构按预期运作,情况又如何呢?
采取以下场景。多年来,大学一直被取消资助,作为一个更大的项目通过保守运动来巩固政治、社会、经济和文化权力——与此同时,我们的学校已成为拥有房地产投资组合的金融机构、医院综合体和与臀部相连的小型学术机构。扭转他们对人工智能的需求可能需要超越彩票入场和集体谈判的变革性愿景。
或者考虑一下:警察部门、边境当局和军队需要某些人工智能,因为这些机构按预期运作。警察部门是其中最资金雄厚,永远扩张, 和不负责任的这个国家的机构,代表系统的一个附属物掠夺以盈利为目的各种水平。预测人工智能是一个完美的选择,它强化了先验,使偏见自然化,回避了责任,并将废话变成了黄金。边境当局和军队关心的是力量投送、监视、威慑和社会控制——为什么他们不希望人工智能沿着这些路线构建,无论它是否有效?
当机构按照预期使用人工智能时,或者当机构经历了巨大的改革,使它们更愿意以某种方式使用人工智能时,需求方提案有什么好处呢?这可以归结为十年前被视为技术批评的不温不火的分析模式:如果消费者了解真相并且高管阅读正确的书籍,那么他们就可以改变自己的信念并重新开始创新未来!
这是可能实现的雄心壮志的高度AI蛇油:含糊地呼吁加强反垄断执法、开展新的劳工运动和一些新的监管(但不要太多!),以便我们的消费和创新能够更加顺利地进行。
十年前,写在 挡板,叶夫根尼·莫罗佐夫(Evgeny Morozov)指出,当技术批评脱离真正的政治项目时,其存在根本局限性。变化相对较小:
因此,浪漫和保守的技术批评家当然可以告诉我们如何设计更人性化的智能电能表。但决定智能电表是否是应对气候变化的适当措施并不属于他们的职权范围。为什么要设计它们人道地如果我们不应该设计它们根本吗?这个问题只有那些尚未丧失以非市场和非国家主义的方式思考的能力的批评家才能回答。换句话说,技术专业知识对于回答这个问题来说大多是次要的。
技术评论家提出了这样的愿景:知情的消费者和开明的高管共同努力,以避免制度批评和政治辩论——这种精心设计的舞蹈削弱了我们想象技术融资、开发和部署的替代安排的能力。纳拉亚南和卡普尔提出了一个愿景:知情的消费者和开明的高管共同努力提出一些机构批评并娱乐一些政治辩论。他们无法接受更实质性的解决方案,因为他们似乎没有意识到更实质性的问题。AI蛇油除了让人工智能以更加可持续和负责任的方式发挥作用之外,对于我们应该对人工智能做些什么,相对而言没有什么可说的。
然而,如果你认为人工智能——以及更普遍的资本主义下的技术——的问题是它从一开始就受制于军工联合体并服务于集中权力,那么有几个问题是一个好的开始:我们应该如何发展人工智能,如何资助它,如何分配计算资源,如何拥有各种技术及其生产手段?纳拉亚南和卡普尔似乎认为主要问题在于炒作。无论他们是否意识到,这也是万金油的一种形式。