如果您相信炒作,人工智能很快就会夺走我们的所有工作,解决我们的所有问题,或破坏现实与谎言之间的所有界限,或帮助我们永远生活,或者占领世界并消灭人类。这是一个很广泛的范围,并且让很多人对AI的能力和能做什么感到非常困惑。在这一集中,我们将帮助您解决这个问题:例如,我们将谈论为什么即使是超级智能AI也不能简单地在我们所做的大部分时间里替换人类,除非我们允许,否则它也无法完善或破坏我们的世界。
YouTube)一个 Arvind Narayanan研究了数字技术的社会影响,重点是AI的表现和行之有效,以及它可以做什么。他认为,如果我们搁置所有炒作,并围绕AI的培训和使用搁置正确的护栏,那么它将有可能成为一种深刻的赋权和解放技术。Narayanan与Eff的辛迪·科恩(Cindy Cohn)和杰森·凯利(Jason Kelley)一起讨论了我们如何进入一个世界,如果我们首先进行一些系统改进,而AI可以改善生活的各个方面。一个
在本集中,您将学习:成为一名技术 - 优越主义者的意义(不是风险资本主义)
为什么我们可以依靠预测算法来在人们生活的刑事司法,雇用,贷款和其他关键方面做出决定
- 需要多大规模,长期对照研究来确定特定的AI应用程序是否真正符合其准确性的承诺
- 为什么廉价盛宴往往比深料在支撑政治支持方面更有效
- AI的状态和不类似于工业革命,电力的出现和组装线的发展
- 一个
- Arvind Narayanan是计算机科学教授和
信息技术政策中心在普林斯顿大学。以及Sayash Kapoor,他出版了AI蛇油新闻通讯,随后是成千上万的研究人员,政策制定者,记者和AI爱好者。他们也撰写了AI蛇油:人工智能可以做什么,可以做什么以及如何分辨差异(2024年,普林斯顿大学出版社)。他学习了社交媒体上的算法放大作为哥伦比亚大学的访问高级研究员骑士第一修正案学院;合着了一个在线关于公平和机器学习的教科书;并带领普林斯顿网络透明度和问责制项目,发现公司如何收集和使用我们的个人信息。一个
资源:
- 有线AI选举项目
- Axios:窗帘后面:白领血腥(2025年5月28日)
- 彭博:克拉纳(Klarna(2025年5月8日)
- ARS Technica:加拿大航空必须纪念航空公司聊天机器人发明的退款政策(2024年2月16日)一个
您如何看待如何修复互联网?在这里分享您的反馈。
成绩单
Arvind Narayanan:相信超级智力即将来临的人们倾向于将我们想在现实世界中所做的大多数任务视为与国际象棋相似,在这种情况下,最初的国际象棋机器人不是很好。然后很快就很快就可以通过改进硬件,然后通过改进算法(包括使用机器学习,非常超人)来改进算法。
我们认为大多数任务不是那样的。当您谈论整合到现实世界中的任务时,这是正确的,您知道,需要常识,需要对模糊任务描述的一种理解。当您做得好,何时做得不好时,甚至还不清楚。
我们认为人类表现不受我们的生物学的限制。例如,它受到我们对世界的知识状态的限制。因此,我们没有更好的医生的原因不是因为我们计算得不够快,只是医学研究只给了我们很多关于人体如何运作的知识,并且您知道药物的工作原理等。
另一个是您刚刚达到了表演的上限。人们不一定会更好的作家的原因是,成为更好的作家甚至还不清楚这意味着什么。好像不会有一个神奇的文字,就像说服你那样,你从来不想相信的东西,例如,对吗?
我们认为这种事情甚至是不可能的。因此,这是在绝大多数任务中的两个原因,我们认为AI不会比人类专业人员更好或至少更好。
辛迪·科恩(Cindy Cohn):那是Arvind Narayanan,解释了为什么AIS不能简单地在我们所做的大部分工作中取代人类。我是电子边界基金会执行董事辛迪·科恩(Cindy Cohn)。
杰森·凯利(Jason Kelley):我是Eff的行动主义总监Jason Kelley。这是我们的播客系列,如何修复互联网。
辛迪·科恩(Cindy Cohn):在此节目中,我们试图摆脱反乌托邦的技术末日势力,并提供空间,以设想我们所有人都可以努力的更有希望和积极的数字未来。
杰森·凯利(Jason Kelley):我们的客人是技术方面最平坦,令人放心的声音之一。
辛迪·科恩(Cindy Cohn):Arvind Narayanan是普林斯顿的计算机科学教授,也是信息技术政策中心主任。他还是一个名为AI Snake Oil的出色新闻通讯的合着者,该书也已成为一本书。
他也是一个自称为技术的人,但他的意思是以一种非常特殊的方式 - 因此我们从这个术语对他意味着什么开始。
Arvind Narayanan:我认为有多种技术自动主义。您知道,有一个标记的Andreessen,让科技公司做他们想做的事情,一切都会解决。我不是那种技术优势。我的技术自动主义就是这样的信念,即我们实际上需要人们思考可能出了什么问题并取得领先地位,以便我们可以意识到我们积极的未来是什么。
因此,对我而言,您知道,AI可能是一种强烈的授权和解放技术。实际上,回到我自己的童年时代,这是我有时讲的一个故事,我在印度长大,坦率地说,教育系统很烂。我的地理老师认为印度在南半球。那是一个真实的故事。
辛迪·科恩(Cindy Cohn):我的天啊。哎呀。
Arvind Narayanan:而且,您知道,附近没有任何很棒的图书馆。因此,我所知道的很多东西,我不仅必须自学,而且很难访问可靠,良好的信息来源。当然,我们有很多书,但是我记得当我的父母储蓄了整整一年,给我买了一台具有CD-ROM百科全书的计算机。
对我来说,这是一个完全改变人生的时刻。正确的。因此,这是我第一次可以接近这个触手可及的所有信息的想法。那甚至是我甚至可以访问互联网之前。所以那是一个非常强大的时刻。我认为这是信息技术的课程,具有在不同国家 /地区跨越竞争环境的能力。这就是我决定进入计算机科学的原因。
当然,我后来意识到我的世界观有点简单。技术并不是永久的力量。要确保这样做需要大量的努力和代理。因此,这导致了我对技术社会方面的研究兴趣,而不是更多的技术本身。
无论如何,所有这些都是一种漫长的说法,我在AI中看到了许多相同的潜力,即互联网访问(如果做得正确)具有潜力和潜力,并且一直带给世界上许多人,他们可能没有与我们在西方世界上与我们的机构等相同的访问权限。
辛迪·科恩(Cindy Cohn):因此,让我们对此进行一秒钟的钻探,因为我真的很喜欢这张图像。你知道,我是一个在爱荷华州长大的小女孩,看到互联网让我有同样的感觉。就像我可以访问所有与大城市的人们可以使用的所有信息一样。
因此,您知道,从我认为,有这种经历,并取决于您的年龄,可能是您发现了Wikipedia而不是百科全书的CD ROM,但这是同一时刻,我认为这是我们必须坚持下去的承诺。
那么,教育世界会是什么样?你知道,如果您是学生或老师,如果我们的AI正确吗?
Arvind Narayanan:是的,肯定。因此,让我从自己的经验开始。我实际上是在学习新主题的方式上经常使用的。这是我惊讶的是,鉴于这些聊天机器人和准确性的众所周知的局限性,我感到惊讶,但事实证明,有相对简单的方法可以解决这些限制。
嗯,UH的一种示例,如果用户对其进行改编,那就是始终处于关键模式,您知道AI告诉您的10件事中,一个可能是错误的。因此,在我看来,在这种怀疑的心理框架中,可以增强学习。我认为这是在您学习任何东西时的正确思想框架,所以这是一种适应。
但是也有技术改编,对吗?最简单的例子是:如果您要求AI处于苏格拉底模式,例如,在对话中,嗯,聊天机器人将扮演更合适的角色,可以帮助用户学习而不是学生,而学生可能会寻求家庭作业问题的答案,并且您知道,最终会采取捷径,实际上会限制他们的关键思考和学习和成长的能力,对吗?因此,这是一个简单的例子,即指出很多与AI本身无关,而是我们如何使用AI。
从将其整合到教育系统中的愿景方面,我确实认为个性化有很多希望。同样,这是很多超销量的目标,即AI可以成为每个人的个性化导师。而且我认为有一个科幻小说的故事是一个警告信号,但是AI行业中的许多人都将其作为手册或视野的外观视为。
但是,即使在我与自己的孩子的经历中,对,他们是五个和三个,甚至很少的事情,例如,我是,我是,嗯,前几天和女儿谈论分数,我想帮助她可视化分数。我要求克劳德(Claude)制作一个有助于做到这一点的小游戏。在内部,您知道,它是30秒或一分钟或其他任何东西,它制作了一个小游戏,它会产生一个随机分数,例如五个超过五个,然后要求孩子移动滑块。然后,它将将线段分为五个部分,突出显示三个部分,显示孩子对正确答案的距离有多近,并且您知道,给出反馈和这种事情,您可以立即创建它,对吗?
因此,这使我相信,如果特定的孩子在特定的事情上挣扎,老师可以在现场创建一个应用程序,并让孩子玩10分钟,然后将其扔掉,那么就不必再使用它。但这实际上可以有意义。
杰森·凯利(Jason Kelley):这种AI和教育对话真的很接近我的内心,因为我有一个好朋友经营一所学校,一旦AI突然出现在现场时,他就会为您所谈论的原因而感到兴奋。但是与此同时,许多学校立即建立了一些,例如聊天GPT禁令和类似的事情。
而且,我们已经在Eff的深层链接博客上讨论了一些有关如何在类似的角度过高的,人们需要知道如何使用它,无论他们是否学生是否使用。他们需要了解功能是什么,以便他们可以使用这种适应它们的用途,而不仅仅是立即尝试做功课。
那么,您认为学校是否看到了学校,可以很好地了解您所描述的地步?我的意思是,就像许多老师知道AI的工作方式或学校系统如何理解它的未来,这似乎是一个很远的未来。就像我们如何实际描述的事情一样,因为大多数老师都不知所措。
Arvind Narayanan:确切地。这就是问题的根源。我认为需要发生结构性变化。需要更多的资金。而且我认为还需要更多的意识,以使这种对抗性方法更少。嗯,我想,您知道,可以发挥一点作用的变化杠杆。我无法改变学校的资金状况,但是就像一个简单的例子一样,我认为研究人员对此的看法也许是对的,现在现在并不是最有帮助的,可以以一种对教师和其他人更能采取行动的方式重新构成。因此,有很多研究看一下AI在课堂上的影响,对我来说相当于食物对您有好处吗?它解决了错误的抽象水平的问题。
杰森·凯利(Jason Kelley):是的。
Arvind Narayanan:您无法在高级别上回答这个问题,因为您尚未指定任何实际重要的细节。食物是否好并且完全取决于它是什么食物,如果您是您研究的方式,那就是进入杂货店并品尝所见的前15件物品,您正在测量您的任意样本的特性,而不是您想研究的基本现象。
因此,我认为研究人员必须更深入地研究AI的教育实际上是什么样的,对吗?如果您在聊天机器人帮助或伤害学生的水平上提出问题,您最终会得到荒谬的答案。因此,我认为研究可以改变,然后需要发生其他结构性变化。
辛迪·科恩(Cindy Cohn):我在播客中听到了关于AI的谈论,并说有点类似的观点,这就是您知道,如果我们确定车辆是好还是坏,对吗?嗯,每个人都能理解,对于一种合理的结论而言,这太广泛了。因此,您必须查看卡车,汽车,出租车,其他,您知道的,或您知道的所有其他类型的车辆之间的区别,以便这样做。而且我认为您在书中做得很好,至少是开始给我们一些类别,而我们最专注于EFF的类别是预测技术和其他类型的AI之间的区别。因为我认为像您一样,我们已经确定这类预测技术是我们现在实际使用中看到的最危险的技术。我对吗?
Arvind Narayanan:是的,这就是我们在书中的看法,从人们的生活中产生最大后果的种类,以及后果经常非常有害的地方。因此,例如,这是刑事司法系统中的AI,例如预测谁可能未能出庭,或者谁可能犯罪,然后以此为基础判断他们,对吗?并根据他们预计将来要做的事情否认他们的自由,而这又基于过去其他类似被告的行为,对吗?因此,这里有两个问题,一个技术问题和一个道德问题。
技术问题是,您能获得多么准确?事实证明,当我们审查证据时,不是很准确。我们的书结尾处有一个很长的部分,我们得出的结论是,一种合法的方式是,所有这些系统都预测的是您先前的逮捕越多,将来您可能会被捕的可能性越大。
因此,这就是技术方面,这是因为,您知道,这是不知道谁会犯罪的。是的,有些犯罪是有预谋的,但是许多犯罪是当下的刺激或依赖事物的刺激,这是将来可能发生的随机事情。
这是我们所有人都直观地认识的,但是当使用AI或机器学习单词时,其中一些决策者似乎以某种方式暂停了常识,并以某种方式相信将来是可以准确预测的。
辛迪·科恩(Cindy Cohn):我看到您谈论的另一件作品和其他人谈论的是,您拥有的唯一数据是警察实际做的事情,这并没有告诉您有关犯罪的信息,它告诉您警察的工作。因此,我在人权数据分析小组的朋友称其为预测警察,而不是预测警务。
而且我们知道警察对犯罪的犯罪与一般犯罪之间有很大的区别。因此,看起来犯罪的人似乎是那些在警察能够关注的子集时总是犯罪的人,我们知道也有很多偏见。
因此,不仅在数据内部,还必须根据这些预测算法以及它们捕获的内容以及它们没有的内容来考虑数据之外。公平吗?
Arvind Narayanan:是的,这完全是正确的。更广泛地说,除了刑事司法系统之外,这些预测算法还用于招聘,并且,而且,您知道,它在道德上有问题的用途与您否认某人自由的使用在道德上有问题。但是许多相同的陷阱适用。
我认为,我们试图在书中捕获这一点的一种方法是,AI蛇油或有时称为AI的AI对破碎的机构有吸引力。因此,AI如此吸引人雇用经理的原因是,确实,我们今天雇用的方式破了。公司正在获取数百个应用程序,每个开放职位的申请可能是一千个。他们无法手动浏览所有这些。因此,他们想尝试自动化该过程。但这实际上并没有解决系统破裂的问题,当他们这样做时,申请人还使用AI来增加他们可以申请的职位数量。因此,这只是在升级武器竞赛,对吗?
我认为这被打破的原因是,我们从根本上没有很好的方法来了解谁将成为哪个位置,因此假装我们可以通过AI进行预测,我们只是将这个精心设计的随机数发生器提升到了这个道德杂物。而且这也可能带来道德后果。
显然,您知道,应该拒绝这份工作的人,但是当您考虑一些AI招聘供应商将其算法提供给10家不同公司时,实际上它会被放大。因此,每个人申请的公司都以相同的方式判断某人。
因此,我们认为,摆脱这种情况的唯一方法是使必要。对这些破裂过程的组织改革。例如,例如在软件中,许多公司将为人们,学生特别是实习,并以此对候选人进行更深入的评估。我并不是说一定适合每个行业或每个级别的资历,但是我们必须更深入地强调人类因素,而不是试图更肤浅地与AI自动化。
杰森·凯利(Jason Kelley):您在新闻通讯中提出的主题之一是AI评估。假设您使用招聘工具中的这些公司之一:为什么很难评估这些AI模型的类型,有效性或背后的数据?我知道,如果您无法访问它,这可能很困难,但是即使您这样做,我们如何找出这些工具实际存在的缺点?
Arvind Narayanan:这里有一些很大的限制。假设我们将数据访问问题抛在一边,公司本身想弄清楚这些决定的准确性。
杰森·凯利(Jason Kelley):希望!
Arvind Narayanan:是的。嗯,是的。他们经常不想知道,但是即使您想知道,就评估这一点的技术方面而言,这确实是与医疗系统弄清楚药物是否有效的问题。
我们知道这有多艰难。实际上需要一项随机,对照试验。它实际上需要对人进行试验,这反过来又引入了自己的道德难题。因此,您需要对其道德规范进行监督,但是随后您必须招募数百人(有时是成千上万的人)跟随他们几年。并确定您知道,给予药物的治疗组是否是在您实施的招聘案例中,您的算法平均有与对照组的平均结果不同,您要么为其安慰剂或使用的招聘案例,即传统的雇用程序。
正确的。所以这实际上就是需要的。而且,您知道,大多数公司都没有动力来做到这一点,因为显然他们并不是为了自己的缘故而重视知识。ROI只是不值得的。他们将投入这种评估的努力不会,嗯,让他们从中捕获价值。
它将知识带给公众,整个社会。那我们在这里做什么?正确的?因此,通常在这样的情况下,政府应该介入并使用公共资金进行此类研究。但是我认为我们距离文化的理解很远,这是必要的事情。
就像医学界已经习惯了这样做一样,每当我们关心结果时,我们都需要这样做,对吗?无论是在刑事司法,无论身在何处。因此,我认为这需要一段时间,而我们的书试图成为改变公众看法的第一步,即这不是您可以以某种方式使用AI自动化的东西。这些实际上是对人的实验。他们将很难做。
杰森·凯利(Jason Kelley):让我们快点感谢我们的赞助商。Alfred P. Sloan基金会在公众对科学技术的理解方面的支持支持了如何修复互联网。通过对我们越来越多的技术世界的敏锐欣赏,并描绘了科学家,工程师和数学家的复杂人性,丰富了人们的生活。
我们还要感谢EFF成员和捐助者。您是我们存在的原因。EFF一直争取数字权利已有35年了,这场战斗比以往任何时候都更大,因此,如果您喜欢我们的工作,请访问eff.org/pod捐款。另外,我们非常喜欢您参加今年的EFF奖项,在那里我们庆祝人们在我们都非常关心的更好的数字未来方面努力。这些将于9月12日在旧金山举行。您可以在eff.org/awards上找到有关此信息的更多信息。
我们还想分享我们的朋友Cory Doctorow有了一个新的播客 - 请听这句话。
[谁打破了互联网预告片这是给出的
现在回到我们与Arvind Narayanan的对话。
辛迪·科恩(Cindy Cohn):因此,让我们去AI世界的另一端。您知道,我认为他们称其为AI安全的人,他们真正专注于机器人会杀死我们。各种问题。因为那是一个,这也是这个故事的一部分。而且我很想听听您的观点,您知道的,有点,末日循环,嗯,AI版本。
Arvind Narayanan:当然。是的。因此,这本书中的整章都是UH,我们谈论了对未来更强大的AI系统的灾难性风险的担忧,我们还详细阐述了许多新论文中的许多人,我们发行了称为AI作为正常技术。我的意思是,如果人们有兴趣查找和看,我很高兴人们正在研究AI的安全性以及不寻常的种类,例如,将来可能会出现的各种风险,这些风险不一定直接直接推断我们当前的风险。
但是,我们反对这些论点的地方说,我们有足够的知识和证据表明这些风险是如此紧急和严重,以至于我们现在必须采取严肃的政策措施,呃,您知道,例如,呃,遏制开放权重AI,因为您永远不知道谁会下载这些系统及其与他们有什么关系。
因此,我们有几个原因为什么我们认为这些真正有力的论点走得太远了。原因之一是,如果我们想以技术的水平来控制这一点,与技术的使用和部署相反,我们所说的那种不扩散措施,我们所说的,我们将几乎保证不起作用。
甚至试图强制执行您无情的想法,建立了一个世界威权政府,可以监视所有无处不在的人工智能发展,并确保这些公司(少数将获得许可来执行此操作的公司)正在以某种方式进行此操作,以在所有社区中建立一致的安全措施,就像这些社区一样,因为我们希望他们使用这些模型。
因为您知道的模型现在可以在几年前建造数亿美元,现在可以使用地下室的一组发烧友的机器来建造,对吗?而且,如果我们想象这些安全风险与这些模型的能力水平相关联,这是许多人为了呼吁采取这些强有力的政策措施的假设,那么我认为,从这种思维方式提出的预测,我认为已经反复伪造了。
因此,当GPT二建立在2019年时,Openai声称这是在存在错误的信息方面是如此危险,以至于它将对民主产生有害的影响,以至于他们无法以公开的重量释放它。
这是我的学生现在只是为了学习建筑模型的过程而建立的模型,对吗?因此,这就是六年后的便宜,而且与GPT二号相比,公开可用的型号更强大。当您查看对AI产生错误信息的影响时,我们进行了一项研究。我们查看了在全球与选举相关活动中使用AI的有线数据库。那些与人工智能产生的错误信息相关的恐惧根本不是事实,因为事实证明,选举错误信息的目的是说服别人的人,如果您愿意的话,谁持怀疑态度,而是要为自己的部落提供饲料,以便他们,您将继续支持任何您的努力。
为此,它不一定是令人信服的或欺骗性的,它只需要按照所谓的便宜的假货即可。您知道,这是任何人都可以在10分钟内使用Photoshop做的事情。即使有复杂的AI图像生成器的可用性。我们看到的许多AI错误信息是这些廉价的假货甚至不需要这种复杂性才能产生,对吗?
因此,这些假定的危害中的许多人确实有一个错误的理论,即强大的技术将如何导致潜在有害的社会影响。另一个伟大的是网络安全性,您知道,您知道,我在开始AI工作之前工作了很多年。
而且,如果担心AI会发现软件漏洞并利用它们并利用关键基础架构,无论如何,都比人类更好。我的意思是,我们越过了十年前的阈值。长期以来,诸如Fuzzing之类的自动化方法一直被用来寻找新的网络漏洞,但事实证明,它实际上已经帮助捍卫者对攻击者进行了帮助。因为软件公司可以和做,这实际上几乎是第一道防线。使用这些自动化的漏洞发现方法来查找漏洞并在自己的软件中修复这些漏洞,甚至在将攻击者放在那里,在此之前,攻击者有机会找到这些漏洞。
因此,总而言之,许多恐惧是基于对技术与社会之间相互作用的一种不正确的理论。嗯,我们还有其他方法可以在很多方面辩护,AI本身是否是针对我们正在谈论的其中一些AI启用AI的威胁的辩护?第三,试图控制AI的防御能力将无法正常工作。在我们看来,它们对民主非常危险。
辛迪·科恩(Cindy Cohn):您能谈谈AI作为普通技术吗?因为我认为这是一个我们正在考虑的世界。因为我们知道,我们不会回去。
与编写计算机代码的人一起闲逛的任何人都知道,使用这些系统编写计算机代码的人现在就像是正常的。嗯,即使您想回去,也很难回去。嗯,所以告诉我一些有关AI作为普通技术的版本的此版本。“因为我认为,现在感觉就像是未来,但实际上我认为,取决于他们说什么,未来在这里,这不是均匀分布。就像它还没有均匀分布。那么,它看起来像什么?
Arvind Narayanan:是的,因此,本文的很大一部分认真对待使用AI的认知自动化前景,AI在某个时候可以通过一定程度的准确性和可靠性,至少在当今经济中有价值的大多数认知任务,并且询问这会发生多快,这会发生多快?会有什么影响?
因此,很多人认为这会发生的人,认为这十年将会发生,而且很多人都会为人们带来很多恐惧,并有很多短期的思考。但是我们的论文以截然不同的方式看待它。因此,首先,我们认为,即使实现了这种认知自动化,也可以与工业革命进行类比,在这些革命中,许多物理任务变得自动化。这并不意味着人类的劳动是多余的,因为我们不采用强大的物理机器,例如起重机或其他机器,也可以让他们无人看管操作,对吗?
因此,凭借自动化的那些物理任务,劳动的含义现在就与那些物理机器的监督相比,这些机器在身体上比人类更强大。因此,我们认为这只是一个类比,但是在本文中我们有很多理由,因为我们认为情况会如此。认知自动化的未来,工作可能意味着什么,主要是围绕AI系统的监督。
因此,对我们来说,这是一个非常积极的观点。我们认为,在大多数情况下,这仍然是某些部门的工作。可能会产生灾难性的影响,但并非整个局面,您将为人类工作过时的人类工人提供替换。我们并没有真正看到这种情况的发生,而且我们也看不到几年的空间发生这种情况。
我们讨论了很多新技术,尤其是电力等通用技术的惯性来源是什么。我们再次谈论了另一个历史性的类比,工厂花了几十年的时间来弄清楚如何用电力有用的方式替换蒸汽锅炉,而不是因为它在技术上很难,而是因为它需要组织创新,例如改变围绕组装线概念的工厂布局。因此,我们认为在使用AI时,其中一些更改可能会发生什么。而且,我们知道,我们说我们有一个数十年的时间来实现这一过渡,即使我们确实实现了过渡,也不会像很多人一样令人恐惧。
辛迪·科恩(Cindy Cohn):因此,假设我们生活在未来,这是我们在这里得到所有这些AI问题的未来。普通人或某人从事工作是什么样的?
Arvind Narayanan:当然。一些大事。我想在这里将互联网用作类比。嗯,20,30年前,我们曾经登录互联网,执行任务,然后注销。但是现在。互联网只是所有知识工作都会发生的媒介,对吗?因此,我们认为,如果我们将来正确地解决这个问题,AI将是知识工作的媒介。这是一种背景中的一种,并且会自动做我们需要做的事情,而无需我们去AI应用程序并询问某事,然后将结果带回其他东西。
AI的著名定义是AI是尚未完成的。因此,这意味着,当技术是新的,并且它的效果不佳,并且其效果是双向的,那就是我们更有可能将其称为AI。
但是最终,它开始可靠地工作,并逐渐淡入背景,我们将其视为数字或物理环境的一部分。而且我们认为这将在很大程度上与生成的AI一起发生。这只是不可见量使所有知识的工作变得更好,而人类的工作将主要是关于对普遍发生的AI工作的判断,而不是人类是在任何特定职业中所做的思想的坚果和螺栓。
我认为另一个是,嗯,我希望我们能拥有。善于认识到本质上人类的事物并为他们付出更多的人类努力,我们将为这些重要的事情释放更多的时间和精力。因此,例如,有些人说,哦,让我们自动化政府并用聊天机器人代替它。嗯,您知道,我们指出的是,这缺少民主的目的,即,要知道,如果聊天机器人正在做出决定,这可能在某种意义上更有效,但这并不是任何反映人民意愿的方式。因此,无论人们对政府效率低下的担忧,自动化都不会成为答案。我们可以考虑结构性改革,当然,我们应该应该释放更多人类的时间来做本质上具有人类的事情,而真正重要的事情,例如我们如何管理自己等等。
嗯。而且,嗯,也许如果我可以最后想到这个对未来的积极愿景的看法是什么?嗯,我,我会回到我们开始的事情,即AI和教育。我确实认为有数量级,开放的潜力更大,而AI并不是这里的魔力。
您知道,总体上,技术只是其中的一小部分,但是我认为,随着我们通常变得更加富裕,我们拥有。您知道,许多不同的改革。嗯,希望这些改革之一将是学校和教育体系,嗯,得到了更好的资金,能够更有效地运作,并且您知道,每天都有一天,能够表演,呃,以及当今成就最高的孩子。
而且有一个巨大的范围。因此,对我而言,能够提高人类潜力是最令人兴奋的事情。
辛迪·科恩(Cindy Cohn):非常感谢,Arvind。
Arvind Narayanan:谢谢Jason和Cindy。这真的很有趣。
辛迪·科恩(Cindy Cohn):我非常感谢Arvind的充满希望和正确的想法,即我们大多数人整天所做的事情并不能真正降低机器可以替代的东西。您知道,现实生活不像是国际象棋的游戏,或者,您知道,您必须通过的考试才能成为律师或类似的事情。而且,您知道,实际工作和AI可以复制的东西之间存在巨大差距。
杰森·凯利(Jason Kelley):``是的,他真的在思考很多关于AI的辩论是如何在这个非常高的水平上构建的,这似乎是不正确的,对吗?我的意思是,这有点像问食物对您是否有益,对您有好处,但他更加细微,您知道吗?AI在某些情况下是好的,在其他情况下不好。他对我的最大收获是,您知道,人们需要对他们如何使用它持怀疑态度。他们需要对其提供的信息持怀疑态度,并且需要了解可以使用哪种方法使AI与您和您一起使用,以及如何使其适用于您使用的应用程序。
您知道,这不是您可以应用的东西,在任何事物上都有意义,对吗?我的意思是,我认为没有人认为这是这样的,但是我认为行业正在将AI插入所有内容或将其称为AI。而且他对此非常批评,我认为是很好,而且大多数人也是如此,但是无论如何都在发生。因此,很高兴听到有人以这种方式思考的人指出为什么这是不正确的。
辛迪·科恩(Cindy Cohn):我认为是的。我喜欢将AI正常化并将其视为一种通用工具的想法,这可能对某些事情有好处,而且,老实说,这对他人不利,就像计算机的方式一样,计算机对某些事情有益,对别人有害。因此,您知道,我们在谈话中谈论车辆和食物,但实际上认为您可以更广泛地计算它。
我还喜欢他对厄运的回应,指出人们声称的许多危害将结束世界,这对强大的技术将如何导致不良的社会影响有错误的理论。You know, he's not saying that it won't, but he's pointing out that, you know, in cybersecurity for example, you know, some of the AI methods which had been around for a while, he talked about fuzzing, but there are others, you know, that those techniques, while they were, you know, bad for old cybersecurity, actually have spurred greater protections in cybersecurity.这教训是当我们一直学习安全性时,尤其是像猫和鼠标游戏一样。
任何认为自己已经检查过的人,无论是在好方面还是不好的一面,都可能是错误的。而且我认为这是一个重要的见解,因此,您知道,我们对AI的可能性并不感到兴奋,但是我们也不会一直走到末日。
杰森·凯利(Jason Kelley):是的。您知道,普通技术对我真的很有帮助,对吗?就像您使用计算机所说的那样,它是一种工具,在某些情况下具有应用程序,而不是其他情况,而人们在想,您知道,我不知道是否有人想到何时开发了互联网,这将结束世界或保存世界。我想人们认为某些人可能会想过/或,但是您知道,这也不是真的。正确的?而且您知道,已经有很多年了,我们仍在学习如何使互联网有用,我认为要花很长时间才能确定AI如何有用。但是,关于如何应用AI的互联网增长,我们可以从很多教训中获得很多教训。
你知道,我的洗碗机,我认为不需要wifi。我认为它也不需要AI。我可能最终会购买必须拥有这些东西的东西,因为那是市场的发展方式。但是,似乎这是我们可以从我们的某种方式中学到的东西,嗯,弄清楚过去的这些应用程序在哪里,我们只是我们可以继续为AI弄清楚的东西。
辛迪·科恩(Cindy Cohn):是的,老实说,它指向竞争和用户控制,对吗?我的意思是,我认为很多人都觉得AI的原因是因为我们没有可以决定的系统的开放市场,我不希望AI在洗碗机中,或者我不想在电视上进行监视。
这是一个市场问题。他说的很多事情之一是,您知道,添加AI并不能解决破裂的机构的问题。而且我认为这可以追溯到我们没有功能性市场的事实,我们现在没有真正的消费者选择。因此,这就是为什么对AI的某些恐惧,不仅是消费者,我的意思是工人选择,其他事情,也是这些系统中权力在这些系统中工作的问题的原因。
如果您只是以技术为中心,那么您将缺少更大的图景以及我们可能需要做的事情来解决它。我想回顾一下您对互联网的看法,因为它当然让我想起了巴洛关于网络空间独立性的宣言,您知道,很多人都解释了这一点,因为说互联网会神奇地使一切变得更好,而巴洛直接告诉我,他说的是,他说的是,这是一个积极的版本,如果是在线的,那么他是在线的,如果是在线的,那么这是在线的,如果是在线上的,那么这是我所说的吗?
而且我认为这可能是我们确实需要带来更美好的未来的另一个领域,嗯,我们需要为美好的未来提供一个美好的未来,但是我们还必须清楚地对风险,风险,您知道,尽管我们是否朝着正确的方向前进,尽管我们希望我们能做些什么。
杰森·凯利(Jason Kelley):那就是我们今天的一集。非常感谢您加入我们。如果您有反馈或建议,我们很乐意收到您的来信。访问ff.org/podcast,然后单击“收听或反馈”。当您在那里时,您可以成为会员并捐款,甚至可以拿起一些商品,只需看看本周和每周的数字权利中发生的事情即可。
我们的主题音乐是由Reed Mathis的Beat Mower的Nat Keefe撰写的,Alfred Peace Loan Foundation的计划和公众对科学技术的理解支持了如何修复互联网。我们下次见。我是杰森·凯利(Jason Kelley)。
辛迪·科恩(Cindy Cohn):我是辛迪·科恩(Cindy Cohn)。
音乐荣誉:该播客是获得许可的创意共享归因4.0 International,其中包括以下音乐许可的创意共享归因3.0由其创作者未携带的:H2O的Drops of H2O,Jay Lang的过滤水处理。Gaetan Harris的其他音乐,主题混音和声音设计。