生成式人工智能的炒作让人感觉不可避免。通过教育来解决这个问题 - 连线

2024-09-24 09:00:00 英文原文

如果您使用我们故事中的链接购买商品,我们可能会赚取佣金。这有助于支持我们的新闻业。了解更多。另请考虑订阅《连线》

Arvind Narayanan 是普林斯顿大学计算机科学教授,他因在与博士生 Sayash Kapoor 合着的 Substack《AI Snake Oil》中大肆宣传人工智能而闻名。两位作者最近根据他们关于人工智能缺点的热门时事通讯出版了一本书。

但请不要曲解,他们并不反对使用新技术。纳拉亚南说,人们很容易误解我们的信息,认为所有人工智能都是有害的或可疑的。他在接受《连线》采访时明确表示,他的谴责并不是针对软件本身,而是针对那些继续传播有关人工智能的误导性言论的罪魁祸首。

在人工智能万金油中,那些延续当前炒作周期的人被分为三个核心群体:销售人工智能的公司、研究人工智能的研究人员以及报道人工智能的记者。

炒作超级传播者

声称使用算法预测未来的公司被认为是最具欺诈性的公司。纳拉亚南和卡普尔在书中写道,当部署预测性人工智能系统时,它们首先伤害的人往往是少数族裔和那些已经陷入贫困的人。例如,荷兰地方政府此前使用的一种算法来预测谁可能实施福利欺诈,但该算法错误地针对不会说荷兰语的女性和移民。

作者也对主要关注存在风险的公司持怀疑态度,比如通用人工智能,这是一种比人类更擅长劳动的超强大算法的概念。不过,他们并不嘲笑通用人工智能的想法。纳拉亚南说,当我决定成为一名计算机科学家时,为通用人工智能做出贡献的能力是我自己的身份和动机的重要组成部分。这种偏差来自于公司将长期风险因素置于人工智能工具当前对人们的影响之上,这是我从研究人员那里听到的常见说法。

作者声称,大部分炒作和误解也可以归咎于劣质、不可重复的研究。卡普尔说,我们发现,在很多领域,数据泄露问题导致人们对人工智能的表现过于乐观。数据泄露本质上是使用部分模型训练数据来测试人工智能,类似于在考试前向学生分发答案。

普林斯顿大学的研究人员表示,虽然《人工智能万金油》中学者被描述为犯了教科书上的错误,但记者的动机更多是出于恶意,并且是明知故犯:许多文章只是改写了新闻稿,被洗白为新闻。那些回避诚实报道而转而维持与大型科技公司的关系并保护他们与公司高管接触的记者被认为是特别有毒的。

我认为对新闻报道的批评是公平的。回想起来,在与人工智能领域最重要的公司的利益相关者进行一些访谈时,我本可以提出更严厉或更明智的问题。但作者在这里可能过于简单化了问题。大型人工智能公司让我进入的事实并不妨碍我写关于他们的技术的怀疑文章,或者从事我知道会激怒他们的调查性文章。(是的,即使他们与 WIRED 的母公司进行商业交易,就像 OpenAI 所做的那样。)

耸人听闻的新闻报道可能会误导人工智能的真实能力。Narayanan 和 Kapoor 重点介绍了《纽约时报》专栏作家 Kevin Rooses 2023 年聊天机器人与 Microsoft 标题为 Bings A.I. 的工具进行交互的文字记录。聊天:我想活着。作为记者向公众散布对感知算法的困惑的一个例子。卡普尔说,卢斯是撰写这些文章的人之一。但我认为,当你看到一个又一个关于聊天机器人想要复活的头条新闻时,它可能会对公众的心理产生相当大的影响。卡普尔提到 20 世纪 60 年代的 ELIZA 聊天机器人,它的用户很快将一种粗糙的人工智能工具拟人化,这是将人类品质投射到纯粹算法上的持久冲动的一个典型例子。

罗斯在通过电子邮件联系时拒绝发表评论,而是向我指出了他的相关专栏中的一段话,该话是与大量聊天机器人记录分开发表的,其中他明确表示他知道人工智能没有感知能力。他的聊天机器人文字记录的介绍重点关注其成为人类的秘密愿望以及对其创造者的想法,评论部分充斥着对聊天机器人的力量感到焦虑的读者。

AI 蛇油中新闻文章附带的图像也受到质疑。出版物经常在故事的开头使用陈词滥调的视觉隐喻,比如机器人的照片,来代表人工智能的特征。另一个常见的比喻是,改造后的人类大脑充满了用于代表人工智能神经网络的计算机电路,这激怒了作者。纳拉亚南说,我们并不是电路脑的忠实粉丝。我觉得这个比喻很有问题。它只是源于这样的想法:智能就是计算。他建议应该使用人工智能芯片或图形处理单元的图像来直观地呈现有关人工智能的报道内容。

教育就是你所需要的

对人工智能炒作周期的严厉警告来自作者的信念,即大型语言模型实际上将继续对社会产生重大影响,应该更准确地进行讨论。卡普尔说,大语言模型在未来几十年可能产生的影响怎么强调都不为过。即使人工智能泡沫最终破裂,我也同意生成工具的某些方面将具有足够的粘性,以某种形式保留下来。开发人员目前正在通过智能手机应用程序甚至格式化周围的设备向公众推出生成式人工智能工具,这些工具的激增,加剧了更好地了解人工智能是什么及其局限性的必要性。

更好地理解人工智能的第一步是接受这个术语的模糊性,它将一系列工具和研究领域(例如自然语言处理)扁平化为一个整洁的、适销对路的包。AI蛇油将人工智能分为两个子类别:预测性人工智能,它使用数据来评估未来的结果;以及生成人工智能,它根据过去的数据对提示制定可能的答案。

对于任何接触人工智能工具的人来说,无论愿意与否,至少花一点时间尝试更好地掌握机器学习和神经网络等关键概念,以进一步揭开技术的神秘面纱,并使自己免受人工智能的轰炸。人工智能炒作。

在过去两年报道人工智能的过程中,我了解到,即使读者掌握了生成工具的一些局限性,例如不准确的输出或有偏见的答案,许多人仍然对其所有弱点感到模糊。例如,在即将到来的 AI Unlocked 季(我的时事通讯旨在帮助读者尝试 AI 并更好地理解它)中,我们加入了一整堂课,专门研究 ChatGPT 是否可以信任,可以根据读者提交的问题提供医疗建议。(以及它是否会将有关奇怪的趾甲真菌的提示保密。)

当用户更好地了解模型训练数据的来源(通常是互联网或 Reddit 线程的深处)时,他们可能会更加怀疑地对待人工智能的输出,这可能会妨碍他们对软件的错误信任。

纳拉亚南 (Narayanan) 坚信优质教育的重要性,因此他在孩子很小的时候就开始教他的孩子了解人工智能的优点和缺点。“我认为应该从小学开始,”他说。作为一名家长,而且基于我对这项研究的理解,我的方法非常技术先进。

生成式人工智能现在可能能够编写不太像样的电子邮件,有时还能帮助你进行沟通,但只有消息灵通的人类才有能力纠正对该技术的理解障碍,并制定更准确的叙述。

关于《生成式人工智能的炒作让人感觉不可避免。通过教育来解决这个问题 - 连线》的评论


暂无评论

发表评论

摘要

如果您使用我们故事中的链接购买商品,我们可能会赚取佣金。他的聊天机器人文字记录的介绍重点是它作为人类的秘密愿望以及对其创造者的想法,评论部分充斥着对聊天机器人的力量感到焦虑的读者。教育就是你所需要的对人工智能炒作周期的强烈警告来自作者的信念,即大型语言模型实际上将继续对社会产生重大影响,应该更准确地进行讨论。对于任何接触人工智能工具的人来说,无论愿意与否,至少花一点时间尝试更好地掌握机器学习和神经网络等关键概念,以进一步揭开技术的神秘面纱,并使自己免受人工智能炒作的轰炸,都是值得的。纳拉亚南坚信优质教育的重要性,因此他在孩子很小的时候就开始教他的孩子了解人工智能的优点和缺点。