是的,我知道批评人工智能,特别是生成式人工智能,并将其当作某种病态的把戏来使用有些虚伪。然而,我是一名记者,这就像做科学一样,有点像那样。谷歌笔记本LM,即谷歌的人工智能摘要系统,有一个新功能用于引导其音频摘要功能,专注于某些主题和来源,这个功能既聪明又令人感到一丝不安。
今日宣布,谷歌实验室这家搜索引擎公司的AI工具网站已经实施了这一最新功能,用户可以亲自测试。我想提供一段较为微妙但又非常熟悉的信息,因此很难找到比你自己写的内容更好的选择。
我把今天早些时候写的一篇批评人工智能数据抓取中“退出选择”政策的文章交给了它,并观看两位主持人对其内容进行总结以便于做笔记。除了将“退出选择”称为“Opt O U T”模型之外,他们的总结非常到位。
这两个AI主持人迂回地表达了他们对我的基本观点,并显得非常认真和理智地批评了让他们存在的东西(数据抓取)。然后,文章继续论证用户在使用数据时应更加主动,并认为在人工智能数据战争中并非毫无希望。
在同一篇文章的第二种解释中,我要求AI主持人更多地关注埃隆·马斯克和他的争议,只是想看看它会超出我的文章多远。
除了对马斯克的名字有一点不满之外,它仍然关注同样的基本点,并且在语言模式上也犯了一些错误,比如先说X,然后又称之为Twitter。它偶尔会插入“嗯”和“啊”,这显得非常逼真。
我们在测试中也注意到许多相同的事情上个月初的播客功能但是笔记本功能更胜一筹,因为你可以在文章周围询问后续问题。我问它我的文章中的基本论点,它给出了简洁的四点回答,概述了几种批评数据抓取的理由,并特别指出了退出政策的问题。
当我第二次观看时,我注意到一些相似之处,比如男主持人在两个版本中都称AI公司为狡猾。女主持人在第二次尝试中也以某种方式两次说“未来是由现在塑造的”。
然而,主持人说话时的自信让我感到担忧。这里有一个反馈循环,在任何时候,你都可以有一位听起来像专业人士的主持人通过你分享的一个来源告诉你“真相”。在我写的文章中,我的论点无论你是否同意,相对而言都是比较直接明了的。
它有些小地方信息有误,比如说公司所有人需要退出选择,而实际上是用户,但总体来说还是基本准确的。这样的内容如何为潜在读者准备更深层次和更具哲学性的思考?
因此,当他们的作品可以由两个非常友好的声音总结出来,而这些声音能够以读者希望的方式呈现信息时,是什么让作家继续写作?从根本上说,我们理解面前文字的能力需要比阅读AI的摘要更高级的技能,并且语言是如此复杂多样,以至于我们不应完全信任它能准确表达意思。
就像我一开始说的,这感觉像是一种令人毛骨悚然的把戏,但语言比任何规模的语言模型都要大得多,不是它真正能够理解的。