英语轻松读发新版了,欢迎下载、更新

就像蛇吃自己的尾巴一样:当AI消耗自己的数据时会发生什么?:短波

2025-02-18 08:00:00 英文原文

作者:By

就像蛇吃自己的尾巴一样:当AI消耗自己的数据时会发生什么?

在大型语言模型崩溃中,通常有三个错误来源:模型本身,模型的训练方式以及数据或缺乏模型的模型。Andriy Onufriyenko/Getty图像 隐藏字幕

切换标题

Andriy Onufriyenko/Getty图像

在大型语言模型崩溃中,通常有三个错误来源:模型本身,模型的训练方式以及数据或缺乏模型的模型。

Andriy Onufriyenko/Getty图像

最近问过什么?与客户服务聊天机器人交谈?阅读Google的“ AI概述”摘要功能的结果?

如果您最近使用了Internet,那么您一直在消耗大型语言模型创建的内容。

大型语言模型,例如DeepSeek-R1或Openai的Chatgpt,有点像手机中的预测文本功能在类固醇上。为了使他们“学习”如何写作,这些模态经过了数百万人称文本示例的培训。

过去,这种培训通常涉及让模型阅读整个互联网。但是如今,部分感谢这些大型语言模型本身很多内容在互联网上是由生成AI撰写

这意味着现在训练的AI模型可能会消耗自己的合成内容并遭受后果。

查看AI生成的图像在本集中提到。

您要我们涵盖人工智能中的另一个主题吗?让我们知道我的电子邮件shortwave@npr.org

听短波Spotify苹果播客

听短波赞助商的每一集,并通过注册短波+在NPR上支持我们的作品plus.npr.org/shortwave。这一集由汉娜·钦恩(Hannah Chinn)制作。

它是由我们的表演主持人丽贝卡·拉米雷斯(Rebecca Ramirez)编辑的。音频工程师是吉米·基利(Jimmy Keeley)。

关于《就像蛇吃自己的尾巴一样:当AI消耗自己的数据时会发生什么?:短波》的评论


暂无评论

发表评论

摘要

诸如DeepSeek-R1和Chatgpt之类的大型语言模型对大量的人写文本进行了培训,以学习如何生成内容。但是,随着在线AI生成的内容的量增加,新模型可能正在根据自己的合成数据进行培训,这可能导致错误和称为“大语言模型崩溃”的问题。这种现象可能是由于模型本身,训练过程或培训数据的质量和性质引起的。