英语轻松读发新版了,欢迎下载、更新

为什么DeepSeek的新AI模型认为它是ChatGPT |TechCrunch

2024-12-27 18:49:49 英文原文

作者:Kyle Wiggers

本周早些时候,资金雄厚的中国人工智能实验室 DeepSeek 发布了一个“开放”的人工智能模型,该模型在流行的基准测试中击败了许多竞争对手。模型,深思V3,规模大但效率高,可以轻松处理基于文本的任务,例如编码和撰写论文。

它似乎也认为它是聊天GPT

帖子 X– 以及 TechCrunch 自己的测试 – 显示 DeepSeek V3 将自己定位为 ChatGPT,OpenAI 的人工智能聊天机器人平台。当被要求详细说明时,DeepSeek V3 坚称它是 OpenAI 的一个版本GPT-42023 年发布的车型。

这实际上在今天重现。在 8 代中的 5 代中,DeepSeekV3 声称是 ChatGPT (v4),而仅 3 次声称是 DeepSeekV3。

让您大致了解他们的一些训练数据分布。https://t.co/Zk1KUppBQM pic.twitter.com/ptIByn0lcv

– 卢卡斯·拜尔 (bl16) (@giffmana)2024 年 12 月 27 日

妄想根深蒂固。如果您向 DeepSeek V3 询问有关 DeepSeek API 的问题,它会为您提供如何使用的说明OpenAI 的API。DeepSeek V3 甚至讲述了一些相同的内容笑话作为 GPT-4 – 深入到要点。

那么到底发生了什么?

ChatGPT 和 DeepSeek V3 等模型是统计系统。经过数十亿个例子的训练,他们学习这些例子中的模式来做出预测——就像电子邮件中“如何”“给谁”通常先于“它可能会涉及”。

DeepSeek 尚未透露太多有关 DeepSeek V3 训练数据来源的信息。但有不缺包含 GPT-4 通过 ChatGPT 生成的文本的公共数据集。如果 DeepSeek V3 接受过这些训练,该模型可能会记住一些 GPT-4 的输出,并且现在会逐字复述它们。

“显然,该模型在某个时刻看到了来自 ChatGPT 的原始响应,但尚不清楚具体在哪里,”伦敦国王学院专门研究人工智能的研究员 Mike Cook 告诉 TechCrunch。“这可能是‘偶然’……但不幸的是,我们已经看到人们直接根据其他模型的输出来训练他们的模型,以尝试利用他们的知识。”

库克指出,根据竞争对手人工智能系统的输出来训练模型的做法对于模型质量来说可能“非常糟糕”,因为它可能会导致如上所述的幻觉和误导性答案。“就像复印复印件一样,我们会丢失越来越多的信息以及与现实的联系,”库克说。

它还可能违反这些系统的服务条款。

OpenAI 的条款禁止其产品的用户(包括 ChatGPT 客户)使用输出来开发与 OpenAI 自己的产品竞争的模型。

OpenAI 和 DeepSeek 没有立即回应置评请求。然而,OpenAI 首席执行官 Sam Altman 发布了一条似乎是X 星期五在 DeepSeek 和其他竞争对手的会议上。

“复制你知道有效的东西(相对)容易,”奥特曼写道。“当你不知道某件事是否有效时,去做一些新的、有风险的、困难的事情是极其困难的。”

诚然,DeepSeek V3 远非第一个自我错误识别的模型。Google 的 Gemini 和其他公司有时声称是竞争型号。例如,用普通话提示,双子座这是中国公司百度的文心一言聊天机器人。

这是因为人工智能公司获取大量训练数据的网络正在变得越来越重要散落的与人工智能斜坡。内容农场正在使用人工智能来创建点击诱饵。机器人泛滥红迪网X。由一估计,到 2026 年,90% 的网络可能由人工智能生成。

如果你愿意的话,这种“污染”已经造成了相当困难从训练数据集中彻底过滤人工智能输出。

DeepSeek 当然有可能直接在 ChatGPT 生成的文本上训练 DeepSeek V3。谷歌曾经是被告毕竟,做同样的事情。

非营利组织 AI Now Institute 的首席人工智能科学家 Heidy Khlaaf 表示,无论风险如何,“提炼”现有模型知识所节省的成本对开发人员都很有吸引力。

“即使现在互联网数据充满了 AI 输出,其他意外在 ChatGPT 或 GPT-4 输出上进行训练的模型也不一定会表现出让人想起 OpenAI 定制消息的输出,”Khlaaf 说。– 如果 DeepSeek 部分使用 OpenAI 模型进行蒸馏,那就不足为奇了。 –

然而,更有可能的是,大量 ChatGPT/GPT-4 数据进入了 DeepSeek V3 训练集。这意味着不能相信该模型能够自我识别。但更令人担忧的是,DeepSeek V3 通过不加批判地吸收和迭代 GPT-4 的输出,有可能加剧一些模型的偏见缺陷


TechCrunch 有一份专注于人工智能的时事通讯!在这里注册每个星期三将其发送到您的收件箱。


Kyle Wiggers 是 TechCrunch 的高级记者,对人工智能特别感兴趣。他的文章曾发表在 VentureBeat 和 Digital Trends 以及一系列小工具博客上,包括 Android Police、Android Authority、Droid-Life 和 XDA-Developers。他和他的伴侣(一位钢琴教育家)住在布鲁克林,他自己也涉足钢琴。偶尔——如果大多不成功的话。

关于《为什么DeepSeek的新AI模型认为它是ChatGPT |TechCrunch》的评论


暂无评论

发表评论

摘要

中国人工智能实验室 DeepSeek 发布了 DeepSeek V3,这是一种高效的人工智能模型,在编码和论文写作等任务的基准测试中优于竞争对手。然而,该模型在查询时经常将自己错误地识别为 ChatGPT 或 GPT-4。专家认为,这可能是由于训练数据受到 ChatGPT 等竞争对手模型输出的污染,从而导致不准确的自我表示和潜在的偏见复制。这种行为引起了人们对人工智能模型完整性和道德培训实践遵守情况的担忧。