我们都经历过这样的情况。我们失去了数字生活的某些部分,也许是因为我们不小心删除了它,或者系统在某种程度上让我们失败了。嗯,德国的一位教授最近在使用 OpenAI 的 ChatGPT 更改设置后失去了大量工作,本周在自然。但社交媒体用户似乎并不十分同情。事实上,他们现在一再因为他使用人工智能而对他进行扣篮。
科隆大学植物科学教授 Marcel Bucher 写道,他两年前签署了付费 ChatGPT 计划,并发现该人工智能工具非常有用。
“在注册了 OpenAI 的订阅计划 ChatGPT Plus 后,我每天都用它作为助手——写电子邮件、起草课程描述、构建资助申请、修改出版物、准备讲座、创建考试和分析学生的反应,甚至作为我教学的一部分的交互式工具,”Bucher 写道。
他承认 ChatGPT 与所有大型语言模型一样,可能不准确,但喜欢它,因为它可以记住对话的上下文,而且他重视“工作空间的连续性和明显的稳定性”。然后,他修改了数据同意的设置。
来自自然:
但在 8 月份,我暂时禁用了“数据同意”选项,因为我想看看如果我不向 OpenAI 提供数据,我是否仍然可以访问模型的所有功能。在那一刻,我所有的聊天记录都被永久删除,项目文件夹也被清空——两年精心构建的学术工作消失了。没有出现任何警告。没有撤消选项。只是一张空白页。幸运的是,我保存了一些对话和材料的部分副本,但我的大部分工作却永远丢失了。
布赫接着解释说,他最初认为这是一个错误,并认为他能够恢复多年的数据。他重新安装了应用程序,尝试了不同的浏览器,并修改了更多设置。但没有任何效果。然后,他尝试联系 OpenAI,但不出所料地遇到了一位 AI 代理,而该代理无法帮助他。他最终能够联系到人类,但他们也无法帮助他。数据消失了。

同样,这种故事在另一个时代可能会引起一些同情。但在 2026 年,人工智能常常被视为生成错误答案的垃圾机器,儿童性虐待材料,有不少人会因为某人失去所有人工智能聊天而陶醉。
– 令人惊叹的悲惨故事: – ChatGPT 删除了我未完成的所有工作 – 一位 Bluesky 用户写道。
“也许下一次,真正做你付钱让你自己做的工作,而不是将其外包给破坏气候、鼓励自杀的抄袭机器,”另一位写道另一个。其他人提出了这样的可能性:《自然》杂志上的这篇文章甚至不是布赫写的。
“这是我很长一段时间以来读到的最愚蠢的狗屎”,一位 Bluesky 用户写道。(但是,在他的辩护中:没有特别的理由假设发表这篇文章的人实际上是他自己写的。) -
布赫确实指出,公司鼓励他在工作中使用人工智能,这一抱怨是有道理的。大型机构告诉他们的员工更多地采用人工智能,理由是人工智能是某种不可避免的未来:
我们越来越多地被鼓励将生成式人工智能融入研究和教学中。个人用它来写作、规划和教学;大学正在尝试将其纳入课程中。然而,我的案例揭示了一个根本性的弱点:这些工具在开发时并未考虑到可靠性和问责制的学术标准。
如果一次点击就可以不可撤销地删除多年的工作,那么在我看来,根据我的经验,ChatGPT 不能被认为是完全安全的专业用途。
生成式人工智能是否会真正以真正重要的方式改变工作场所还有待观察,特别是在员工更加持怀疑态度而老板试图坚持使用它的情况下。无论发生什么,当有人失去大量工作时,可能会有很多人工智能怀疑论者庆祝。