加入企业领导人信任的活动近二十年。VB变换汇集了建立真正的企业AI战略的人们。 了解更多
常规的CHATGPT用户(包括本文的作者)可能会或可能没有注意到,OpenAI的HIT聊天机器人允许用户进入一个临时聊天旨在在关闭聊天会话后立即擦除用户和基础AI模型之间交换的所有信息。
此外,OpenAI还允许用户通过左键单击或控制点击,或从选择器上按下/long按下网络和桌面/移动应用程序上的左侧栏中手动删除事先的chatgpt会话。

但是,本周,Openai发现公司发现该公司有一些CHATGPT用户的批评不是实际上一直在删除这些聊天日志,如前所述。
您告诉我,我已删除的Chatgpt聊天实际上没有删除,并且正在保存[法官]的调查?@NS123ABC。该评论吸引了超过一百万的观看次数。
另一个用户,@kepano补充说,您可以删除chatgpt聊天,但是由于法律义务,所有聊天都必须保留?
作为AI影响者和软件工程师西蒙·威利森(Simon Willison)在他的个人博客上写道:``支付[Openai] Apis的客户很可能会决定切换到其他可以提供本法院命令颠覆的保留政策的提供商!
取而代之的是,Openai确认自2025年5月中旬以来,它一直在保存已删除和临时用户聊天日志,以响应联邦法院命令,尽管直到6月5日才向用户透露此订单。
该订单由下面嵌入并于2025年5月13日由美国地方法院法官Ona T. Wang发行,要求Openai保存和隔离所有输出日志数据,否则所有这些输出日志数据将在前进的基础上删除,包括由用户请求删除的聊天或由于隐私义务。
法院的指令源于《纽约时报》(NYT)诉Openai和Microsoft,现在一年半的旧版权案例仍在争论中。这纽约S律师声称,Openai的语言模型逐字化了受版权保护的新闻内容。原告认为,日志,包括用户可能已删除的日志,可能包含与诉讼相关的侵权输出。
虽然Openai立即遵守了该命令,但它在三个星期以上没有公开通知受影响的用户,发表博客文章和常见问题解答,描述了受影响的法律授权和概述。
但是,Openai将责任归咎于纽约法官的命令说,它认为保存要求是毫无根据的。
Openai澄清了法院命令的情况,以保留ChatGpt用户日志,包括聊天受到影响
在昨天发表的博客文章,Openai Coo Brad LightCap捍卫了公司的立场,并表示,它提倡用户隐私和安全性,以应对超越大大的司法命令:
``纽约时报和其他原告都在针对我们的毫无根据的诉讼中提出了巨大而不必要的需求:保留消费者chatgpt和API客户数据。这从根本上与我们对用户所做的隐私承诺发生冲突。
该帖子澄清说,CHATGPT免费,Plus,Pro和Team用户以及没有数据保留协议(ZDR)协议的API客户会受到保存订单的影响,即使在这些计划中的用户删除了他们的聊天或使用临时聊天模式,他们的聊天也将为可预见的未来存储。
但是,Chatgpt Enterprise和EDU用户以及使用ZDR Endpoints的API客户端的订阅者是不是受命令及其聊天的影响将按照指示删除。
保留数据是在法律持有下持有的,这意味着它存储在安全的,隔离的系统中,只能访问少数法律和安全人员。
这些数据不会自动共享《纽约时报》或其他任何人,在Openai的博客文章中强调了LightCap。
山姆·奥特曼(Sam Altman
Openai首席执行官兼联合创始人Sam Altman还在他的帐户中的一篇文章中公开解决了该问题昨晚社交网络X,写作:
最近,纽约时报要求法院迫使我们不要删除任何用户聊天。我们认为这是一个不适当的要求,它设定了一个不好的先例。我们正在提起决定。我们将抗击任何损害用户隐私的需求;这是一个核心原则。
他还建议,AI隐私可能需要更广泛的法律和道德框架:
我们最近一直在考虑需要诸如AI特权之类的东西;这确实加速了进行对话的需求。
IMO与AI交谈应该就像与律师或医生交谈。
我希望社会能尽快解决这个问题。AI特权作为潜在的法律标准的概念与律师 - 客户和医生的机密性相呼应。这样的框架是否会在法庭或政策界获得关注还有待观察,但阿尔特曼的评论表明,Openai可能越来越多地倡导这种转变。
OpenAI和您的临时/删除聊天接下来会发生什么?
Openai已对法院的命令提出了正式反对,要求撤离。
在法院文件中,该公司认为需求缺乏事实依据,并且保留数十亿个其他数据点既不是必要的也不是按比例的。
王法官在5月27日的听证会上表示,该命令是暂时的。
她指示当事方制定采样计划,以测试删除的用户数据是否与保留日志有很大不同。
Openai被命令在今天(6月6日)之前提交该提案,但我还没有看到该提案。
这对公司环境中负责CHATGPT使用的企业和决策者意味着什么
尽管该订单使用ZDR端点豁免了Chatgpt Enterprise和API客户,但更广泛的法律和声誉含义对负责在组织内部部署和扩展AI解决方案的专业人员至关重要。
那些监督大语言模型(LLMS)的完整生命周期的人,从数据摄入到微调和集成将需要重新评估有关数据治理的假设。如果LLM的面向用户的组件受到法律保存订单的约束,则会提出紧急问题,即数据在其留下安全的端点后的位置以及如何隔离,日志或匿名的高风险交互。
任何触摸OpenAI API的平台都必须验证使用哪些端点(ZDR vs non-ZDR),并确保在用户协议,审核日志和内部文档中反映数据处理策略。
即使使用了ZDR端点,数据生命周期策略也可能需要审查以确认下游系统(分析,记录,备份,备份)也不会无意间保留假定短暂的瞬态相互作用。
负责管理风险的安全人员现在必须扩大威胁建模,以将法律发现包括作为潜在向量。团队必须验证OpenAI的后端保留惯例是否与内部控制和第三方风险评估保持一致,以及用户是否依赖诸如临时聊天之类的功能,在法律保存下不再像预期的那样运行。
用户隐私和安全性的新闪点
这一刻不仅仅是法律上的冲突。这是围绕AI隐私和数据权利的不断发展的对话中的闪点。通过将问题构建为“ AI特权”,Openai有效地提出了一份新的社会合同,以了解智能系统如何处理机密投入。
法院还是立法者接受框架仍然不确定。但是就目前而言,Openai陷入了一项平衡法案中 - 在法律合规,企业保证和用户信任之间,并且在与机器交谈时谁控制您的数据。