OC

Knowledge OS
鹦鹉螺口语
马斯克未能阻止加州数据披露法,他担心该法会毁掉 xAI
2026-03-06 18:21:42 · 英文原文

马斯克未能阻止加州数据披露法,他担心该法会毁掉 xAI

马斯克无法说服公众法官不关心人工智能训练数据的来源。

埃隆·马斯克 (Elon Musk) 的 xAI 未能获得初步禁令,该禁令将暂时阻止加州执行一项要求人工智能公司公开共享其训练数据信息的法律。

xAI曾尝试过争论2013 年加州议会法案(AB 2013)迫使人工智能公司披露精心保护的商业秘密。

该法律要求模型在该州可访问的人工智能开发人员明确说明使用哪些数据集源来训练模型、何时收集数据、收集是否正在进行以及数据集是否包含受版权、商标或专利保护的任何数据。披露还将澄清公司是否许可或购买了培训数据以及培训数据是否包含任何个人信息。它还将帮助消费者评估有多少合成数据用于训练模型,这可以作为质量衡量标准。

然而,xAI 认为,这些信息正是 xAI 的价值所在,其密集的数据源据称使其有别于其最大的竞争对手。xAI 的投诉称,允许强制执行可能会对 xAI 造成“经济破坏”,从而有效地将“xAI 商业秘密的价值降至零”。此外,xAI 坚称,这些披露“不可能对消费者有帮助”,同时据称还构成了摧毁整个人工智能行业的真正风险。

具体来说,xAI 辩称其数据集来源、数据集大小和清理方法都是商业秘密。

“如果竞争对手可以看到 xAI 所有数据集的来源,甚至数据集的大小,那么竞争对手就可以评估 xAI 拥有哪些数据以及缺少多少数据,”xAI 辩称。在一个假设中,xAI 推测,“如果 OpenAI(另一家领先的人工智能公司)发现 xAI 正在使用一个重要的数据集来训练 OpenAI 没有使用的模型,那么 OpenAI 几乎肯定会获取该数据集来训练自己的模型,反之亦然。”

然而,在一个订单美国地区法官 Jesus Bernal 在周三发布的声明中表示,xAI 未能证明 1 月份生效的加州法律要求该公司披露任何商业秘密。

法官表示,xAI 最大的问题是,如果不停止这项法律,它所面临的危害过于模糊。伯纳尔写道,该公司没有解释为什么这些披露可能会直接损害 xAI,而是仅提供了“关于数据集在开发人工智能模型中的重要性以及为何对其保密的各种一般性指控”,并将 X 描述为“频繁的抽象和假设”。

他拒绝了 xAI 提出的初步禁令动议,同时支持政府帮助公众评估最新人工智能模型训练方式的兴趣。

诉讼仍将继续,但 xAI 同时必须遵守加利福尼亚州的法律。这可能会让马斯克分享他宁愿 OpenAI 不知道的信息,当时他卷入了针对他领导的领先人工智能公司的几起诉讼。现在很遗憾帮助找到了

虽然没有结束让 OpenAI 远离 xAI 训练数据的斗争,但本周的裁决是马斯克的又一次失败,此前法官上个月驳回了他的一项 OpenAI 诉讼,裁定:马斯克没有证据证明 OpenAI 窃取了商业机密

xAI 辩称加州希望让 Grok 保持沉默

xAI 的投诉称,加州的法律违宪,因为根据第五修正案,数据可以被视为商业秘密。该公司还辩称,国家正试图监管 xAI 有争议的聊天机器人 Grok 的输出,并且不公平地强迫 xAI 发表言论,同时出于安全目的而豁免其他公司。

在诉讼的现阶段,伯纳尔不同意如果法律不停止,xAI 可能会受到不可挽回的损害。

关于第五修正案的主张,法官表示,并不是说训练数据永远不能被视为商业秘密。只是 xAI 尚未发现任何与竞争对手不同的数据集或清理和使用数据集的方法,以保证商业秘密保护。”

“法院并没有忽视数据集在人工智能培训和开发中的重要作用,并且假设数据集及其详细信息可能是商业秘密,”伯纳尔写道。但 xAI — 并未声称它实际上使用了独特的数据集,它的数据集比竞争对手明显更大或更小,或者它以独特的方式清理其数据集。

因此,xAI 不太可能因其第五修正案主张的优点而获得成功。

第一修正案的论点也是如此。xAI 未能证明该法律有不当之处——迫使开发商公开披露他们的数据源,以试图识别加州认为的数据——充满隐性和显性偏见的数据,”伯纳尔写道。

该公司认为,对于 xAI 来说,国家似乎试图利用法律来影响其聊天机器人 Grok 的输出,而该机器人的商业言论应该受到保护。

在过去的一年里,Grok 因其表现越来越受到全球公众的关注。反犹太主义的咆哮并用于生成未经同意的亲密意象(NCII)和儿童性虐待材料 (CSAM)。但尽管有这些丑闻,这促使加州调查伯纳尔反驳了 xAI,称加州似乎并没有像 xAI 担心的那样试图监管有争议或有偏见的产出。

“该法规的语言中没有任何内容表明加州试图通过要求数据集披露来影响原告的模型输出,”伯纳尔写道。

在谈到 xAI 的其他言论问题时,他指出,“该法规实际上并没有要求原告分享其对某些数据集在人工智能模型开发中的作用的看法,也没有对各种数据集或清理方法的效用做出意识形态陈述。”

“该法规的任何部分都没有表明任何计划根据开发和训练模型的数据集来监管或审查模型,”伯纳尔写道。

公众“不可能”关心人工智能训练数据

也许最令人沮丧的是 xAI,因为它继续努力阻止法律,伯纳尔还质疑公众对培训数据披露不感兴趣。

伯纳尔写道:“从本质上来说,没有消费者能够通过审查用于训练原告的人工智能模型的数据集的信息来对原告的人工智能模型进行有用的评估,因此这一披露法规并没有促进政府的实质性利益,这令人难以置信。”

他指出,该法律只是要求公司提醒公众有关可用于衡量他们是否想要使用一种模式而不是另一种模式的信息。

法官表示,所要求的披露本质上与政治无关,尽管一些消费者可能会选择或避免某些带有政治偏见的模型。举例来说,伯纳尔认为,消费者可能想知道“是否使用某些医疗数据或科学信息来训练模型”,以决定他们是否可以信任该模型“经过充分全面的训练并且对于消费者的目的而言是可靠的。”

“在人工智能模型市场中,AB 2013 要求人工智能模型开发人员提供有关训练数据集的信息,从而向公众提供必要的信息,以确定他们是否会使用(或依赖原告模型相对于市场上其他选项产生的信息)”Bernal 写道。

展望未来,xAI 要想赢得这场战斗似乎面临着一场艰苦的战斗。它需要收集更多证据来证明其数据集或清理方法足够独特,可以被视为商业秘密,从而赋予公司竞争优势。

伯纳尔建议,它还可能必须深化其论点,即消费者不关心信息披露,以及政府尚未探索可以“实现消费者透明度目标”的负担较轻的替代方案。

一种可能的获胜途径可能是证明加利福尼亚州的法律非常模糊,以至于可能会让 xAI 因披露其客户的个人 Grok 许可证的训练数据而陷入困境。但伯纳尔强调,xAI“必须真正面对这样的难题”,而不是在人工智能系统开发人员中提出一个抽象的可能问题,以便法院就这个问题做出裁决。

xAI 没有回应 Ars 的置评请求。

加州司法部发言人告诉路透社该部门“庆祝这一关键胜利,并继续致力于继续捍卫法律”。

Photo of Ashley Belanger

阿什利 (Ashley) 是 Ars Technica 的高级政策记者,致力于追踪新兴政策和新技术的社会影响。她是一位拥有 20 年经验的芝加哥记者。

关于《马斯克未能阻止加州数据披露法,他担心该法会毁掉 xAI》的评论

暂无评论

发表评论

摘要

埃隆·马斯克 (Elon Musk) 的 xAI 在针对加州 2013 年议会法案 (AB 2013) 的初步禁令申请中失败,该法案要求人工智能公司披露有关其训练数据的详细信息。xAI 辩称,遵守法律会泄露商业秘密并损害其经济价值,但美国地区法官 Jesus Bernal 裁定,xAI 未能证明法律会迫使他们泄露商业秘密或造成重大损害。法官还驳回了 xAI 的宪法论点,并强调理解人工智能训练数据的公众利益。案件还将继续,xAI 需要提供更多证据来证明他们的说法。

相关新闻

相关讨论