OpenAI 在法庭上被指控试图通过人工智能模型检查获利

2024-11-15 13:45:29 英文原文

遇到一些技术困难

如何让人工智能模型承认里面的内容?

信用:奥里希·劳森 |盖蒂图片社

自大约两年前 ChatGPT 迅速走红以来,世界各地的科技公司纷纷推出人工智能产品,而公众仍然对人工智能改善日常生活的看似巨大的潜力感到敬畏。

但与此同时,全球各国政府警告称,很难预测人工智能的普及会对社会造成多快的危害。新用途可能会突然出现并取代工人、助长虚假信息、抑制竞争或威胁国家安全——而这些只是一些明显的潜在危害。

尽管各国政府都在争先恐后地建立系统来检测有害应用程序(最好是在部署人工智能模型之前),但一些最早针对 ChatGPT 的诉讼表明,公众要破解人工智能模型并找到模型一旦建立的危害证据是多么困难被释放到野外。这项任务似乎只会因为日益渴求的人工智能行业而变得更加困难,该行业致力于保护模型免受竞争对手的影响,以从新兴功能中实现利润最大化。

公众知道的越少,让公司对不负责任的人工智能发布负责似乎就越困难、成本也越高。今年秋天,ChatGPT 制造商 OpenAI 甚至被指控试图通过向诉讼当事人收取零售价来检查被指控造成伤害的人工智能模型,从而从发现中获利。

在一个《纽约时报》提起诉讼出于版权问题,OpenAI 建议使用相同型号的检验协议在类似的书籍作者提起的诉讼

根据该协议,《纽约时报》可以聘请一名专家,在 OpenAI 选择的“安全房间内的安全计算机上,在无法访问互联网或无法通过网络访问安全位置的其他计算机”的情况下审查高度机密的 OpenAI 技术材料。在这个封闭的竞技场中,专家将有有限的时间和有限的查询来尝试让人工智能模型承认里面的内容。

《纽约时报》似乎对实际检查过程并不担心,但对 OpenAI 的预期协议表示反对,该协议限制了专家可以通过应用程序编程接口对价值 15,000 美元的零售积分进行查询的数量。一旦诉讼当事人达到这一上限,OpenAI 建议双方分摊剩余查询的费用,向《纽约时报》和共同原告收​​取半零售价以完成剩余的发现。

九月,《纽约时报》告诉法院认为双方在该协议上陷入了“僵局”,并声称“OpenAI 试图通过声称支付不正当且尚未量化的‘费用’来掩盖其侵权行为。”据《纽约时报》报道,原告将需要价值 80 万美元的赔偿零售信贷来寻求证明其案件所需的证据,但据称 OpenAI 根本不可能花费那么多钱。

《纽约时报》在一份法庭文件中称,“OpenAI 拒绝透露其实际成本,而是错误地关注向客户收取零售服务费用,作为其(盈利)业务的一部分。”

OpenAI 在辩护中表示,设定初始上限对于减轻 OpenAI 的负担并防止《纽约时报》钓鱼探险是必要的。ChatGPT 制造商声称,原告“要求数十万美元的信用额,以便在 OpenAI 模型上进行任意且未经证实且可能不必要的大量搜索,所有费用均由 OpenAI 承担。”

这场法庭辩论的解决方式可能会对未来公众寻求检查造成所谓伤害的模型的案件产生影响。如果法院同意 OpenAI 可以收取模型检查的零售价格,那么可能会阻止任何无力支付人工智能专家或模型检查商业价格的原告提起诉讼。

CivAI 的联合创始人卢卡斯·汉森 (Lucas Hansen) 告诉 Ars,很多检查可能可以在公共模型上进行。CivAI 是一家致力于提高公众对人工智能实际功能的认识的公司。但公共模型通常会进行微调,可能会审查某些查询,并使查找模型所训练的信息变得更加困难——这正是《纽约时报》诉讼的目标。通过获得原始模型的 API 访问权限,诉讼当事人可以更轻松地找到证据来证明所指控的损害。

目前尚不清楚 OpenAI 提供这种级别的访问权限的具体成本是多少。Hansen 告诉 Ars,训练和试验模型的成本使运行模型以提供完整功能解决方案的成本“相形见绌”。开发商有著名的在论坛中,API 查询的成本迅速增加,其中一个人声称 OpenAI 的定价“扼杀了使用 API 的动力”。

《纽约时报》的律师和 OpenAI 拒绝就正在进行的诉讼发表评论。

美国人工智能安全测试的障碍

当然,OpenAI并不是唯一一家因热门产品而面临诉讼的人工智能公司。艺术家起诉图像生成器制造商据称威胁他们的生计,以及多个聊天机器人被指控诽谤。其他新出现的危害包括非常明显的例子,例如明显的人工智能深度假货,伤害了名人和所有人像泰勒·斯威夫特中学生– 以及未充分报告的危害,例如据称存在偏见的人力资源软件

最近的盖洛普民意调查这表明美国人比以往任何时候都更加信任人工智能,但相信人工智能“弊大于利”的可能性仍然是相信人工智能利大于弊的可能性的两倍。科汉森的 CivAI 为教育活动创建演示和交互式软件,帮助公众第一手了解人工智能的真正危险。他告诉 Ars,虽然外人很难相信“某个随机组织从事真正技术工作”的研究能够揭露危害,但 CivAI 为人们提供了一种可控的方式,让人们亲眼目睹人工智能系统如何被滥用。

“人们更容易相信结果,因为他们可以自己做,”汉森告诉 Ars。

汉森还为立法者应对人工智能风险提供建议。2 月,CivAI加入人工智能安全研究所联盟——一个由财富 500 强公司、政府机构、非营利组织和学术研究团队组成的团体,为美国人工智能安全研究所 (AISI) 提供建议。但汉森表示,到目前为止,CivAI 除了安排一次演讲来分享演示之外,在该联盟中的表现并不十分活跃。

AISI 旨在通过在部署模型之前进行安全测试来检测危害,从而保护美国免受有风险的人工智能模型的影响。总统乔·拜登表示,测试应“解决人权、公民权利和公民自由面临的风险,例如与隐私、歧视和偏见、言论自由以及个人和团体安全相关的风险”在上个月的一份国家安全备忘录中,敦促安全测试对于支持无与伦比的人工智能创新至关重要。

拜登表示:“为了让美国从人工智能中获得最大利益,美国人必须知道他们何时可以信任系统安全可靠地运行。”

但 AISI 的安全测试是自愿的,虽然公司OpenAI 和 Anthropic 等公司已同意自愿测试,并不是每个公司都有。汉森担心 AISI 资源不足,预算不足,无法实现保护美国免受无数人工智能伤害的广泛目标。

汉森告诉 Ars:“人工智能安全研究所预测他们将需要大约 5000 万美元的资金,而那是在国家安全备忘录发布之前,而且他们似乎根本不会得到这笔资金。”

拜登为 2025 年 AISI 提供了 5000 万美元的预算,但唐纳德·特朗普却威胁要废除拜登的人工智能安全计划上任后。

AISI 可能永远不会获得足够的资金来检测和阻止所有人工智能危害,但由于其未来不明朗,即使是美国计划的有限安全测试也可能在人工智能行业继续全速前进时陷入停滞。

这可能在很大程度上让公众受到人工智能公司内部安全测试的摆布。由于大公司的前沿模型可能仍处于社会的显微镜下,OpenAI 已经答应的增加安全测试投资,帮助建立行业领先的安全标准。

据 OpenAI 称,这项工作包括让模型随着时间的推移变得更加安全,即使越狱也不易产生有害输出。但 OpenAI 在该领域还有很多工作要做,汉森告诉 Ars,他为 OpenAI 最受欢迎的版本 ChatGPT 提供了“标准越狱”,“几乎总是有效”产生有害输出。

AISI 没有回应 Ars 的置评请求。

纽约时报 - 尚未完成 - 检查 OpenAI 模型

对于公众来说,当人工智能的行为不可预测时,他们经常成为小白鼠,风险仍然存在,因为《纽约时报》的案例表明,与人工智能公司作斗争的成本可能会上升,而技术问题可能会推迟解决方案。上周,一个OpenAI 备案显示《纽约时报》试图在“非常非常严格控制的环境”中检查预训练数据,就像推荐的模型检查环境一样,据称不断受到干扰。

描述《纽约时报》立场的法庭文件称,“这一过程并不顺利,他们的审查遇到了各种障碍和障碍。”“这些严重且反复出现的技术问题使得我们无法有效且高效地搜索 OpenAI 的训练数据集,从而确定 OpenAI 侵权的全部范围。仅在检查的第一周,原告就经历了近乎检查环境受到数十次干扰,导致新闻原告在许多小时内无法访问训练数据集,也无法运行连续搜索。”

OpenAI 还被指控拒绝安装当事人所需的软件并随机关闭正在进行的搜索。经过 27 天多的检查数据但“进展缓慢”后,《纽约时报》感到沮丧,不断敦促法院命令 OpenAI 提供数据。对此,OpenAI 表示,原告的担忧要么已“解决”,要么讨论仍在“继续”,这表明法院无需干预。

迄今为止,《纽约时报》声称已在 ChatGPT 预训练数据中发现了数百万原告的作品,但由于技术困难,无法确认涉嫌侵权的全部范围。与此同时,各个方面的成本都在不断增加。

“虽然新闻原告继续承担检查训练数据集的负担和费用,但如果 OpenAI 承认他们在所有或绝大多数新闻原告上训练了他们的模型,那么他们对检查环境的要求将大大减少。受版权保护的内容,”法庭文件称。

Photo of Ashley Belanger

Ashley 是 Ars Technica 的高级政策记者,致力于追踪新兴政策和新技术的社会影响。她是一位拥有 20 年经验的芝加哥记者。

关于《OpenAI 在法庭上被指控试图通过人工智能模型检查获利》的评论


暂无评论

发表评论

摘要

《纽约时报》(NYT)与 OpenAI 之间关于侵犯版权的法律战凸显了让强大的人工智能公司承担责任的重大挑战。以下是该情况的主要要点:1. **代价高昂的法律斗争**:《纽约时报》在检查 OpenAI 的训练数据时面临着巨大的成本和技术障碍,这表明较小的实体可能由于资源差异而难以挑战大型科技公司。2. **自愿测试的局限性**:虽然美国已经通过人工智能安全研究所(AISI)等组织建立了自愿安全测试,但这些努力资金不足、资源不足,可能无法充分缓解先进人工智能模型带来的风险。3. **内部测试依赖**:由于外部监督有限,公众可能会更加依赖人工智能公司的内部安全措施,而这些措施可能不一致或不充分。OpenAI 增强安全标准的承诺需要严格审查。4. **技术障碍**:检查过程遇到了来自 OpenAI 的众多技术问题和障碍,延迟了解决方案并增加了《纽约时报》等原告的成本。5. **缺乏透明度**:人工智能公司的数据使用和模型训练流程通常不透明,这使得法律挑战和监督工作变得复杂化。6. **监管不确定性**:美国人工智能监管的未来,特别是在不同政府上任后可能发生的变化下,会给问责措施带来进一步的不确定性和不稳定性。7. **公共风险持续**:由于外部监督有限和监管框架不确定,公众仍然面临不可预测的人工智能行为和先进模型的意外后果的风险。这些问题强调需要更强大、透明和资金充足的监管方法,以确保负责任地开发和部署人工智能技术。