英语轻松读发新版了,欢迎下载、更新

将非法培训的法学硕士纳入公共领域作为惩罚

2024-12-22 16:22:00 英文原文

观点去年,我在这里写了一篇文章埃尔雷格关于被 ChatGPT 谋杀的事件,作为滥用大型语言模型和其他形式人工智能的潜在危害的例证。

从那时起,我在全球各地的活动中就人工智能的道德发展和使用发表了演讲,同时仍在等待 OpenAI 对我的回应法律要求我所指控的 GPT 模型训练过程中非法处理我的个人数据。

在我的较早的文章,还有我的停止函我向 OpenAI 表示,此类模型应该被删除。

从本质上讲,无论正确还是错误,全球科技公司都已经决定了法律可以忽略在他们追求财富和权力的过程中。

家喻户晓的名字和初创公司已经并且仍然在利用互联网和媒体来训练他们的模型,通常是不付费的,但他们辩称自己没有做错任何事。毫不奇怪,其中一些人被指控违反版权规则,还违反网络安全、隐私和数据保护规则,因此被罚款或庭外和解。大型科技公司已对其提起私人诉讼和监管机构审查,并可能制定新的法律来填补监管空白。

但对于他们来说,这只是商业成本。

另一条前进的道路

有一个原则在法律界,至少在美国,它被称为“毒树之果”,简单地说,如果证据是非法获得的,则不予采信。该证据不能被用来获得优势。类似的思路也适用于人工智能系统。非法建立的法学硕士也许应该被删除。

机器学习公司正在从有毒的树上收获果实,大口吃掉这些果实,从中获取脂肪,然后用它们的种子种植更多的有毒树。

经过仔细考虑我之间的时间上一篇在这里埃尔雷格然而现在,我对于删除这些水果却有了不同的看法。不是因为我认为自己错了,而是出于对潜在环境影响的道德和伦理考虑。

研究人员上升瑞典国有研究机构称,OpenAI 的 GPT-4 使用 13 万亿代币、使用 25,000 个 NVidia A100 GPU 进行了 1.7 万亿个参数的训练,耗资 1 亿美元,耗时 100 天,使用的能源高达 50GWh。这是很大的能量;这大约相当于 4,500 个家庭同期的用电量。

RICE 表示,从碳排放的角度来看,此类培训(如果在瑞典北部更环保的数据中心进行培训)相当于驾驶普通内燃机汽车绕地球 300 圈;如果在其他地方(例如德国)接受培训,这种影响会增加 30 倍。这只是法学硕士的一个版本。

鉴于这些信息,我被迫调和如果根据“毒树之果”原则删除这些模型对环境的伦理影响,而且这不是可以调和的事情,因为环境成本太大了,在我看来。

那么,我们能做些什么来确保那些为了商业利益(在训练人工智能模型的情况下)而在网络上搜集信息的人不会从这些有争议的活动中获利,也不会获得经济优势呢?此外,如果由于上述考虑,返还(通过删除)不可行,我们如何激励公司在开发产品和服务时尊重人们的隐私和创造性工作并遵守法律?

毕竟,如果没有产生有意义的后果——如前所述,今天的罚款对于这些比一些国家拥有更多财富的公司来说只是细项,因此作为威慑无效——我们将继续看到这种行为重复出现无限期这只是维持现状,是对法治的嘲弄。

引起他们的注意

在我看来,唯一明显的解决方案是将这些模型从高管的控制中移除,并将其置于公共领域。鉴于他们接受过我们数据的培训,因此数据应该成为公共资源是有道理的——这样我们所有人都可以从我们的数据处理中受益,而公司,特别是那些被发现违反法律的公司,看不到任何好处。平衡得到恢复,我们对那些试图忽视对社会义务的人产生了有意义的威慑。

根据这一解决方案,OpenAI如果被发现违法,将被迫将其GPT模型置于公共领域,甚至禁止销售与这些模型相关的任何服务。这将给 OpenAI 及其支持者带来巨大的成本,他们已经花费了数十亿美元来开发这些模型和相关服务。他们将面临无法通过收入收回这些成本的更高风险,这反过来又迫使他们对其法律义务进行更多尽职调查。

如果我们随后将这种模式扩展到将用户数据出售给 OpenAI 等公司的在线平台(这些公司被禁止提供此类访问权限,并面临没收威胁),那么他们在移交个人数据和知识产权之前也会三思而后行。

如果我们消除组织从非法行为中获利的能力,同时也认识到销毁有毒水果的道德问题,那么我们最终可能会发现自己处于这样一种境地:拥有巨大权力的公司被迫仅仅作为一个问题来遵守其法律义务。经济学的。

拥有巨大权力的公司被迫遵守其法律义务仅仅是出于经济考虑

当然,这样的立场并非没有挑战。一些企业试图通过辩称自己在司法管辖区没有合法存在来逃避罚款和其他处罚。我们很可能会看到这种情况发生在所提出的方法中。

为此,我们需要主权国家之间进行全球合作以有效执行法律,这可以通过类似于当今存在的司法协助条约(MLAT)的条约来实现。

至于现行法律是否有权作出此类处罚,这是值得商榷的。例如,尽管欧洲的 GDPR 赋予数据保护机构禁止处理个人数据的一般权力(根据第 58(2)(f) 条),但它没有明确规定强制控制者将数据放入公共领域的权力。因此,任何此类努力都将受到挑战,而此类挑战需要多年才能通过法院解决,从而使现状得以维持。

然而,欧盟委员会的新大棒是《数字市场法案》(DMA),其中包含允许委员会扩大 DMA 范围的条款。但这仅适用于 DMA 管辖范围内的公司,目前仅限于 Alphabet、亚马逊、苹果、Booking、字节跳动、Meta 和微软。

我们不能允许大型科技公司继续忽视我们的基本人权

我们不能允许大型科技公司继续忽视我们的基本人权。如果 25 年前就在隐私和数据保护方面采取了这种做法,可以说我们就不会出现今天的情况,即一些平台经常忽视其法律义务,损害社会利益。

25 年前,立法者并不了解法律薄弱或执法薄弱的影响,但我们现在有足够的事后认识,以确保我们今后不会犯同样的错误。现在是规范非法人工智能训练的时候了,我们必须从过去的错误中吸取教训,确保对未来这种普遍存在的违法行为提供有效的威慑和后果。

因此,我将在布鲁塞尔投入大量游说时间,推动这一做法,希望能够修改或通过新的立法来授予此类权力,因为很明显,如果没有适当的处罚来起到威慑作用,这些公司如果非法商业行为的利润远远超过其后果,则不会自我监管或遵守其法律义务。®

亚历山大·汉夫是一位计算机科学家和领先的隐私技术专家,帮助制定了欧洲的 GDPR 和电子隐私规则。

关于《将非法培训的法学硕士纳入公共领域作为惩罚》的评论


暂无评论

发表评论

摘要

去年,El Reg 上的一篇评论文章强调了 ChatGPT 等大型语言模型的潜在危害,主张因滥用个人数据而删除这些模型。此后,作者讨论了人工智能的道德发展,但等待 OpenAI 对法律要求的回应。该文章批评科技公司为了追求利润而无视法律,并概述了训练大型语言模型(LLM)对环境的影响。考虑到这些因素,作者现在建议将法学硕士转移到公共领域,而不是删除它们,以防止从非法活动中牟取暴利,同时通过经济后果强制合规。该提案面临挑战,但可以通过国际合作和欧盟数字市场法案下的新立法来实施。文章最后呼吁加强监管以保护人权,强调需要有效威慑非法人工智能培训行为。