我的照片被用于虐待儿童的图片中。人工智能正在让其他人经历我的噩梦|玛拉·威尔逊
作者:Mara Wilson
当我还是个小女孩的时候,没有什么比陌生人更可怕的了。
在 20 世纪 80 年代末和 90 年代初,我们的父母、电视特别节目和老师告诉孩子们,外面有陌生人想要伤害我们。“陌生人危险”无处不在。这是一个善意的教训,但风险被夸大了:大多数虐待和剥削儿童的行为都是儿童认识的人所为。儿童遭受陌生人虐待或剥削的情况要少得多。
比较罕见,但并非不可能。我知道,因为我被陌生人性剥削。
从五岁到十三岁,我是一名童星。虽然最近我们听到了许多关于儿童演员在幕后遭受虐待的恐怖故事,但我在拍摄时总是感到安全。电影片场是受到严格监管的空间,人们希望在那里完成工作。我有支持我的父母,周围都是理解和关心孩子的导演、演员和工作室老师。
演艺事业的唯一出路做了危害我就是让我出现在公众视野中。我作为一名儿童演员所受到的任何残酷和剥削都是由公众造成的。
“好莱坞把你扔进泳池里,”我总是告诉人们,“但公众把你的头埋在水下。”
在我上高中之前,我的图像就已被用于儿童性虐待材料 (CSAM)。我曾出现在恋物癖网站上,并被 Photoshop 处理成色情作品。成年人给我发了令人毛骨悚然的信。我不是一个漂亮的女孩,我的尴尬年龄从 10 岁左右一直持续到 25 岁左右,而且我几乎只出演适合家庭观看的电影。但我是一个公众人物,所以我很容易接近。这就是儿童性侵犯者所寻求的:接触。没有什么比互联网更能让我接触到了。
这些图像“不是我的”,或者这些恋物癖网站“从技术上讲”是合法的,这并不重要。这是一次痛苦的、充满暴力的经历;我希望没有其他孩子会经历一场活生生的噩梦。当我成年后,我担心跟随我的其他孩子。类似的事情也发生在迪士尼明星、《怪奇物语》演员、在 TikTok 上跳舞、在家庭视频博主 YouTube 频道中微笑的孩子们身上吗?我不确定我想知道答案。
几年前,当生成式人工智能开始兴起时,我担心会出现最坏的情况。我听说过“深度造假”的故事,并且知道这项技术正变得越来越现实。
然后它发生了——或者至少,全世界都注意到它发生了。生成式人工智能已经被多次使用未经成年女性同意,创造她们的性感形象。这发生在我的朋友身上。但最近,有报道称 X 的 AI 工具 Grok 已被相当公开地使用,生成未成年演员的裸体图像。几周前,一名女孩因殴打一名涉嫌为她制作深度伪造色情片的同学而被学校开除,据她家人的律师称。她当时 13 岁,与我年龄相仿,当时人们正在为我制作虚假的性感照片。
2024 年 7 月,互联网观察基金会在暗网论坛上发现了 3,500 多张人工智能生成的 CSAM 图像。从那以后的一年半里,又赚了多少数千人?
生成式人工智能重塑了《陌生人危险》。这一次,恐惧是有道理的。现在,任何孩子的脸被发布到互联网上,就更容易受到性剥削。数百万儿童可能被迫经历我同样的噩梦。
为了阻止深度造假灾难的威胁,我们需要研究人工智能是如何训练的。
数学家、前人工智能安全研究员 Patrick LaVictoire 表示,生成式人工智能通过“查看、制作、比较、更新、重复”的重复过程“学习”。它根据记忆的内容创建模型,但它无法记住所有内容,因此它必须寻找模式,并在此基础上做出反应。“有用的联系会得到加强,”拉维多瓦说。“如果情况不太好,或者根本没有帮助,就会被修剪掉。”
生成式人工智能能够创造什么取决于人工智能接受过训练的材料。一个在斯坦福大学学习2023 年的研究表明,最流行的训练数据集之一已包含超过 1,000 个 CSAM 实例。CSAM 的链接此后已从数据集中删除但研究人员强调,另一个威胁是通过将儿童图像与色情图像结合而产生的 CSAM,如果两者都在训练数据中,则这是可能的。
谷歌和开放人工智能声称拥有适当的保护措施来防止 CSAM 的产生:例如,通过谨慎对待他们用于训练人工智能平台的数据。(还值得注意的是,许多成人电影演员和性工作者的图像已被人工智能抓取未经他们同意.)
拉维克托瓦说,生成式人工智能本身无法区分无害和愚蠢的命令(例如“制作绝地武士的图像”)和有害的命令(例如“脱掉这位名人的衣服”)。因此,另一种保护措施采用了一种不同类型的人工智能,其作用类似于垃圾邮件过滤器,可以阻止这些查询得到答复。运行 Grok 的 xAI 似乎对这个过滤器很粗心。
最糟糕的情况可能还没有到来:元和其他公司提出未来的人工智能模型应该开源。“开源”意味着任何人都可以访问其背后的代码,下载并根据需要进行编辑。开源软件通常的美妙之处——它给予用户创造新事物的自由,将创造力和协作置于利润之上——可能对儿童的安全来说是一场灾难。
一旦有人下载了开源人工智能平台并将其变成自己的,就没有任何保障措施,没有人工智能机器人会说它无法帮助满足他们的请求。任何人都可以使用露骨或非法图像“微调”自己的个人图像生成器,并制作自己的无限 CSAM 和“复仇色情”生成器。
元好像有不再将其新的人工智能平台开源。也许马克·扎克伯格还记得他想像罗马皇帝奥古斯都一样,如果他继续沿着这条路走下去,他可能会被更多人铭记为 CSAM 的奥本海默。
一些国家已经开始对此进行打击。中国最早颁布要求人工智能内容贴上此类标签的法律。丹麦正在制定立法,赋予公民对其外表和声音的版权,并对不尊重这一点的人工智能平台处以罚款。在欧洲其他地区,在英国,人物图像可能受到通用数据保护条例 (GDPR) 的保护。
美国的前景似乎更加黯淡。版权声明不会有任何帮助,因为当用户将图像上传到平台时,他们可以按照自己认为合适的方式使用它;几乎所有服务条款协议中都包含这一点。与反对生成人工智能监管的行政命令以及 xAI 等公司与美军签订合同美国政府已经表明,利用人工智能赚钱远比保障公民安全重要。
那里有纽约市诉讼律师阿基瓦·科恩 (Akiva Cohen) 表示,最近的一些立法使许多数字操纵犯罪成为犯罪。– 但是,其中许多法规可能在以下方面过于严格:什么正是它们所涵盖的。 –
例如,虽然对某人进行深度伪造,使他们看起来裸体或从事性行为可能会成为刑事指控的理由,但使用人工智能将女性(甚至可能是未成年女孩)穿上比基尼可能不会。
“其中很多都非常有意识地停留在“可怕但合法”的一边,”科恩说。
也许这不是刑事犯罪,也就是说,这是针对国家的犯罪,但科恩认为这可能是民事责任,是对他人权利的侵犯,受害者需要赔偿。他建议这属于 –假光,侵犯隐私——侵权行为,一种民事错误,其中对某人提出冒犯性的主张,以错误的方式展示他们,“以某种方式描述某人,表明他们做了他们没有做过的事情”。
– 真正能够阻止此类行为的方法是让相关人员承担责任公司”科恩说。
这方面有法律先例:提高法案在纽约,以及参议院法案 53在加利福尼亚州,人工智能公司可以对他们在一定程度上造成的伤害负责。X 与此同时,现在将阻止 Grok在平台上制作真人的性感图像。但它看来政策有变化不适用于独立的 Grok 应用程序。
但纽约前执业律师、前儿童演员乔什·萨维亚诺认为,除了立法之外,还需要采取更立即的行动。
“游说努力和我们的法院最终将成为处理此事的方式,”萨维亚诺说。但在此之前,有两种选择:完全放弃,这意味着将您的整个数字足迹从互联网上删除……或者您需要找到技术解决方案。—
确保年轻人的安全对萨维亚诺来说至关重要,他认识一些深造过年轻人的人,并且 – 作为一名前儿童演员 – 对失去控制有一点了解一个人自己的叙述。萨维亚诺和他的团队一直在开发一种工具,可以在人们的图像或创意作品被抓取时检测并通知他们。他说,该团队的座右铭是:“保护婴儿。”
不管它如何发生,我相信,防范这种威胁需要公众付出很大的努力。
许多人开始对人工智能聊天机器人产生兴趣,但对大多数人来说,科技公司只不过是公用事业公司。出于个人或政治原因,我们可能更喜欢一款应用程序而不是另一款应用程序,但很少有人对科技品牌有强烈的忠诚度。科技公司,尤其是像 Meta 和这样的社交媒体平台X,最好记住它们是达到目的的手段。如果像我这样十多年来每天都在推特上的人可以戒掉它,那么任何人都可以。
但抵制还不够。我们需要要求那些允许创建 CSAM 的公司承担责任。我们需要要求立法和技术保障。我们还需要审视自己的行为:没有人愿意认为,如果他们分享孩子的照片,这些照片最终可能会出现在 CSAM 中。但这是一种风险,父母需要保护年幼的孩子免受这种风险,并警告年长的孩子。
如果说我们对《陌生人危险》的痴迷表明了什么的话,那就是我们大多数人都希望防止儿童受到危害和骚扰。是时候证明这一点了。
-
玛拉·威尔逊 (Mara Wilson) 是一位居住在洛杉矶的作家兼演员