The proliferation of artificial intelligence tools have made it easier to create and spread nonconsensual, deepfake sexual images of anyone. But targets of this form of harassment have options.

纽约 美国有线电视新闻网~ 

“我们只要有一个人类形态就可以成为受害者。”律师 Carrie Goldberg 就是这样描述人工智能时代深度伪造色情内容的风险的。

虽然复仇色情 - 或非自愿的 性图像分享的历史几乎与互联网一样悠久,人工智能工具的普及意味着任何人都可能成为这种形式的骚扰目标,即使他们从未拍摄或发送过裸照。人工智能工具现在可以将人脸叠加到裸体上,或者操纵现有照片,使其看起来好像一个人没有穿衣服。

在过去的一年里,人工智能生成的非自愿色情图像的目标包括知名女性,例如泰勒·斯威夫特和众议员亚历山大·奥卡西奥-科尔特斯 (Alexandria Ocasio-Cortez)高中女生

纽约 C.A. 公司的经营者戈德伯格表示,对于发现自己或孩子成为深度伪造色情内容的人来说,这种经历通常是可怕且难以承受的。戈德堡法代表性犯罪和网络骚扰的受害者。“特别是如果他们还年轻,他们不知道如何应对,而互联网又是一个巨大的、巨大的、模糊的地方,”她说。

但戈德伯格在接受 CNN 新技术播客《克莱尔·达菲服务条款》采访时告诉我,这种形式的骚扰的目标可以采取一些措施来保护自己,也可以向地方寻求帮助。服务条款

旨在揭开听众在日常生活中遇到的新兴技术的神秘面纱。(你可以听听与戈德堡的完整对话这里.)

戈德伯格表示,对于人工智能生成的性图像的目标人群,第一步——无论多么违反直觉——应该是对它们进行屏幕截图。

“下意识的反应是尽快将其从互联网上删除,”戈德堡说。“但是,如果您希望能够选择进行刑事举报,则需要证据。”

接下来,他们可以寻找平台喜欢的形式谷歌,快照提供删除露骨图像的请求。非营利组织如停止NCII.org把它拿下来还可以帮助促进在多个平台上一次性删除此类图像,尽管并非所有网站都与该组织合作。

两党参议员小组发出了一封公开信8 月,呼吁包括 X 和 Discord 在内的近十几家科技公司加入这些计划。

解决未经同意的露骨图像和深度伪造的斗争得到了两党罕见的支持。一群青少年和父母曾受到人工智能生成的色情内容影响的人在国会山的一次听证会上作证,共和党参议员特德·克鲁兹 (Ted Cruz) 在听证会上提出了一项法案(得到了民主党参议员艾米·克洛布查尔 (Amy Klobuchar) 和其他人的支持),该法案将使发布此类色情内容成为犯罪行为。图像,并要求社交媒体平台在受害者通知后将其删除。

但目前,受害者只能应对各州法律的拼凑。在一些地方,没有刑法禁止创建或分享成人的明显深度伪造品。(人工智能生成的儿童性图像通常属于儿童性虐待材料法的管辖范围。)

– 我的 积极主动的建议实际上是针对潜在的犯罪者,就像是,不要成为地球上的败类,并试图窃取一个人的形象并利用它来羞辱,”戈德堡说。——受害者无能为力来阻止这种情况发生……在数字社会中,我们永远不可能完全安全,但要避免成为彻头彻尾的混蛋,这取决于彼此。Ø