本文由 Safa Ghnaim 撰写与巴西歌德学院合作和最初发表在DataDetoxKit.org。编辑后的版本由全球之声根据合作协议重新发布。
人工智能 (AI) 工具(尤其是那些生成图像、视频和音频的工具)已作为面向个人的“创意应用程序”和面向企业的“效率工具”进行营销,但很少有此类工具控制它们的实际使用方式以及这些人工创建的视觉效果可能造成的危害的方法。
毫不奇怪,人工智能工具使在线骚扰问题变得更加严重,例如通过创建和共享未经同意的亲密图像 (NCII),这些是私密照片或视频,包括裸体或性暗示或暴露某人真实或人工智能生成的身体的露骨图像,未经许可而分享。
NCII 影响了很多人,不仅仅是您在媒体上听到的名人,而且处理起来并不容易。甚至平台和执法部门努力跟上。
这项技术发展得如此之快,以至于现在只需要一张某人的图像(甚至可能是一张完全健康的照片)就能够使用许多人工智能工具中的一种来创建露骨的色情内容。
虽然某些人工智能工具加剧了骚扰问题,使任何人都可以轻松创建 NCII,但其他人工智能工具也正在被用来解决这个问题。然而,经过训练可以检测人工智能图像的人工智能工具并不完美,识别和删除它们的大部分工作仍然落在内容审核者身上。
2024 年最引起共鸣的案件之一涉及露骨性行为人工智能生成的深度伪造泰勒·斯威夫特的照片。这些图片首先出现在 4chan 上,几分钟之内,就像野火一样在各个社交媒体网站上传播开来。其中一张图片在被删除之前已被观看超过 4700 万次。这些图像可能仍在网上共享,因为没有真正的方法可以将它们从互联网上彻底删除。
但这并不是一个孤立的案例。根据2021 年的一项研究在美国超过 10,000 名调查受访者中,有 41% 的人表示他们亲身经历过某种形式的网络骚扰。在 35 岁以下的受访者中,33% 的女性和 11% 的男性表示,他们特别经历过网络性骚扰。
类似地,一个2023年分析在超过 95,000 个 Deepfake 视频中发现,高达 98% 是 Deepfake 色情内容,其中 99% 的目标人群是女性。其他弱势群体,例如未成年人和 LGBTQ+ 人群,也不成比例地成为网络性骚扰的受害者。
在线平台设置了一些防护栏,可以帮助您锁定您的信息,以免被不法分子看到。虽然这些技巧不会为你建造一座坚不可摧的堡垒,但它们可以让恶霸或那些试图伤害你的人更难接近你。
每个平台都不同,并且具有可供用户访问的设置和选项。例如,您可以采取以下一些措施来加强对 Instagram 和 TikTok 的控制:
但事实是,只需要一个坏人就能造成广泛的伤害。您是否会认为转发 NCII 的人是骚扰者,即使他们最初不是生成这些图像的?以泰勒·斯威夫特为例,只需要几个人就可以创建她的 NCII,但如果没有很多人分享,它就不会像病毒一样传播开来。
那么,您如何成为遭受攻击和骚扰的人的盟友呢?无论您使用哪个社交媒体平台,它都可能具有“举报”功能。在 Instagram 等应用程序上,如果您发现任何看似虐待或骚扰的内容,可以举报特定帖子或整个个人资料或帐户。在 Instagram 上举报是标记有问题的人或您看到或听到的事情的绝佳选择。Instagram 不会与被举报人分享举报人的身份。
当您在 Instagram 上“举报”时,平台可能会删除该帖子,或者可能会警告、停用或禁止该个人资料或帐户,具体取决于发生的情况以及是否违反其社区准则。值得注意的是,Meta 的社区准则是并不总是有帮助,并导致帖子被删除和帐户被封禁最近的争议。
如果您认识目标对象,请在您觉得舒服的情况下轻轻地与他们联系。他们可能不知道发生了这种事,并且可能会表现出强烈的痛苦、愤怒或悲伤。如果您准备好支持他们,您可以向他们提供资源(如本指南末尾链接的资源)并帮助他们监控和记录骚扰行为。
尽管您很可能不想再次看到骚扰事件,但在删除骚扰事件之前将其记录下来可能会有所帮助。考虑对帖子或评论进行视频捕获或屏幕截图,其中包括其他人的帐户名和日期。将文档保存在手机或计算机上安全且看不见的地方。例如,在某些手机上,您可以设置受密码保护的“安全文件夹”。
如果做得好,当目标人决定将问题提交给执法部门并需要某种证据时,记录会很有用。
重要的是,目标对象可以决定他们想要做什么。他们是否想要联系执法部门、聘请律师或联系他们的学校、大学或工作场所?或者他们宁愿尽可能保密?特别是在 NCII 的情况下,他们被剥夺了很多选择,所以一定要支持他们重新掌控局面。
如果您或您认识的人成为 NCII 的目标,请知道有专门的组织随时准备提供帮助。您不必独自应对。以下是一些支持说英语的人:
有关如何处理在线骚扰的更多提示和资源: