英语轻松读发新版了,欢迎下载、更新

人工智能如何成为骚扰武器

2024-12-26 05:38:00 英文原文

插图由 Tactical Tech 绘制,视觉元素来自 Yiorgos Bagakis 和 Alessandro Cripsta。

本文由 Safa Ghnaim 撰写与巴西歌德学院合作最初发表DataDetoxKit.org。编辑后的版本由全球之声根据合作协议重新发布。 

人工智能 (AI) 工具(尤其是那些生成图像、视频和音频的工具)已作为面向个人的“创意应用程序”和面向企业的“效率工具”进行营销,但很少有此类工具控制它们的实际使用方式以及这些人工创建的视觉效果可能造成的危害的方法。

毫不奇怪,人工智能工具使在线骚扰问题变得更加严重,例如通过创建和共享未经同意的亲密图像 (NCII),这些是私密照片或视频,包括裸体或性暗示或暴露某人真实或人工智能生成的身体的露骨图像,未经许可而分享。

NCII 影响了很多人,不仅仅是您在媒体上听到的名人,而且处理起来并不容易。甚至平台和执法部门努力跟上

问题比你想象的要大

这项技术发展得如此之快,以至于现在只需要一张某人的图像(甚至可能是一张完全健康的照片)就能够使用许多人工智能工具中的一种来创建露骨的色情内容。

虽然某些人工智能工具加剧了骚扰问题,使任何人都可以轻松创建 NCII,但其他人工智能工具也正在被用来解决这个问题。然而,经过训练可以检测人工智能图像的人工智能工具并不完美,识别和删除它们的大部分工作仍然落在内容审核者身上。

2024 年最引起共鸣的案件之一涉及露骨性行为人工智能生成的深度伪造泰勒·斯威夫特的照片。这些图片首先出现在 4chan 上,几分钟之内,就像野火一样在各个社交媒体网站上传播开来。其中一张图片在被删除之前已被观看超过 4700 万次。这些图像可能仍在网上共享,因为没有真正的方法可以将它们从互联网上彻底删除。

但这并不是一个孤立的案例。根据2021 年的一项研究在美国超过 10,000 名调查受访者中,有 41% 的人表示他们亲身经历过某种形式的网络骚扰。在 35 岁以下的受访者中,33% 的女性和 11% 的男性表示,他们特别经历过网络性骚扰。

类似地,一个2023年分析在超过 95,000 个 Deepfake 视频中发现,高达 98% 是 Deepfake 色情内容,其中 99% 的目标人群是女性。其他弱势群体,例如未成年人和 LGBTQ+ 人群,也不成比例地成为网络性骚扰的受害者。

您可以采取哪些措施来保护自己免受此类骚扰?

在线平台设置了一些防护栏,可以帮助您锁定您的信息,以免被不法分子看到。虽然这些技巧不会为你建造一座坚不可摧的堡垒,但它们可以让恶霸或那些试图伤害你的人更难接近你。

每个平台都不同,并且具有可供用户访问的设置和选项。例如,您可以采取以下一些措施来加强对 Instagram 和 TikTok 的控制:

  • 将您的个人资料设置为“私人”。在 Instagram 和 TikTok 等平台上,您可以将个人资料设置为私人,这样在大多数情况下只有您批准为关注者的人才能看到您分享的内容。但是,他们仍然可以看到您对其他人的帖子发表的评论,甚至仍然可以向您发送消息。了解将您的个人资料设置为私密Instagram和抖音。删除关注者或阻止人员。如果有人让您为难或让您感到不安,您可以将他们作为关注者删除或完全阻止他们。但如果您在现实生活中认识这个人,您就需要不同的策略。了解如何阻止其他人
  • Instagram抖音需要一个村庄

看看有多少人成为网络骚扰的目标,我们可以合理地假设也有很多骚扰者。

但事实是,只需要一个坏人就能造成广泛的伤害。您是否会认为转发 NCII 的人是骚扰者,即使他们最初不是生成这些图像的?以泰勒·斯威夫特为例,只需要几个人就可以创建她的 NCII,但如果没有很多人分享,它就不会像病毒一样传播开来。

那么,您如何成为遭受攻击和骚扰的人的盟友呢?无论您使用哪个社交媒体平台,它都可能具有“举报”功能。在 Instagram 等应用程序上,如果您发现任何看似虐待或骚扰的内容,可以举报特定帖子或整个个人资料或帐户。在 Instagram 上举报是标记有问题的人或您看到或听到的事情的绝佳选择。Instagram 不会与被举报人分享举报人的身份。

当您在 Instagram 上“举报”时,平台可能会删除该帖子,或者可能会警告、停用或禁止该个人资料或帐户,具体取决于发生的情况以及是否违反其社区准则。值得注意的是,Meta 的社区准则是并不总是有帮助,并导致帖子被删除和帐户被封禁最近的争议

如果您认识目标对象,请在您觉得舒服的情况下轻轻地与他们联系。他们可能不知道发生了这种事,并且可能会表现出强烈的痛苦、愤怒或悲伤。如果您准备好支持他们,您可以向他们提供资源(如本指南末尾链接的资源)并帮助他们监控和记录骚扰行为。

尽管您很可能不想再次看到骚扰事件,但在删除骚扰事件之前将其记录下来可能会有所帮助。考虑对帖子或评论进行视频捕获或屏幕截图,其中包括其他人的帐户名和日期。将文档保存在手机或计算机上安全且看不见的地方。例如,在某些手机上,您可以设置受密码保护的“安全文件夹”。

如果做得好,当目标人决定将问题提交给执法部门并需要某种证据时,记录会很有用。

重要的是,目标对象可以决定他们想要做什么。他们是否想要联系执法部门、聘请律师或联系他们的学校、大学或工作场所?或者他们宁愿尽可能保密?特别是在 NCII 的情况下,他们被剥夺了很多选择,所以一定要支持他们重新掌控局面。

知道去哪里寻求帮助

如果您或您认识的人成为 NCII 的目标,请知道有专门的组织随时准备提供帮助。您不必独自应对。以下是一些支持说英语的人:

  • 查恩(全球):Chayn 为性别暴力幸存者提供资源和支持。
  • 停止NCII(全球):StopNCII 拥有丰富的资源以及一个工具这可以帮助您删除未经同意的亲密照片。
  • 收回技术(全球):收回技术提供解释和资源,例如嘿朋友,提供有关当朋友成为骚扰目标时如何支持他们的建议。
  • 雷恩的全国性侵犯热线(美国):RAINN 提供私人热线,您可以在线聊天或致电接受过危机培训的工作人员。
  • 把它拿下来(美国):Take It Down 可帮助您逐步提交 NCII 删除请求。
  • 网络民权倡议 (CCRI)(美国):CCRI 包括 逐步指导和美国律师和法律的名单。他们有一份名单国际资源, 也。
  • 复仇色情帮助热线(英国):复仇色情帮助热线为遭受攻击的成年人提供建议。
  • Umi 聊天机器人(澳大利亚):Umi 聊天机器人是获取有关如何处理 NCII 信息的快速方法。该网站还有资源关于收集证据和报告。

有关如何处理在线骚扰的更多提示和资源:

关于《人工智能如何成为骚扰武器》的评论


暂无评论

发表评论

摘要

人工智能工具,尤其是那些生成图像、视频和音频的工具,通过创建和共享未经同意的亲密图像 (NCII) 加剧了在线骚扰等问题。这些人工智能生成的视觉效果对个人(包括名人和边缘群体)造成了重大伤害。尽管平台努力解决这个问题,但人们越来越需要更好的检测工具和有关隐私设置的用户教育。步骤包括将个人资料设置为私有、删除不需要的关注者以及通过平台机制报告滥用行为。如果以后采取法律行动,骚扰的记录可能至关重要。Chayn 和 StopNCII 等组织提供资源来帮助受害者应对 NCII。