"Nudify"深度伪造机器人可在几分钟内去除受害者的衣物,数百万人正在使用它们 | Malwarebytes

2024-10-16 13:17:36 英文原文

作者:Pieter Arntz

数百万人正在将普通照片转换成裸照,这个过程只需要几分钟。

《连线》杂志的记者在 Telegram 上发现了至少 50 个声称能够仅通过几次点击就生成人物的露骨照片或视频的“nudify”机器人。这些机器人的月活跃用户总数达到数百万。虽然无法确切知道有多少独立用户,但这一数量令人震惊,并且很可能实际人数要多得多。

非共谋亲密图像(NCII)滥用的历史——即未经同意使用露骨的深度伪造技术所引发的问题,通常被称为这种行为的起点是在2017年末。Motherboard(现为Vice)找到一段在线视频中,盖尔·加朵的脸被叠加到一个现有的色情视频上,使其看起来这位女演员参与了视频中的行为。声称对此视频负责的人的用户名导致了一个名为“深度伪造”的名称出现。

从那以后,深度伪造技术经历了许多发展。最初是从脸部置换开始的,用户将一个人的脸放到另一个人的身体上。如今,随着人工智能的进步,更加复杂的制作方法如生成对抗网络(GANs)可供公众使用。

然而,大多数被发现的机器人并没有使用这种高级技术。Telegram上的某些机器人仅限于从现有照片中移除衣物,这对受害者来说是一种极其令人不安的行为。

这些机器人已经成为了一笔丰厚的收入来源。使用这样的Telegram机器人通常需要一定数量的“代币”来创建图像。当然,网络犯罪分子也发现了在这个新兴市场中的机会,并运营着非功能性或生成低质量图片的机器人。

除了令人不安之外,使用AI生成色情内容是昂贵的,并且没有隐私保障(正如我们前几天看到的那样当)AI女友服务被入侵),甚至最终可能会得到感染恶意软件.

制作和分发未经同意的露骨深度伪造内容引发了一系列关于同意、隐私以及物化女性的严重伦理问题,更不用说制造涉及儿童性虐待的内容。意大利科学家发现,未经同意的露骨深度伪造是一种新的性暴力形式,其中受害者的潜在长期心理和情感影响.

为了打击这种性虐待,已经采取了若干项举措:

  • 美国提出了名为的立法议案形式的法案深度伪造责任法案结合近期的Telegram政策变更在怀疑用户涉嫌犯罪的情况下,将用户详情移交给执法部门,这可能会减慢机器人在Telegram上的使用速度。
  • 一些平台政策(例如谷歌禁止在搜索结果中出现未经同意生成的色情视频)。

然而,到目前为止,这些措施对非通用顶级域名市场的发展并未产生显著影响。

保护您的孩子安全

我们有时会被问到为什么在社交媒体上发布可以被他人看到的照片会成为一个问题。用于训练AI的收割成果模型。

我们已经看到许多案例,社交媒体和其他平台利用用户内容来训练它们的AI。有些人倾向于对此不以为然,因为他们没有意识到潜在的危害,但让我们解释一下可能存在的问题。

  • 深度伪造技术:AI生成的内容,如深度伪造,可以被用来传播虚假信息,损害你的声誉或隐私,或者欺诈人们你知道。
  • 元数据用户经常忘记他们上传到社交媒体的照片也包含元数据,例如照片的拍摄地点。这些信息可能会被出售给第三方或以摄影师未预期的方式使用。
  • 知识产权。永远不要上传你没有创作或拥有的任何东西。艺术家和摄影师可能会觉得他们的作品在没有适当补偿或归属的情况下被利用了。
  • 偏见:基于有偏见的数据集训练的AI模型可能会延续和放大社会偏见。
  • 面部识别:尽管面部识别不是热门话题它曾经是那样的,现在仍然存在。你发布的图片(无论是否真实)所引发的行为或声明可能与你的个人形象相关联。
  • 记忆:一旦图片在网上发布,几乎不可能完全将其删除。它可能仍然存在于缓存、备份和快照中。

如果你想继续使用社交媒体平台,那是你的选择,但在上传你本人、家人或甚至是完全陌生人的照片时,请考虑上述内容。


我们不仅报告威胁——我们还消除它们

网络安全风险不应仅限于新闻标题。通过以下方式让威胁远离您的设备:今天正在下载Malwarebytes.

关于《"Nudify"深度伪造机器人可在几分钟内去除受害者的衣物,数百万人正在使用它们 | Malwarebytes》的评论


暂无评论

发表评论

摘要

数百万人正在将普通照片变成裸照,这一过程仅需几分钟。结合最近Telegram政策的变化,在用户涉嫌犯罪的情况下向执法部门提供用户信息,这可能会减缓此类机器人在Telegram上的使用速度,至少暂时如此。请保护您的孩子安全。 我们有时被问到为什么在社交媒体上发布可以用来训练AI模型的照片是一个问题。深度伪造:如深度伪造等由AI生成的内容可能被用于传播虚假信息、损害您的声誉或隐私,或者诈骗您认识的人。如果您想继续使用社交媒体平台,请自行决定,但在上传您自己、亲人甚至是完全陌生人的照片时请考虑上述风险。