作者:Pieter Arntz
数百万人正在将普通照片转换成裸照,这个过程只需要几分钟。
《连线》杂志的记者在 Telegram 上发现了至少 50 个声称能够仅通过几次点击就生成人物的露骨照片或视频的“nudify”机器人。这些机器人的月活跃用户总数达到数百万。虽然无法确切知道有多少独立用户,但这一数量令人震惊,并且很可能实际人数要多得多。
非共谋亲密图像(NCII)滥用的历史——即未经同意使用露骨的深度伪造技术所引发的问题,通常被称为这种行为的起点是在2017年末。Motherboard(现为Vice)找到一段在线视频中,盖尔·加朵的脸被叠加到一个现有的色情视频上,使其看起来这位女演员参与了视频中的行为。声称对此视频负责的人的用户名导致了一个名为“深度伪造”的名称出现。
从那以后,深度伪造技术经历了许多发展。最初是从脸部置换开始的,用户将一个人的脸放到另一个人的身体上。如今,随着人工智能的进步,更加复杂的制作方法如生成对抗网络(GANs)可供公众使用。
然而,大多数被发现的机器人并没有使用这种高级技术。Telegram上的某些机器人仅限于从现有照片中移除衣物,这对受害者来说是一种极其令人不安的行为。
这些机器人已经成为了一笔丰厚的收入来源。使用这样的Telegram机器人通常需要一定数量的“代币”来创建图像。当然,网络犯罪分子也发现了在这个新兴市场中的机会,并运营着非功能性或生成低质量图片的机器人。
除了令人不安之外,使用AI生成色情内容是昂贵的,并且没有隐私保障(正如我们前几天看到的那样当)AI女友服务被入侵),甚至最终可能会得到感染恶意软件.
制作和分发未经同意的露骨深度伪造内容引发了一系列关于同意、隐私以及物化女性的严重伦理问题,更不用说制造涉及儿童性虐待的内容。意大利科学家发现,未经同意的露骨深度伪造是一种新的性暴力形式,其中受害者的潜在长期心理和情感影响.
为了打击这种性虐待,已经采取了若干项举措:
然而,到目前为止,这些措施对非通用顶级域名市场的发展并未产生显著影响。
我们有时会被问到为什么在社交媒体上发布可以被他人看到的照片会成为一个问题。用于训练AI的收割成果模型。
我们已经看到许多案例,社交媒体和其他平台利用用户内容来训练它们的AI。有些人倾向于对此不以为然,因为他们没有意识到潜在的危害,但让我们解释一下可能存在的问题。
如果你想继续使用社交媒体平台,那是你的选择,但在上传你本人、家人或甚至是完全陌生人的照片时,请考虑上述内容。
我们不仅报告威胁——我们还消除它们
网络安全风险不应仅限于新闻标题。通过以下方式让威胁远离您的设备:今天正在下载Malwarebytes.