监管机构表示,人工智能生成的儿童性虐待图像已达到“临界点”

2024-10-18 05:00:00 英文原文

作者:Dan Milmo

儿童性虐待图像由人工智能工具生成,在开放网络上变得越来越普遍,并已达到“临界点”,一项安全监管机构表示。

无 내용 제공되지 않았습니다. 原文输出如下:The互联网观察基金会表示在过去六个月内在线上看到的人工智能生成的非法内容已经超过前一年的总量。

该组织运营着一条英国热线,但也具有全球性的使命,它表示几乎所有的内容都出现在互联网上可以公开访问的区域,而不是暗网,后者需要通过专门的浏览器才能访问。

国际网联临时首席执行官德里克·雷-希尔表示,这些图片的复杂程度表明,所使用的AI工具是通过真实受害者的图像和视频进行训练的。“最近几个月的情况表明,这个问题不会消失,实际上正在变得越来越严重。”他说道。

根据IWF的一名分析师的说法,与AI生成的内容有关的情况已经达到了一个“临界点”,安全监督机构和当局无法判断一张图片是否涉及需要帮助的真实儿童。

在截至今年9月的六个月内,IWF针对74份关于AI生成的儿童性虐待材料(CSAM)的报告采取了行动——这些内容逼真到足以违反英国法律。相比之下,在截至去年3月的一年中,这一数字为70。一份单独的报告可能涉及包含多个图像的网页。

除了包含现实生活中的虐待受害者的人工智能生成图像外,IWF看到的材料还包括“深度伪造”的视频,在这些视频中,成人色情内容被篡改以看起来像是儿童性虐待材料(CSAM)。在之前的报告国际网路联合会(IWF)表示,AI被用于创建描绘名人“返年轻”的图像,然后将这些名人在性虐待场景中描绘为儿童。其他发现的非法儿童性剥削材料还包括使用AI工具对网上找到的衣服儿童照片进行“裸化”处理的材料。

在过去六个月里,IWF标记的AI生成的内容中,超过一半存储在美国和俄罗斯的服务器上,日本和荷兰也托管了大量的此类内容。包含这些图像的网页地址会被上传到IWF的URL列表中,并与科技行业共享,以便将这些页面屏蔽并使其无法访问。

国际奥委会表示,十份关于非法AI生成图片的报告中有八份来自公众人士,他们在论坛或AI画廊等公共网站上发现了这些图片。 注意:这里的“国际奥委会”可能是指“IWF”,但IWF通常指的是互联网_WATCH基金会(Internet Watch Foundation),而不是国际奥委会(International Olympic Committee)。如果需要准确翻译,请确认“IWF”的具体指代。根据上下文,这里应翻译为“互联网_WATCH基金会”。所以更正后的翻译如下: 互联网_WATCH基金会表示,十份关于非法AI生成图片的报告中有八份来自公众人士,他们在论坛或AI画廊等公共网站上发现了这些图片。

与此同时,Instagram宣布了新的措施以应对敲诈勒索(色情敲诈)用户被诱骗向自称年轻女性的犯罪分子发送私密照片,随后遭到敲诈威胁。

跳过过去期新闻通讯推广

平台将推出一个功能该功能会模糊用户通过直接消息收到的任何裸体图片,并敦促他们谨慎发送包含裸体图片的直接消息(DM)。一旦收到模糊的图片,用户可以选择是否查看它,同时还会收到一条提醒信息,告知他们可以阻止发件人并将聊天报告给Instagram。

该功能将从本周开始在全球范围内默认为青少年账户开启,并可用于加密消息,尽管通过“设备端检测”功能标记的图片不会自动通知平台自身或当局。

这将是一个供成人选择使用的功能。Instagram也将隐藏关注者和关注列表,以防被已知威胁发送亲密照片的敲诈勒索者发现。

关于《监管机构表示,人工智能生成的儿童性虐待图像已达到“临界点”》
暂无评论

摘要

由人工智能工具生成的儿童性虐待图像在开放网络上变得越来越普遍,并且已经达到“临界点”,据一个安全监督机构称。除了展示真实受害者的AI图像之外,IWF(互联网_WATCH基金会)看到的材料还包括将成人色情内容操纵成类似CSAM(儿童性虐待材料)的“深度伪造”视频。过去六个月里,由IWF标记的人工智能生成的内容中,超过一半托管在美国和俄罗斯的服务器上,日本和荷兰也托管了大量的此类内容。包含这些图像的网页地址被上传到IWF的URL列表中,并与科技行业共享以封锁并使它们无法访问。与此同时,Instagram宣布了新的措施来应对敲诈勒索(即用户被骗发送亲密照片给犯罪分子,通常假扮成年轻女性,然后受到勒索威胁)。该平台将推出一项新功能,在直接消息中模糊任何裸体图像,并敦促用户对包含裸体图像的直接消息(DM)保持谨慎。