美国政府宣布人工智能行业承诺减少基于图像的性虐待。
这项自愿承诺涵盖人工智能模型开发人员和数据提供商,科技公司承诺:打击未经同意的亲密图像和儿童性虐待材料。
根据白宫的说法,该行为准则建立在行业去年做出的承诺的基础上,旨在采取行动降低人工智能的风险,通过确保安全、保障和信任。
在新的承诺中,人工智能公司将通过人工智能生成的图像来减少性虐待。
根据协议,Adobe、Anthropic、Cohere、CommonCrawl、微软和 OpenAI 将致力于负责任地采购数据集,并保护它们免受基于图像的性虐待。
这些公司将改进其开发流程,并添加反馈循环,以防止人工智能模型造成性虐待图像。他们还承诺在适当的情况下从人工智能训练模型中删除裸体图像。
基于图像的性虐待,包括成人的未经同意的亲密图像 (NCII) 和儿童性虐待材料 (CSAM),包括人工智能白宫在宣布这些承诺时表示,生成的图像数量猛增。这种滥用行为对个人安全和福祉产生了深远的影响。
这些承诺是技术和人工智能行业为减少人工智能滥用图像的威胁而采取的多项举措之一。
了解更多关于白宫安全人工智能举措:拜登发布关于安全、可靠人工智能的行政命令
其中包括 Cash App 和 Square 采取的举措,以限制向宣传基于图像的性虐待的公司付款,并扩大对以下举措的参与:帮助检测性勒索。
Google 正在更新其平台(包括搜索引擎),以打击未经同意的亲密图像 (NCII),而微软则致力于解决 Bing 上的 NCII 问题,并为受害者提供路标资源。
Meta、Snap 和 Github 也对 NCII 和可以共享它们的工具(包括 AI 内容)采取了行动。例如,仅 7 月份,Meta 就删除了 63,000 个涉及性勒索诈骗的帐户。
一个由技术公司、民间社会团体和研究人员组成的工作组还将调查如何确定预防和缓解的干预措施基于图像的性虐待的产生、传播和货币化所造成的危害。白宫表示,该组织将采用一套自愿原则来打击基于图像的虐待行为。