2022 年入侵乌克兰后不久,当地摄影师开始记录文化遗址的破坏情况,以帮助保护该国的遗产并收集归还的证据。但伪造的战争相关图像的传播引发了一个问题:人们无法确定哪些照片是真实的。
这促使摄影师使用一种新工具来证明他们的照片不是深度伪造的人工智能生成的内容,以不真实的方式真实地模仿现有的人、地点或事件。该原型催生了 Microsoft 的内容完整性工具套件,旨在提高在线内容的透明度。
预计今年的全球选举将吸引创纪录的 20 亿选民,一些政治、选举和媒体组织现在正在使用归因其工作、提高透明度、灌输信任和防范虚假信息的工具。通过负责任的人工智能工具和实践支持更值得信赖的信息生态系统只是微软打击有害深度伪造的一种方式。
这篇文章是微软负责任地构建人工智能系列的一部分,该系列探讨了部署人工智能的首要问题以及如何公司正在通过其负责任的人工智能实践和工具来解决这些问题。
深度造假的影响可能非常严重。微软媒体起源总监安德鲁·詹克斯 (Andrew Jenks) 表示,它们是一种认知黑客形式,可以改变你与现实的关系以及你对世界的看法。
Jenks 担任内容来源和真实性联盟 (C2PA) 的主席,该组织由 Microsoft 共同创立,旨在开发开放技术标准,用于确定数字内容的出处或来源和历史,包括 AI-生成的资产。
被操纵的内容并不是什么新鲜事,有时它显然是讽刺或喜剧。但生成式人工智能的兴起使得怀有不良动机的人更容易传播虚假信息,从而导致欺诈、身份盗窃、选举干扰和其他危害。共享内容时,归属和说明等详细信息通常会消失,使人们更难知道该信任哪些内容。
了解内容的来源并追踪内容的历史可以帮助人们获得更多信息并减少受骗的可能性,詹克斯说。微软的工具包括一个应用程序,目前处于私人预览阶段,可供创作者和出版商将内容凭证添加到他们的作品中,或经过认证的元数据,其中包含内容的制作者、制作时间以及是否使用人工智能等详细信息。作为 C2PA 技术标准的一部分,内容凭据以加密方式附加到照片、视频和音频,因此可以更轻松地检测到任何后续编辑或篡改。
由于元数据不可见,因此 Microsoft 还提供公共内容完整性检查工具和网络浏览器扩展,供消费者扫描凭证并查看出处信息。人们还可以在 LinkedIn 等平台上的图像和视频上查找内容凭证图标。
内容凭证提供了重要的透明度,无论是否涉及人工智能,都可以帮助人们做出更明智的决策詹克斯说,他们在网上分享和消费的内容。随着识别内容来源和历史变得更加容易,人们可能会对缺乏特定出处信息的材料更加怀疑。
微软在自己的图像生成人工智能产品 Designer、Copilot、Paint 中使用其内容凭证工具并在 Azure OpenAI 服务中选择模型,以披露使用了 AI、创建图像的时间和其他详细信息。其他防止 Deepfake 滥用的负责任的人工智能控制措施包括模糊 Copilot 上传的照片中的人脸。
人工智能生成或修改的媒体在从教育到可访问性的许多情况下都可以提供帮助,杰西卡·杨 (Jessica Young) 表示,微软首席科学官科技政策高级项目经理兼媒体来源专家埃里克·霍维茨(Eric Horvitz)。
但是应该披露内容的来源及其旅程,以便人们能够了解它来自哪里、改变的程度以及是否使用人工智能。我们的方法不是告诉消费者哪些内容值得信赖,而是为他们提供做出明智决策所需的背景信息。
虽然 Jenks 表示内容凭据可以帮助建立对从广告到约会网站等各个方面的信任,但 Microsoft首先向竞选活动、选举组织和记者提供其出处工具的私人预览,作为在今年的选举中打击人工智能欺骗性使用的承诺的一部分。该公司还创建了一个网站,供候选人举报 LinkedIn、Xbox 和其他微软消费者服务中出现的选举深度假货,并与 OpenAI 合作推出了 200 万美元的基金,以加强对选民和弱势群体的人工智能教育。
微软已推动通过共同创立 C2PA(目前拥有近 200 名成员),与记者一起开发溯源技术并支持民主进程,以确保信息完整性。认识到没有任何一家公司或方法可以单独解决这个问题,它还倡导相关立法并研究其他透明度技术。这项工作整合了研究、工程、政策和威胁情报方面的专业知识,所有这些都是为了在不同媒体格式和平台的复杂环境中加强信息系统。
我们将继续开发和迭代,以找到最强大的解决方案Young 表示,随着媒体随着实时视频等新格式中生成式人工智能的使用而不断发展,我们正在与更广泛的生态系统分享最佳实践和工具。
了解有关 Microsoft Responsible AI 工作的更多信息。
由 Makeshift Studios / Rocio Galarza 绘制的插图。故事发布于 2024 年 10 月 3 日。