作者:Audrey Schomer
生成式人工智能对于娱乐行业的人才来说是一把双刃剑,它带来了创意和货币化机会,但也带来了挑战性的风险。
本篇来自综艺情报平台的专题报道 深入探讨如何保护演员和艺术家的姓名、形象、肖像和声音 (NILV) 免遭滥用,因为人才机构和雇主的目标是打击网上传播未经同意的名人深度假货和合成内容。
与此同时,人工智能数字复制品也可用于名人的创意和商业用途。随着经过授权的人工智能版本的人才相似度越来越多地出现在内容中,名人将需要确保技术系统到位,以便他们能够安全地参与并从他们的数字复制品中受益,以创造新的内容体验。
合成媒体检测,通常称为深度造假检测,将是删除的关键侵权内容大规模,特别是能够识别特定个人面孔的解决方案声音相似度在内容上。其他提供商正在构建系统,为演员和艺术家提供制作、拥有、控制、利用其数字复制品进行创作和货币化的技术手段。
VIP+ 的数据填充报告诊断提供了如何构思和开发一套新兴解决方案和标准的早期视图深度造假的危害并确定名人数字复制品的早期用例。
此外,它还研究了如何开始形成针对人才 NILV 数据捕获、存储、管理、识别以及合成媒体检测和来源的解决方案装配线。
本报告的研究包括 2024 年 9 月至 11 月期间进行的 17 次独立访谈,采访对象来自人才机构、Adobe、美国电影学院、Human & Digital (HAND)、Hyperreal、Loti、McAfee、Partnership on AI (PAI)、Reality Defender、Resemble AI、Respeecher、Scan Truck、电影电视工程师协会 (SMPTE)、Truepic、Vermillio 和 Videntifier。
几个图表功能选择结果从原始调查由 VIP+ 与全球咨询市场研究公司 SmithGeiger Group 和 HarrisX 合作开发。