专家警告称,人工智能克隆名人声音的速度超过了法律

2024-11-19 07:00:00 英文原文

作者:Robert Booth

这是没人想要的新的名人身份徽章。詹妮弗·安妮斯顿、奥普拉·温弗瑞和凯莉·詹纳都曾发声克隆的由骗子所为。网络吹嘘者利用人工智能来伪造电视财务顾问马丁·刘易斯的跳跳虎语气。本周末,大卫·阿滕伯勒 (David Attenborough) 形容自己“深感不安”,因为他发现自己的克隆声音被用来发布美国党派新闻公报。

AI 生成的大卫·阿滕伯勒 (David Attenborough) 声音用于报道唐纳德·特朗普 (Donald Trump) — 视频

现在,专家警告说,随着技术人员将以前笨重的语音生成器磨练成能够模拟人类语调最微妙的停顿和呼吸的模型,语音克隆正在超越法律。

为英国议会委员会提供咨询的电影和电视人工智能专家 Dominic Lees 博士周一对《卫报》表示:“我们的隐私和版权法并未跟上这项新技术的步伐,因此,”非常少大卫·阿滕伯勒可以做到。 –

Lees 正在为下议院文化、媒体和体育特别委员会提供咨询,该委员会将研究人工智能在电影制作中的道德使用。他还召集了合成媒体研究网络,该网络的成员包括制作已故聊天节目采访者迈克尔·帕金森的人工智能版本的公司,该公司将制作一个由八部分组成的无剧本系列节目《虚拟帕金森》,并邀请新嘉宾。那个声音克隆项目是在帕金森家人和遗产的同意下进行的。

“政府肯定需要关注[声音克隆],因为这是欺诈的一个主要问题,”李说。“它需要政府监管大棒来阻止[滥用]……我们不能让它成为一场混战。”

据统计,去年英国的人工智能语音克隆诈骗增加了 30%研究国民西敏寺银行本月发布。另一家贷款机构 Starling 银行,成立28% 的人在过去一年中至少遭受过一次人工智能语音克隆骗局的攻击。

据报道,诈骗者还利用语音克隆来实施“嗨妈妈”短信骗局,其中诈骗者冒充孩子,需要父母紧急汇款。在已经很模糊的电话线上,检测出一个恳求的孩子是骗子的克隆人可能很困难。建议消费者挂断电话并回拨可信号码进行核实。

未经同意就克隆声音的人会觉得这不仅仅是一种麻烦。阿滕伯勒周日告诉英国广播公司:“我花了一生的时间试图说出我认为的真相,但我深感不安地发现,这些天我的身份被其他人盗用,并强烈反对他们用它来表达自己的观点。”他们想要什么。 –

当 OpenAI 最新的 AI 模型 ChatGPT-4o 上的新语音选项具有以下特点时:非常接近对于演员斯嘉丽·约翰逊的声音,她说她感到震惊和愤怒,因为这个声音“听起来与我的声音非常相似,以至于我最亲密的朋友和新闻媒体都无法区分”。

跳过过去的时事通讯促销
OpenAI 语音助手 Sky 听起来像斯嘉丽约翰逊 — 视频

克隆声音的兴起引发了一个问题:他们错过了真正的人类音调。Lees 说:“最大的问题是人工智能不理解情感,也不理解情感如何改变一个单词或短语产生情感影响的方式,以及如何改变声音来表达这种情感。”

为广告、动画和教学培训提供声音的配音行业必须对技术进步做出快速反应。伦敦 Voiceover Gallery 的音频主管 Joe Lewis 为 Specsavers 和 National Express 的广告提供了真实的人声,他表示已经克隆了一些艺术家的声音。

他说,人工智能似乎最适合英国男性声音,也许是因为这反映了用于训练算法的录音类型的偏见,但他警告说,总的来说,“人工智能的方式存在一些问题”。产生的结果会让你不那么专心。

“当人工智能[声音]呼吸时,这是一种非常重复的呼吸,”他说。——呼吸在正确的位置,但感觉不自然……[但是]能达到真正完美的地步吗?我不明白为什么不,但要达到完整的情感范围还有很长的路要走。”

关于《专家警告称,人工智能克隆名人声音的速度超过了法律》的评论


暂无评论

发表评论

摘要

詹妮弗·安妮斯顿和大卫·阿滕伯勒等名人的声音曾被欺诈者使用先进的人工智能技术克隆。这种克隆已被用于欺诈活动,例如冒充财务顾问马丁刘易斯和报道美国的党派新闻。专家警告说,当前的隐私和版权法不足以解决这个问题,凸显了政府监管的必要性。去年,英国的语音克隆诈骗增加了 30%,许多受害者通过模仿亲人的声音进行电话诈骗。人工智能语音技术正在迅速发展,但仍缺乏人类语音的情感深度。配音行业正在适应这些技术变革,同时承认人工智能生成的声音在情感表达和自然呼吸控制方面与真人还没有什么区别。