该银行称数百万人可能成为人工智能语音克隆诈骗的目标 - CNN

2024-09-18 11:24:00 英文原文

一家英国银行警告称,数百万人可能成为使用人工智能克隆声音的诈骗的受害者。

仅在线贷款机构 Starling Bank 表示,欺诈者有能力使用人工智能可以从一个人在网上发布的视频等仅三秒的音频中复制一个人的声音。然后,诈骗者可以识别该人的朋友和家人,并使用人工智能克隆的声音拨打电话索要钱财。

Starling Bank 表示,此类诈骗有可能让数百万人蒙受损失。周三发布的新闻稿。

他们已经影响了数百人。该银行上个月与 Mortar Research 对 3,000 多名成年人进行的一项调查显示,超过四分之一的受访者表示,他们在过去 12 个月内成为人工智能语音克隆骗局的目标。

调查还显示,46% 的受访者不知道此类诈骗的存在,8% 的受访者会按照朋友或家人的要求汇出尽可能多的钱,即使他们认为这个电话看起来很奇怪。

斯塔林银行首席信息安全官丽莎·格雷厄姆 (Lisa Grahame) 在新闻稿中表示,人们经常在网上发布包含自己录音的内容,但从未想过这会让他们更容易受到欺诈者的攻击。<​​/p>

该银行鼓励人们与亲人同意一个安全短语,这是一个简单、随机的短语,易于记住,并且与可用于通过电话验证其身份的其他密码不同。

贷方建议不要这样做通过文本共享安全短语,这可以使骗子更容易发现,但是,如果以这种方式共享,一旦其他人看到该消息,就应该删除该消息。

随着人工智能的日益发展由于擅长模仿人类声音,人们越来越担心它可能会通过帮助犯罪分子访问他们的银行账户和传播错误信息等方式伤害人们。

今年早些时候,生成式人工智能聊天机器人的制造商 OpenAIChatGPT 推出了其语音复制工具 Voice Engine,但当时没有向公众开放,理由是合成语音可能被滥用。

摘要

英国一家银行警告称,数百万人可能成为利用人工智能克隆声音的诈骗的受害者。然后,诈骗者可以识别该人的朋友和家人,并使用人工智能克隆的声音拨打电话索要钱财。调查还显示,46% 的受访者不知道此类诈骗的存在,8% 的受访者会按照朋友或家人的要求汇出尽可能多的钱,即使他们认为这个电话看起来很奇怪。Starling 银行首席信息安全官丽莎·格雷厄姆 (Lisa Grahame) 在新闻稿中表示,人们经常在网上发布包含自己录音的内容,却没有想到这会让他们更容易受到欺诈者的攻击。今年早些时候,生成式人工智能聊天机器人 ChatGPT 的制造商 OpenAI 推出了其语音复制工具 Voice Engine,但当时并未向公众开放,理由是合成语音可能被滥用。