- 安全专家表示,人工智能语音克隆诈骗正在增加
- 支持语音的人工智能模型可用于模仿亲人
- 专家建议与朋友和家人商定安全短语
您收到的下一个垃圾电话可能不是真人,而且您的耳朵无法辨别。诈骗者正在使用支持语音的人工智能模型来自动化他们的欺诈计划,通过模仿真实的人类呼叫者(包括家庭成员)来欺骗个人。
什么是人工智能语音诈骗?
诈骗电话并不新鲜,但人工智能驱动的诈骗电话却是一种新的危险品种。他们使用生成式人工智能不仅模仿权威或名人,还模仿朋友和家人。
经过人类声音训练的人工智能模型的出现,开启了电话诈骗的新风险领域。这些工具,例如开放人工智能– 语音 API,支持人类与 AI 模型之间的实时对话。通过少量代码,这些模型可以被编程为自动执行电话诈骗,鼓励受害者披露敏感信息。
那么如何才能保持安全呢?这种威胁之所以如此成问题,不仅在于它的部署非常容易且成本低廉,还在于人工智能的声音变得多么令人信服。
OpenAI 面临强烈反对今年早些时候,天空电视台的语音选项听起来像斯嘉丽·约翰逊,而大卫·阿滕伯勒爵士则有描述自己人工智能语音克隆与他的真实语音无法区分,让他“深感不安”。
即使是旨在击败诈骗者的工具也表明,界限已经变得多么模糊。英国网络O2 最近推出了 Daisy,一位人工智能奶奶,旨在让电话诈骗者陷入一场浪费时间的对话,他们认为这是与真正的老年人进行的对话。这是对这项技术的巧妙运用,同时也展示了人工智能如何能够很好地模拟人类互动。
令人不安的是,欺诈者可以根据非常小的音频样本来训练人工智能语音。根据F-安全一家网络安全公司,只需几秒钟的音频就足以模拟亲人的声音。这可以很容易地从社交媒体上分享的视频中获取。
人工智能语音克隆诈骗是如何运作的
语音克隆诈骗的基本概念与标准电话诈骗类似:网络犯罪分子冒充某人以获得受害者的信任,然后制造一种紧迫感,鼓励他们披露敏感信息或向诈骗者转账。
声音克隆诈骗的区别有两个。首先,犯罪分子可以使用代码自动化该过程,从而使他们能够以更少的资金更快地瞄准更多的人。其次,他们不仅能够模仿权威和名人,还能够模仿你直接认识的人。
安全短语:防范人工智能语音克隆 - YouTube
所需要的只是一个音频样本,该样本通常取自在线视频。然后,人工智能模型对此进行分析并进行模仿,使其可用于欺骗性互动。一种越来越常见的技术是人工智能模型模仿家庭成员在紧急情况下索要金钱。
该技术还可用于模拟知名人士的声音来操纵受害者。骗子最近使用了昆士兰州州长史蒂文·迈尔斯的人工智能语音克隆,尝试执行投资骗局。
如何防范人工智能语音诈骗
根据椋鸟银行数字贷款机构 28% 的英国成年人表示,他们已成为人工智能语音克隆诈骗的目标,但只有 30% 的人确信自己知道如何识别诈骗。这就是 Starling 发起安全短语活动的原因,该活动鼓励朋友和家人同意一个秘密短语,他们可以用它来确认彼此的身份,这是一个明智的策略。
TL;DR 如何保持安全
1. 与朋友和家人商定安全短语
2.要求来电者确认一些近期的私人信息
3. 倾听言语中的重音是否不均匀或者谈话中没有感情色彩
4. 挂断电话并回电
5. 警惕不寻常的请求,例如银行详细信息的请求
即使没有预先商定的安全短语,如果您对呼叫者身份的真实性有疑问,也可以使用类似的策略。人工智能语音克隆可以模仿一个人的语音模式,但它们不一定能够访问私人信息。要求呼叫者确认一些只有他们自己知道的信息,例如你们上次谈话中共享的信息,是离确定性又近了一步。
也相信你的耳朵。虽然人工智能语音克隆非常令人信服,但它们并不是 100% 准确。倾听一些明显的迹象,例如某些单词的重音不均匀、表情冷漠或含糊不清。
骗子有能力掩盖他们拨打的号码,甚至可能看起来是通过您朋友的号码拨打的。如果您有任何疑问,最安全的做法就是挂断电话,然后用您常用的号码给对方回电。
语音克隆诈骗也采用与传统电话诈骗相同的策略。这些策略旨在施加情绪压力并营造紧迫感,迫使您采取原本不会采取的行动。请警惕这些并警惕不寻常的请求,尤其是涉及汇款时。
同样的危险信号也适用于声称来自您的银行或其他机构的来电者。熟悉银行与您联系时使用的程序是有好处的。例如,椋鸟有一个通话状态指示灯在其应用程序中,您可以随时查看银行是否真正给您打电话。