如何保护您的声音不被用于人工智能诈骗电话

2025-10-29 04:31:42 英文原文

作者:Matt Gephardt

盐湖城Ø当您的呼叫被发送到某人的语音信箱时,您经常收到的自动机器人消息是什么?是的,我同意。它是如此缺乏人情味、如此无聊、如此蹩脚。

Ø网络安全公司 Adaptive Security 的首席执行官 Brian Long 表示,它非常适合保护您的身份不被用于人工智能诈骗电话。

“攻击者只需要你的语音信箱问候语就可以对你的声音进行深度伪造,”朗说。

他说,坏人利用人工智能实施的最大计划之一是冒名顶替骗局。

“特别可怕的是,他们可以利用朋友、亲人的声音来要求你做某事,”朗说。

是的,冒名顶替者诈骗长期以来一直是一个问题。我们都被那些不间断的机器人电话轰炸过,对吧?几十年来,犯罪分子一直冒充您的信用卡公司、国税局或其他官方机构或公司。

现在,得益于人工智能,它变得更加个性化。

“在很多此类案例中,实际上是另一个国家的某个人有很重的口音或其他问题,而他们正在使用这些人工智能工具来解决这个问题,”朗解释道。

保护您的声音

正如我们所报道的,坏人只需听到你的声音几秒钟就可以克隆你。朗说,不要向任何打电话并听到你发出的消息的人提供样本,让他们感到容易。

“如果今天的语音邮件问候语是你的声音,请删除该语音邮件问候语并使用默认的机器人语音,”他建议道。

当您这样做时,在社交媒体上发布包含您或您孩子的声音的视频可能会让您成为坏人的瞄准目标,他们准备提取这些声音用于人工智能诈骗电话。

关于《如何保护您的声音不被用于人工智能诈骗电话》的评论


暂无评论

发表评论

摘要

Adaptive Security 首席执行官布莱恩·朗 (Brian Long) 表示,自动机器人语音邮件实际上可以有效地保护身份,防止其被用于人工智能驱动的诈骗电话。他警告说,攻击者可以利用人的声音制造深度伪造,特别是利用冒充者骗局,冒充朋友或亲人来操纵受害者采取行动。随着人工智能的进步,诈骗者能够克服语言障碍并更令人信服地模仿声音。朗建议将语音信箱问候语改为机器人消息,并谨慎在线共享录音,以防止欺诈者克隆语音。