该警告不仅限于语音诈骗。FBI 的公告详细介绍了犯罪分子如何使用人工智能模型生成令人信服的个人资料照片、身份证明文件以及嵌入欺诈网站的聊天机器人。这些工具可以自动创建欺骗性内容,同时减少以前在诈骗背后明显的人为迹象,例如糟糕的语法或明显虚假的照片。
很像我们2022年警告在一篇关于基于公开照片的深度伪造的文章中,联邦调查局还建议限制公众访问您的在线语音和图像录音。该局建议将社交媒体帐户设为私有,并将关注者限制为已知联系人。
据我们所知,我们可以将现代人工智能语音合成和 Deepfakes 背景下秘密单词的首次出现追溯到一位名叫 Asara Near 的人工智能开发人员,他首先宣布2023 年 3 月 27 日在 Twitter 上发布了这个想法。
“(我)建立一个‘人性证明’这个词可能会有用,你信任的联系人可以向你索要这个词,”尼尔写道。“万一他们接到你打来的陌生而紧急的语音或视频电话,这可以帮助他们放心。他们实际上是在和你说话,而不是你的深度伪造/深度克隆版本”。
从那时起,这个想法就广泛传播。二月,雷切尔·梅斯涵盖了主题彭博社写道:“一位创始人告诉我,这个想法在人工智能研究界正在变得普遍。它也简单且免费。”
当然,密码已经被使用了自古验证某人的身份,过去似乎有一些科幻故事涉及密码和机器人克隆的问题。有趣的是,在这个高科技人工智能身份欺诈的新时代,这项古老的发明——一个很少有人知道的特殊单词或短语——仍然如此有用。