作者:Karris Harmon
佛罗里达州埃斯坎比亚县——据联邦调查局称,网络犯罪分子利用人工智能诈骗您和您的家人数千美元的威胁正在增加。
美国联邦调查局表示,不良行为者使用人工智能语音克隆家庭成员、同事或其他值得信赖的个人,让他们看起来处于危险之中。
FBI 互联网犯罪投诉中心表示,从 2022 年开始,基于人工智能的诈骗和攻击给美国人造成了大约 100 亿美元的损失。
一位网络安全专家表示,诈骗者正在利用你的情绪。他们希望你没有时间理性思考,而只是寄一些钱。
Eman El-Sheikh 博士告诉 WEAR News 如何避免成为受害者。她是西佛罗里达大学网络安全中心的副总裁。
“技术已经变得非常好,并且有足够的数据,”谢赫说。“很难辨别这是真人的声音还是合成的复制品。”
2023 年,诈骗者使用了 Jennifer Destefano 女儿 Briana 声音的合成复制品。
德斯特法诺去年向参议院详细描述了这一痛苦的情况,称她接到了一个未知号码的电话。另一条线路上的声音是布里安娜——至少她是这么认为的。
“抽泣着,哭着说,‘妈妈?’起初我没有多想,只是漫不经心地问她,‘发生了什么事,’”德斯特法诺说。
“布里安娜继续说道,‘妈妈,我搞砸了’,她不停地哭泣。”她说。“我想都没想就又问她,‘好吧,发生了什么事?’突然,一个男人的声音对她咆哮,“躺下,把头向后仰。”
德斯特法诺要求知道发生了什么事。布莱恩娜再次回答了她。
“‘妈妈,这些坏人抓住了我。救救我。救救我,’当手机被拿走时,她恳求道。”德斯特法诺说。
她说,一名威胁男子打电话说,如果她打电话给任何人,包括警察,他就会伤害她的女儿。
“‘我要给她的胃里塞满毒品,我要随心所欲地对待她,’”德斯特法诺说,这名男子说道。
在德斯特法诺的惊慌中,附近有人报了警。而骗子索要5万美元现金。
就在那时,她得知 911 对此类骗局非常熟悉。坏人使用人工智能来克隆你所爱之人的声音。
“这不仅仅是她的声音,”德斯特法诺说。“这是她的哭声。这是她的抽泣。但这不是她的声音。”
布丽安娜已安全抵达。这是 FBI 今年 5 月警告的一个声音克隆骗局。
美国联邦调查局表示,“恶意行为者越来越多地采用人工智能驱动的语音和视频克隆技术来冒充值得信赖的个人,例如家庭成员、同事或商业伙伴。”
“有时你可以做这些事情,这对事情很有帮助,比如复制娱乐音频或电影音频,但不幸的是,坏人也可以使用这些工具,他们能够利用这些工具来利用人们的情绪来欺骗他们钱,”埃尔谢赫说。
El-Sheikh 表示,诈骗者可以轻松获取您的声音,无论是通过之前的通话、公共录音或录音,甚至是社交媒体。
“如果你查看社交媒体,人们会在网上谈论他们的宠物或通过音频消息或视频消息祝某人‘生日快乐’,”谢赫说。“所有这些数据都已记录到人工智能模型中,并用于合成某人的声音。”
谢赫说,如果您接到此类电话,请挂断电话并直接联系您所爱的人。
“永远要对打电话索要钱的人保持怀疑,”谢赫说。“因为即使他们利用了你的情绪,这也是一个危险信号。”
这个假期,与您所爱的人坐下来讨论这个问题可能是个好主意。
El-Sheikh 建议,如果您发现自己处于其中一种情况,您可以说出一个暗号或短语来验证您确实正在与正确的人通电话。