休斯顿 - 我们已经警告您一段时间了,骗子可以使用人工智能制作虚假视频并骗取金钱。但是,如果深度伪造视频看起来与您的一位朋友一模一样,您能发现它吗?
两名休斯顿地区的女性表示,她们都被人工智能生成的朋友视频欺骗了。然后他们的图像被用来制作深度伪造品来欺骗他人。
建议:休斯顿的通货膨胀率:您的杂货账单与全国平均水平相比如何
“这太疯狂了。这让我有点生气史黛西·斯维利亚托 (Stacey Svegliato) 说道。
史黛西 (Stacey) 表示,她在 Messenger 应用上接到了一个视频通话,电话看起来和听起来都像她的朋友萨拉·桑德林 (Sara Sandlin)。
“这是她在和史黛西说,它进进出出,我能得到的只是‘嘿,我的 Facebook 被黑了’。
史黛西说,她在手机上收到了一个访问代码,并将其发送至她。然后史黛西的 Facebook 页面上出现了一条帖子,据称是在出售她父亲的车辆、电器和家具。然后史黛西说,朋友们开始收到看起来和听起来都像她的视频信息,试图出售这些物品。
“我有一个非常独特的声音,所以当人们说他们在和我说话时,这很可怕,”斯泰西说。
事实证明,萨拉·桑德林也刚刚收到了一条视频消息,看起来和听起来都像她认识的人。
“这是她的脸,她放弃了。她微笑着,甚至把头发向后移开,”萨拉在描述视频时说道。
萨拉还被骗发送了访问代码,待售物品被发布在她的 Facebook 页面上,并且她的人工智能生成的视频被发送给朋友。
“人们以为是我。有些人上当了,有些人没有,”萨拉说。
她说有些人她的朋友报告称,她向视频发送者发送了数百美元的待售商品,却没有意识到这不是萨拉。
Akouto Consulting 的网络安全专家 Dominic Chorafakis 表示,诈骗者正在抓取在线发布的视频来创建人工智能- 生成的化身看起来和听起来都非常像真人,他们可以愚弄那些熟悉他们的人。
“你甚至可以使用该人的照片,口型表演将解决这个问题休息。你不需要很长的视频片段,即使是静态图像也可以。”Chorafakis 说道。
为了向你展示这是如何工作的,我拍摄了一段自己说话的视频,然后将其上传到在线人工智能工具并输入在我的头像的脚本中说。
“这是我的人工智能生成的视频。你能分辨出人工智能和真实事物之间的区别吗?”我的头像对视频中的摄像机说道,看起来和听起来都像我。
如果你担心骗子可能会制作你的深度伪造视频,Chorafakis 建议您采取措施保护自己。
“第一,限制您在那里发布的内容。并使用该平台的安全功能,限制谁有权访问该内容,这样它就不仅仅向公众开放。”Chorafakis 说。
Sara 和 Stacey 担心诈骗者可能会继续使用他们的化身。
“就像我的朋友萨拉一样,他们利用她来获取她需要的钱,而这甚至不是她。所以我想,天啊,我希望他们不要对我下手。”Stacey 说道。
我们就这一骗局联系了 Facebook。我们没有收到回复。
为了保护自己,专家表示:
Stacey 和 Sara 的 Facebook 帐户被锁定,无法访问珍贵的家庭照片,因此最好备份。上传您想要保留的任何照片或视频。