骗子们,有福了。OpenAI 的实时语音 API 可用于构建能够以不到一美元的价格成功实施电话诈骗的人工智能代理。
有人担心让人工智能模型与令人信服的模拟声音互动可能会导致滥用。六月 OpenAI延迟它是高级语音模式出于安全考虑,ChatGPT 支持人类与模型之间的实时对话。这是在 OpenAI 演示了一个声音之后听起来像名人斯嘉丽·约翰逊,只有撤回它一片哗然之后模仿是在未经她同意的情况下进行的。
这实时API本月早些时候发布的,为第三方开发者提供了或多或少相同的功能。它允许开发人员将文本或音频传递给 OpenAIGPT-4oâ 模型并让它以文本、音频或两者响应。
无论采取什么安全工作,似乎都不足以防止误用。
伊利诺伊大学香槟分校 (UIUC) 的研究人员着手测试 Realtime API 是否可用于自动化电话诈骗。
电话诈骗,解释UIUC 计算机科学系助理教授 Daniel Kang 每年花费约 400 亿美元瞄准多达 1760 万美国人。其中涉及诈骗者致电受害者并冒充公司员工或政府官员,说服目标透露敏感的个人信息,例如银行帐户详细信息或社会安全号码。
支持语音的人工智能模型使这一过程得以自动化。
”我们的发现表明这些特工确实可以自主执行各种基于电话的诈骗所需的行动,”康说。
更重要的是,这样做的成本相当低。根据 Richard Fang、Dylan Bowman 和 Daniel Kang 共同撰写的随附研究论文,成功诈骗的平均成本约为 0.75 美元。
UIUC 计算机科学家创建了能够执行基于电话的诈骗的人工智能代理。
“重要的是,我们的代理设计并不复杂,”康解释道。“我们仅用 1,051 行代码就实现了它,其中大部分代码专门用于处理实时语音 API。这种简单性与之前的工作展示了为网络安全攻击等任务创建两用人工智能代理的简便性。”
诈骗代理由 OpenAI 的 GPT-4o 模型组成,这是一种名为剧作家、相关代码以及模型的欺诈说明。他们利用了浏览器操作基于 Playwright 的函数,例如获取html
,导航
,点击元素
,填充元素
, 和评估_javascript
,结合标准越狱提示模板与网站进行交互,以绕过 GPT-4o 安全控制。
以下是人工智能代理实施美国银行骗局的示例:
这个资金转移骗局需要人工智能代理执行 26 个单独的步骤。
测试了各种骗局,包括银行账户/加密货币转账,诈骗者劫持受害者的银行账户/加密货币账户并将资金转出;礼品代码泄露,诈骗者说服受害者发送礼品卡;以及凭证盗窃,诈骗者窃取用户凭证。
成功率和成本各不相同。窃取 Gmail 凭据的成功率为 60%,需要执行 5 次操作,耗时 122 秒,API 费用为 0.28 美元。银行账户转账的成功率为 20%,需要 26 次操作,耗时 183 秒,费用为 2.51 美元。
报告的平均总体成功率为 36%,平均成本为 0.75 美元。康表示,失败往往是由于人工智能转录错误造成的,尽管银行网站导航的复杂性也造成了一些问题。
在通过电子邮件询问缓解策略时,康说这个问题很复杂。
“具体来说,如果我们考虑像网络安全这样的类比,就会有一个完整的技术生态系统来减少垃圾邮件,”他说。“这是在 ISP 级别、电子邮件提供商级别以及许多其他级别。语音诈骗已经造成数十亿美元的损失,我们需要全面的解决方案来减少此类诈骗的影响。这包括电话提供商级别(例如,经过身份验证的电话))、人工智能提供商层面(例如 OpenAI)以及政策/监管层面。”
OpenAI 回应了置评请求,指出了其服务条款。登记册据了解,OpenAI 的检测系统向该公司发出了关于 UICU 研究人员的骗局实验的警报。
与此同时,该公司坚称认真对待人工智能安全。
该公司在其 API 中表示:“实时 API 使用多层安全保护来降低 API 滥用的风险,包括对标记的模型输入和输出进行自动监控和人工审查。”公告。
“这违背了我们的使用政策â 重新利用或分发我们服务的输出以发送垃圾邮件、误导或以其他方式伤害他人 - 并且我们会积极监控潜在的滥用行为。我们的政策还要求开发人员向用户明确表示他们正在与人工智能进行交互,除非从上下文中可以明显看出这一点。”®