研究发现人工智能允许黑客识别匿名社交媒体帐户
作者:Isaaq Tomkins
一项新研究警告说,人工智能使恶意黑客更容易识别匿名社交媒体帐户。
在大多数测试场景中,大型语言模型 (LLM) — 平台背后的技术,例如聊天GPT– 根据匿名在线用户发布的信息,成功地将匿名在线用户与其在其他平台上的实际身份进行匹配。
人工智能研究人员西蒙·勒曼(Simon Lermen)和丹尼尔·帕莱卡(Daniel Paleka)表示,法学硕士使执行复杂的隐私攻击变得具有成本效益,迫使人们“对什么可以被视为在线隐私进行根本性的重新评估”。
在他们的实验中,研究人员将匿名帐户输入人工智能,并让它抓取所有可能的信息。他们举了一个假设的例子,用户谈论在学校的挣扎,并带着他们的狗 Biscuit 穿过“多洛雷斯公园”。
在这种假设的情况下,人工智能随后在其他地方搜索这些详细信息,并以高度置信度将 @anon_user42 与已知身份进行匹配。
虽然这个例子是虚构的,但该论文的作者强调了政府使用人工智能来监视匿名发帖的持不同政见者和活动人士,或者黑客能够发起“高度个性化”骗局的场景。
人工智能监控是一个快速发展的领域,引起了计算机科学家和隐私专家的警惕。它使用法学硕士在线综合有关个人的信息,这对于大多数人来说手动完成是不切实际的。
勒曼表示,网上容易获得的公众信息可能已经被“直接滥用”用于诈骗,其中包括鱼叉式网络钓鱼,即黑客冒充值得信赖的朋友,诱使受害者点击收件箱中的恶意链接。
现在,执行更先进的攻击所需的专业知识要低得多,黑客只需要访问公开可用的语言模型和互联网连接即可。
伦敦大学学院计算机科学教授彼得·本特利表示,如果产品出现去匿名化,人们就会担心该技术的商业用途。
一个问题是法学硕士在关联帐户时经常犯错误。“人们会因为他们没有做过的事情而受到指责,”本特利警告说。
爱丁堡大学网络安全讲师 Marc Juárez 教授提出的另一个担忧是,法学硕士可以使用社交媒体之外的公共数据:医院记录、入院数据和各种其他统计发布可能达不到人工智能时代所需的高匿名标准。
——这是相当令人震惊的。我认为这篇论文表明我们应该重新考虑我们的做法,”华雷斯说。
人工智能并不是对抗网络匿名的法宝。虽然法学硕士可以在许多情况下对记录进行去匿名化,但有时没有足够的信息来得出结论。在许多情况下,潜在匹配的数量太大而无法缩小范围。
加州大学伯克利分校信息学院的马蒂·赫斯特教授表示,“它们只能在有人在两个地方始终共享相同信息的平台之间进行链接。”
尽管这项技术并不完美,但科学家们现在要求机构和个人重新思考如何在人工智能世界中对数据进行匿名化。
Lermen 建议平台首先限制数据访问:对用户数据下载实施速率限制、检测自动抓取以及限制数据批量导出。但他也指出,个人用户可以对他们在线共享的信息采取更多预防措施。