作者:Pierluigi Paganini
皮尔路易吉·帕格尼尼 2024 年 12 月 2 日
的能力使生成人工智能一个推动进步的强大工具也使其成为网络领域的重大威胁。恶意行为者使用 GAI 的情况越来越普遍,这使他们能够进行广泛的网络攻击。从生成深度造假为了加强网络钓鱼活动,GAI 正在演变成大规模网络攻击的工具
GAI 因其跨行业的变革潜力而引起了研究人员和投资者的关注。不幸的是,恶意行为者的滥用正在改变网络威胁格局。生成人工智能最受关注的应用之一是深度伪造品的创建和虚假信息事实证明,这些活动既有效又危险。
Deepfakes 是使用 GAI 创建的媒体内容(例如视频、图像或音频),可以真实地操纵面孔、声音甚至整个事件。这些技术的日益复杂使得区分真假内容比以往任何时候都更加困难。这使得深度造假成为从事虚假信息活动、欺诈或侵犯隐私的攻击者的有力武器。一个
学习麻省理工学院 (MIT) 在 2019 年发布的一项研究表明,人工智能生成的 Deepfake 欺骗人类的概率高达 60%。鉴于自那时以来人工智能的进步,这一比例很可能有所增加,从而使深度造假成为更加重大的威胁。攻击者可以利用它们来捏造事件、冒充有影响力的人物或创造操纵公众舆论的场景。
在虚假信息活动中使用生成人工智能不再是假设。根据一个报告根据微软威胁分析中心 (MTAC) 的报告,中国威胁行为者正在利用 GAI 对外国(包括美国和台湾)实施影响行动。通过生成人工智能驱动的内容,例如挑衅性模因、视频和音频,这些行为者旨在加剧社会分歧并影响选民行为。
例如,这些竞选活动利用虚假的社交媒体账户发布有关美国内部分裂问题的问题和评论。通过这些行动收集的数据可以提供对选民人口统计数据的深入了解,从而可能影响选举结果。微软专家认为,中国对人工智能生成内容的使用将扩大到影响印度、韩国和美国等国家的选举。
GAI 对于寻求经济利益的攻击者来说也是一个福音。通过自动创建网络钓鱼电子邮件,恶意行为者可以扩大其活动规模,生成高度个性化且令人信服的消息,更有可能欺骗受害者。
这种滥用的一个例子是使用 GAI 创建欺诈性社交媒体资料。2022 年,联邦调查局 (FBI) 警告称,旨在从受害者身上获取经济利益的虚假个人资料有所增加。GAI 不仅允许攻击者生成真实的文本,还可以生成照片、视频和音频,使这些个人资料显得真实。
此外,像这样的平台欺诈GPT和蠕虫GPT于 2023 年中期推出,提供专门针对网络钓鱼和攻击而设计的工具商业电子邮件泄露 (BEC)攻击。只需支付月费,攻击者就可以访问复杂的服务,自动创建欺诈性电子邮件,从而提高诈骗效率。
另一个值得关注的领域是使用 GAI 开发恶意代码。通过自动生成恶意软件变体,攻击者可以逃避主要反恶意软件引擎采用的检测机制。这使得他们更容易以最小的努力进行大规模攻击。
GAI 最令人担忧的方面之一是其自动化复杂攻击过程的潜力。这包括创建用于攻击目的的工具,例如旨在利用漏洞的恶意软件或脚本。GAI 模型可以改进这些工具以绕过安全防御,使攻击更加复杂且更难以检测。
虽然 GAI 的恶意使用仍处于早期阶段,但它正在受到网络犯罪分子和国家支持的行为者的关注。通过“即服务”模式不断提高 GAI 的可及性只会加速其采用。这些服务允许具有最少技术专业知识的攻击者执行高级攻击,从而使网络犯罪民主化。
例如,在虚假信息活动中,GAI 的影响已经显而易见。在网络钓鱼和金融欺诈中,FraudGPT 等工具的使用展示了攻击者如何扩大其运营规模。恶意软件开发的自动化是另一个令人担忧的趋势,因为它降低了网络犯罪的进入门槛。
领先的安全公司以及 OpenAI、Google 和 Microsoft 等主要 GAI 提供商正在积极开发解决方案来缓解这些新兴威胁。努力包括开发强大的深度伪造检测机制、增强反网络钓鱼工具以及创建保障措施以防止滥用 GAI 平台。
然而,技术进步的快速步伐意味着攻击者总是先行一步。随着 GAI 变得更加复杂和易于使用,防御者面临的挑战将呈指数级增长。
生成人工智能是一把双刃剑。虽然它为创新和进步提供了巨大的机会,但当被恶意行为者利用时,它也会带来巨大的风险。创建真实和个性化内容的能力已经改变了网络威胁格局,开启了从深度伪造到大规模网络钓鱼活动等攻击的新时代。
随着技术的发展,其滥用也会随之发展。政府、企业和个人必须认识到 GAI 的潜在危险并采取积极措施应对。通过协作和创新,我们可以利用 GAI 的优势,同时降低其风险,确保这一强大的工具为人类服务而不是伤害人类。
在 Twitter 上关注我: @安全事务和 Facebook和 乳齿象
(安全事务��一个 黑客攻击、生成人工智能)hacking, generative artificial intelligence)