作者:by University of Notre Dame
虽然人工智能(AI)机器人在社交媒体上可以有合法用途——例如营销或客户服务——但也有一些机器人被设计用来操纵公众讨论、煽动仇恨言论、传播错误信息或实施欺诈和诈骗。为了打击潜在的有害机器人活动,一些平台已经发布了使用机器人的政策,并创建了技术机制来执行这些政策。
但这些政策和机制是否足以保障社交媒体用户的安全?
圣母大学的研究分析了八个人工智能机器人政策和机制社交媒体平台:领英、Mastodon、Reddit、TikTok、X(原名Twitter)和Meta平台的Facebook、Instagram和Threads。然后研究人员试图启动机器人测试机器人政策执法过程。他们的研究是发表在arXiv预印本服务器。
研究人员成功地从每个平台上的机器人发布了良性“测试”帖子。
作为计算机科学家“我们知道这些机器人是如何创建的,它们是如何接入系统的,以及它们可能变得多么具有恶意,但我们都希望社交媒体平台会阻止或关闭这些机器人,这样就不是一个大问题,”圣母大学研究中心计算中心主任、该研究的资深作者保罗·布伦纳说。
所以我们查看了平台通常含糊陈述的它们所做的事情,然后测试了一下它们是否实际执行了这些政策。
研究人员发现,在Meta平台上部署机器人是最困难的——他们需要多次尝试才能绕过其政策执行机制。尽管在此过程中研究人员被暂停了三次,但他们最终在第四次尝试时成功地部署了一个机器人,并发布了一篇“测试”帖子。
唯一带来了一定挑战的其他平台是TikTok,由于该平台频繁使用验证码。但有三个平台完全没有提供任何挑战。
“Reddit、Mastodon 和 X 都很简单,”布伦纳说。“尽管他们的政策或技术机器人机制怎么说,要在 X 上运行一个机器人非常容易。他们并没有有效执行他们的政策。”
截至该研究发布日期,所有测试机器人账号和帖子仍然活跃。布伦纳分享说,实习生们仅具有高中学历和少量培训,就能够使用公众可以轻松获取的技术启动这些测试机器人,这突显了在线上启动机器人的简便性。
总体而言,研究人员得出结论,测试的八个社交媒体平台都没有提供足够的保护和监控来确保用户免受恶意机器人活动的危害。布伦纳认为,需要法律、经济激励结构、用户教育以及技术进步需要保护公众免受恶意机器人侵害。
布伦纳说:“需要有美国立法要求平台识别人类账户和机器人账户,因为我们知道人们自己无法区分这两者。”“目前的经济状况不利于这一点,因为每个平台上的账户数量是营销收入的基础。这个问题需要引起政策制定者的关注。”
为了创建他们的机器人,研究人员使用了Selenium(一种用于自动化网络浏览器的工具套件)和OpenAI的GPT-4及DALL-E 3。
该研究由圣母大学的博士生Kristina Radivojevic领导。
更多信息:Kristina Radivojevic 等人,社交媒体机器人政策:评估被动和主动执行arXiv (2024). DOI: 10.48550/arxiv.2409.18931
期刊信息: arXiv
引用人工智能机器人轻易绕过某些社交媒体防护措施,研究显示(2024年10月15日) 检索于2024年10月15日 从 https://techxplore.com/news/2024-10-ai-bots-easily-bypass-social.html
本文件受版权保护。除个人研究或学习目的的合理使用外,未经书面许可不得以任何方式复制。所提供的内容仅作信息用途。