询问[我是个混蛋]告诉我丈夫的伴侣的未婚夫有关他们的关系?这种受欢迎程度赢得了Reddit的趋势帖子首页上的帖子。问题?它(很可能)由人工智能(AI)撰写。
该帖子包含一些TelltaleAI的迹象,例如使用股票短语(我的丈夫家庭是愤怒的)和过多的报价标记,并勾勒出一种不切实际的场景,旨在引起愤怒而不是反映真正的困境。
虽然该帖子已由论坛的主持人删除,但Reddit用户反复表达了他们挫折随着这种内容的扩散。
在Reddit上的高级参与,AI生成的帖子就是一个示例,说明了所谓的“ AI Slop”廉价,低质量的AI生成的内容,这些内容由从低级影响者到协调的政治影响力创建和共享。
估计建议LinkedIn上更长的英语帖子中的一半以上是AI撰写的。为了回应该报告,LinkedIn产品主管Adam Walkiewicz告诉Wired,它具有强大的防御能力,可以主动识别低质量和精确或近乎杰出的重复内容。当我们检测到此类内容时,我们采取行动以确保它不会被广泛推广。
但是AI生成的低质量新闻网站是弹出到处都是,AI图像也是洪水社交媒体平台,例如Facebook。您可能遇到了图像虾耶稣在您自己的供稿中。
想要学术专家的更多政治报道吗?每周,我们都会为您提供有关政府发展的知情分析,并事实检查所提出的索赔。
注册我们的每周政治通讯,每个星期五交付。
AI生成的内容便宜。北约Stratcom卓越中心从2023年发表的报告成立对于仅10英镑(大约8英镑)来说,您几乎可以在几乎所有主要的社交媒体平台上购买成千上万的虚假观点和喜欢以及数百个AI生成的评论。
虽然其中大部分似乎是无辜的娱乐,但学习从2024年开始,大约四分之一的互联网流量由糟糕的机器人组成。这些机器人试图传播虚假信息,头皮事件票或窃取个人数据,在掩盖人类方面也变得越来越好。
简而言之,世界正在与划分网络:随着技术公司优先考虑利润而不是用户体验,在线服务逐渐变得越来越严重。AI生成的内容只是其中的一个方面。
从激怒读者到催人泪下的Reddit帖子猫视频,这种内容引人注目,因此对于斜坡创造者和平台。
这被称为订婚诱饵 - 一种使人们喜欢,发表评论和分享的策略,无论帖子的质量如何。而且,您不需要寻找内容。
一学习探讨了如何向社交媒体用户使用任何AI-slop页面或帐户,也建议向社交媒体用户使用订婚诱饵,例如包裹在白菜中的可爱婴儿图像。这些页面通常链接到低质量来源并推广实际或化妆品的产品,旨在提高其追随者基础,以便以后出售该帐户以获利。
Meta(Facebook的母公司)在4月份表示,它正在破坏垃圾满足它试图“游戏” Facebook算法以增加视图,但没有指定AI生成的内容。Meta在Facebook上使用了自己的AI生成的配置文件,但此后一直使用删除了其中一些帐户。
风险是什么
这可能对民主和政治交流产生严重的影响。AI可以便宜高效对人类生成的内容不可分割的选举产生错误的信息。在2024年美国总统大选之前,研究人员确定一项旨在提倡共和党问题和攻击政治对手的大型影响力运动。
在您认为只有共和党人这样做之前,请再考虑一下:这些机器人就是有偏见作为各种观点的人类。一个报告罗格斯大学(Rutgers University)发现,政治领域各方面的美国人都依靠机器人来促进其首选的候选人。
研究人员都无辜:苏黎世大学的科学家最近捕捉作为研究项目的一部分,使用AI驱动的机器人将其发布在Reddit上,以了解不真实的评论是否可以改变人们的思想。但是他们没有透露这些评论对Reddit主持人是假的。
Reddit现在正在考虑针对大学采取法律行动。公司首席法律官说:out苏黎世大学所做的事情在道德和法律层面上都是严重错误的。
政治特工,包括来自俄罗斯,中国和伊朗等威权国家的政治特工,在AI驱动的操作影响民主世界周围的选举。
这些操作的有效性是为了辩论。一项研究发现,俄罗斯试图通过社交媒体干预2016年美国选举的尝试是达德,而另一个成立它预测了特朗普的投票数据。无论如何,这些运动变得越来越复杂且组织良好。
甚至看似非政治的AI生成的内容也会产生后果。它的庞大数量使访问真实的新闻和人类生成的内容变得困难。
该怎么办?
人类和计算机都很难发现恶性AI含量。最近的计算机科学家确定一个由约1,100个假X帐户组成的机器人网络发布机器生成的内容(主要是关于加密货币),并通过喜欢和转发的互动。有问题的是bototer(他们开发的用于检测机器人的工具)未能将这些帐户识别为假。
如果您知道要寻找什么,尤其是当内容是公式化的或毫无疑问的假货时,AI的使用相对容易发现。但是,在短形式的内容(例如Instagram评论)或高质量的假图像方面,这要困难得多。而用于创建AI坡度的技术是快速改善。
作为AI趋势的亲密观察者和误传,我们很想以积极的态度结束,并提供实用的补救措施,以发现AI斜坡或降低其效力。但实际上,许多人只是在跳船。
社交媒体用户不满意的AI Slop数量逃避传统平台并加入只有邀请的在线社区。这可能会导致我们的公共领域和加剧两极分化的进一步破裂,因为我们寻找的社区通常由志趣相投的人。
随着这种分类的加剧,社交媒体的风险变成了无意识的娱乐,主要由与其他机器人互动的机器人生产和消费,而我们的人类观察到。当然,平台不希望丢失用户,但他们可能会尽可能多地推动AI斜坡。
一些潜在的技术解决方案包括标记AI生成的内容通过改进的机器人检测和披露法规,尽管目前尚不清楚这样的警告在实践中的工作状况如何。
一些研究也表明承诺在帮助人们更好地识别深层效果的过程中,但是研究处于早期阶段。
总体而言,我们刚刚开始意识到问题的规模。清醒的是,如果人类淹没在人工智能中,AI:在互联网上接受训练的AI模型也可能会产生垃圾。