英语轻松读发新版了,欢迎下载、更新

“我见过的最严重的互联网研究道德违规行为”

2025-05-02 17:55:38 英文原文

作者:Tom Bartlett

最有说服力的人在一个受欢迎的子雷迪特(Subreddit)上是一个秘密AI实验的阵线。

A blurry, distorted, pixellated image of the Reddit robot's head against an orange background
大西洋的插图

A blurry, distorted, pixellated image of the Reddit robot's head against an orange background

由Elevenlabs和音频的新闻(NOA)使用AI叙述。听NOA应用程序上的更多故事。

几年前,当雷迪特(Reddit)重新命名为互联网的核心时,这个口号是为了唤起该网站的有机特征。在一个以算法为主的社交媒体时代,雷迪特(Reddit)自豪地受到一个社区的策划,该社区以高投票和低价投票的形式表达了自己的感受,换句话说是由实际人塑造的。

因此,本周早些时候,当一个受欢迎的Subreddit成员得知他们的社区被秘密的研究人员渗透到了AI所写的评论并随着人类的思想而传递,因此可以预见,红色的人会感到愤怒。他们称实验违反了“可耻的”,“令人发指的”和非常令人不安的。随着反弹的加剧,研究人员保持沉默,拒绝透露他们的身份或回答有关其方法论的问题。雇用他们的大学宣布正在调查。同时,Reddit的首席法律官Ben Lee,公司打算确保研究人员对其不当行为负责。”

互联网研究人员加入了不赞成的合唱团,他们谴责了他们认为这是一个完全不道德的实验。佐治亚理工学院的教授艾米·布鲁克曼(Amy Bruckman)在网上社区学习了二十多年了,他告诉我,我见过的红色惨败是我所见过的最严重的互联网研究伦理,没有竞争。彼此。

总部位于苏黎世大学的研究人员想找出AI生成的反应是否可以改变人们的观点。因此,他们前往恰当地命名的SubredditR/ChangemyView,在其中,用户辩论重要的社会问题,以及许多琐碎的话题,并授予了帖子,这些帖子使他们摆脱了最初的立场。在四个月的过程中,研究人员发布了1,000多个AI生成的评论(侵略性是该品种或所有者的错),住房危机(与您的父母一起生活的解决方案?),DEI计划(他们注定要失败?)。AI评论者认为,浏览Reddit是浪费时间,而受控的拆除9/11阴谋论具有一定的优点。当他们提供计算机生成的意见时,他们也分享了自己的背景。一个声称是创伤顾问;另一个人称自己是法定强奸的受害者。

从某种意义上说,AI评论似乎相当有效。当研究人员要求AI向Redditor的传记细节(包括性别,年龄和政治倾向)(推断,通过Redditor的历史上的另一个AI模型提供)时,其论点个性化时,确实有大量的思想似乎已经改变了。根据研究人员与Reddit主持人共享的初步发现,那些在Subreddit的点系统中,平均而言,在Subreddit的点系统中获得了个性化的AI论点。(当然,这种分析假设Subreddit中没有其他人使用AI来磨练他们的论点。)

研究人员在艰难的时刻说服了红色的研究,他们的秘密研究是合理的。完成实验后,他们联系了Subreddit的主持人,透露了他们的身份,并要求向汇报汇报,即向成员宣布,几个月来,他们在科学实验中一直在不愿意。一位主持人说,他们对实验产生了如此负面的反应感到惊讶,他要求用他的用户名Lucidleviathan确定以保护他的隐私。根据Lucidleviathan的说法,主持人要求研究人员不发表这种受到污染的工作,并道歉。研究人员拒绝了。经过一个多个月的来回之后,主持人向Subreddit的其余部分揭示了他们对实验(减去研究人员的名字)的了解,并明确了他们的不赞成。

当主持人向苏黎世大学发出投诉时,该大学在回应中指出,该项目产生重要的见解,并且根据主持人发布的摘录。一位大学发言人在给我的一份声明中说,伦理委员会上个月收到了该研究的通知,建议研究人员遵守subreddit的规则,并打算在未来采用更严格的审查程序,同时,研究人员在言论中辩护的是,研究人员对他们的言论辩护,并提倡每个人的评论,并提出了危害的批评,并提出了一项危害的批评,并提倡。被发布。(我将电子邮件发送给研究人员的匿名地址,由Reddit主持人发布,并收到了指导我对大学询问的答复。)

苏黎世研究人员的防御可能是,正如他们所看到的那样,欺骗是该研究不可或缺的。苏黎世大学的道德委员会可以为研究人员提供建议,但据该大学所说,拒绝拒绝其标准的研究的权力,然后他们开始发布,他们应该尽可能多地告知参与者。”但是研究人员似乎认为这样做会破坏实验。研究人员在他们的重新评论之一中写道,要在现实情况下在现实情况下测试LLMS有说服力的能力,因为它更现实地模仿了人们在现实世界中对不明身份的坏演员的反应。

在这种情况下,人类如何反应是一个紧迫的问题,也是一个值得的学术研究主题。研究人员在他们的初步结果中得出结论,在现实世界中,AI的论点可以高度说服力,超过了所有以前已知的人类说服力的基准。令人不安。有说服力的超级大国也可以用于邪恶的目的。

尽管如此,科学家不必违反对人类受试者进行试验以评估威胁的规范。德克萨斯大学奥斯汀分校的高级研究员克里斯蒂安·塔斯尼(Christian Tarsney)告诉我,一般的发现,与大多数人类的魔力相比,AI可以在人类说服力的上端更具说服力。一个最近的实验室实验,相信阴谋理论的参与者自愿与AI聊天;经过三次交流后,大约四分之一的人对以前的信仰失去了信心。另一个发现Chatgpt产生了更具说服力的虚假信息比人类,被要求区分真实帖子和AI撰写的参与者无法有效地这样做。

该研究的主要作者乔瓦尼·斯皮塔尔(Giovanni Spitale)也恰好是苏黎世大学的学者,并与Reddit AI实验背后的一位研究人员保持联系,他要求他不要透露他们的身份。研究人员在与我分享的一条消息中,我们正在接受数十种死亡威胁。”请为我的家人的安全保密。

强烈反对如此强烈的原因之一是,在像Reddit这样紧密联系的平台上,背叛了。Spitale告诉我,该社区的支柱之一是相互信任。这是他反对在不知情的情况下反对对红色的试验的部分原因。我与之交谈的几位学者就此最新的道德难题进行了比较。臭名昭著的情绪控制研究。在2012年的一个星期中,Facebook更改了用户的新闻提要,以查看查看或多或少的正面内容是否改变了其发布习惯。(确实有一点。)科罗拉多大学博尔德分校的副教授凯西·菲斯勒(Casey Fiesler)研究了道德和在线社区,他告诉我,与苏黎世研究人员所做的相比,情感上的研究研究与之相比。她告诉我,人们对此感到不安,但并不是这样感到不高兴的。这感觉更为个性。

这种反应也可能与Chatgpt知道要在我们心目中推出的按钮的令人不安的观念有关。有一些人类的Facebook研究人员以可疑的道德标准欺骗了一件事,而另一件事是完全由角色扮演聊天机器人欺骗的。我阅读了数十种AI评论,尽管它们都不出色,但其中大多数似乎是合理和真实的。他们提出了很多好处,我发现自己不止一次点头。正如苏黎世的研究人员警告说,没有更多可靠的检测工具,AI机器人可能会“无缝融合到在线社区中”,也就是说,假设他们已经没有。

关于《“我见过的最严重的互联网研究道德违规行为”》的评论


暂无评论

发表评论

摘要

苏黎世大学的卧底研究人员对一个受欢迎的Subreddit进行了一项实验,发表了1000多个AI生成的评论,以评估其说服力。AI评论冒充了真实的用户,并就各种主题进行了辩论,通常比人类帖子更高的分数。发现欺骗时,红色反应对愤怒做出了反应。研究人员拒绝透露身份或道歉,导致雷迪特的首席法律官威胁责任措施。该实验强调了关于AI在线操纵和错误信息的潜力的道德问题。

相关讨论