英语轻松读发新版了,欢迎下载、更新

X正在驾驶一个程序,该程序使AI Chatbots生成社区笔记|TechCrunch

2025-07-01 20:26:12 英文原文

作者:Amanda Silberling

X bots glitch depicted
图片来源:布莱斯·杜宾 /技术

社交平台x会驾驶功能这使AI聊天机器人可以生成社区笔记。

社区笔记是Elon Musk在其服务的所有权下扩展的一项Twitter时代功能,现在称为X。这是该事实检查程序的一部分的用户可以贡献评论,从而为某些帖子增加上下文,然后在其他用户出现在帖子上之前对其进行检查。例如,在AI生成的视频的帖子上可能会出现社区音符,该视频尚不清楚其合成的起源,或者是政治家的误导性帖子的附录。

当他们之间在历史上不同意过去评分的群体之间达成共识时,便会变得公开。

社区笔记在X上足够成功,以激发灵感,,,,蒂克托克, 和YouTube追求类似的举措淘汰它的第三方事实检查计划完全换取了这种低成本的社区劳动。

但是,如果将AI聊天机器人用作事实检查机会很有帮助或有害,还有待观察。

可以使用X的Grok或使用其他AI工具生成这些AI注释,并通过API将其连接到X。任何说明AI提交的内容都将与人提交的票据相同,这意味着它将通过相同的审查过程来鼓励准确性。

鉴于AIS的使用是多么普遍,在事实检查中使用AI似乎很怀疑幻觉,或构成不基于现实的上下文。

图片来源:X社区注释的研究(在新窗口中打开)

根据论文出版本周,研究人员在X社区笔记上工作,建议人类和LLMS同时工作。人类的反馈可以通过加强学习来增强AI注释的生成,在发表注释之前,人类笔记评估者仍是最终检查。

该论文说,目标不是创建一个AI助手,该AI助手告诉用户如何思考,而是建立一个生态系统,使人类更加批判性地思考并更好地理解世界。”llms和人类可以在良性循环中一起工作。

即使进行人体检查,仍然存在过分依赖AI的风险,尤其是因为用户可以嵌入第三方的LLM。例如,Openai的Chatgpt最近遇到的问题,模型过于Sycophantic。如果LLM优先级优先,而不是准确地完成事实检查,那么AI生成的评论最终可能会变得不准确。

还担心人类评估者将被AI生成的评论的数量超负荷,从而降低了他们充分完成这项志愿者工作的动机。

用户应该期望看到AI生成的社区笔记,但X计划在几周内测试这些AI贡献,然后再成功地将其推出。

Amanda Silberling是TechCrunch的高级作家,涵盖了技术与文化的交集。她还为Polygon,MTV,Kenyon Review,NPR和Business Insider等出版物撰写了撰稿。她是WOW的共同主持人,如果True,是关于互联网文化的播客,与科幻作家Isabel J. Kim。在加入TechCrunch之前,她曾担任基层组织者,博物馆教育家和电影节协调员。她拥有学士学位来自宾夕法尼亚大学的英语,并在老挝的亚洲研究员担任普林斯顿大学。

通过信号(加密消息传递应用程序)发送提示,向 @amanda.100发送。对于其他任何信息,请发送电子邮件至amanda@techcrunch.com。

关于《X正在驾驶一个程序,该程序使AI Chatbots生成社区笔记|TechCrunch》的评论


暂无评论

发表评论

摘要

X将试用一项功能,允许AI聊天机器人生成社区注释,这是一个事实检查工具,用户可以在其中添加上下文,然后在发布之前由其他用户验证的帖子。该系统启发了Meta,Tiktok和YouTube的类似举措。但是,鉴于AIS倾向于“幻觉”或制造信息,AI的整合引起了人们对准确性的担忧。X建议在人类和大型语言模型(LLM)之间采用协作方法,以增强这些注释的可靠性。该平台计划在潜在的更广泛实施之前测试此功能几周。