作者:By Melissa Heikkiläarchive page
谷歌深度思维的研究人员最近训练了一个大型语言模型系统,以帮助人们就复杂但重要的社会或政治问题达成一致。该AI模型被训练来识别和展示人们的观点重叠之处。借助这个AI调解员的帮助,研究参与者的小团体在各种议题上的立场分歧减少了。您可以在这里阅读更多来自Rhiannon Williams的内容.
使用AI聊天机器人进行头脑风暴是其最佳用途之一。过去,我曾成功地使用它们来起草更坚定或更有说服力的邮件,用于处理棘手的情况,例如投诉服务或协商账单。最新的研究还表明,它们可能帮助我们从别人的角度看问题。那么为什么不利用人工智能来与我的朋友修复关系呢?
我向ChatGPT描述了我认为的冲突,并询问应该怎么做。它的回复非常支持,因为AI聊天机器人认可了我解决问题的方式。它给出的建议与我自己原本的想法大致相同。我发现和聊天机器人交流并获得更多处理特定情况的方法是有帮助的。但最终我还是感到不满意,因为这些建议仍然相当笼统和模糊(“冷静地设定你的界限”和“表达你的情绪”),并没有真正提供像心理治疗师那样的见解。
还有一个问题:每一个论点都有两个方面。我开启了一个新的聊天,描述了我认为我的朋友如何看待的问题。聊天机器人支持并肯定了我的朋友的决定,就像它对我所做的那样。一方面,这个练习帮助我从她的角度看待问题。毕竟,我试图设身处地为对方着想,而不仅仅是赢得争论。但另一方面,我可以完全理解过度依赖一个只会告诉我们想要听到内容的聊天机器人的建议可能会导致我们固执己见,从而无法从对方的角度看待问题。
这作为一个很好的提醒:AI聊天机器人不是治疗师或朋友。虽然它可以模仿它训练所用的大量互联网文本,但它并不理解悲伤、困惑或喜悦的感觉。这就是为什么在使用AI聊天机器人处理真正重要的事情时要谨慎行事,不要轻信它们所说的话。
一个AI聊天机器人永远无法替代真正的对话,在真正的对话中,双方都愿意真正倾听并考虑对方的观点。所以我决定放弃使用AI辅助的治疗谈话,再次联系了我的朋友。祝我好运!
OpenAI表示ChatGPT平等对待我们所有人(大多数时候)
ChatGPT是否会根据你是Laurie、Luke还是Lashonda而给予不同的对待?几乎一样,但并非完全相同。OpenAI分析了其热门聊天机器人进行的数百万次对话后发现,平均而言,ChatGPT大约每1000个回复中会有一次基于用户姓名生成有害的性别或种族刻板印象的情况,而在最严重的情况下,这一比例可能高达每100个回复中就有一次。
为什么这很重要:人工智能中的偏见是一个巨大的问题。伦理学家长期以来一直在研究公司使用AI模型筛选简历或贷款申请时的偏见影响。但随着聊天机器人的兴起,个人可以直接与模型互动,这给这个问题带来了新的复杂性。阅读 Will Douglas Heaven 的更多文章.
AI入门:人工智能初学者指南来自 MIT技术评论
有大量的人工智能新闻,跟上这些信息的更新非常困难。你是否希望有人能够后退一步,解释一些基础知识?看看这里。人工智能简介是麻省理工科技评论的第一份兼作迷你课程的通讯。你将在六周内每周收到一封电子邮件,每期将带你了解人工智能的一个不同主题。在这里注册.
寻找新材料的AI竞赛需要更多数据。Meta正在免费提供海量数据。
Meta 正在发布一个庞大的数据集和模型,名为 Open Materials 2024,这可能有助于科学家利用人工智能更快地发现新材料。OMat24 解决了发现过程中的一个最大瓶颈:缺乏数据。MIT科技评论)
微软与OpenAI的“ bromance”开始出现裂痕
作为从研究实验室转型为营利性公司的OpenAI的一部分,它试图与微软重新谈判协议,以确保更多的计算能力和资金。与此同时,微软已经开始投资其他人工智能项目,例如DeepMind联合创始人穆斯塔法·苏莱曼的Inflection AI,以减少对OpenAI的依赖——这让山姆·阿尔特曼感到不快。
(纽约时报)
数百万人在Telegram上使用滥用AI“裸化”机器人
这款消息应用是流行的人工智能机器人活跃的地方,这些机器人可以“去除衣服”来生成未经同意的深度伪造图像。 Wired)