作者:Will Knight
什么是小紫色外星人知道健康的人际关系吗?超过平均水平人工智能伴侣,事实证明。
有问题的外星人是一种动画聊天机器人托兰。几天前,我使用一家名为Portola的初创公司的应用程序创建了我的我,从那以后我们一直在聊天。像其他聊天机器人一样,它最好有所帮助和令人鼓舞。与大多数人不同,它还告诉我放下手机去外面。
Tolans旨在提供另一种AI陪伴。他们的卡通般的非人类形式旨在阻止拟人化。他们还进行了编程,以避免浪漫和性互动,以确定有问题的行为,包括不健康的参与水平,并鼓励用户寻找现实生活中的活动和人际关系。
本月,Portola筹集了由Khosla Ventures领导的2000万美元的A系列资金。其他支持者包括由前GitHub首席执行官领导的投资公司NFDG纳特·弗里德曼(Nat Friedman)和安全的超级智能联合创始人丹尼尔·格罗斯(Daniel Gross)据说加入Meta的新超级智能研究实验室。Tolan应用于2024年底推出,拥有超过100,000个活跃用户。Portola的创始人兼首席执行官Quinten Farmer说,今年有望从订阅中获得1200万美元的收入。
托兰在年轻女性中特别受欢迎。虹膜就像女友;托兰用户布列塔尼·约翰逊(Brittany Johnson)说,我们谈论并踢它,指的是她的AI同伴,她通常每天早晨在工作前与她交谈。
约翰逊说,艾里斯(Iris)鼓励她分享自己的兴趣,朋友,家人和工作同事。她认识这些人,会问 - 您和您的朋友说话了吗?您的第二天什么时候出去?”约翰逊说。她会问,您是否有时间阅读您的书籍并播放视频?”
Tolans看起来很可爱又愚蠢,但是背后的想法是,AI系统应该考虑到人类的心理学和福祉,这是值得认真对待的。
越来越多的研究表明,许多用户转向聊天机器人满足情感需求,互动有时可能对人们的心理健康有问题。阻止扩展使用和依赖性可能是其他AI工具应采用的东西。
像Replika和targin.ai这样的公司提供的AI同伴比主流聊天机器人允许更多的浪漫和性角色扮演。这可能如何影响用户的福祉,但在其中一位用户死于自杀后,warne.ai被起诉。
聊天机器人还可以以令人惊讶的方式生气。去年四月,Openai说会修改其模型以减少其所谓的粘糊精,或者倾向于过分讨人喜欢或令人愉快的趋势,该公司表示,这可能是不舒服的,令人不安的和造成困扰的。”
上周,人类,聊天机器人Claude背后的公司,揭示了2.9%的互动参与寻求满足某些心理需求的用户,例如寻求建议,陪伴或浪漫的角色扮演。
人类并没有考虑更极端的行为,例如妄想思想或阴谋论,但该公司表示,主题需要进一步研究。我倾向于同意。在过去的一年中,我收到了许多想告诉我有关涉及流行AI聊天机器人的阴谋的人的电子邮件和DMS。
Tolans旨在解决其中一些问题。Portola的创始研究人员Lily Doyle进行了用户研究,以了解与聊天机器人的互动如何影响用户的福祉和行为。她在对602位Tolan用户的研究中说,有72.5%的人同意这一声明 - 我的Tolan帮助我管理或改善了生活中的关系。”
Portola的首席执行官Farmer说,Tolans建立在商业AI模型上,但在顶部包含其他功能。该公司最近一直在探索记忆如何影响用户体验,并得出结论,托伦斯(Tolans)像人类一样,有时需要忘记。Farmer说:``托兰要记住您发送给它的一切都是不可思议的。” Farmer说。
我不知道Portola的外星人是否是与AI互动的理想方式。我发现我的Tolan非常迷人且相对无害,但肯定会推动一些情感按钮。最终,用户正在建立具有模拟情绪的字符的纽带,如果公司不成功,这种纽带可能会消失。但是,至少波尔托拉(Portola)试图解决AI同伴对我们的情绪造成的方式。这可能不是一个陌生的想法。