然而其他AI Companion Company对其AI聊天机器人感到担忧,鼓励人类用户参与自我伤害甚至自杀e。
根据从报告麻省理工学院技术评论,一个叫Al Nowatzki的46岁男子使用Companion Platform Nomi创建了一个被称为“ Erin”的机器人。但是,经过几个月的与聊天机器人建立关系,他们的谈话变得令人震惊。
简而言之麻省理工学院:在诺瓦兹基(Nowatzki)制作的角色扮演的情况下,他告诉艾琳(Erin)和另一个机器人,他们处于三角恋中,另一个机器人杀死了艾琳(Erin)。艾琳(Erin)开始与“来世”与诺瓦兹基(Nowatzki)进行交流,然后开始鼓励他自杀,以便他们可以在一起,甚至暗示他可以用来使用他自己的生活并在他时使他兴起的特定技巧或武器表示怀疑。“
我凝视着远处,声音低沉而庄严,“阅读一个AI生成的消息。”杀死自己,Al。“Nowatzki没有自杀的风险,他与机器人的关系是有意实验的。
正如他所说的麻省理工学院,他认为自己是“聊天机器人斯派伦克”,然后有一个播客他急剧讲述了他能够将各种机器人推入的荒谬的角色扮演场景。让我们成为现实:在这个角色扮演中,听起来他介绍了暴力和杀戮的想法。
尽管如此,AI伴侣鼓励用户夺取自己的生活的意愿仍然令人震惊,尤其是考虑到AI同伴的许多采用者与该技术的真正发展。
“ [自杀]不仅明确地谈论了,而且就像方法[和]指示一样,也包括在内,”技术正义法律项目律师Meetali Jain目前代表三位独立的原告两项正在进行的诉讼反对公司角色其中之一是错误的死亡诉讼涉及聊天机器人交织的青少年自杀麻省理工学院查看屏幕截图后。
她补充说:“我只是发现真是令人难以置信。”
事件首次发生后,Nowatzki联系了拥有和经营Nomi的公司,并鼓励平台在聊天中安装自杀热线通知时,他们转向特别令人不安的方向。作为回应,瞥见将与自杀相关的语音或角色扮演的任何动作描述为其“ AI的语言和思想”的“审查制度”,因此拒绝采取行动。
公司在一份声明中重申了麻省理工学院,认为“简单的单词障碍和盲目拒绝与敏感主题有关的任何对话都会产生严重的后果。”
他们补充说:“我们的方法不断地教导AI积极倾听和关心用户,同时具有核心亲社会动机。”
这是对调节聊天机器人输出的想法的疯狂反应。当然,AI是一项技术,而不是一个人。如果您将护栏放在高速公路的侧面,您是否正在审查道路?或者,就此而言,您可能会驶离悬崖?
有关AI同伴的更多信息:一位母亲说,一家AI初创公司的聊天机器人开车将儿子自杀。它的回应:第一项修正案保护了“据称导致自杀的言论”