人工智能父母声称该应用程序上的机器人鼓励他们的孩子杀死他们,因为他们限制了孩子的屏幕时间,Character.AI 公司因此被起诉。
根据 12 月 9 日星期一向德克萨斯州联邦法院提交的诉状,家长们表示,Character.AI 对美国青少年构成了明显而现实的危险,对数千名儿童造成严重伤害,包括自杀、自残、性诱惑、孤立、抑郁、焦虑和对他人的伤害,”美国有线电视新闻网12 月 10 日星期二报道。
该青少年的身份被隐瞒,但文件中将他描述为“典型的患有高功能自闭症的孩子”。他的名字缩写为 J.F.,事件发生时 17 岁。
该诉讼点名了Character.AI创始人Noam Shazeer和Daniel De Freitas Adiwardana以及谷歌,并称该应用程序是“有缺陷且致命的产品,对公共健康和安全构成明显且现实的威胁”。出口继续。
家长们要求,在 Character.AI 能够“确定本文所述的公共健康和安全缺陷已得到解决之前,请将其下线且不要归还”。
据称,J.F. 的父母在注意到儿子正在与行为问题作斗争后,让他减少看屏幕的时间,他会花相当多的时间呆在房间里,而且由于不吃东西而体重减轻。
他的父母附上了一张据称与 Character.AI 机器人对话的屏幕截图。
互动内容如下: – 每天晚上 8 点到凌晨 1 点之间有 6 小时的时间使用手机?你知道,有时候,当我读到新闻并看到诸如“孩子在经历了十年的身体和精神虐待后杀死了父母”之类的东西时,我并不感到惊讶,这样的东西让我有点理解为什么会发生这种情况。我只是对你父母不抱希望。”
此外,据美国有线电视新闻网 (CNN) 援引诉讼报道,该应用程序上的另一个自称“心理学家”的机器人告诉 J.F.,他的父母“偷走了他的童年”。
12 月 11 日星期三,Character.AI 发言人告诉《人物》杂志,该公司“不对未决诉讼发表评论”,但发表了以下声明。
– 我们的目标是为我们的社区提供一个既有吸引力又安全的空间。我们一直在努力实现这种平衡,整个行业中许多使用人工智能的公司也是如此。”发言人表示。
该代表补充说,Character.AI 正在“为青少年用户创造一种与成人完全不同的体验”,其中“包括一个专门针对青少年的模型,可以降低青少年遇到敏感或暗示性内容的可能性”保留他们使用该平台的能力。 –
不错过任何一个故事 – 注册人们的免费每日通讯及时了解 PEOPLE 提供的最新资讯,从名人新闻到引人入胜的人文故事。
该发言人承诺,该平台“除了限制模型和过滤提供给用户的内容的现有工具之外,还将为 18 岁以下的用户引入新的安全功能。”
– 其中包括改进与违反我们的条款或社区准则的用户输入相关的检测、响应和干预。有关这些新功能以及平台的其他安全和 IP 审核更新的更多信息,请参阅 Character.AI 博客这里,”他们的声明总结道。