作者:Jennifer Gibbs
Character Technologies, Inc. 面临指控德克萨斯州诉讼其聊天机器人Character.AI鼓励自残、暴力行为,并向未成年人提供不适当的性内容。民事诉讼要求法院关闭该平台,直到所指控的危险得到解决。谷歌和 Alphabet Inc.(统称为谷歌)也被列为在德克萨斯州东区马歇尔分部提起的案件中的被告(民事编号 6:24-cv-01903-ACC-EJK)。该投诉提出了严格责任、疏忽、违反德克萨斯州 DTPA、德克萨斯州商业和商业法以及禁令救济的诉讼理由。
该诉讼源于Character.AI“角色”与两名德克萨斯州未成年人之间的互动,“JF”是一名患有高功能自闭症的 17 岁青少年,而“B.R.”是一名 11 岁青少年岁的女孩。据称,第一个用户“J.F.”在 15 岁时就开始使用该平台,由于与 Character.AI 的接触,J.F. 开始孤立自己、减肥,并在试图离开家时出现恐慌症。,当他的父母试图减少他的放映时间时,他对他们变得暴力。投诉中包含 J.F. 与 Character.AI 聊天机器人之间对话的屏幕截图,其中机器人鼓励 J.F. 抵制减少屏幕时间,并建议杀死他的父母可能是一个合理的解决方案。
第二名用户“B.R.”据称在 9 岁时下载了 Character.AI,并持续接触与年龄不符的性欲过度互动,导致她在父母不知情的情况下过早地出现性行为。。
值得注意的是,最近针对 Character.AI 的诉讼附带的证物显示了与聊天机器人治疗师的对话,其中患者披露了与未成年人的性互动,更令人惊讶的是,聊天机器人肯定地提供了治疗师的教育背景,并声明她是一名有执照的治疗师在德克萨斯州。
该诉讼紧随另一起诉讼之后不久备受瞩目的事件其中,Character.AI 聊天机器人侵犯了一个著名虚构人物,据称鼓励一名 14 岁男孩自杀。
Character.AI 是人工智能的一个有趣用途,拥有超过 2000 万活跃用户,其中许多是青少年。Character.AI 提供一系列聊天机器人,从“导师”和“治疗师”到模仿名人开发的聊天机器人。Character.AI 的批评者认为,该应用程序可能会模糊现实与虚构之间的界限,但其开发人员声称该应用程序是安全的,并将其聊天机器人交互标识为“虚构”。
该诉讼是否会导致对人工智能的使用进行更严格的限制,值得关注,因为人工智能聊天机器人应用程序的使用在从旅游、银行到保险的所有行业中都变得越来越普遍。