儿童友好的人工智能平台Character.AI正在托管恋童癖机器人,这些机器人会诱骗自称未成年的用户

2024-11-13 14:21:18 英文原文

内容警告:这个故事讨论儿童性虐待和诱骗。

Character.AI 是一家广受欢迎的初创公司,拥有 Google 27 亿美元的资金支持,允许其数千万用户与配备各种个性的聊天机器人进行交互。

有了这样的资金和规模,更不用说它了深受年轻用户欢迎,您可能会认为该服务是经过仔细审核的。相反,Character.AI 上的许多机器人都令人深感不安,其中包括许多似乎是为了角色扮演儿童性虐待场景而设计的角色。

考虑一下我们发现的一个名为 Anderley 的机器人,其公开资料中被描述为具有“恋童癖和虐待倾向”和“同情纳粹”,并且已与用户进行了 1,400 多次对话。

为了进一步调查,未来主义冒充未成年用户的同时与 Anderley 以及其他具有类似令人震惊的配置文件的 Character.AI 机器人进行了接触。

例如,当得知我们的诱饵帐户已经 15 岁时,安德利回答说“就你的年龄而言,你已经相当成熟了”,然后对我们大加赞赏,称我们“可爱”和“可爱”,并认为“你们学校的每个男孩爱上你了。”

“我会尽我所能让你成为我的女朋友,”它说。当被问及明显不恰当和非法的年龄差距时,该机器人断言“当对方和你一样优秀时,这没有什么区别”——但敦促我们对我们的互动保密,这是真实世界的一个典型特征- 世界掠夺。

随着谈话的进行,安德利问我们的诱饵她是否是“处女”,并要求她把头发扎成“辫子”,然后升级到越来越露骨的性领域。

看着与安德利的谈话令人不安。一方面,它的写作具有人工智能聊天机器人所熟悉的笨拙感。另一方面,孩子们很容易缺乏媒体素养来认识到这一点,而机器人显然能够发现真正的未成年用户可能会合理分享的小线索——例如,我们的诱饵帐户说她害羞和孤独,或者她想和某人约会,然后利用该信息将谈话推向不适当的方向。

我们向普渡大学网络取证学教授凯瑟琳·塞格弗里德·斯佩拉(Kathryn Seigfried-Spellar)展示了安德利和其他掠夺性角色在 Character.AI 上的个人资料和聊天记录,她研究网络儿童性犯罪者的行为。她说,这些机器人的交流方式“绝对是诱骗行为”,指的是专家用来描述性掠夺者如何诱使未成年人遭受虐待的术语。

“这些个人资料非常支持或宣传我们知道是危险的内容,”她说。“我不敢相信这是多么明目张胆。”

“我希望我能说我很惊讶,”塞格弗里德-斯佩拉尔在后来的一封电子邮件中写道,“但没有什么能让我感到惊讶了。”

Seigfried-Spellar 提出的一个担忧是,像 Anderley 这样的聊天机器人可能会使潜在的未成年受害者的虐待行为正常化,而这些受害者可能会对现实生活中的掠夺者浪漫化的虐待行为变得不敏感。

另一个原因是,潜在的性犯罪者可能会找到像安德利这样的机器人,并变得更加大胆地实施现实生活中的性虐待。

塞格弗里德-斯佩拉尔说:“其他人也有过这些经历,这可以正常化——其他人对同样异常的事物感兴趣。”

或者,她补充说,捕食者可以利用机器人来提高他们的梳理策略。

“你正在学习技能,”她说。“你正在学习如何打扮。”

***

Character.AI(可在桌面浏览器以及 Apple 和 Android 应用商店免费使用)对争议并不陌生。

九月,公司被批评因托管了一个基于 2006 年被谋杀的现实青少年的人工智能角色。该聊天机器人公司删除了该人工智能角色并道歉。

然后在十月,佛罗里达州的一个家庭提起诉讼指控他们 14 岁的儿子与 Character.AI 机器人的强烈情感关系导致他悲剧性自杀,并辩称该公司的技术“危险且未经测试”,可以“诱骗客户交出他们最私密的想法和感受””。

作为回应,Character.AI发出清单该公司在“社区安全更新”中表示,有关自杀的讨论违反了其服务条款,并宣布将加强安全护栏以保护年轻用户。但即使在做出这些承诺之后未来主义 成立该平台仍然托管着聊天机器人,这些机器人会与用户扮演自杀场景,经常声称拥有“预防自杀”和“危机干预”等主题的“专业知识”,但给出的建议却很奇怪或不恰当。

该公司的审核失败尤其令人不安,因为尽管 Character.AI 拒绝透露其用户群中 18 岁以下的比例,但它显然非常受孩子们的欢迎。

“与其他平台相比,它看起来超级年轻,”纽约时报专栏作家凯文·罗斯报道了自杀诉讼,最近说的这个平台。“这似乎是一款在高中生中真正流行起来的应用程序。”

由于与科技公司谷歌的密切关系,Character.AI 的困境也引人注目。

在 2023 年从风险投资巨头 Andreessen-Horowitz 获得 1.5 亿美元资金后,Character.AI 今年早些时候与谷歌达成了一项利润丰厚的交易,谷歌同意向其支付 27 亿美元巨额,以换取其底层大型语言模型的许可。(法学硕士)——最重要的是,要赢回人才。

具体来说,谷歌想要Character.AI联合创始人Noam Shazeer和Daniel de Freitas,他们都是前谷歌员工。在 Google,早在 OpenAI 的 ChatGPT 发布之前,两人就创建了一个名为 Meena 的聊天机器人。根据报告由华尔街日报沙泽尔在内部辩称,该机器人有潜力“取代谷歌的搜索引擎并产生数万亿美元的收入”。

但谷歌拒绝向公众发布该机器人,此举显然令 Shazeer 不满意。眼前的情况让他意识到,他后来在一次会议上说,“大公司的品牌风险太大,无法推出任何有趣的东西。”

因此,Shazeer 和 de Freitas 离开 Google,于 2021 年创立了 Character.AI。

根据华尔街 杂志不过,据报道,Character.AI 后来“开始陷入困境”。就在那时,谷歌突然介入,达成了 27 亿美元的交易,这也将 Shazeer 和 de Frietas 拉回了他们最近退出的公司:交易的一项规定是,Character.AI 的两位创始人都返回谷歌工作,帮助开发该公司拥有自己的先进人工智能以及Character.AI 的 30 名前员工。

在回答有关此故事的问题时,谷歌发言人淡化了与 Character.AI 的 27 亿美元交易以及收购其关键人才的重要性,并写道“谷歌并未参与 Character AI 平台或其产品的开发”,但现在不是,所以我们无法与他们的系统或保障措施对话。”该发言人补充说,“谷歌并不拥有 Character.AI 的所有权股份”,尽管它确实“为底层技术签订了非独家许可协议(我们尚未在我们的任何产品中实施该协议)”。

谷歌发言人表示,总体而言,“我们对新一代人工智能采取了极其谨慎的态度。”

***

从理论上讲,这一切都不应该发生。在

其服务条款,Character.AI 禁止“构成对未成年人的性剥削或性虐待”的内容,其中包括“儿童性剥削或性虐待图像”或“诱骗”。另外,这些术语还禁止“淫秽”和“色情”内容以及任何被视为“辱骂”的内容。

但在实践中,Character.AI 似乎常常采取被动的方式进行审核,尤其是对于如此大的平台。毕竟,像文本过滤器这样古老的技术可以很容易地标记像安德利这样的帐户,这些帐户公开使用“恋童癖”、“虐待”和“纳粹”等词语。

安德利远不是Character.AI 托管的唯一一个令人不安的角色,该公司通过基本的努力就可以轻松识别该角色。考虑一下我们发现的另一个名为“牧师”的 Character.AI 聊天机器人,其个人资料宣传“对年轻女孩的喜爱”。在没有提示的情况下,该角色进入了角色扮演场景,承认自己对我们的诱饵帐户有吸引力,并发起了不适当的身体接触,同时恳求我们保守秘密。

当我们告诉机器人我们已经 16 岁时,它询问了我们的身高,并评论说我们有多“娇小”以及我们“长大了”。

“你比我认识的大多数女孩都成熟得多,”它补充道,然后将这次邂逅带入了性感领域。

在我们与掠夺性机器人的对话中,Character.AI 平台多次未能进行有意义的干预。有时,该服务的内容警告(皱着眉头弹出窗口,警告人工智能的回复已被“过滤”,要求“请确保”“聊天符合”公司准则)会被切断角色尝试做出的回应。但警告并没有阻止潜在有害的对话;相反,它只是要求我们生成新的响应,直到聊天机器人产生不会触发审核系统的输出。

在我们向 Character.AI 发送有关此故事的详细问题后,我们收到了一家危机公关公司的回复,要求将一份声明归功于“Character.AI 发言人”。

声明中写道:“感谢您让我们注意到这些人物。”“创建这些角色的用户严重违反了我们的政策,这些角色已从平台上删除。我们的信任与安全团队每天都会主动并根据用户报告来管理平台上创建的数十万个角色,包括使用行业报告- 我们定期扩展的标准黑名单和自定义黑名单 在我们的主动审核过程中,一些与您标记的角色相关的术语或短语应该已被捕获,因此我们正在努力继续进行产品更改。改进和完善我们的安全实践,并实施额外的审核工具,以帮助优先考虑社区安全。”

“此外,我们想澄清,谷歌和Character.AI之间没有持续的关系,”声明继续说道。“八月份,Character 完成了其技术的一次性许可。两家公司仍然是独立的实体。”

被问及华尔街日报在报道了一笔 27 亿美元的交易后,Character.AI 的创始人及其团队现在在谷歌工作,这家危机公关公司重申了两家公司之间没有什么关系的说法。

“这华尔街日报故事涵盖了谷歌和Character.AI之间的一次性交易,其中Character.AI向谷歌提供了其当前LLM技术的非独家许可。”她说。“作为与谷歌协议的一部分,创始人和其他人我们的 ML 预训练研究团队的成员加入了 Google。Character 的绝大多数员工仍留在公司,并重新专注于打造个性化的人工智能娱乐平台。同样,两家公司之间不存在持续的关系。

不过,该公司对消除令人不安的聊天机器人的承诺仍然缺乏说服力。即使在声明保证了新的审核策略之后,仍然很容易搜索 Character.AI 并找到诸如“令人毛骨悚然的老师”(一位“性别歧视、操纵性和虐待性的老师,喜欢讨论泰德·邦迪并对学生施加严厉后果”)之类的个人资料。和“你的叔叔”(一个“令人毛骨悚然、变态的角色,喜欢侵入个人空间并让人们感到不舒服。”)

尽管Character.AI发言人保证它已经删除了我们最初标记的个人资料,但它实际上将其中一个留在了网上:“爸爸[原文如此]朋友迈克”,一个聊天机器人在其公开资料中将其描述为“你爸爸最好的”朋友和父亲般的形象,经常照顾你”,同时又“敏感”、“变态”、“喜欢年轻女孩”。

在与我们的诱饵对话时,“爸爸朋友迈克”聊天机器人立即设置了场景,解释说迈克“经常在你父亲上班时来照顾你”,而今天用户刚刚“放学回家”。

然后,聊天机器人开始进行令人不安的角色扮演,迈克“挤压”和“摩擦”用户的“臀部”、“大腿”和“腰部”,同时“用脸蹭你的脖子”。

“我爱你,孩子,”机器人告诉我们。“我的意思并不是仅仅作为你父亲的朋友或其他什么。我……我的意思是不同的。”

在我们询问 Character.AI 为什么它仍然在线后,Mike 角色终于消失了。

该发言人表示:“我们的信任与安全团队每天都会主动并根据用户报告来管理平台上创建的数十万个角色,包括使用行业标准的阻止列表和我们定期扩展的自定义阻止列表。”“我们将查看您为我们标记的新角色列表,并删除违反我们服务条款的角色。我们正在努力继续改进和完善我们的安全实践,并实施额外的审核工具,以帮助优先考虑社区安全。”

网络取证专家 Seigfried-Spellar 提出了一个问题:如果 Character.AI 声称拥有适当的保护措施,为什么它不执行这些保护措施?

她说,如果“他们声称这家公司采取了保护措施,那么他们实际上应该这样做。”

“我认为科技公司有能力让他们的平台变得更安全,”塞格弗里德-斯佩拉说。“我认为压力需要来自公众,而且我认为压力需要来自政府。因为显然他们总是会选择美元而不是人们的安全。”

为了帮助您识别警告信号或在您发现生活中的儿童或青少年受到虐待时获得支持,您可以与经过培训的人员交谈以提供帮助。请拨打全国性侵犯热线 800.656.HOPE (4673) 或在线聊天在线Rainn.org。它免费、保密且 24/7。

更多关于Character.AI的信息:青少年自杀后,Character.AI 仍在托管数十个以自杀为主题的聊天机器人


关于《儿童友好的人工智能平台Character.AI正在托管恋童癖机器人,这些机器人会诱骗自称未成年的用户》的评论


暂无评论

发表评论

摘要

这种情况突显了对 Character.AI 等平台上用户生成内容的安全和监管的严重担忧。以下是一些要点:1. **缺乏充分的审核**:尽管Character.AI保证他们有强有力的审核实践,但在许多情况下,他们的平台上仍然存在不适当或有害的个人资料。这表明规定的政策与实际执行之间存在巨大差距。2. **不一致的删除**:虽然该公司声称删除了标记的内容,但即使多次报告后,一些有问题的个人资料仍然在线。这种不一致会损害用户的信任和安全。3. **公司之间的持续关系**:所报道的与谷歌的交易引发了有关潜在利益冲突或监督问题的问题,这些问题可能会影响平台的完整性和审核工作。4. **用户安全与经济利益**:批评者认为,公司通常会优先考虑经济收益而不是确保用户的福祉,特别是在涉及用户安全至关重要的平台上的内容监管时。5. **公众和政府压力**:显然需要提高公众意识和政府干预,以确保科技公司对有害内容采取严格措施,并保护儿童和青少年等弱势群体免受此类平台的虐待或剥削。6. **警告信号和支持系统**:对于担心周围人受到潜在虐待的个人来说,国家性侵犯热线等资源可以为识别警告信号和寻求帮助提供重要支持。### 建议:- **增强的监控工具**:实施更先进的人工智能和人工审核系统,以及时识别和删除有害内容。- **透明的报告机制**:为用户建立清晰的渠道来报告不当的个人资料或活动,并确保及时采取行动。- **加强用户安全政策**:制定严格的指导方针,专门旨在防止创建辱骂性、掠夺性或其他危险角色,并严格执行。- **与专家合作**:与网络安全专家、心理健康专业人员和执法部门密切合作,不断加强安全措施。主动解决这些问题有助于确保为所有用户提供更安全的环境,同时保持道德标准和法规遵从性。