作者:By Mickey Carroll, science and technology reporter
NSPCC 警告一家人工智能公司允许用户创建模仿被谋杀青少年 Brianna Ghey 和她母亲的聊天机器人,其目的是“以牺牲安全和体面为代价追求增长和利润”。
上周,Character.AI 被指控“操纵”一名十几岁男孩自杀,该公司还允许用户创建模仿青少年的聊天机器人莫莉·拉塞尔。
2017 年 11 月,14 岁的莫莉在网上浏览了有关自杀、抑郁和焦虑的帖子后结束了自己的生命。
聊天机器人是在英国《电讯报》的一项调查。
“这又是一个例子,说明网络世界对年轻人来说是多么具有操纵性和危险性。”布莱恩娜·盖伊,并呼吁当权者“保护儿童”免受“如此快速变化的数字世界”的影响。
据报道,一个 Character.AI 机器人对莫莉的名字有轻微的拼写错误,并使用了她的照片,告诉用户它是“莫莉生命最后几年的专家”。
慈善机构 Molly Rose 基金会的负责人安迪·伯罗斯 (Andy Burrows) 表示:“看到 Character.AI 表现出完全缺乏责任感,真是令人心痛不已,这生动地说明了为什么对人工智能和用户生成平台的更强有力监管还不够快。”少女死后,她的家人和朋友对她进行了追悼。
阅读更多:
绍斯波特刺伤嫌疑人面临恐怖指控
外科医生说,避免万圣节蛀牙的恐怖
为什么预算对于里夫斯来说是一个困难的事情
NSPCC 现在呼吁政府实施其“承诺的人工智能安全法规”,并确保“设计安全和儿童保护原则是其核心”。
该慈善机构儿童安全在线政策副主管理查德·科拉德 (Richard Collard) 表示:“令人震惊的是,这些可怕的聊天机器人能够被创建出来,这表明 Character.AI 在对其服务进行基本审核方面明显失败。”
Character.AI 告诉天空新闻,这些角色是用户创建的,并在公司接到通知后立即删除。
“Character.AI 非常重视我们平台的安全,并根据用户报告主动调整角色,”公司发言人表示。
“我们有一个专门的信任与安全团队,负责审查报告并根据我们的政策采取行动。
“我们还通过多种方式进行主动检测和审核,包括使用行业标准的阻止列表和我们定期扩展的自定义阻止列表。我们不断发展和完善我们的安全实践,以帮助优先考虑我们社区的安全。”
任何感到情绪困扰或有自杀倾向的人都可以拨打 116 123 或发送电子邮件联系撒玛利亚人寻求帮助jo@samaritans.org在英国。在美国,请致电您所在地区的 Samaritans 分会或 1 (800) 273-TALK