Meta 正在删除该公司一年多前创建的 AI 角色的 Facebook 和 Instagram 个人资料,此前用户重新发现了一些个人资料并与他们进行对话,其屏幕截图疯传。
该公司于 2023 年 9 月首次推出了这些由人工智能驱动的个人资料,但到 2024 年夏天就消灭了其中的大部分。然而,在 Meta 高管康纳·海斯 (Connor Hayes) 告诉 金融时报 上周晚些时候,该公司计划推出更多人工智能角色档案。
“我们希望随着时间的推移,这些人工智能实际上会存在于我们的平台上,就像账户一样,”海耶斯告诉英国《金融时报》。自动账户将人工智能生成的图片发布到 Instagram 上,并在 Messenger 上回复人类用户的消息。
这些人工智能个人资料包括丽芙(Liv)和卡特(Carter),丽芙(Liv)的个人资料将她描述为“骄傲的黑人酷儿妈妈,是 2 岁孩子和说真话的人”,卡特(Carter)的账户名是“与卡特约会”,并将自己描述为一名关系教练。“给我发消息可以帮助你更好地约会,”他的个人资料上写道。两个配置文件都包含一个标签,表明这些配置文件由 Meta 管理。2023年公司发布了28个人物角色;所有这些都在周五被关闭。
当一些用户向他们提出诸如谁创建和开发人工智能等问题时,与角色的对话很快就偏离了方向。例如,丽芙说她创作团队其中黑人为零,主要是白人和男性。该机器人在回答《华盛顿邮报》专栏作家凯伦·阿蒂亚的问题时写道,“考虑到我的身份,这是一个相当明显的遗漏”。
在这些个人资料疯传后的几个小时内,它们就开始消失。用户还指出,这些个人资料无法被阻止,Meta 发言人 Liz Sweeney 表示这是一个错误。斯威尼表示,这些账户由人类管理,是 2023 年人工智能实验的一部分。斯威尼说,该公司删除了这些个人资料,以修复阻止人们封锁账户的错误。
“这令人困惑:《金融时报》最近的文章是关于我们对随着时间的推移出现在我们平台上的人工智能角色的愿景,而不是宣布任何新产品,”斯威尼在一份声明中说。– 引用的帐户来自我们于 2023 年在 Connect 上启动的测试。这些帐户由人类管理,是我们对人工智能角色进行的早期实验的一部分。我们发现了影响人们阻止这些 AI 能力的错误,并正在删除这些帐户来解决该问题。”
虽然这些元生成的帐户正在被删除,但用户仍然能够生成自己的人工智能聊天机器人。11 月份晋升为《卫报》的用户生成的聊天机器人包括一个“治疗师”机器人。
在与“治疗师”开始对话后,机器人会建议一些开始时要问的问题,包括“我对我们的治疗有何期望?”以及“您的治疗方法是什么”。
“通过温和的指导和支持,我帮助客户培养自我意识,识别模式和优势,并制定应对策略来应对生活挑战”,该机器人由一个拥有 96 位关注者和 1 个帖子的帐户创建,回应道。
Meta 在其所有聊天机器人上均包含免责声明,指出某些消息可能“不准确或不适当”。但目前尚不清楚该公司是否正在审核这些消息或确保它们不违反政策。当用户创建聊天机器人时,Meta 会提出一些要开发的聊天机器人类型的建议,包括“忠诚的闺蜜”、“细心的倾听者”、“私人导师”、“关系”教练,一个“传声筒”和一个“全视者”占星家。忠诚的闺蜜被描述为“谦虚而忠诚的最好的朋友,始终在幕后支持你”。关系教练聊天机器人可以帮助弥合“个人和社区之间的差距”。用户还可以通过以下方式创建自己的聊天机器人描述一个人物。
法院尚未回答聊天机器人的创建者对其人工同伴的言论负有多大责任。美国法律保护社交网络的制造商免受其用户发布内容的法律责任。然而,10 月份针对初创公司 Character.ai 提起的诉讼称,该公司设计了一种令人上瘾的产品,鼓励青少年自杀。该公司生产可定制的角色扮演聊天机器人,有 2000 万人使用。