英语轻松读发新版了,欢迎下载、更新

法官拒绝声称AI在不法死亡诉讼中具有言论自由权

2025-05-22 15:25:16 英文原文

作者:Character.AI statement

由 Euronews与AP

出版

广告

一名美国联邦法官决定让错误的死亡诉讼继续反对人工智能(AI)公司角色。

该诉讼是由佛罗里达州的一位母亲提起的,她声称她的14岁儿子Sewell Setzer III成为该公司聊天机器人之一的受害者,该机器人将他带入了她所描述的情感和性虐待关系,导致了他的自杀。

该诉讼称,在他一生的最后几个月中,塞策越来越孤立,因为他与机器人进行了性化对话,这是在电视节目“《权力的游戏》中的虚构人物'中构成的。

根据交流的屏幕截图,该机器人在最后时刻告诉Setzer,它爱他,并敦促这名少年“尽快回家”。

根据法律文件,收到消息后的片刻,Setzer自杀了。

Garcia的律师之一,《科技正义法》项目的Meetali Jain说,法官的命令传达了一条信息,即硅谷“需要停下来思考,并强加护栏在推出产品上市之前”。

角色.ai说它“深切地”对安全

该公司试图争辩说,它受到美国宪法的第一修正案的保护,该修正案保护了诸如言论自由之类的美国人的基本自由。

开发商的律师希望驳回此案,因为他们说聊天机器人应该得到这些第一修正案的保护,否则裁定可能会对AI行业产生“令人毛骨悚然的影响”。

美国高级法官安妮·康威(Anne Conway)在周三的命令中拒绝了一些被告的言论自由主张,称她“不准备”认为聊天机器人的输出在此阶段构成了演讲。

在一份声明中,角色发言人指出了该公司已实施的许多安全功能,包括儿童护栏和预防自杀资源,这些资源已宣布,这些资源已宣布提起诉讼。

声明说:“我们非常关心用户的安全,我们的目标是提供一个吸引人和安全的空间。”

针对角色技术的诉讼,角色。

Google发言人Josâ©Castaã±Eda告诉美联社,该公司与Conway法官的裁决“完全不同意”。

该声明阅读说:“ Google和角色AI完全是分开的,Google没有创建,设计或管理字符AI的应用程序或其中任何组件的部分。”

潜在的“测试案例”,用于更广泛的AI问题

该案引起了美国及其他地区法律专家和AI观察者的注意,尽管该技术迅速重塑了工作场所,市场和关系,尽管专家警告说,这是潜在的存在风险。

佛罗里达大学的法律教授Lyrissa Barnett Lidsky,命令说,该命令将其视为涉及AI的一些更广泛问题的潜在测试案例。

Lidsky说,不管诉讼是如何提出的,此案都警告“将我们的情感和心理健康委托给AI公司的危险”。

她说:“这是对父母的警告,社交媒体和生成的AI设备并不总是无害的。”

关于《法官拒绝声称AI在不法死亡诉讼中具有言论自由权》的评论


暂无评论

发表评论