作者:By Queenie WongStaff Writer June 3, 2025 4:48 PM PT
加利福尼亚州议员周二将更多的护栏围绕着人工智能驱动的聊天机器人,搬到了更近一步。
参议院通过了一项法案,旨在使聊天机器人更安全,因为父母对虚拟人物损害了他们的儿童心理健康。
该立法现在正前往加利福尼亚州议会,该立法表明,随着科技公司释放更多的AI驱动工具,州议员如何应对AI的安全问题。
参议员史蒂夫·帕迪拉(D-Chula Vista)说,该国正在再次关注加利福尼亚州的领导,他是参议院地板上介绍该法案的议员之一。
同时,立法者正试图平衡他们可能阻碍创新的担忧。反对该法案的团体(例如电子边境基金会)表示,根据参议院对该法案的分析,该立法过于广泛,会遇到言论自由问题。
根据参议院第243号法案,Companion Chatbot平台的运营商将至少每三个小时提醒用户虚拟字符。他们还会透露,伴侣聊天机器人可能不适合某些未成年人。
平台还需要采取其他步骤,例如实施一个协议,以解决用户表达的自杀意念,自杀或自我伤害。其中包括向用户自杀预防资源。
预防自杀和危机咨询资源
如果您或您认识的人正在为自杀念头而苦苦挣扎,请向专业人士寻求帮助,并致电9-8-8。美国第一全国三位数的心理健康危机热线988将与训练有素的心理健康顾问联系起来。在美国和加拿大的文字到741741危机文字行。
这些平台的运营商还将报告伴侣聊天机器人提出自杀念头或用户的动作以及其他要求的次数。
比尔的合着者之一阿基拉·韦伯·皮尔森(Akilah Weber Pierson)博士说,她支持创新,但也必须承担道德责任。
参议员韦伯·皮尔森(Weber Pierson)(D-la Mesa)说,当孩子开始更喜欢与AI互动而不是真实的人际关系时。
该法案将伴侣聊天机器人定义为能够满足用户社会需求的AI系统。它不包括企业用于客户服务的聊天机器人。
这项立法获得了父母的支持,他们开始与聊天机器人聊天后失去了孩子。其中一位父母是梅根·加西亚(Megan Garcia),他是佛罗里达州的一位妈妈,她的儿子Sewell Setzer III去年死于自杀。
在诉讼中,她声称该平台的聊天机器人伤害了儿子的心理健康,并且在对这些虚拟角色表达自杀念头时未能通知她或提供帮助。
角色,总部位于加利福尼亚州门洛公园(Menlo Park),是一个平台,人们可以在其中与模仿真实和虚构人物的数字角色创建和互动。该公司表示,这需要青少年的安全,并推出了一项功能,该功能为父母提供了更多有关其孩子在平台上花费聊天机器人花费的时间的信息。
角色。EAI要求联邦法院驳回诉讼,但联邦法官5月允许该案进行。