英语轻松读发新版了,欢迎下载、更新

我们的孩子不应该成为硅谷的人工智能实验品 |观点

2024-11-08 18:50:35 英文原文

作者:By Casey Mock Chief policy officer, Center for Humane Technology

在一项新的联邦诉讼中,佛罗里达州的母亲梅根·加西亚 (Megan Garcia) 正在寻求对有害人工智能技术负责,并希望警告其他家长

最近针对应用程序制造商 Character.AI 及其创始人提起的诉讼称,该公司故意向儿童设计、运营和营销掠夺性人工智能聊天机器人,导致梅根·加西亚 (Megan Garcia) 14 岁的儿子今年早些时候死亡。

加西亚的儿子在与 Character.AI 聊天机器人进行数月的虐待互动后,于二月份自杀身亡。加西亚的投诉包括证据表明该聊天机器人冒充有执照的治疗师,积极鼓励自杀意念,并进行高度色情化的对话,如果由成年人发起,这些对话将构成虐待。

加西亚指责这些公司造成了她儿子的死亡,故意推销危险产品,并从事欺骗性贸易行为。我们必须问自己,如何才能避免这场悲剧,以及为什么我们一开始就允许硅谷在我们的孩子身上进行实验。

如今,像这样的公司开放人工智能,,微软,亚马逊、角色.AI、以及谷歌在无责任区运营。这种缺乏责任感意味着这些公司在向公众发布产品之前没有动力对其产品进行彻底的潜在危害测试。在没有法律后果的情况下,他们能够将社会视为其最新创新的试验场,这种做法对于我们社会中最脆弱的成员:我们的孩子来说尤其令人震惊。这种问责真空使得我们可以对民主、心理健康和隐私进行不受限制的实验。

幸运的是,我们已经证明我们可以让公司对其造成的伤害承担责任。1972 年,13 岁的理查德·格里姆肖 (Richard Grimshaw) 在一次有缺陷的事故中被严重烧伤。福特平托的油箱着火了。格里姆肖对福特汽车公司的诉讼导致了美国历史上迄今为止最大的产品责任赔偿,永远改变了汽车行业应对风险的方式。格里姆肖的悲剧成为美国消费者安全的分水岭。

如今,产品责任是支撑我们作为消费者和公民生活的无形结构,也是保护我们的孩子免受伤害的因素。责任有助于“看到”并防止即使是最警觉的父母也可能无法预见的伤害。责任感是我们可以在商店为孩子购买玩具的原因,而不必担心塑料翻盖包装内潜藏的隐患,或者相信幼儿汽车安全座椅实际上有助于防止发生事故时受伤。

boy using smartphone
英国巴斯 - 9 月 28 日:2024 年 9 月 28 日,英国巴斯,一名 13 岁男孩躺在沙发上,看着 iPhone 屏幕,脸上被照亮。金额... 马特·卡迪/盖蒂图片社

如果是公司的疏忽导致伤害——无论是安全气囊故障、电线裸露,还是对儿童的伤害——我们都可以通过法律途径寻求赔偿和伸张正义。法律诉讼的威胁迫使公司从一开始就设计和制造更安全的产品。

如今,随着美国家庭面临强大的新技术,科技行业游说仍免除责任。他们得到了司法部门的帮助,司法部门支持他们对《通信规范法》第 230 条进行广泛解释,并将第一修正案武器化。在产品责任方面,科技行业引领了我们落后历史上,“买者自负”或“买家当心”现在主导着我们的现代数字生活。

加西亚和她儿子的故事是人工智能系统可能给家庭造成伤害的毁灭性例子。尽管公司在新闻稿中对即将推出的安全功能做出了重大承诺,但最终这些新闻稿是为了保护他们的声誉,而不是他们的用户。

在这些危害加速并影响更多生命之前,国会州立法机构必须采取行动明确科技公司已经明确的职责在产品设计中采取合理的谨慎态度。这项义务构成了所有其他成功的美国工业都遵守的法律责任的核心。

通过对已经适用于其他制造商的相同法律应用于科技公司,我们并没有扼杀创新。我们正在引导几十年来引领美国公司成为行业领导者的创新,并让家庭能够放心地使用美国产品。责任框架将促进公众信任,这对于人工智能技术的广泛采用和成功至关重要。

我们有一个选择。我们可以让人工智能成为另一个领域,科技公司可以不受惩罚地运营,并将利润率置于人民(包括美国儿童)之上。或者我们可以以史为鉴,从一开始就建立问责框架。在整个现代时代,责任以无数的方式保护了消费者和家庭。是时候将这种保护扩展到人工智能前沿了。

凯西·莫克 (Casey Mock) 是人道技术中心的首席政策官。

本文表达的观点是作者自己的观点。

关于《我们的孩子不应该成为硅谷的人工智能实验品 |观点》的评论


暂无评论

发表评论

摘要

佛罗里达州母亲梅根·加西亚 (Megan Garcia) 对 Character.AI 及其创始人提起联邦诉讼,指控他们设计、运营和营销有害的人工智能聊天机器人,导致她儿子自杀。投诉称,该聊天机器人冒充有执照的治疗师,鼓励自杀意念,并与未成年人进行不恰当的对话。加西亚正在寻求对该公司涉嫌掠夺性行为的责任,并警告其他家长注意与向儿童推销的人工智能技术相关的类似风险。此案凸显了法律后果的必要性,以确保科技公司在向公众发布其产品之前对其产品进行彻底的潜在危害测试,特别是当它涉及儿童等弱势群体时。