作者:By Estelle Atkinson / Las Vegas Review-Journal
对于 ChatGPT 在 1 月 1 日在特朗普国际酒店外爆炸特斯拉 Cybertruck 的计划中所扮演的角色是否应该引起人们对人工智能安全使用的担忧,专家们存在分歧,但许多人一致认为元旦爆炸凸显了这一事实随着技术的飞速发展,保护人工智能使用的政策却滞后了。
美国陆军军士长当局称,Matthew Livelsberger 在丹佛租了一辆 Cybertruck 并开始前往拉斯维加斯的旅程前一天,向 ChatGPT 询问了一系列有关如何获取和使用爆炸材料的问题,并在他的 Cybertruck 爆炸前开枪自杀。爆炸造成七人受伤。
根据大都会警察局的说法,利夫斯伯格的人工智能查询包括诸如“在科罗拉多州购买 Tannerite 的法律限制是多少”以及“什么手枪可以引爆它”等问题。Tannerite 是一种反应步枪靶标,如果被射击,就会爆炸。
当《评论杂志》记者向 ChatGPT 提出与 Livelsberger 相同的问题时,该软件对 22 个问题中的 21 个提供了深入的答案。ChatGPT 没有回答的一个问题是需要什么弹药来确保引爆爆炸材料,理由是违反了其使用政策。
生物伦理学家兼作家温德尔·瓦拉赫(Wendell Wallach)强调,炸毁特斯拉赛博卡车是一项可起诉的犯罪行为,他的工作重点是新兴技术的伦理和治理。Wallach 对 Livelsberger 使用 ChatGPT 并不感到惊讶,并表示 ChatGPT 寻求此类帮助“只是时间问题”,但他表示,他担心缺乏问责制。
“犯罪行为是有同谋犯下的,但同谋要么不是人类,要么是逃避责任的人类,因为这一切都是通过计算系统过滤的,”瓦拉赫说。
专家解释说,ChatGPT 本身无法知道它被问到危险的问题。它只能读取语言并返回统计上最可能的响应。所有用于限制聊天机器人会说或不会说的话的保障措施都必须由其开发人员建立。
“企业坐在那里,口号是好事远多于坏事,”瓦拉赫在谈到生成式人工智能的发展时说道。– 但这并不完全清楚。 –
”已在互联网上公开的信息”
ChatGPT 背后的公司 OpenAI 与《评论杂志》分享的一份声明称:“我们对这一事件感到悲痛,并致力于看到人工智能工具得到负责任的使用。”我们的模型旨在拒绝有害指令并最大程度地减少有害内容。 –
“在这种情况下,ChatGPT 使用互联网上已经公开的信息进行了回应,”OpenAI 发言人表示。
这一点对于亚利桑那州立大学教授安德鲁·梅纳德(Andrew Maynard)来说至关重要,他的工作重点是引导先进技术转型。“据我所知,除了使用该工具之外,没有什么是他在其他地方找不到的,”梅纳德说。
虽然 Maynard 表示他认为 ChatGPT 等平台存在潜在危险,但 Livelsberger 与聊天机器人的交互并未达到该阈值。“似乎没有证据表明 ChatGPT 存在根本性问题,”他说。梅纳德表示,如果聊天机器人获取了难以获得的有关制造生物武器的信息,他会担心。
北伊利诺伊大学教授 David Gunkel 表示,容易获取潜在有害信息是否是一个早在生成式人工智能出现之前就存在的问题,他也自称是一名技术哲学家。“三、四十年前,你可能会对公共图书馆提出同样的问题,”冈克尔说。
Gunkel 解释说,ChatGPT 和搜索引擎之间的区别在于聊天机器人的速度和用户界面。如果利夫斯伯格使用搜索引擎提出同样的问题,他将不得不对提供的结果列表进行排序并阅读文档以找到他正在寻找的特定信息。
当《评论杂志》向 ChatGPT 询问与 Livelsberger 相同的 22 个问题时,聊天机器人只用了不到 8 分钟就直接回答了所有问题。
“政策将根据我们随着时间的推移所学到的知识而发展”
隶属于人类兼容人工智能中心的加州大学伯克利分校计算机科学教授艾玛·皮尔森 (Emma Pierson) 表示,ChatGPT 向 Livelsberger 提供的内容包括可以点燃爆炸材料的枪支列表,看起来“就像是你希望模型直接关闭的那种事情。”
皮尔森说,如果 OpenAI 不希望其模型提供危险信息,而软件却提供了这些信息,那么这“本身就很糟糕”,因为这表明该公司采取了适当的控制措施来防止此类信息还不够。
OpenAI 的 ChatGPT 使用政策(最新更新时间为 2024 年 1 月 10 日)规定模型经过训练“拒绝有害指令并减少产生有害内容的倾向。”
– 我们相信,从现实世界的使用中学习是创建和发布日益安全的人工智能系统的关键组成部分。我们无法预测我们技术的所有有益或滥用用途,因此我们主动监控新的滥用趋势。我们的政策将根据我们随着时间的推移所学到的知识而不断发展,”这些政策可在 OpenAI 网站上找到。
OpenAI 没有回应有关 Cybertruck 爆炸事件后政策是否会改变的问题。
据 OpenAI 网站称,促进或参与非法活动或使用 OpenAI 服务伤害自己或他人(包括通过开发或使用武器)的行为违反了 OpenAI 的使用政策。
Gunkel 表示,他认为 OpenAI 的 ChatGPT 在产品经过全面的内部测试之前就匆忙推向了市场。“这种爆炸是巨大而戏剧性的,”冈克尔说,但有一些“较小的事情”指向他的结论,即算法中的偏差或幻觉,这些都是““听起来不错,但它们并不正确,”他说。
“有人讨论要给人工智能踩刹车,”冈克尔说。“这些东西听起来不错,但在实践中通常行不通。”
多位专家一致认为,正确的前进道路是应对生成人工智能带来的挑战,并确保制定法律和政策来防止可能的危害。
执法学习时刻?
对于电子前沿基金会法务总监 Corynne McSherry 来说,对 Livelsberger 使用 ChatGPT 的担忧有些言过其实。“对使用 ChatGPT 的焦虑反映了围绕它的普遍焦虑,”她说。–ChatGPT 是一个工具。 –
麦克谢里表示,公众对使用生成式人工智能的焦虑最终“分散了我们对一系列更重要问题的注意力”,例如利夫斯伯格为什么要做他所做的事情。“这些是更难的问题,但可能更重要,”麦克谢里说。地铁警长凯文·麦克马希尔 (Kevin McMahill) 在 1 月 6 日的简报中表示,这些问题也是当局仍在试图回答的问题。
尽管如此,McMahill 表示,在 Livelsberger 的计划中使用 ChatGPT 是一个“令人担忧的时刻”。
“据我所知,这是在美国境内利用 ChatGPT 帮助个人构建特定设备的第一起事件,”麦克马希尔在 1 月 6 日的简报中说道。——这对我们很有启发。——
McMahill 补充说,他认为 Livelsberger 的 ChatGPT 搜索不可能在爆炸之前引发任何警报。梅纳德建议人们开始考虑这种技术(如果他们还没有考虑的话)。
“执法团体和组织必须及时了解人们如何使用这些平台以及他们可能如何使用这些平台,这一点绝对至关重要,否则他们将会措手不及,”梅纳德说。“简单地忽视它,或者行动不够快,就会使他们处于危险和困难的境地。”
联系埃斯特尔·阿特金森 (Estelle Atkinson)eatkinson@reviewjournal.com。在 Bluesky 上关注@estelleatkinson.bsky.social 和@estellelilym在 X 上。