法官关于移民代理使用人工智能的脚注引发了准确性和隐私问题

2025-11-26 15:25:00 英文原文

作者:By CLAUDIA LAUER

�  

最近,一名联邦法官在一份长篇大论的法院意见中夹着两句话脚注,指责移民代理使用人工智能撰写使用武力报告,引发人们的担忧,担心这可能会导致不准确,并进一步削弱公众对警方处理移民问题的信心。镇压芝加哥地区和随后的抗议活动。

美国地区法官萨拉·埃利斯 (Sara Ellis) 在 223 页的文件中写下了脚注意见上周发布,指出使用 ChatGPT 撰写使用武力报告的做法损害了特工的可信度,并且“可能解释了这些报告的不准确性。”她描述了她在至少一个随身摄像机视频中看到的内容,写道一名特工在向该程序提供了简短的描述和几张图像后,要求 ChatGPT 编写一份报告的叙述。

法官指出,有关执法部门反应的官方叙述与随身摄像机镜头显示的内容之间存在事实差异。但专家表示,使用人工智能来撰写报告,依赖于官员的具体观点而不利用官员的实际经验,是该技术最糟糕的使用方式,并引发了对准确性和隐私的严重担忧。

军官所需的视角

全国各地的执法机构一直在努力解决如何创建护栏允许警员使用日益可用的人工智能技术,同时保持准确性、隐私性和专业性。专家表示,意见中列举的例子并没有应对这一挑战。

——这家伙所做的事情是世界上最糟糕的。给它一个句子和几张图片——如果这是真的,如果这就是这里发生的事情——这违背了我们现有的每一条建议。这是一个噩梦般的场景,”南卡罗来纳大学犯罪学助理教授伊恩·亚当斯 (Ian Adams) 说,他是无党派智库刑事司法委员会人工智能工作组的成员。

关注我们的 WhatsApp 频道,了解最新新闻和美联社精选内容。

继续 WhatsApp

美国国土安全部没有回应置评请求,也不清楚该机构是否有关于特工使用人工智能的指导方针或政策。命令中引用的随身摄像机镜头尚未公布。

亚当斯表示,很少有部门制定政策,但那些部门在撰写证明执法决定合理性的报告时,尤其是使用武力报告时,经常禁止使用预测人工智能。法院在考虑使用武力是否合理时建立了一个称为客观合理性的标准,很大程度上依赖于官员的观点。

“我们需要该事件的具体事件以及该特定官员的具体想法,让我们知道这是否是合理使用武力,”亚当斯说。“这是最坏的情况,除了明确告诉它编造事实之外,因为你在这种高风险的情况下乞求它编造事实。”

私人信息和证据

除了引发人们对人工智能生成的报告无法准确描述所发生事件的担忧之外,人工智能的使用还引发了潜在的隐私问题。

纽约大学法学院警务项目参谋长兼技术政策顾问凯蒂·金赛 (Katie Kinsey) 表示,如果命令中的特工使用的是公共 ChatGPT 版本,他可能不明白,他在上传图像的那一刻就失去了对图像的控制,从而使它们成为公共领域的一部分,并可能被不良行为者使用。

金赛表示,从技术角度来看,大多数部门都在建造飞机,就像飞机在人工智能方面飞行一样。她表示,执法部门通常会等到新技术被使用(在某些情况下甚至犯了错误)之后才讨论制定指导方针或政策。

“你宁愿以相反的方式做事,了解风险并围绕风险制定防护措施,”金赛说。– 即使他们没有研究最佳实践,也有一些唾手可得的成果可以提供帮助。我们可以从透明度开始。 –

金赛表示,虽然联邦执法部门考虑如何使用或不使用该技术,但它可以采取类似犹他州或加利福尼亚州最近实施的政策,在这些政策中,使用人工智能编写的警方报告或通信必须被贴上标签。

谨慎使用新工具

警官用来生成叙述的照片也引起了一些专家的准确性担忧。

Axon 等知名科技公司已开始提供人工智能组件使用随身摄像机协助撰写事件报告。这些向警方销售的人工智能程序在一个封闭的系统上运行,并且在很大程度上仅限于使用随身摄像机的音频来产生叙述,因为这些公司表示,尝试使用视觉效果的程序不够有效。

– 有许多不同的方式来描述颜色、面部表情或任何视觉成分。你可以询问任何人工智能专家,他们会告诉你不同人工智能应用程序之间的提示会返回截然不同的结果,而视觉组件会让情况变得复杂。”乔治华盛顿大学法学院法学教授安德鲁·格思里·弗格森 (Andrew Guthrie Ferguson) 说。

——还有一个专业问题。我们可以接受警察使用预测分析吗?”他补充道。– 这是关于模型认为应该发生的事情,但可能不是实际发生的事情。您不希望最终出现在法庭上的情况,以证明您的行为是正当的。”

关于《法官关于移民代理使用人工智能的脚注引发了准确性和隐私问题》的评论


暂无评论

发表评论