警察局测试人工智能侦探处理真实犯罪 - 未来主义

2024-09-29 14:00:09 英文原文

正在分析...

机器人犯罪

据天空新闻报道,英国警察局正在测试一种人工智能驱动的系统,该系统可以将数十年的侦探工作压缩为短短几个小时,从而帮助解决悬案。

但目前还没有关于这个澳大利亚开发的名为 Soze 的平台的准确率的消息,这是一个主要问题,因为人工智能模型往往会给出非常不正确的结果或产生幻觉的捏造信息。

覆盖英格兰西南部部分地区的雅芳和萨默塞特警察局正在通过让 Soze 扫描和分析电子邮件、社交媒体帐户、视频、财务报表和其他文件来测试该计划。

天空报道称,人工智能能够在大约 30 小时内扫描 27 个“复杂”案件的证据,相当于人类 81 年的工作时间,这是令人震惊的。难怪这个警察部门有兴趣使用这个计划,因为这些数字听起来就像类固醇的力量倍增器,这使得它对在人员和预算限制方面可能捉襟见肘的执法部门特别有吸引力。

“你可能会进行一个悬而未决的案件审查,这看起来是不可能的,因为其中的材料量很大,并将其输入到这样的系统中,该系统可以吸收它,然后给你一个评估,”英国国家警察局长委员会主席加文·斯蒂芬斯告诉天空电视台。“我可以看到这真的非常有帮助。”

少数派报告

斯蒂芬斯提到的另一个人工智能项目正在整理一个刀具和剑的数据库,许多嫌疑人曾用这些数据库来攻击、致残或杀死英国的受害者。

斯蒂芬斯似乎对这些人工智能工具很快推出持乐观态度,但首先验证它们是否正常工作是有意义的。人工智能,尤其是在执法领域,是出了名的容易出错,并可能导致误报。

用于预测嫌疑人未来再次犯罪的可能性的模型是不准确的,而且对黑人也有偏见,这听起来像是直接来自菲利普·K·迪克的中篇小说《少数派报告》的内容,后来改编成2002年史蒂文·斯皮尔伯格电影。人工智能面部识别还可能导致错误逮捕,少数族裔多次因他们没有犯下的罪行而受到指控。

这些不准确之处非常令人担忧,以至于美国民权委员会最近批评了人工智能在警务中的使用。

人们认为,由于这些是进行分析的机器,因此它们将是万无一失且准确的。但它们是建立在人类收集的数据之上的,而人类可能会存在偏见并且完全错误,因此熟悉的问题从一开始就被纳入其中。

有关人工智能和警察工作的更多信息:警察称,产生幻觉的人工智能已准备好撰写可能将人们送进监狱的警方报告

分享这篇文章

关于《警察局测试人工智能侦探处理真实犯罪 - 未来主义》
暂无评论

摘要

正在分析...机器人犯罪据天空新闻报道,英国警察局正在测试一种人工智能驱动的系统,该系统可以将数十年的侦探工作压缩为短短几个小时,从而帮助解决悬案。英国国家警察局长委员会主席表示:“你可能会进行一个悬而未决的案件审查,这看起来是不可能的,因为其中的材料量很大,并将其输入到这样的系统中,该系统可以吸收它,然后对它进行评估。”加文·斯蒂芬斯告诉天空电视台。“人工智能,尤其是在执法领域,是出了名的容易出错,并可能导致误报。人工智能面部识别也可能导致错误逮捕,少数族裔反复因他们没有犯下的罪行而被指控。但它们是建立在收集的数据基础上的人类可能会带有偏见并且完全错误,因此熟悉的问题从一开始就被纳入其中。