作者:Tech
民间社会组织批评委员会在一份联合声明中起草了模糊的《人工智能法》禁令指南,要求将人权和正义置于其核心。
《人工智能法案》对“不可接受的风险”系统的禁令将于 2 月 2 日生效,这可能会确定整个基于风险的框架的规模。然而,委员会尚未提供解释法律文本的指导方针,利益相关者抱怨 12 月的磋商迟到了,而且没有包括文件草案尽管一份在委员会内部流传的文件。
在一个陈述这些组织在周四发布的报告中要求将有问题的做法纳入条款中,以解决他们认为最终人工智能法案文本中的“严重漏洞”。
他们还希望委员会在与禁令磋商同时进行人工智能定义磋商后,决定“简单”系统应算作人工智能。
他们写道,他们担心开发人员可能会利用人工智能和高风险人工智能系统的定义来绕过人工智能法案的义务。这可以通过简化系统而不改变其功能来完成。
该声明由 21 个民间社会组织和四位教授签署,其中包括 Access Now、国际特赦组织和欧洲数字版权 (EDRi)。
EDRi 的政策顾问 Blue Tiyavorabun 在另一篇评论中批评了委员会的磋商流程,称其在透明度、包容性和可及性方面严重缺乏。Tiyavorabun 补充说,委员会应发出适当的通知并发布草案,以确保能够提供适当的反馈。
人工智能法案的大部分内容要求适用对于“高风险”人工智能系统,风险比“不可接受”禁止的用例但风险更大比大部分豁免 – 有限 – 风险领域。一个
提出的问题是该法案的基础,决定涵盖哪些系统以及涵盖系统的义务量。
民主与技术中心公平与数据项目顾问兼项目主任 Laura Lázaro Cabrera 告诉 Euractiv,如果被禁止的人工智能系统太少,可能会扭曲整个风险范围,从而提高被列为高风险的门槛。且风险有限。
然而,委员会几乎没有时间审查反馈,更不用说做出改变,正如委员会高级官员在本周的一次活动中表示,该指南将“很快”发布。
[爱丽丝·泰勒-布拉埃编辑]