英语轻松读发新版了,欢迎下载、更新

人工智能的危害往往是在幕后发生的,并且随着时间的推移而逐渐形成——一位法律学者解释了法律如何适应以应对

2024-11-22 13:25:21 英文原文

作者:Sylvia Lu

当您滚动浏览社交媒体动态或让您最喜欢的音乐应用程序策划完美的播放列表时,您可能会感觉人工智能正在改善您的生活 - 了解您的喜好并满足您的需求。但在这种便利的外表背后,隐藏着一个日益严重的担忧:算法的危害。

这些危害并不明显或立竿见影。它们是阴险的,随着时间的推移,人工智能系统会在你不知情的情况下悄然做出有关你生活的决定。这些系统的隐藏力量正在变得重大威胁隐私、平等、自主和安全。

人工智能系统几乎嵌入现代生活的方方面面。他们建议您应该观看哪些节目和电影,帮助雇主决定他们想雇用谁,甚至影响法官决定谁有资格被判刑。但是,当这些通常被视为中立的系统开始做出使某些群体处于不利地位,或更糟糕的是,造成现实世界伤害的决策时,会发生什么?

人工智能应用经常被忽视的后果需要监管框架来跟上这种快速发展的技术的步伐。我研究法律与技术的交叉点,我已经概述了法律框架就是这样做。

缓慢烧伤

算法危害最引人注目的方面之一是它们的累积影响往往不为人所知。这些系统通常不会以您容易察觉的方式直接侵犯您的隐私或自主权。他们收集大量有关人们的数据(通常是在人们不知情的情况下)并使用这些数据制定影响人们生活的决策

有时,这会带来一些小不便,例如广告会在各个网站上跟随您。但由于人工智能的运作没有解决这些重复性伤害,它们可能会扩大规模,从而对不同人群造成严重的累积伤害。

考虑社交媒体算法的例子。它们表面上是为了促进有益的社会互动而设计的。然而,在看似有益的外表背后,他们默默地跟踪用户的点击和编制他们的政治信仰、职业关系和个人生活概况。收集的数据是用于做出相应决策的系统– 您是否被认定为乱穿马路的行人、考虑找工作或被标记为有自杀风险。

更糟糕的是,他们令人上瘾的设计让青少年陷入过度使用的循环之中,导致心理健康危机升级,包括焦虑、抑郁和自残。当您掌握全部情况时,为时已晚 - 您的隐私已被侵犯,您的机会被有偏见的算法所塑造,最脆弱群体的安全也受到损害,而这一切都是在您不知情的情况下发生的。

这就是我所说的 –无形的、累积的伤害–:人工智能系统在后台运行,但其影响可能是毁灭性的、无形的。

研究人员 Kumba Sennaar 描述了人工智能系统如何延续和加剧偏见。

为何监管滞后

尽管危险不断增加,世界各地的法律框架仍难以跟上。在美国,强调创新的监管方法使得很难对这些系统在多个环境中的使用方式施加严格的标准。

法院和监管机构习惯于处理具体的伤害,就像身体伤害或经济损失一样,但算法造成的伤害往往更加微妙、累积且难以察觉。这些法规往往无法解决人工智能系统随着时间的推移可能产生的更广泛的影响。

例如,社交媒体算法可以逐渐侵蚀用户的心理健康,但由于这些危害形成缓慢,因此很难在现行法律标准的范围内解决。

四种算法危害

借鉴现有的人工智能和数据治理学术成果,我将算法危害分为以下几类:四个法律领域:隐私、自主、平等和安全。这些领域中的每一个领域都容易受到人工智能系统微妙但往往不受控制的力量的影响。

第一种伤害是侵犯隐私。人工智能系统收集、处理和传输大量数据,以可能不会立即明显但具有长期影响的方式侵蚀人们的隐私。例如,面部识别系统可以追踪人在公共和私人空间,有效地将大规模监视变成常态。

第二种伤害是削弱自主权。人工智能系统通常会通过操纵您看到的信息来巧妙地削弱您做出自主决策的能力。社交媒体平台使用算法向用户展示最大化第三方利益的内容,巧妙地塑造意见、决定和行为覆盖数百万用户。

第三种伤害是平等性的减弱。人工智能系统虽然被设计为中立的,但通常继承了他们的数据和算法中存在的偏见。这随着时间的推移加剧社会不平等。在一个臭名昭著的案例中,零售商店使用面部识别系统来检测商店扒手女性和有色人种被错误识别的比例过高

第四种危害是危害安全。人工智能系统做出的决策影响人们的安全和福祉。当这些系统出现故障时,后果可能是灾难性的。但即使它们按照设计发挥作用,它们仍可能造成伤害,例如社交媒体算法 –对青少年心理健康的累积影响

因为这些累积危害往往是由人工智能应用产生的受商业秘密法保护,受害者无法发现或追踪伤害。这造成了责任上的差距。当算法导致有偏见的雇佣决定或错误逮捕时,受害者如何知道?如果没有透明度,几乎不可能让公司承担责任。

这段联合国教科文组织视频由来自世界各地的研究人员解释了人工智能的伦理和监管问题。

缩小问责差距

对算法危害的类型进行分类,划定了人工智能监管的法律界限,并提出了可能的法律改革,以弥合这一责任差距。我认为改变将有助于包括强制性算法影响评估,要求公司记录并解决人工智能应用程序在部署之前和之后对隐私、自主、平等和安全造成的直接和累积危害。例如,使用面部识别系统的公司需要评估这些系统在其整个生命周期中的影响。

另一个有益的改变是在使用人工智能系统方面加强个人权利,允许人们选择退出有害做法,并让某些人工智能应用程序选择加入。例如,要求企业对数据处理采用选择加入制度——使用面部识别技术识别系统并允许用户随时选择退出。

最后,我建议要求公司披露人工智能技术的使用及其预期危害。举例来说,这可能包括通知客户有关面部识别系统的使用以及类型中概述的领域的预期危害。

随着人工智能系统在从医疗保健到教育和就业的关键社会功能中得到更广泛的应用,监管它们可能造成的危害的需要变得更加紧迫。如果不进行干预,这些无形的危害可能会继续累积,影响到几乎所有人和不成比例地打击最弱势群体

随着生成式人工智能的成倍增加并加剧人工智能的危害,我认为政策制定者、法院、技术开发人员和民间社会认识到人工智能的法律危害非常重要。这不仅需要更好的法律,还需要对尖端人工智能技术采取更周到的方法——优先考虑的方法公民权利和正义面对快速的技术进步。

人工智能的未来拥有令人难以置信的前景,但如果没有正确的法律框架,它也可能会加剧不平等,并侵蚀在许多情况下旨在增强的公民权利。

关于《人工智能的危害往往是在幕后发生的,并且随着时间的推移而逐渐形成——一位法律学者解释了法律如何适应以应对》的评论


暂无评论

发表评论

摘要

随着人工智能 (AI) 技术越来越深入日常生活,这些技术带来的算法危害越来越令人担忧。这些危害往往是微妙且累积的,会影响隐私、自主、平等和安全,而不会立即被发现。人工智能系统虽然看似有益,但可能会导致长期的负面影响,例如决策偏见和青少年心理健康问题。当前的法律框架难以有效应对这些不断变化的威胁,因此需要采取新的监管措施,例如强制性算法影响评估以及对使用人工智能技术的公司提高透明度要求。如果不进行干预,人工智能的累积效应可能会对弱势群体造成不成比例的伤害,并损害社会福祉。