英语轻松读发新版了,欢迎下载、更新

残疾、无障碍和人工智能 |通过斯蒂芬妮·柯默 |2024 年 9 月 - 迈向数据科学

2024-09-16 20:39:45 英文原文

残疾、无障碍和人工智能

讨论人工智能如何帮助和伤害残疾人

我最近读到了美国大学的 Johnathan Flowers 博士 9 月 4 日在 Bluesky 上发表的一篇帖子,内容是 NaNoWriMo 的组织者发表声明称他们批准人们使用 LLM 聊天机器人等生成式人工智能作为该项目的一部分,从而引发了争吵。年事件。

<块引用>

就像,艺术往往是一个可以克服残疾身心与世界之间不适应的地方,而无需依赖健全的慷慨或强迫亲密。如果说我们需要人工智能的帮助,那就等于忽略了所有这些。-博士。乔纳森·弗劳尔斯,2024 年 9 月 4 日

博士。弗劳尔斯认为,组织者特别指出这一决定是为了向残疾人和边缘化群体提供机会,但他们低估了这些群体的创造力和参与艺术的能力。作为一名残疾人,他指出,艺术是社会上相对少数的几个领域之一,其中残疾可能不像在交通不便的空间中那样成为参与的障碍。

自最初的声明以及这一批评和其他许多批评以来,NaNoWriMo 组织者已经软化或收回了他们的一些声明,本周早些时候的最新帖子似乎有所增强。不幸的是,正如经常发生的那样,社交媒体上的大部分对话都变成了毫无成效的讨论。

我之前曾在这个空间中谈到过评估生成人工智能参与艺术时的真正含义的困难,但我仍然坚持我的观点,即作为艺术的消费者,我正在寻求与另一个人的观点的联系,并且世界观,所以人工智能生成的材料对我来说不感兴趣。然而,我并没有花太多时间思考人工智能作为辅助工具的作用,这就是我今天想讨论的内容。

<块引用>

我不是一个身体残疾的人,所以我只能作为一个社会科学家和一个社区的旁观者来探讨这个话题。我的观点仅代表我自己,不代表任何社区或组织。

框架

在最近的一次演讲中,我被要求从人工智能的定义开始,我总是有点害怕这个定义,因为它是如此模糊和困难,但这次我对它进行了新的尝试,并阅读了一些最新的定义监管和政策讨论,并得出以下结论:

<块引用>

人工智能:使用某些形式的机器学习来完成原本必须由人类完成的劳动。

我仍在参加研讨会,并且随着世界的变化可能会永远如此,但我认为这对今天的讨论很有用。请注意,这并不将我们的对话限制在生成人工智能上,这一点很重要。关于人工智能的对话特别涉及应用机器学习(无论是否涉及深度学习)来完成我们目前可用的任何其他方式无法自动化的任务。

关于残疾的社会理论是一个独立的学科,具有巨大的深度和复杂性。与对其他群体的讨论和学术研究一样,对于这个社区的实际成员来说,不仅要让他们的声音被听到,而且要引导有关他们如何受到对待以及他们在更广泛的社会中的机会的讨论非常重要。根据我对该领域的了解,我想优先考虑残疾人是否拥有他们想要的自主权和独立性,以及获得与非残疾人相当的机会和成果所需的支持。还值得一提的是,许多最初为帮助残疾人而开发的技术对所有人都有帮助,例如自动门。

人工智能作为工具

那么,人工智能在这一目标中到底能发挥什么作用呢?人工智能对残疾人有利吗?总体而言,技术(而不仅仅是人工智能相关的开发)已经以多种方式应用,为残疾人提供原本不可能实现的自主性和独立性。任何像我一样在过去几周观看过巴黎残奥会的人都能够以这种方式想到技术的例子。

但我很好奇人工智能可以提供哪些其他方面没有的功能,以及可能存在哪些缺点或风险。事实证明,关于这个问题已经做了很多非常有趣的学术研究,并且还在继续发布。我将简要概述几个关键领域,如果您有兴趣深入研究其中任何一个领域,我将提供更多资源。

积极因素

神经和沟通问题

这似乎应该是人工智能工具的一个很好的驾驶室。大语言模型对于重述、改写或总结文本非常有用。当人们在阅读长文本/集中注意力时遇到困难时,是否有能力生成准确的摘要可以决定这些人能否理解文本主题。这不一定是整个文本的替代,但可能是增强读者理解的工具。(就像悬崖笔记,但它们应该被使用的方式。)我不建议向大语言模型直接询问段落的含义,因为这更有可能产生错误或不准确,但总结已经存在的文本是一个很好的用例。

其次,在进行或使用口头交流方面有困难的人可以获得人工智能工具的支持。这些技术可以获取口语文本并生成高度准确的自动转录,这对于失语症患者来说可能更容易理解,或者可以让说话有困难的人编写文本并将其转换为听起来高度逼真的人类文本说话的声音。(真的,AI合成语音最近变得这么神奇!)

这甚至还没有涉及人工智能如何帮助有听力障碍的人!助听器可以使用模型来识别和隔离用户想要关注的声音,并减少干扰或背景噪音。任何使用主动降噪技术的人都可以从这种技术中受益,它是对残疾人和健康人都有帮助的一个很好的例子。

视觉和图像

对于有视觉障碍的人来说,数字参与可能会遇到障碍,包括为屏幕阅读器设计的网站设计不佳,以及缺乏描述图像内容的替代文本等。模型越来越擅长识别图像中的对象或特征,如果可以广泛使用,这可能是一种非常有价值的人工智能形式,以便屏幕阅读软件可以生成自己的替代文本或图像描述。

  • https://tink.uk/thoughts-on-screen-readers-and-image-recognition/
  • https://www.theverge.com/2022/3/18/22984474/microsoft-edge-automatic-image-labels-accessibility-feature
  • 人工智能计算机视觉和图像识别的应用(2022 年 1 月)

假肢

还有一些形式的人工智能可以帮助假肢和物理辅助工具更好地工作。我不一定指的是使用神经植入的技术,尽管这类事情正在研究中,但有许多模型可以学习人体运动的物理原理,以帮助计算机驱动的假肢更好地为人们工作。它们可以与肌肉和神经末梢整合,或者可以巧妙地使某些运动自动化,从而有助于上肢假肢的精细运动技能等。下半身假肢可以使用人工智能来更好地理解和产生步幅和流动性等。

  • 人工智能在假肢领域的应用(2024 年 3 月)
  • 人工智能如何为下一代假肢提供动力(2023 年 1 月)

否定

表示和擦除

好的,这只是人工智能可以为残疾人需求做的一些伟大的事情。然而,我们还应该花一些时间讨论人工智能可能对残疾人和整个社会产生不利影响的领域。这些领域大部分都是关于使用人工智能进行文化生产,我认为它们主要是由于这些模型复制并强化了社会偏见和歧视这一事实造成的。

例如:

  • 由于我们的社会结构不会优先考虑或突出残疾人及其需求,因此模型也不会。我们的社会充斥着体能歧视,这在人工智能生成的文本中得到了体现。我们可以明确地尝试在即时工程中纠正这一点,但很多人不会花时间或考虑这样做。
  • 同样,人工智能模型生成的图像往往会消除各种在文化上不占主导地位或在媒体中不占主导地位的社区,包括残疾人。这些模型越多地使用包含残疾人在积极背景下的代表性的训练数据,效果就越好,但真实生活的代表性比例和拥有更多代表性之间总是存在天然的紧张关系,因为我们希望有更好的可见性和不是删除。

数据隐私和道德

该领域有两个主要主题对残疾人有潜在的负面影响。

  • 首先,人工智能很可能被用来对残疾人的愿望和能力做出假设,从而导致歧视。与任何群体一样,询问人工智能该群体可能喜欢什么、需要什么或认为什么是理想的,并不能替代让该社区实际参与影响他们的决策。但人们直接询问人工智能是很容易和懒惰的,而且这种情况无疑有时会发生。
  • 其次,数据隐私是一个复杂的话题。具体来说,当某人使用辅助技术(例如手机或网页的屏幕阅读器)时,这可以创建有关残疾状态的推断数据。如果这些数据没有得到仔细保护,个人的残疾状况或推断错误时所感知到的状况可能会成为一种责任,使该人在其他领域面临歧视的风险。我们需要确保某人是否使用辅助工具或功能被视为敏感的个人数据,就像有关他们的其他信息一样。

医疗偏见

当医学界开始在工作中使用人工智能时,我们应该仔细研究人工智能对包括残疾人在内的边缘群体的副作用。与大语言模型的使用可能意味着残疾人的实际声音在重要决策中被忽视类似,如果医疗专业人员使用大语言模型就残疾的诊断或治疗提供建议,则该建议将受到社会和文化负面偏见的影响这些模型携带。

这可能意味着非刻板或不常见的残疾表现可能会被忽视或忽视,因为模型必然难以理解异常值和特殊情况。这也可能意味着,当患者的生活经历与模型的预期或预测相反时,患者很难说服提供者相信他们的生活经历。正如我在其他工作中讨论的那样,人们可能对机器学习模型的准确性过于自信,而相比之下,人类的观点可能被视为不太可信,即使这不是一个合理的断言。

获取技术

还有很多其他技术我没有时间在这里介绍,但我确实想指出,技术的存在并不等同于残疾人可以轻松、负担得起地获得这些东西实际使用。残疾人在经济上往往处于不利地位,很大程度上是因为经济参与方面存在不必要的障碍,因此许多特殊的进步实际上对于许多可能需要它们的人来说是无法获得的。认识到这一点很重要,这是我们的社会需要承担责任的一个问题,特别是在美国的其他医疗保健领域,我们在满足人们对护理和工具的需求方面做得非常糟糕,使他们能够过上最好的生活以他们原本可以的方式生活和参与经济。

结论

这只是对该领域一些关键问题的粗略回顾,我认为这是我们这些从事机器学习工作的人需要注意的一个重要主题。我们开发的技术对于边缘人群(包括残疾人)既有好处,也有风险,我们的责任是在工作时考虑到这一点,并尽最大努力减轻这些风险。

进一步阅读

https://slate.com/technology/2024/09/national-novel-writing-month-ai-bots-controversy.html

请访问 www.stephaniekirmer.com 阅读我的更多作品。

关于《残疾、无障碍和人工智能 |通过斯蒂芬妮·柯默 |2024 年 9 月 - 迈向数据科学》的评论


暂无评论

发表评论

摘要

残疾、无障碍和人工智能关于人工智能如何帮助和伤害残疾人的讨论我最近读到了美国大学的 Johnathan Flowers 博士 9 月 4 日在 Bluesky 上发表的一篇帖子,内容是 NaNoWriMo 的组织者发表声明称他们批准人们使用 LLM 聊天机器人等生成式人工智能作为今年活动的一部分,由此引发的争吵。我之前曾在这个领域谈到过评估生成人工智能参与艺术时的真正含义的困难,但我仍然坚持我的观点,作为艺术的消费者,我正在寻求与另一个人的观点和观点的联系。世界,所以人工智能生成的材料对我来说不感兴趣。取景在最近的一次演讲中,我被要求从人工智能的定义开始,我总是有点害怕它,因为它是如此模糊和困难,但这次我对它进行了新的尝试,并阅读了一些最新的监管和政策讨论,并得出以下结论:人工智能:使用某些形式的机器学习来完成原本必须由人类完成的劳动。人工智能在假肢中的应用(2024 年 3 月)人工智能如何帮助驱动下一代假肢(2023 年 1 月)负面因素表示和删除好的,这只是人工智能可以为残疾人需求做的一些伟大的事情。与大语言模型的使用可能意味着残疾人的实际声音在重要决策中被忽视类似,如果医疗专业人员使用大语言模型就残疾的诊断或治疗提供建议,则该建议将受到社会和文化负面偏见的影响这些模型携带。