Source: University of Maryland

关于作者

截至 |

Bridging code and conscience: UMD’s quest for ethical and inclusive AI Dashveenjit是一位经验丰富的科技和商业记者,致力于寻找并制作适合在线和印刷每日出版的故事。她还是一名有经验的议会记者,并偶尔涉足生活方式和艺术行业。


随着人工智能系统越来越多地渗透到我们日常生活中关键的决策过程中,将伦理框架融入AI开发已成为一个研究优先事项。在马里兰大学(UMD),跨学科团队应对规范性推理、机器学习算法和社会技术系统之间的复杂相互作用。

最近在接受采访时人工智能新闻博士后研究人员伊莉亚拉·卡纳沃托以及瓦伊什纳夫·卡梅斯瓦兰结合哲学、计算机科学和人机交互的专业知识应对紧迫挑战在人工智能伦理领域。他们的工作涵盖了将伦理原则嵌入人工智能架构的理论基础,以及人工智能在就业等高风险领域部署的实际影响。

人工智能系统的规范理解

伊拉里亚·卡纳沃托是马里兰大学价值观中心人工智能(VCAI)计划的研究人员,她隶属于高级计算机研究 institute 和哲学系。她正在解决一个基本问题:如何使AI系统具备规范性理解?随着人工智能在影响人权和福祉的决策中扮演越来越重要的角色,这些系统必须能够理解伦理和法律规范。

卡纳沃托说:“我研究的问题是,我们如何将这种信息,这种对世界的规范性理解,输入到可以成为机器人、聊天机器人等的机器中?”

她的研究结合了两种方法:

自上而下的方法这种方法涉及将规则和规范明确地编程到系统中。然而,Canavotto指出,“实际上很难轻易地把它们写下来。总是会出现新的情况。”

自底向上方法一种使用机器学习从数据中提取规则的新方法。虽然更为灵活,但它缺乏透明度:“这种方法的问题在于我们并不真正知道系统学到了什么,而且很难解释其决策。”Canavotto指出。

卡纳沃托和她的同事杰夫·霍尔蒂及埃里克·帕库伊特正在开发一种混合方法,旨在结合两种方法的优点。他们致力于创建能够从数据中学习规则的AI系统,并同时保持基于法律和规范性推理的可解释决策过程。

“我们的方法是基于一个叫做法律与人工智能的领域。在这个领域中,他们开发了从数据中提取信息的算法。因此,我们希望将其中一些算法进行泛化,并建立一个能够更广泛地通过法律推理和规范性推理来提取信息的系统。”她解释道。

人工智能对招聘实践和残疾包容性的影响

Canavotto专注于理论基础,而隶属于马里兰大学国家科学基金会可信人工智能与法律和社会研究所的Vaishnav Kameswaran则研究AI在现实世界中的影响,特别是它对残疾人的影响。

卡梅斯瓦兰的研究关注人工智能在招聘过程中的应用,揭示了系统如何无意中对有残疾的候选人产生歧视。他解释说:“我们一直在努力……打开这个黑匣子,试图理解这些算法背后的运作方式,以及它们是如何开始评估候选人的。”

他的研究发现,许多由人工智能驱动的招聘平台高度依赖规范的行为线索,如眼神交流和面部表情来评估候选人。这种方法可能会显著不利于具有特定残疾的人。例如,视力受损的候选人可能在保持眼神交流方面有困难,而AI系统通常会将这种行为解读为缺乏参与度。

“通过专注于某些品质并据此评估候选人,这些平台往往会加剧现有的社会不平等,”卡梅斯瓦兰警告说。他认为这种趋势可能会进一步使残疾人边缘化,而这个群体已经在就业方面面临重大挑战。

更广泛的伦理格局

两位研究人员都强调,围绕人工智能的伦理问题远远超出了他们研究的具体领域。这些问题涉及几个关键方面:

  1. 数据隐私和同意:研究人员强调了当前同意机制的不足,特别是在收集用于AI训练的数据方面。Kameswaran提到了他在印度的工作中的一些例子,在COVID-19大流行期间,弱势群体在不知情的情况下向AI驱动的贷款平台提供了大量的个人数据。
  2. 透明性和可解释性:两位研究人员都强调了理解人工智能系统是如何做出决策的重要性,特别是在这些决策对人们的生活产生重大影响时。
  3. 社会态度和偏见:卡梅斯瓦兰指出,仅靠技术解决方案无法解决歧视问题。需要在社会上进行更广泛的变革,改变对边缘化群体的态度,包括残疾人。
  4. 跨学科合作在马里兰大学的研究人员的工作体现了哲学、计算机科学及其他学科在应对人工智能伦理问题方面合作的重要性。

展望未来:解决方案与挑战

尽管挑战是巨大的,两位研究人员都在努力寻找解决方案:

  • 卡纳沃托的混合方法在规范性人工智能方面的应用可能会导致更加伦理意识强且可解释的人工智能系统。
  • 卡梅斯瓦兰建议开发审计工具,以便倡导团体评估AI招聘平台是否存在潜在的歧视。
  • 双方都强调了政策变革的必要性,例如更新《美国残疾人法》以应对与人工智能相关的歧视。

然而,他们也承认这些问题的复杂性。正如Kameswaran所指出的,“不幸的是,我认为仅靠技术解决方案来用某些类型的数据训练AI和使用审计工具本身并不能解决问题。因此,需要采取多管齐下的方法。”

研究人员的一项关键结论是,需要提高公众对人工智能对我们生活影响的意识。人们需要知道他们分享了多少数据或这些数据是如何被使用的。正如Canavotto指出的那样,公司往往有动机模糊这些信息,声称“如果我们得到你的数据,我们的服务对你来说会更好。”

研究人员认为,需要做更多的工作来教育公众并追究公司的责任。最终,Canavotto 和 Kameswaran 的跨学科方法,结合哲学探究与实际应用,是朝着正确方向前进的道路,确保人工智能系统既强大又符合伦理和公平原则。

参见:  regulations to help or hinder: Cloudflare的观点

想要从行业领袖那里了解更多关于人工智能和大数据的知识吗?查看一下AI与大数据 expo在阿姆斯特丹、加利福尼亚和伦敦举行。该综合活动与包括在内的其他领先活动同期举办。智能自动化大会, BlockX,数字转型周,和网络安全与云展览.

探索由TechForge赞助的其他即将举行的企业的技术活动和网络研讨会这里.

标签: , , , ,