英语轻松读发新版了,欢迎下载、更新

如何避免AI项目中的道德危险信号

2025-04-27 13:00:10 英文原文

作者:Francesca Rossi

作为沉浸在内的计算机科学家人工智能道德大约十年来,我亲眼目睹了该领域是如何发展的。如今,越来越多的工程师发现自己正在开发AI解决方案,同时浏览了复杂的道德考虑。除了技术专长之外,负责的AI部署还需要对道德意义的细微理解。

在我作为IBM的角色中人工智能道德我观察到AI工程师必须运作的方式发生了重大转变。他们不再只是与其他AI工程师谈论如何构建技术。现在,他们需要与那些了解其创作将如何使用这些服务影响社区的人互动。几年前IBM,我们认识到,AI工程师需要将其他步骤纳入其技术和管理过程中。我们创建了一个剧本,提供了正确的测试工具诸如偏见之类的问题和隐私。但是了解如何正确使用这些工具至关重要。例如,AI中的公平性有许多不同的定义。确定适用的定义需要与受影响的社区,客户和最终用户进行咨询。

A woman with long, reddish-brown hair wearing a dark shirt and knotted scarf.在IBM的角色中,Francesca Rossi Cochairs公司的AI伦理董事会帮助确定其核心原则和内部流程。弗朗西斯卡·罗西(Francesca Rossi)

教育在此过程中起着至关重要的作用。当通过AI工程团队驾驶我们的AI伦理剧本时,一个团队认为他们的项目没有偏见问题,因为它不包括种族或性别等受保护变量。他们没有意识到其他功能(例如邮政编码)可以用作与受保护变量相关的代理。工程师有时认为可以通过技术解决方案解决技术问题。尽管软件工具很有用,但它们只是开始。更大的挑战在于学习交流并与各种利益相关者有效合作。

快速释放新的AI产品和工具的压力可能会通过彻底的道德评估造成张力。这就是为什么我们通过IBM的AI伦理委员会建立了集中的AI伦理治理。通常,各个项目团队会面临截止日期和季度结果,因此他们很难完全考虑对声誉或客户信任的更广泛影响。原则和内部流程应集中。我们的其他公司越来越多地要求尊重某些价值的解决方案。此外,某些地区的法规现在授权道德考虑。甚至主要的AI会议也要求论文讨论研究的道德含义,促使AI研究人员考虑其工作的影响。

在IBM,我们首先开发着专注于关键问题的工具隐私,,,,解释性,,,,公平和透明度。对于每个担忧,我们都创建了一个带代码指南和教程的开源工具套件,以帮助工程师有效地实施它们。但是随着技术的发展,道德挑战也是如此。和生成的AI,例如,我们面对新问题关于潜在的冒犯或暴力内容的创造以及幻觉。作为IBM家族的一部分花岗岩模型,我们发展了保护模型这对事实和有害内容等问题进行了评估输入提示和输出。这些模型功能既可以满足我们的内部需求和客户的需求。

尽管软件工具很有用,但它们只是开始。更大的挑战在于学习进行有效交流和协作。

公司治理结构必须保持足够的敏捷,以适应技术进化。我们不断评估如何像生成AI这样的新发展和代理AI可能会放大或降低某些风险。将模型作为开源,我们评估这是否引入了新的风险以及需要哪些保障措施。

对于增加道德危险信号的AI解决方案,我们有一个内部审查过程,可能会导致修改。我们的评估超出了技术的特性(公平性,解释性,隐私性)的范围。部署可以尊重人的尊严和代理,也可以破坏它。我们对每种技术用例进行风险评估,认识到了解风险需要了解该技术运作的环境。这种方法与欧洲人工智能法框架不是生成的AI或机器学习本质上是风险,但某些情况可能是高风险或低风险。高风险用例需要额外审查。

在这种迅速发展的景观中,负责的AI工程需要持续的警惕,适应性和对将人类福祉置于技术创新的中心的道德原则的承诺。

关于《如何避免AI项目中的道德危险信号》的评论


暂无评论

发表评论

摘要

在过去的十年中,随着工程师越来越多地在技术专长之外引起复杂的伦理考虑因素,AI伦理领域的发展已大大发展。IBM在AI伦理学方面的全球领导者强调了从内部技术讨论到与了解社区影响的利益相关者的交往的转变。该公司开发了一本AI伦理剧本和开源工具包,重点是隐私,解释性,公平性和透明度。通过AI伦理委员会的集中治理可确保在快速产品释放的压力下进行彻底评估。随着技术的发展,尤其是随着生成的AI的发展,出现了新的道德挑战,需要对公司结构进行持续的风险评估和适应性,以维持道德标准。