OpenAI funds $1 million study on AI and morality at Duke University

关于作者

经过|

OpenAI funds $1 million study on AI and morality at Duke University 作为一名科技记者,Zul 关注的话题包括云计算、网络安全和企业行业的颠覆性技术。除了拥有网络技术背景之外,他还拥有主持网络研讨会和在视频上展示内容的专业知识。


OpenAI 向杜克大学的一个研究团队提供 100 万美元的资助,以研究人工智能如何预测人类道德判断。

倡议强调了人们对技术与道德交叉点的日益关注,并提出了关键问题:人工智能能否处理道德的复杂性,或者道德决策是否应该仍然是人类的领域?

杜克大学道德态度与决策实验室 (MADLAB) 由伦理学教授 Walter Sinnott-Armstrong 和联合研究员 Jana Schaich Borg 领导,负责“打造道德人工智能”项目。该团队设想了一种“道德 GPS”,一种可以指导道德决策的工具。

其研究跨越多个领域,包括计算机科学、哲学、心理学和神经科学,以了解道德态度和决策是如何形成的,以及人工智能如何为这一过程做出贡献。

人工智能在道德中的作用

MADLAB 的工作研究了人工智能如何预测或影响道德判断。想象一下一种评估道德困境的算法,例如在自动驾驶汽车的两个不利结果之间做出决定或提供有关道德商业实践的指导。这些场景强调了人工智能的潜力,但也提出了一些基本问题:谁来决定指导这些类型工具的道德框架,以及是否应该相信人工智能能够做出具有道德影响的决策?

OpenAI 的愿景

该拨款支持开发预测医学、法律和商业等领域人类道德判断的算法,这些领域经常涉及复杂的道德权衡。尽管人工智能前景广阔,但它仍然难以把握道德的情感和文化细微差别。当前的系统擅长识别模式,但缺乏道德推理所需的更深入的理解。

另一个问题是如何应用这项技术。虽然人工智能可以协助做出拯救生命的决策,但其在防御策略或监视中的使用会带来道德困境。如果不道德的人工智能行为服务于国家利益或符合社会目标,那么它们是否合理?这些问题强调了将道德嵌入人工智能系统的困难。

挑战与机遇

将道德规范融入人工智能是一项艰巨的挑战,需要跨学科的合作。道德不是普遍存在的;它是由文化、个人和社会价值观塑造的,因此很难编码到算法中。此外,如果没有透明度和问责制等保障措施,就有可能存在偏见或有害应用程序的风险。

OpenAI 对杜克大学研究的投资标志着我们在了解人工智能在道德决策中的作用方面又迈出了一步。然而,旅程还远未结束。开发人员和政策制定者必须共同努力,确保人工智能工具符合社会价值观,强调公平和包容性,同时解决偏见和意外后果。

随着人工智能越来越成为决策不可或缺的一部分,其伦理影响值得关注。像“打造道德人工智能”这样的项目为驾驭复杂的环境提供了一个起点,平衡创新与责任,以塑造一个技术服务于更大利益的未来。

(摄影:未飞溅

参见:人工智能治理:分析新兴的全球法规

想向行业领导者了解更多关于人工智能和大数据的知识吗?查看人工智能与大数据博览会在阿姆斯特丹、加利福尼亚和伦敦举行。该综合活动与其他主要活动同期举行,包括智能自动化大会,布洛克X,数字化转型周, 和网络安全与云博览会

探索由 TechForge 提供支持的其他即将举行的企业技术活动和网络研讨会这里

标签: ,