英语轻松读发新版了,欢迎下载、更新

OpenAI 正在资助“人工智能道德”研究 |TechCrunch

2024-11-22 22:25:27 英文原文

作者:Kyle Wiggers

OpenAI 正在资助可预测人类道德判断的算法的学术研究。

OpenAI 的非营利组织 OpenAI Inc. 在向美国国税局 (IRS) 提交的一份文件中披露,它向杜克大学研究人员授予了一项名为“研究人工智能道德”的项目拨款。OpenAI 发言人在联系征求意见时指出到一个新闻稿表明该奖项是向杜克大学教授提供的一项为期三年、价值 100 万美元的更大资助的一部分 –打造道德人工智能. –

除了资助将于 2025 年结束这一事实之外,关于 OpenAI 资助的这项“道德”研究鲜有公开。该研究的首席研究员、杜克大学实践伦理学教授沃尔特·辛诺特-阿姆斯特朗 (Walter Sinnott-Armstrong) 通过 TechCrunch 告诉 TechCrunch。电子邮件称他“将无法谈论”这项工作。

辛诺特-阿姆斯特朗和该项目的联合研究员贾娜·博格 (Jana Borg) 进行了多项研究,并发表了一项研究——关于人工智能作为“道德 GPS”帮助人类做出更好判断的潜力。作为更大团队的一部分,他们已经已创建一种“道德一致”算法,帮助决定谁接受肾脏捐赠,以及研究过在哪些场景下人们更希望人工智能做出道德决定。

根据新闻稿,OpenAI 资助的这项工作的目标是训练算法,以在涉及医学、法律和商业领域道德相关特征之间冲突的场景中“预测人类道德判断”。

但目前还不清楚,像道德这样微妙的概念是否能够被当今的科技所触及。

2021 年,非营利性艾伦人工智能研究所开发了一款名为 Ask Delphi 的工具,旨在提供符合道德规范的建议。它能够很好地判断基本的道德困境——例如,机器人知道——考试作弊是错误的。但稍微改写和改写问题就足以让 Delphi 批准几乎所有事情,包括窒息婴儿

原因与现代人工智能系统的工作方式有关。

机器学习模型是统计机器。他们接受了来自网络各地的大量示例的培训,学习这些示例中的模式以做出预测,例如短语“对谁”经常出现在“它可能涉及”之前。

人工智能无法理解道德概念,也无法理解影响道德决策的推理和情感。这就是为什么人工智能倾向于鹦鹉学舌地模仿西方受过教育的工业化国家的价值观——网络以及人工智能的训练数据都以支持这些观点的文章为主。

毫不奇怪,许多人的价值观并未在人工智能给出的答案中得到表达,特别是如果这些人没有通过在线发帖为人工智能的训练集做出贡献。人工智能将一系列超越西方倾向的偏见内化。德尔福异性恋比同性恋更“在道德上可接受”。

道德固有的主观性使得 OpenAI 及其支持的研究人员面临的挑战变得更加棘手。几千年来,哲学家们一直在争论各种伦理理论的优点,但目前还没有一个普遍适用的框架。

克劳德的青睐康德主义(即关注绝对的道德规则),而 ChatGPT 则倾向于一点点地功利主义(优先考虑最大多数人的最大利益)。一个优于另一个吗?这取决于你问的是谁。

预测人类道德判断的算法必须考虑到所有这些。这是一个非常高的门槛——首先假设这样的算法是可能的。

TechCrunch 有一份以人工智能为中心的时事通讯! 在这里注册每周三将其发送到您的收件箱。

关于《OpenAI 正在资助“人工智能道德”研究 |TechCrunch》的评论


暂无评论

发表评论

摘要

OpenAI 正在资助杜克大学的研究,旨在开发能够预测人类道德判断的算法,并提供 100 万美元的三年资助。该项目由 Walter Sinnott-Armstrong 和 Jana Borg 领导,旨在创造能够在各种场景下做出道德一致决策的人工智能,但由于道德的复杂性和主观性而面临挑战。之前的尝试,例如艾伦研究所的 Ask Delphi 工具,在处理微妙的道德问题时显示出局限性,这表明创建一种算法来准确预测人类道德判断仍然具有很大的挑战性。