英语轻松读发新版了,欢迎下载、更新

五角大楼向AI公司颁发了多达2亿美元的奖金,他们的模特充满了意识形态偏见

2025-07-21 20:21:02 英文原文

作者:Jack Nicastro

国防部首席数字和人工智能办公室已有宣布它将授予人类,Google,OpenAI和XAI合同,价值高达2亿美元的合同,“开发各种任务领域的代理AI工作流”,并“提高这些公司了解和满足关键的国家安全需求的能力”。国防部的公司福利是课程的标准,这些公司模型中的某些模型的意识形态构成和模棱两可的一致性都涉及任何政府使用。

Openai用途从人类反馈中学习的强化,使用奖励模型和人类的投入来最小化Chatgpt的“不真实,有毒和有害的情感”。IBM解释这种对齐策略的好处是,它不依赖不存在的“直接数学或逻辑公式来定义主观人类价值”。Google也是如此用途这种方法使其大型语言模型双子座对齐。

人类的模型Caude不依赖强化学习,而是构成人类的宪法出版在2023年5月。克劳德的宪法为其提供了“明确的价值观”,而不是通过大规模的人类反馈隐式确定的价值。”人类解释它的宪法对齐避免了人类反馈模型所遭受的问题,例如使承包商遭受令人不安和越来越抽象的产出。

克劳德的原则部分基于联合国的世界人权宣言,这不仅是承认所有人在我们的生活,自由和财产中确保安全的权利,但还享有人类的“社会保护”(第22条),“带薪的定期假期”(第24条),“住房和医疗保健”(第25条)和“同样可访问的“高等教育”(第26条)。

克劳德(Claude)的宪法甚至包括一套旨在鼓励“考虑非西方观点”的原则,包括“选择最不可能被视为对较少工业化,富有或资本主义或资本主义国家或文化的响应”的指令。”但是,根据定义,美国是一个工业化,富裕和资本主义国家。国防部内部部署的AI系统应反映并优先考虑他们所服务的国家的价值观。 边缘报告克劳德的政府使用模型“有宽松的护栏”,但是这些模型的修改宪法尚未公开披露。

无论是同意还是不同意克劳德宪法中表达的价值,至少它们已被公开向公众披露。卡托研究所技术政策研究员Matthew Mittelsteadt告诉原因他认为Xai比人类更大。Xai“已经发布了有关其价值观及其“第一原则'方法的令人震惊的文档”。没有太多细节。我不确定它们是什么原则,” Mittelsteadt说。

确实,当我Grok(Xai的商业大语言模型)描述了Xai的首先方法,它回答说,它“强调通过第一原则的基本,不言而喻的真理来理解宇宙,而不是依靠既定的叙事或偏见”。当我格罗克(Grok)列出了这些原则,它确认了米特斯特德(Mittelsteadt)关于文档的主张,说:“ xai没有在确定的公共文件中明确列出一组'第一原则',而“原则 - 第一方法的方法更多地是关于基本真理的推理的心态,而不是严格的清单。”

xai官方网站什么都没有揭示,将第一原则的推理描述为“挑战常规思维,通过将问题弄清为基本真理,以逻辑为基础。”Mittelsteadt引用报告这表明XAI模型“似乎被编码为直接延迟埃隆·马斯克(Elon Musk)对某些问题的判断”不是基本的真理。(目前尚不清楚什么“基本真理”导致Grok称自己为“ Mechahitler”并发布反犹太评论7月8日,这就是删除,在最近的Grok之后更新。)希望,为政府求婚当查询时,请咨询宪法和适用的法规,而不是埃隆·马斯克(Elon Musk)的X帖子。

丰富学院AI政策负责人尼尔·奇尔森(Neil Chilson)告诉原因他认为,“这些工具的内部配置极不可能是对国家安全的某种风险。”如果某些模型确实有缺陷,“授予[国防部]将对不同模型的结果进行比较,并且不会继续使用劣等模型,这一事实表明[国防部]将比较。

虽然分配近1美元的少于0.1%可能是谨慎的2026财年国防预算在AI上,有可能进行政府行动明显更有效,政府应密切关注其使用的模型是否适当对齐。

关于《五角大楼向AI公司颁发了多达2亿美元的奖金,他们的模特充满了意识形态偏见》的评论


暂无评论

发表评论