英语轻松读发新版了,欢迎下载、更新

意见 |人工智能需要特定的安全规则 - 纽约时报中文网

2024-09-29 10:00:15 英文原文

支持者

客座文章

法律需要赶上人工智能的独特风险

先生。Lovely 是一名自由记者。

在大约五年的时间里,OpenAI 使用保密协议系统来压制即将离职的员工的公开批评。OpenAI 现任和前任员工对与媒体交谈感到偏执。5 月,一名离职员工拒绝签名,并在《泰晤士报》上公开了此事。该公司道歉并取消了协议。然后闸门打开了。离职员工开始批评 OpenAI 的安全做法,一系列关于其违背承诺的文章涌现。

这些故事来自那些愿意冒着职业风险去告知公众的人。还有多少人因为太害怕而不敢发声而保持沉默?由于现有的举报人保护通常仅涵盖非法行​​为的举报,因此在这方面是不够的。人工智能可能很危险,但并不违法。人工智能。需要更强有力的保护,例如公共部门、金融和上市公司的部分机构所采取的措施,禁止报复并建立匿名举报渠道。

OpenAI 去年一直深陷丑闻之中。在非营利组织董事会对他失去信任后,该公司首席执行官被短暂解雇。举报人向美国证券交易委员会指控 OpenAI 的保密协议是非法的。安全研究人员成群结队地离开了公司。现在,该公司正在将其核心业务重组为营利性业务,这似乎促使更多关键领导人离职。周五,《华尔街日报》报道称,OpenAI 在 5 月份匆忙测试了一个主要模型,试图削弱竞争对手的宣传;发布后,员工发现该模型超出了公司的安全标准。(该公司告诉《华尔街日报》,这一发现是方法缺陷造成的。)

订阅《泰晤士报》即可阅读任意数量的文章。

广告

关于《意见 |人工智能需要特定的安全规则 - 纽约时报中文网》的评论


暂无评论

发表评论

摘要

支持者客座文章法律需要跟上人工智能的独特风险Lovely先生是一名自由记者。OpenAI 现任和前任员工对与媒体交谈感到偏执。还有多少人因为太害怕而不敢发声而保持沉默?举报人向美国证券交易委员会指控 OpenAI 的保密协议是非法的。周五,《华尔街日报》报道称,OpenAI 在 5 月份匆忙测试了一个主要模型,试图削弱竞争对手的宣传;发布后,员工发现该模型超出了公司的安全标准。(