作者:Written by
星期四,《金融时报》报告OpenAI已将其安全性测试时间表降至最低。
另外: 2025年的前20个AI工具以及使用它们时要记住的第一件事
八名公司的员工或第三方测试人员告诉FT,他们有“几天”来完成对新型号的评估 - 他们说他们通常会给他们“几个月”的过程。
评估是可以表面模型风险和其他危害的原因,例如用户是否可以越狱模型来提供创建生物武器的说明。相比之下,消息人士告诉FT,Openai给了他们六个月的审查GPT-4在发布之前审查了4个月 - 他们只发现了两个月后才发现有关功能。
另外: Openai注定了吗?专家警告说,开源模型可能会压碎它
消息人士补充说,OpenAI的测试并不像以前那样彻底,并且缺乏适当地捕捉和减轻风险的必要时间和资源。“当[技术]不太重要时,我们进行了更彻底的安全测试,”目前正在测试O3的人,这是一个完整版本,O3米尼,告诉ft。他们还将这种转变描述为“鲁ck”和“灾难的秘诀”。
消息来源归因于Openai渴望保持竞争优势的愿望,尤其是在竞争对手的开放权重模型,例如中国AI AnipSeek DeepSeek等竞争对手,获得了更多的立场。有传言称Openai将于下周发布O3,而FT的消息人士称,该时间表将时间表不到一周。
这一转变强调了一个事实,即AI模型仍然没有政府法规,包括任何披露模型危害的要求。包括OpenAI在内的公司签署了与拜登政府签署的自愿协议,与美国AI安全学院,但是这些协议的记录有悄悄地堕落了特朗普政府拥有逆转或者拆除全部拜登时代的AI基础设施。
但是,在特朗普政府即将发布的AI行动计划的公开评论期间主张类似的安排避免在州逐州立法中导航。
在美国以外,欧盟AI法案将要求公司风险测试他们的模型和文档结果。
Openai安全系统负责人约翰内斯·海德克(Johannes Heidecke)告诉FT:“我们的移动速度和彻底的速度有很好的平衡。”但是,测试人员本身似乎感到震惊,尤其是考虑到此过程中的其他漏洞,包括评估该模型的较低版本,然后将其发布给公众或引用早期模型的功能,而不是测试新模型本身。
该领域的其他专家分享了来源的焦虑。”
正如麻省理工学院的AI研究人员Shayne Longpre所解释的那样,Evolving AI系统正在获得更多的数据流,并且随着持续的爆炸人工智能代理,软件工具。他说:“ AI系统中缺陷的表面积越来越大。”朗普雷最近合着了电话来自麻省理工学院和斯坦福大学的研究人员,要求AI公司“投资第三方,独立研究人员的需求”,以更好地服务AI测试。”
另外: 这个新的AI基准测试了多少模型
“随着[AI系统]变得越来越有能力,它们以新的,危险和意外的方式使用,来自AI治疗师分发医疗建议,充当人类伴侣和浪漫伴侣或编写关键软件安全法规的新治疗师可能会花费大量时间。
每天都有更多使用AI工具的人,Longpre Notes内部测试团队不够。“有更多时间来研究这些系统的人工智能安全和保障问题。但更重要的是需要优先考虑真正的第三方访问和测试:只有更广泛的用户,学者,记者和白种黑客黑客可以扩展以涵盖这些系统的缺陷,专业知识和多元语言的表面积,这些系统现在就可以使用。”
另外: 图灵测试有问题 - OpenAI的GPT -4.5刚刚暴露了
为了支持这一点,Longpre建议公司为多种类型的AI缺陷创建漏洞赏金和披露计划,使更广泛的测试人员可以使用红色团队,并为这些测试人员的发现提供法律保护。”
想要更多有关AI的故事吗? 报名,我们的每周新闻通讯。