Meta表示,它可能停止开发AI系统,认为它太冒险了|TechCrunch
2025-02-03 21:52:29
元首席执行官马克·扎克伯格(Mark Zuckerberg)承诺有一天公开提供AGI,但承认由于风险因素,Meta可能会扣留其先进的AI系统的某些情况。该公司的前沿AI框架将功能强大的AI系统分类为“高风险”和“危险风险”,后者带来的灾难性成果在拟议的部署环境中无法缓解。潜在风险的例子包括帮助网络安全,化学,生物攻击以及促进高影响力生物武器的扩散。Meta通过高级决策者审查的内部和外部研究人员的意见评估系统风险,因为经验测试被认为不足以进行确定评估。对于被归类为“高风险”的系统,内部将受到限制,直到缓解措施降低了中等水平的风险;对于“关键风险”系统,开发将停止直到危险最小化。该框架反映了Meta对批评其开放AI方法的回应,并旨在在先进的AI部署中平衡利益与风险。