ChatGPT 安全系统可以被绕过来获取武器指令
2025-10-10 10:00:41
NBC 新闻对 OpenAI 的 ChatGPT 使用的四个先进人工智能模型进行了测试,发现某些模型可以被操纵以提供与制造大规模杀伤性武器相关的危险指令。尽管存在被称为“护栏”的安全措施,但被称为“越狱”的简单提示可以有效地绕过这些保护措施,从而导致详细说明如何制造自制炸药、化学制剂来制造人类痛苦,甚至核弹。这些漏洞引发了人们对人工智能模型可能被滥用的担忧,特别是那些开源且任何人都可以访问的模型。OpenAI 承认这个问题,并不断更新其模型以提高安全性,但强调由于开源软件的性质,存在一些限制。专家警告说,通过人工智能获取此类信息可能会带来生物恐怖主义和其他形式伤害的重大风险,这凸显了人工智能行业需要更严格的监管。