坚持AI会杀死我们所有人的厄运者
2025-09-05 15:08:00
Eliezer Yudkowsky和Nate Soares即将出版的书“如果有人建造它,每个人都死了”,警告说,由于人类无法理解或控制,这将不可避免地导致人类灭绝的生存威胁,认为这将不可避免地导致人类的灭绝。尽管他们做出了可怕的预测,但作者承认,他们个人相信这样的结果,但在设想其确切性质方面挣扎。该书提出了巨大的措施,以防止AI达到超级智能水平,但除了停止研究和破坏数据中心之外,没有提供实际解决方案。批评家对这些极端方法仍然怀疑,同时承认某些AI研究人员本身害怕灾难性的未来的可能性令人不安。