人工智能公司警告要计算超级智能的威胁或冒险逃脱人类控制
2025-05-10 11:29:00
敦促AI公司进行严格的安全性评估,类似于AI Safety Safety Advocate的Max Tegmark的建议,类似于第一次核试验之前进行的。Tegmark建议计算“康普顿常数”,这是高级AI逃脱人类控制并构成生存威胁的概率。这种方法旨在促进全球共识和政治意愿,以实施AI发展中的全面安全措施。该建议是对强大的AI系统快速发展的越来越担忧,正如最近政府峰会以及包括埃隆·马斯克(Elon Musk)和史蒂夫·沃兹尼亚克(Steve Wozniak)在内的33,000多人签署的一封信所强调的那样。