已敦促人工智能公司复制安全计算,这些安全计算是罗伯特·奥本海默(Robert Oppenheimer)在发布全能系统之前的第一个核试验。
Max Tegmark是AI安全方面的领导声音,他说,他在三位一体测试之前进行了类似于美国物理学家Arthur Compton的计算,发现高度先进的AI会构成生存威胁的90%概率。
美国政府于1945年向三位一体前进,因为放心,原子弹燃烧气氛并危及人类的机会消失了很小的机会。
在Tegmark和他的三个学生发表的论文在马萨诸塞州理工学院(MIT)中,他们建议计算本文定义的康普顿常数为全能AI逃脱人类控制的可能性。在1959年接受美国作家珍珠·巴克(Pearl Buck)的采访中,康普顿说,他在计算出失控的融合反应的几率之后批准了该测试,略低于三百万。
Tegmark说,AI公司应严格地计算人工超级智能(ASI)是否应负责 - 在各个方面都优于人类智能的理论系统的术语将逃避人类的控制。
他说,建立超级智能的公司还需要计算康普顿常数,这是我们将无法控制它的可能性。”这还不足以说我们对此感到满意。他们必须计算百分比。
Tegmark表示,由多家公司计算出的康普顿持续共识将建立政治意愿,以同意全球AIS的安全制度。
MIT物理学教授和AI研究人员Tegmark还是Life Institute的未来的联合创始人,Life Institute是一家非营利组织,支持AI的安全开发,并于2023年在2023年发表了一封公开信,要求在建立强大的AIS中暂停。这封信由包括埃隆·马斯克(Elon Musk)在内的33,000多人签名。
这封信发行几个月后,在Chatppt发行了一个新的AI开发时代,警告说,AI实验室被锁定在一个失控的种族中,以部署更强大的数字思维,没有人能理解,预测或可靠地控制。
特格马克(Tegmark)作为一组AI专家,包括科技行业专业人士,国家支持的安全机构的代表和学者们进行了交谈。
新加坡关于全球AI安全研究优先事项的共识是由世界领先的计算机科学家Yoshua Bengio和领先的AI公司(例如OpenAI和Google DeepMind)的员工提出的。它设定了三个广泛的领域,以优先考虑AI安全研究:开发衡量当前和未来AI系统影响的方法;指定AI应如何行为并设计系统以实现这一目标;并管理和控制系统的行为。
Tegmark表示,在美国最近在巴黎举行的政府AI峰会之后,AI的安全发展论点恢复了立足点,当时美国副主席JD Vance表示,AI未来将不会通过手工挥舞安全而赢得AI的未来。
Tegmark说:``确实感觉到巴黎的忧郁已经消失了,国际合作又回来了。