OpenAI 失去了另一位高级员工,这位员工在离职时警告说,该公司以及所有其他人工智能公司还没有为通用人工智能做好准备。
即将离任的高管是迈尔斯·布伦戴奇 (Miles Brundage),他将于周五不再担任 AGI 准备工作高级顾问。AGI(通用人工智能)是一个术语,用于描述具有与人类相同认知能力的人工智能。和人类一样,AGI 理论上几乎可以学习任何东西。考虑到通用人工智能可能在某些领域比人类做得更好,为通用人工智能的到来做好准备被认为是一项重要且负责任的行动。
人工智能可能会消除为谋生而工作的义务
布伦戴奇在一份声明中透露了他的离职子堆栈帖子他在文中解释说,他的决定是为了考虑 OpenAI 的 AGI 准备情况以及整个世界,而不是因为自己是一名员工而使自己的观点产生偏见。
他在帖子中写道,开放人工智能在准备方面存在“差距”,但其他所有先进人工智能实验室也是如此。
他写道:“OpenAI 和任何其他前沿实验室都还没有准备好,世界也还没有准备好。”公司和世界是否已在相关时间做好准备(尽管我认为剩下的差距足够大,我将在余下的职业生涯中致力于人工智能政策)。”
尽管还没有做好准备,但他的帖子透露,作为重组的一部分,OpenAI 的 AGI 准备团队将分散到其他团队中。
布伦戴奇还认为,“人工智能和通用人工智能造福全人类并不是自动的,需要政府、非营利组织、民间社会和工业界的决策者做出深思熟虑的选择,并且需要通过激烈的公众讨论来了解这一点。”他建议,这些努力需要考虑安全性和利益的公平分配。
他指出:“我认为人工智能能力正在迅速提高,政策制定者需要采取更紧急的行动。”但他表示,最近在大流行病防备等领域的经验意味着,除非领导人能够传达紧迫感,否则不会采取行动。
他补充说:“我认为我们没有所需的所有人工智能政策想法,而且许多想法都很糟糕或太模糊,无法自信地判断。”
布伦戴奇写道,他不同意的一个想法是“民主国家与专制国家竞争”。
他表示:“我认为,拥有并培养这种零和心态会增加在安全和安保方面走捷径的可能性。”然后敦促“学术界、企业、民间社会和政策制定者共同努力寻找一种方法”。确保西方人工智能发展不被视为对其他国家安全或政权稳定的威胁,以便我们能够跨境合作,解决未来非常棘手的安全挑战。”
他确认合作很重要——尽管他相信“西方国家在人工智能方面很可能继续大幅超越中国”。
中国和其他专制国家拥有足够的技术来“建立非常复杂的能力”,因此不参与安全管理风险将是危险的短视行为。
虽然布伦戴奇认为考虑人工智能安全的理由有很多,但他也看到了很多好处。
他写道:“我认为,在未来几年(而不是几十年),人工智能可能会实现足够的经济增长,从而轻松实现高生活水平的提前退休。”“在此之前,可能会有一段时期,可以更容易地实现远程完成任务的自动化。”
但首先可能会经历一些艰难的岁月。“在短期内,我非常担心人工智能会破坏那些迫切想要工作的人的机会。”
如果我们做得对,他认为人类将可以选择“取消为谋生而工作的义务”。
“这不是我们在政治、文化或其他方面做好准备的事情,需要成为政策对话的一部分,”他建议道。“天真地转向后工作世界可能会面临文明停滞的风险(参见:《机器人总动员》),对此需要更多的思考和辩论。”
随着 Brundage 加入该组织,工作后也是 OpenAI 经常考虑的问题CTO、首席研究官兼研究副总裁,加上联合创始人伊利亚·苏茨克韦尔,作为最近与人工智能旗手的背离。
布伦戴奇淡化了自己离职的意义,写道“我在这里已经六年多了,按照 OpenAI 的标准来说已经相当长了(在这六年里它已经成长了很多!)”。®