作者:Christiaan Hetzner
只有极少数的科学家能够荣获诺贝尔奖,这是他们一生中唯一的一次成就,永远载入史册。
这使得它更加非凡的是 что乔治·辛顿发言不足一分钟在临时召开的新闻简布会上,为了庆祝他的获奖而召集,在那之前他还没有诋毁OpenAI的首席执行官。
仅仅睡了两个小时,这位显然谦卑的计算机科学家说他根本不知道自己被提名获奖。在感谢多年来与他合作的两位主要合作者——特里·塞诺斯基和已故的大卫·鲁姆哈特(他称他们为“导师”)之后,欣顿继续提到了多伦多大学的学生多年来在他一生的工作中所发挥的作用。
他说:“他们后来取得了很大的成就。”“我特别自豪的是,我的一个学生解雇了山姆·阿尔特曼。我想我还是到此为止吧。”
汉特提到的是伊利亚·苏茨克弗。这位前OpenAI首席科学家去年十一月加入海伦·顿纳和另外两人,进入掌控非营利组织董事会,在一场壮观的行动中解雇了他们的CEO。苏茨克弗迅速后悔自己的行为导致OpenAI陷入危机几天之内,Altman 就重新回到了他的职位。
哈顿和苏茨克韦尔在2012年与亚历克斯·克里兹夫斯基合作,创建了一种算法,该算法能够识别图像中的物体它以当时前所未有的确信度进行训练,被称为“AlexNet”,经常被称作人工智能的“大爆炸”。
被誉为人工智能教父之一的辛顿赞扬了同行约书亚·本吉奥和扬·乐昆的工作,随后多次自嘲。其中包括承认自己在年轻时因无法掌握数学而放弃了被诺贝尔委员会认可的物理学领域的学习。
赫顿获奖的消息距奥尔特曼短暂、惊人但却最终未成功的离职一周年前后传出,也是在距离2022年11月底推出的ChatGPT两周年的节点上。
OpenAI的生成式人工智能聊天机器人引发了一波对该技术的兴趣,因为更广泛的公众第一次意识到机器可能在这一代人中超越人类的智力。
“有不少优秀的研究人员认为,在未来的20年内,人工智能将会变得比我们更聪明,我们需要认真思考那时会发生什么。”赫顿在周二表示。
Altman是人工智能社区中的一个争议人物。他被冠以说谎者的称号由前OpenAI董事会成员Helen Toner根据一份报告,他剥夺了其AI安全团队的资源,并使该团队陷入困境。已离职团队领导.
阿尔特曼目前正打算剥离OpenAI的非营利身份,因为他将其技术货币化的竞争导致组织内部产生深刻的分歧。这引发了一场研究人员的流失在该公司专注于将通用人工智能与地球上仍占主导地位的人类利益相 alignment。 注意:“alignment”在此上下文中没有直接对应的中文词汇,如果需要直译可以保留“对齐”,完整句子可理解为:在该公司专注于将通用人工智能与地球上仍占主导地位的人类利益相“对齐”。
当被问及他在简报一开始对奥特曼的贬低言论时,辛顿解释了他的理由。
他说:“后来发现,山姆·阿尔特曼更关心利润而非安全,这让我觉得遗憾。”
财富已向OpenAI发出请求评论。
像辛顿这样的专家担心,在当前阶段把利润置于伦理之上是内在危险的。
科学家们已经很难预测今天最先进的具有万亿参数的AI模型究竟是如何得出结果的。事实上,它们是变成黑盒模型一旦这种情况发生,就越来越难确保人类保持主导地位。
“当我们拥有比自己更智能的事物时,没有人真正知道我们是否能够控制它们,”赫顿表示,他誓言将致力于倡导人工智能安全,而不是领导前沿研究。
这种未知风险正是为什么加州州立法机构提出了美国首个AI安全法案。然而,像马克·安德森这样的硅谷有影响力的投资者强烈反对该法案,最终该法案未通过。被加文·纽森州长否决上个月。
当被问及失控的人工智能可能带来的灾难性风险时,辛顿承认没有绝对的确定性。
“我们目前不知道如何避免所有这些问题,”他说,“这就是为什么我们需要更加迫切地进行更多研究。”
推荐的Newsletter
数据表:紧跟科技行业的动态,提供对业内顶尖公司的深入分析。
在这里注册。