人工智能会杀死我们所有人吗?奥本海默的孙子说:“可能不会” - 《旧金山标准报》

2024-09-19 01:07:37 英文原文

<正文>

被称为原子弹之父的物理学家 J·罗伯特·奥本海默 (J. Robert Oppenheimer) 的孙子表示,人工智能对人类构成的生存威胁尚未达到核武器的水平,但世界领导人应该保持警惕。

Charles Oppenheimer 周三在 Salesforce Dreamforce 会议的小组讨论中表示,存在这样一个问题:[AI] 是否会自我改进,是否会像裂变一样强大并杀死我们所有人。至少据我们所知,可能不会。

该会议自称是世界上最大的人工智能活动,为期三天的演讲者、演示甚至装饰都对这项技术非常着迷。

Oppenheimer 是一位旧金山投资者,曾与软件行业的多家公司合作,其中包括 Salesforce。他还创立了奥本海默项目,这是一个非营利组织,其既定目标是通过国际合作安全地推进技术。

他说,最近他一直致力于确保核能用于造福社会。

奥本海默今年签署了一封信,呼吁世界领导人以所需的智慧和紧迫性考虑人工智能可能带来的风险。其他签署者包括理查德·布兰森 (Richard Branson) 和人工智能先驱科学家杰弗里·辛顿 (Geoffrey Hinton)。

信中写道,我们尚不知道与人工智能相关的新风险有多大。我们正处于悬崖边。

但与核武器不同,核武器对人类的威胁从一开始就很明显,人工智能的未来是不透明的。奥本海默说,当发现裂变时,就有立即制造炸弹的潜力。对于人工智能,我们甚至不完全了解我们是否达到了智能水平。

他说,当涉及到使用人工智能来为医疗保健等主题提供决策信息时,存在一定程度的风险,应该认真对待。

为了让社会免受人工智能的危害,他首选的解决方案是从世界在应对核扩散问题上的失败中汲取教训,相反,进行国际讨论。

当在后续采访中被问及他是否支持 SB 1047(该州立法将制定法规以防止人工智能系统造成灾难)时,奥本海默表示反对,称他不了解该措施的最新情况。

尽管奥本海默认为现在立法可能还为时过早,但他表示,当时机到来时,政府应该听取科学家的建议,他说这在他祖父的时代没有发生过。

我希望人们能够做出这样的判断。奥本海默说,你从基础科学中获得的信息越多,你在组织中做出的选择就越多。人工智能已经遥遥领先。它不是创造自己。正在创建它。

SB 1047 已通过州立法机关,等待州长 Gavin Newsom 的签署或否决。

纽瑟姆周二在 Dreamforce 露面时被问及该法案时,回应了对该法案的批评,称他担心该法案可能对该州的创新产生寒蝉效应。

纽瑟姆说,我们主导了这个领域,我不想失去它。

摘要

被称为原子弹之父的物理学家罗伯特·奥本海默的孙子表示,人工智能对人类构成的生存威胁尚未达到核武器的水平,但世界领导人应该保持警惕。查尔斯·奥本海默 (Charles Oppenheimer) 在周三 Salesforces Dreamforce 会议的一个小组会议上表示,存在这样一个问题:[AI] 是否会自我改进,是否会像裂变一样强大并杀死我们所有人。为了让社会免受人工智能的危害,他首选的解决方案是从世界在应对核扩散问题上的失败中汲取教训,相反,进行国际讨论。纽瑟姆周二在 Dreamforce 露面时被问及该法案时,回应了对该法案的批评,称他担心该法案可能对该州的创新产生寒蝉效应。“我们在这个领域占据主导地位,我不想失去它,”纽瑟姆说。