作者:Yasmin Khorram·Senior ReporterUpdated Fri, Oct 11, 2024, 6:48 PM6 min readLink Copied11
无论你认为人工智能会拯救世界还是终结世界——毫无疑问,我们现在正处于一个极大的热情时刻。正如我们所知,如果没有约书亚·本吉奥,人工智能可能根本不存在。
被称为“人工智能教父”的60岁的本吉奥是一位加拿大计算机科学家,他将自己的研究致力于神经网络和深度学习算法。他的开创性工作为我们今天使用的AI模型奠定了基础——例如OpenAI的ChatGPT和Anthropic的Claude。
“智能赋予力量,而控制这种力量的人——无论是人类水平还是更高水平——将会非常强大,”本吉奥在接受雅虎财经采访时说。“总体而言,技术被那些想要获得更多权力的人所使用:经济主导权、军事主导权和政治主导权。所以在我们创造可能以危险方式集中权力的技术之前,我们必须非常谨慎。”
2018年,Bengio和他的两位同事——前谷歌员工(谷歌) 杰弗里·欣顿(2024年诺贝尔物理学奖得主)和元宇宙公司(Meta)元数据)的首席人工智能科学家杨·乐昆获得了图灵奖(被誉为计算领域的诺贝尔奖)。2022年,贝杰奥是全球被引用次数最多的计算机科学家。《时代》杂志也将他列为世界上最具影响力的人物之一。最具影响力的100位人士世界上的人们。
尽管贝吉奥参与了这项技术的发明,但他现在已经成为人工智能世界中谨慎的声音。这种谨慎出现在投资者对该领域持续表现出极大热情之际——今年竞相抬高人工智能公司的股价创下新高。
人工智能芯片宠儿Nvidia的(NVDA例如,该公司股票今年以来上涨了162%,而标准普尔500指数的涨幅为21%。
根据雅虎财经的数据,该公司目前的估值高达3.25万亿美元。数据, 苹果尾盘(AAPL略为世界最有价值公司的称号而努力。
我对 Bengio 进行了采访,讨论了人工智能可能带来的威胁以及哪些科技公司做得正确。
采访经过编辑以缩短和清晰化。
为什么我们应该关注人类级别的智能?
“如果这落入错误的人手中,无论这意味着什么,都可能非常危险。这些工具很快就能帮助恐怖分子,并且也能帮助那些希望摧毁我们民主国家的政府行为者。此外,许多科学家指出的一个问题是,我们现在训练它们的方式——我们不清楚如何避免这些系统变得自主并拥有自己的生存目标,从而失去对这些系统的控制。所以我们可能会走上一条创造比我们更强大的怪物的道路。”
_OPENAI、Meta、Google、Amazon——哪家大型人工智能玩家做得对?_
从道德上来说,我认为表现最好的公司是Anthropic(主要投资者包括亚马逊和谷歌)。但我认为由于他们赖以生存的经济结构,他们都存在偏见,这种结构要求他们在竞争中保持领先地位,理想情况下成为最早达到AGI的公司。而这意味着一场竞赛——企业之间的军备竞赛,在这场竞赛中,公众安全很可能是失败的目标。
Anthropic 表现出他们非常重视避免灾难性后果。他们是第一个提出安全政策的公司,承诺如果人工智能最终具备可能危险的能力,他们会停止该努力。此外,他们也是与埃隆·马斯克一起唯一的一方,支持SB 1047法案换句话说,表示“是的,在进行一些改进后,我们同意增加安全程序和结果的透明度,并且如果我们造成重大伤害,要明确责任”。
关于人工智能股票大幅上涨的看法,比如英伟达?
我认为非常确定的是长期的发展趋势。所以如果你着眼长远,这其实是一个相当安全的赌注,除非我们无法保护公众……[那么]反应可能会如此激烈,导致一切崩塌,对吧?要么是因为社会整体上对AI产生反弹,要么是因为真正灾难性的事情发生,导致我们的经济结构崩溃。
无论哪种方式,这对投资者都是不利的。所以我认为,聪明的投资者会明白我们需要谨慎行事,避免那种可能对我们共同的未来造成危害的错误和灾难。
关于AI芯片竞赛的看法?
“我认为芯片显然正变得越来越重要,当然它也是一个瓶颈。鉴于未来几年我可以预见的事件和科学进步,对大量计算的需求不会消失,因此拥有高端人工智能芯片的能力将具有战略价值——供应链上的每一个环节都将发挥作用。目前能够做到这一点的公司很少,所以我预计会看到更多的投资,并希望出现一些多元化。”
你认为Salesforce到2026年推出10亿个自主代理怎么样?
自主性是这些公司的目标之一,从经济和商业角度来看这是有道理的,这将在应用程序的数量上带来巨大的突破。想想所有个人助理应用的需求。它需要比当前最先进的系统提供更多的自主性。因此,他们追求这样的目标是可以理解的。Salesforce(客户关系管理他们认为可以在两年内实现这一点,这让我感到担忧。在那之前,无论是从政府层面还是技术层面,我们都需要设立一些防护措施。”
纽森州长否决了加州的SB 1047法案——这是一次错误吗?
他没有给出理由这对我来说是有道理的,不仅仅是想规范大型系统,还想规范所有小型系统……事情有可能迅速发展——我们谈到了几年的时间。也许即使可能性很小,比如10%[灾难发生的几率],我们也需要做好准备。我们需要有监管措施。公司需要已经开始采取行动,记录它们正在做的事情,并且这种做法在整个行业内应该是统一和一致的。
另一个问题是公司担心会被起诉。我与很多这些公司的代表进行了交谈,但已经有侵权法了,所以如果他们造成伤害的话,随时都可能被起诉。而这项法案关于责任的规定是减少诉讼范围……它规定了10个条件,只有在满足所有这些条件下,法律才会支持诉讼。我认为这实际上是有帮助的。但是有一种意识形态上的抵触情绪,反对任何形式的介入——任何不同于现状的情况,任何更多地让政府参与到这些AI实验室事务中的情况。
Yasmin Khorram 是雅虎财经的高级记者。关注 Yasmin 的 Twitter/X账户@YasminKhorram并且在领英将新闻线索发送给Yasmin:yasmin.khorram@yahooinc.com