英语轻松读发新版了,欢迎下载、更新

为什么里德·霍夫曼(Reid Hoffman)对我们的AI未来感到乐观TechCrunch

2025-01-26 18:54:39 英文原文

作者:Anthony Ha

在里德·霍夫曼的新书中超级机构:我们的人工智能未来可能会发生什么,,,,LinkedIn联合创始人表明AI可以扩展人类机构 - 给我们更多的知识,更好的工作和改善生活,而不是减少它。

这并不意味着他忽略了技术的潜在弊端。实际上,霍夫曼(霍夫曼(Hoffman)(与格雷格·比托(Greg Beato)一起写这本书)描述了他对AI的看法,并且更广泛地描述了一个专注于智能风险而不是盲目乐观的人。

霍夫曼告诉我。

尽管他说他支持智能监管,但他认为,迭代的部署过程将AI工具纳入每个人,然后对他们的反馈做出回应,对于确保积极的反馈更为重要结果。

霍夫曼说:'霍夫曼说:“为什么汽车能够比第一次制造的速度更快的原因是,因为我们在制动器,安全气囊,保险杠和安全带周围找出了许多不同的创新。”创新不只是不安全;它实际上导致了安全。

在我们关于他的书的对话中,我们还讨论了霍夫曼(他也是前OpenAI董事会成员,现任Microsoft董事会成员和Greylock的合作伙伴)的好处,这是该技术潜在的气候影响,以及AI毁灭者和AI阴谋家之间的区别。

这次采访已被编辑,以进行长度和清晰度。

您已经写了另一本关于AI的书,即即兴。

因此,即兴的主要试图证明AI可以[提供]相对容易的智力放大,并在一组矢量中展示它并显示出来。超级机构更多地是关于实际上,我们的人类代理商如何得到大大改善,不仅是超级大国,这显然是其中的一部分,而是通过我们的行业,我们的社会的转变,作为众多的众多我们所有人都从这些新技术中获得了这些超级大国。

这些事情的一般论述总是从沉重的悲观主义开始,然后转变为新的人类和社会状态。AI只是其中最新的破坏性技术。即兴没有真正解决这个更加人性化的未来的问题。

图片来源:Simon&Schuster

您可以将AI上的不同前景分为这些类别的忧郁,末日,变焦者,开花器。我们可以深入研究它们,但是我们会从一个开头开始,因为那是您将自己归类为自己的。什么是开花器,为什么您认为自己是一个?

我认为,开花器本质上是技术乐观的,并且[相信]建筑技术对我们,作为个人,群体,社会,人类的非常好,但是[不是您可以建立的任何东西]。

因此,您应该使用冒险,但要冒险与盲人冒险进行驾驶,并进行对话和互动进行转向。这是我们在书中经常谈论迭代部署的部分原因,因为这个想法是您如何通过迭代部署与许多人进行对话的一部分。您可以将其互动,以便说明它,哦,如果它具有这种形状,那么对每个人来说,它都会好得多。而且,这使这些不良案件更加有限,无论是在流行程度上,而且对它们的影响都有多大的影响。

当您谈论转向时,我们会做出的法规,但是您似乎认为最有望在于这种迭代部署,尤其是在大规模上。您认为,如果我们将AI掌握在大多数人的手中,那么好处是内在的,那是天生的小民主?还是您认为产品需要以人们的投入方式设计?

好吧,我认为这可能取决于不同的产品。但是,我们试图在书中说明的一件事是说,能够参与和谈论产品,包括使用,不使用,以某种方式使用实际上,这实际上是在互动和帮助塑造的,对吗?因为建立他们的人正在看那个反馈。他们回顾了:您参与了吗?你不参与吗?他们在网上和其他一切都在听人们的声音,说:“嘿,这太好了。或者,嘿,这真的很糟糕。以及许多人的反馈,与您从迭代中可能包含的数据中获得的收益分开,或者我可能能够以某种方式投票或以某种方式表达直接的定向反馈。

我想我试图挖掘这些机制的工作原理,因为正如您在书中注意到的那样,尤其是在Chatgpt中,它变得非常流行。因此,如果我说,嘿,我不喜欢关于chatgpt或我对此的反对,我不会使用它,那就是只是被许多人使用它淹没了。

其中一部分是,有数亿人参加并不意味着您会回答每个人的反对意见。有人可能会说:“没有汽车的行驶速度超过每小时20英里。好吧,您认为这很高兴。

这是[反馈]的汇总。例如,在总体上,例如,您是否表达出挑战,犹豫或转变的东西,但是其他人也开始表达这一点,那么它也很可能会被听到和改变。一个 

其中一部分是Openai与人类竞争,反之亦然。他们不仅要仔细地倾听他们现在听到的内容,而且要朝着人们想要的宝贵事物方向前进,并努力摆脱人们不想要的挑战。” 

我们可能想利用这些工具作为消费者,但它们可能以我作为消费者不一定可见的方式可能有害。迭代的部署过程是否会解决其他问题,也许会解决其他消费者的问题?

好吧,我写了一本关于超级机构的书的部分原因是,人们实际上也有关于社会问题的对话。例如,人们说,我认为AI会导致人们放弃他们的代理机构并[放弃]对自己的生活做出决定。实际上是在经历[失去代理],那就是反对它的准辩论,对吗?

您还谈论法规。听起来您在某些情况下对监管开放,但是您担心监管可能会扼杀创新。您能说出更多关于您认为有益AI法规的样子的信息吗?

因此,有几个领域,因为我实际上对智能法规是积极的。一个领域是,当您拥有真正的特定,非常重要的事情时,您要试图防止恐怖主义,网络犯罪,其他类型的事情。从本质上讲,您试图防​​止这件真正的坏事,但要允许其他各种各样的事情,因此您可以讨论:有哪些足够狭窄的目标是针对这些特定结果? 

除此之外,还有关于[]创新如何安全的一章,因为当您创新时,您会创建新的安全性和对齐功能。到达那里也很重要,因为今天汽车能够比第一次制作时能更快的汽车走得更快的原因是因为我们走了。安全气囊,保险杠和安全带。创新只是不安全的,这实际上导致了安全性。

我鼓励人们,尤其是在快速移动和迭代的监管环境中,是为了阐明您的特定关注是您可以衡量的东西,并开始测量它。因为那时,如果您开始看到该测量以强烈的方式或令人震惊的方式增长,那么您可以说:好的,让我们探索这一点,看看我们是否可以做。

在忧郁的人和厄运之间,您做出了另一个区别 - 厄运是人们更关心超级智能的存在风险,而《忧虑者》更关心工作,版权,任何数量的短期风险事物。我所读的书的部分似乎更专注于解决《忧郁的批评》。

我说我试图将这本书讲给两个小组。一个群体是在包括《忧郁的人》(和] AI好奇的AI怀疑中的任何人。

然后,另一组是技术人员和创新者说:“看,对人类机构真正重要的一部分。因此,让我们将其作为设计镜头,从我们的未来建设方面。通过将其作为设计镜头,我们还可以帮助建立更好的代理增强技术。

当前或将来的一些例子是AI如何扩展人类代理而不是减少人类机构?

这本书的一部分试图做什么,一部分是超级机构的一部分,那是人们倾向于将其减少到,我会得到什么超级大国?是当很多人获得超级大国时,我也从中受益。

一个规范的例子是汽车。哦,我可以去其他地方,但是,顺便说一句,当其他人去其他地方时,当您可以离开时,医生可以来您家,然后打电话。因此,您会集体获得超级机构,这是当今有价值的一部分。

我认为我们已经拥有一堆超级大国的AI工具,其中包括学习能力。我不知道您是否这样做,但我去说:'向一个五岁的孩子向一个18岁的孩子解释了量子力学。它可以在相机指向某件事时可以很有用,说什么?

但是,显然有一组不同的语言任务。当我写超级机构时,我不是技术的历史学家。我是技术人员和发明家。但是,当我研究和撰写这些东西时,我说:好的,一位技术的历史学家会对我在这里写的内容说些什么?

当您在书中谈论其中一些示例时,您还说,当我们获得新技术时,有时旧技能会消失,因为我们不再需要它们,并且我们会开发新的技能。

在教育中,也许它使否则可能永远不会得到的人都可以访问此信息。 另一方面,您确实会听到这些示例的示例,这些人受到了接受聊天机器人的培训和适应的人,而不是更深入地研究聊天机器人的答案,甚至意识到Chatgpt可能是错误的。

这绝对是恐惧之一。顺便说一句,Google,Search and Wikipedia也有类似的恐惧。这不是新对话。就像任何一个一样,问题是,您必须学习在哪里可以依靠它,应该在哪里进行交叉检查,交叉检查的重要性水平,所有这些都是好的技能来拾取。我们知道人们刚刚引用维基百科的话,或者在互联网上引用了他们发现的其他东西,对吗?这些都是不准确的,很高兴得知这一点。 

现在,顺便说一句,当我们训练这些代理商越来越有用并具有更高的准确性时,您可能会有一个正在交叉检查的经纪人,并说:“嘿,有很多挑战此内容的资源。您对此感到好奇吗?这种信息的介绍可以增强您的代理商,因为它为您提供了一组信息来决定您进入它的深度,研究的程度,您的确定性水平[[拥有。]这些都是我们进行迭代部署时获得的一部分。

在书中,您谈论人们经常问的是什么?这是我们需要更频繁地问的问题。在我看来,这两个都是有价值的问题。您不想排除好成果,但您想防止不良结果。

是的,这就是Bloomer的一部分。您对可能会做的事情非常看好,但这并不是说您没有与可能出问题的对话。总的来说,问题是每个人都过于关注可能出问题的事情,而不足以正确处理。

您在其他访谈中谈论的另一个问题是气候,我认为您说AI的气候影响被误解或夸大了。但是,您认为广泛采用AI会对气候构成风险?

好吧,从根本上讲,由于几个原因,No或de Minimis。首先,您知道,正在构建的AI数据中心都在绿色的能源上都非常强烈,而积极的连锁效果之一就是Microsoft,Google和Google和Amazon这样的人在绿色能源领域进行了大量投资为此做到这一点。 

然后是何时将AI应用于这些问题的问题。例如,DeepMind发现他们可以节省,我认为是Google数据中心中至少有15%的电力,工程师认为这是不可能的。

然后最后一件事是,人们倾向于过度描述它,因为这是当前的性感事物。但是,如果您在过去几年中查看我们的能源使用和增长,那么数据中心只有很小的百分比,而其中的比例较小。

但是关注的是,在未来几年内,数据中心和AI方面的增长可能非常重要。

它可能会变得很重要。但这是我从绿色能量点开始的部分原因。

对于忧郁的心态而言,最有说服力的案例之一,您在书中引用的一种是Ted Chiang的论文看着许多公司在谈论部署AI时如何看来,这似乎是麦肯锡的心态,而不是释放新的潜力。这是关于我们如何削减成本并消除工作。这是您担心的吗?

好吧,我的过渡比最终状态更重要。我确实认为,正如我在书中所描述的那样,从历史上看,我们会以极大的痛苦和困难导航这些过渡,我怀疑这也会带来痛苦和困难。我写超级机构的部分原因是要尝试从过去的教训和我们必须尝试更好地导航过渡的工具中学习,但这总是具有挑战性的。

我确实认为我们将在许多不同的工作过渡中遇到真正的困难。您知道,大概开始的是客户服务工作。企业倾向于“使他们非常好的资本分配者的一部分是他们倾向于进行的。 

但是,另一方面,当您考虑一下时,您说,这些AI技术使人们的效率提高了五倍,使销售人员的效率提高了五倍。我要少租用销售人员吗?不,我可能会雇用更多。那业务运营或法律或财务呢?好吧,所有这些事情往往是[我们]为减轻风险和管理付费的地方。

现在,我确实认为,客户服务之类的事情会减少数量,但这就是我认为这是工作转变的原因。关于AI的好消息是,它可以帮助您学习新技能,它可以帮助您完成新技能,可以帮助您找到自己的技能可能更自然地适合的工作。该人类机构的一部分是确保我们也在过渡中构建了这些工具。

这并不是说这不会痛苦和困难。只是说,我们可以用更多的恩典做吗?

关于《为什么里德·霍夫曼(Reid Hoffman)对我们的AI未来感到乐观TechCrunch》的评论


暂无评论

发表评论

摘要

您的摘要从采访中捕获了有关Ajay Banga对AI的观点及其对社会的影响,包括气候变化,工作流离失所和潜在利益的几个关键要点。以下是一些其他见解,可以补充您的分析:1。**平衡的风险和奖励方法**:Banga强调讨论AI技术时需要平衡的方法。虽然重要的是要考虑AI部署的风险和缺点(例如客户服务职位的工作损失),但他还强调了巨大的收益,包括节省成本和提高效率。2。**绿色能源整合**:他强调,为AI建造的数据中心越来越多地由可再生能源提供动力。这种积极的可持续性方法可以减轻人们对与AI操作相关的碳排放的担忧。3。**对效率的积极影响**:Banga提到了AI积极影响的具体示例,例如DeepMind减少Google数据中心的电力消耗的能力,这表明了AI实际上可以为环境保护工作做出贡献。4。**工作转变与消除**:他承认工作流离失所的潜力,但也强调许多角色会转变而不是完全消失。例如,尽管某些客户服务工作可能是自动化的,但由于AI促进的效率和生产率,其他高价值角色可能会出现或增长。5。**支持劳动力过渡**:Banga倡导工具和资源,这些工具和资源可以帮助工人在这些变化期间更加顺利地转变为新角色。这包括利用AI本身作为学习新技能并在不断发展的就业市场中找到合适的就业机会的工具。6。**关于技术过渡的历史观点**:从过去的过渡中,例如工业革命带来的过渡,班加提出,尽管每种技术转变都有挑战,但有很多关于更有效地管理这些变化的经验教训工具和策略。7。**鼓励专注于收益**:他的关键信息之一是,不仅要专注于潜在的负面结果,还要关注AI所产生的重大积极影响,例如增强人类能力和推动各个部门的创新。通过将这些观点整合到您的分析中,您可以更全面地看待Banga对AI在塑造我们未来中的作用的乐观而务实的立场。