英语轻松读发新版了,欢迎下载、更新

新的AI微积分:Google的80%成本优势与OpenAI的生态系统

2025-04-25 20:26:46 英文原文

作者:Matt Marshall

图片来源:通过Chatgpt的VentureBeat

加入我们的每日和每周的新闻通讯,获取有关行业领先的AI覆盖范围的最新更新和独家内容。了解更多


无情的AI创新的不懈速度没有放缓的迹象。在过去的几周中,Openai放下了强大的O3和O4-Mini推理模型旁边GPT-4.1系列,当Google与Gemini 2.5 Flash反驳时快速迭代其旗舰双子座2.5 Pro不久之前发布。对于企业技术领导者来说,浏览这一令人眼花vent乱的景观,选择合适的AI平台需要远远超越快速变化的模型基准

尽管模型与模型模型的基准占据了头条新闻,但技术领导者的决定进展得更深。选择AI平台是对生态系统的承诺,从核心计算成本和代理开发策略到建模可靠性和企业集成的一切。 

但是,也许是在表面下冒泡但具有深远的长期影响的最鲜明的差异化因子在于为这些AI巨头供电的硬件的经济学。由于其自定义硅,Google具有巨大的成本优势,可能会以Openai的一小部分运行AI工作负载,而Openai的一小部分依赖于NVIDIA的市场优势(和High-Margin)GPU。 

该分析研究了超越基准测试,以比较企业必须考虑的关键因素的Google和OpenAI/Microsoft AI生态系统:计算经济学的显着差异,构建AI代理的策略,建立AI代理的策略,模型能力和可靠性中的重要权衡以及企业拟合和分配的现实性的关键权衡。分析基于深入的视频讨论,探讨了这些系统性转变本周早些时候,我和AI开发人员Sam Witteveen之间。

1。计算经济学:Google的秘密武器与Openai的Nvidia税

Google拥有的最重要但经常被讨论的优势是其秘密武器:它在定制张量处理单元(TPU)上长达十年的投资。Openai和更广泛的市场在很大程度上依赖Nvidia的强大但昂贵的GPU(例如H100和A100)。另一方面,Google像最近揭幕了铁木一代,因为它的核心AI工作负载。这包括培训和服务双子座模型。 

为什么这很重要?它产生了巨大的成本差异。 

NVIDIA GPUS命令的毛利率惊人,由分析师估计在80%的范围内为了H100等数据中心芯片和即将到来的B100 GPU。这意味着Openai(通过Microsoft Azure)支付了巨额溢价 - 其计算能力。Google,通过内部制造TPU,有效地绕开了此标记。

虽然制造GPU可能会花费NVIDIA $ 3,000- $ 5,000,但像Microsoft(供应Openai)这样的超级标准支付了$ 20,000- $ 35,000+每单位的数量,根据报告。行业对话和分析表明,Google可能以购买高端NVIDIA GPU所产生的成本的20%获得其AI计算功率。虽然确切的数字是内部的,但含义是4x-6x的成本效率在硬件级别上,Google的计算每单位计算优势。

这种结构优势反映在API定价中。比较旗舰型号,Openai s o3是昂贵的大约8倍对于输入令牌,输出令牌贵4倍比Google的双子座2.5 Pro(对于标准上下文长度)。

这种成本差异是没有学术的;它具有深远的战略意义。Google可能可以维持较低的价格,每美元提供更好的情报,为企业提供更可预测的长期总拥有成本(TCO),这是它在实践中正在做什么

同时,Openai的成本与NVIDIA的定价能力及其Azure交易的条款固有相关。确实,计算成本代表了估计的OpenAi的55-60%的总$ 9B运营费用根据一些报道,在2024年,投影一个 2025年超过80%EY量表。虽然Openai的预计收入增长是天文学的,到2029年可能会达到1,250亿美元根据内部预测管理这项计算支出仍然是一个关键挑战,推动他们追求自定义硅

2。代理框架:Google的开放生态系统方法与Openai的集成一个

除了硬件之外,这两个巨人还采取了不同的策略来构建和部署准备自动化企业工作流程的AI代理商。

Google明确推动了互操作性和更开放的生态系统。在接下来的云中,两周前, 它揭开了``代理到代理(A2A)协议,旨在允许在不同平台上构建的代理与其代理开发套件(ADK)和用于发现和管理代理的代理空间中心进行通信。尽管A2A的采用面临障碍 - 像Anthropic Have签署的主要参与者(VentureBeat触手可及,但Anthropic拒绝发表评论),一些开发人员与Anthropic的现有模型背景协议(MCP)一起辩论其必要性。Google的意图很明确:要培养一个多供应商的市场,该市场可能在其代理花园内或通过传闻的代理App Store托管。” 

相反,Openai似乎专注于创建强大的,使用工具的代理,并紧密整合在自己的堆栈中。新的O3模型举例说明了这一点,能够在单个推理链中进行数百个工具调用。开发人员利用响应API和代理SDK以及新的Codex CLI等工具来构建在OpenAI/Azure Trust边界内运行的复杂代理。尽管像Microsoft的Autogen这样的框架提供了一些灵活性,但OpenAI的核心策略似乎少于跨平台通信,而更多地是在其受控环境中垂直使代理能力最大化。 

  • 企业外卖:优先考虑灵活性的公司以及从各种供应商(例如,将Salesforce代理插入Vertex AI)中混合和匹配代理的能力可能会发现Google的开放式方法吸引人。那些深入投资于Azure/Microsoft生态系统的人,或者偏爱更垂直管理的高性能代理商堆栈可能倾向于Openai。

3。模型功能:均衡,性能和痛点

无情的发行周期意味着模特领导正在转瞬即逝。虽然Openai的S O3目前在某些编码基准上脱离了Gemini 2.5 Pro,例如SWE-Bench经过验证和AIDER,但Gemini 2.5 Pro匹配或对GPQA和AIME等其他人的领先优势。Gemini 2.5 Pro也是大语言模型(LLM)竞技场排行榜的总体领导者。但是,对于许多企业用例,模型在核心能力方面达到了艰难的均等。 这

真实的差异在于他们独特的权衡:上下文与推理深度:

  • Gemini 2.5 Pro拥有一个巨大的100万台上下文窗口(计划200万),非常适合处理大型代码库或文档集。Openai s O3提供了200k的窗口,但通过其强化学习方法实现了一回合内深,工具辅助的推理。
  • 可靠性与风险:这是一个关键的区别。而O3展示了令人印象深刻的推理,Openai自己的型号卡是03揭示了它的幻觉明显更多(personqa上的O1速率为2倍)。一些分析表明,这可能源于其复杂的推理和工具使用机制。Gemini 2.5 Pro在其输出结构中可能被认为不那么创新,但用户通常将其描述为对企业任务的可靠和可预测。企业必须称重O3的尖端能力,与幻觉风险增加所记录的增加。
  • 企业外卖:最佳模型取决于任务。为了分析大量上下文或优先考虑可预测的输出,Gemini 2.5 Pro具有优势。对于需要最深的多工具推理的任务,可以仔细管理幻觉风险,O3是强大的竞争者。正如山姆·维特文(Sam Witteveen)在我们的关于此的深入播客在特定企业用例中进行严格的测试至关重要。

4。企业拟合与分销:集成深度与市场范围

最终,采用通常会取决于平台插槽如何进入企业现有的基础架构和工作流程。

Google的优势在于现有的Google Cloud和Workspace客户的深度集成。Gemini模型,顶点AI,代理空间和BigQuery等工具旨在无缝合作,为公司提供统一的控制平面,数据治理以及可能更快的时间价值已经投资于Google的生态系统。Google是积极求爱大型企业,与Wendy,Wayfair和Wells Fargo等公司展示部署。

Openai通过Microsoft拥有无与伦比的市场范围和可及性。Chatgpt的巨大用户群(〜800m MAU)创造了广泛的熟悉度。更重要的是,Microsoft正在积极将OpenAI模型(包括最新的O系列)嵌入其无处不在的Microsoft 365 Copilot和Azure Services中,从而使潜在的数以亿名企业用户可以轻松获得强大的AI功能,通常在他们已经每天使用的工具中。对于已经在Azure和Microsoft 365上已经标准化的组织,采用OpenAI可能是更自然的扩展。此外,开发人员对OpenAI API的广泛使用意味着许多企业提示和工作流程已经针对OpenAI模型进行了优化。” 

  • 战略决定:选择通常归结为现有的供应商关系。Google为其现有客户提供了引人入胜的,集成的故事。由Microsoft的发行引擎提供支持的OpenAI为大量以Microsoft以Microsoft的企业提供了广泛的可访问性,并有可能更轻松地采用。

Google vs Openai/Microsoft有企业的权衡

Google和Openai/Microsoft之间的生成AI平台战争远远超出了简单的模型比较。尽管两者都提供最先进的功能,但它们代表了不同的战略赌注,并为企业带来了不同的优势和权衡。

企业必须权衡代理框架的不同方法,诸如上下文长度与尖端推理与企业集成和分配范围的实用性之类的模型功能之间的细微折衷。

但是,迫在眉睫的所有这些因素是计算成本的鲜明现实,这可能是最关键,最定义的长期差异化,尤其是如果Openai不迅速解决它。Google垂直整合的TPU策略,使其有可能绕过嵌入GPU定价的80%的NVIDIA税,这是一个基本的经济优势,可能是一种改变游戏规则的经济优势。

这不仅仅是较小的价格差异。它影响了从API负担能力和长期TCO可预测性到AI部署的纯粹可扩展性。随着AI的工作负载呈指数增长,该平台具有更可持续的经济引擎,而硬件成本效率则具有强大的战略优势。Google正在利用这一优势,同时也推动了对代理互操作性的开放愿景。 

在Microsoft的规模的支持下,Openai的构图深深地集成了工具模型和无与伦比的市场范围,尽管有关其成本结构和模型可靠性仍然存在问题。

为了做出正确的选择,企业技术领导者必须根据其长期TCO的影响,他们对代理策略和开放性的首选方法,对模型可靠性风险与原始推理能力的容忍度,现有的技术堆栈和特定的应用需求来评估这些生态系统。

观看我和Sam Witteveen分解的视频:

每日有关VB每日业务用例的见解

如果您想给老板留下深刻的印象,VB Daily可以为您提供服务。我们为您提供有关公司在制定AI的工作,从监管转变到实际部署的公司,因此您可以分享最大投资回报率的见解。

阅读我们的隐私政策

感谢您的订阅。查看更多VB时事通讯在这里

发生错误。

关于《新的AI微积分:Google的80%成本优势与OpenAI的生态系统》的评论


暂无评论

发表评论

摘要

在生成AI领域中对Google和OpenAI/Microsoft竞争的分析突出了企业选择平台时必须考虑的几个关键权衡:1。**计算成本:** - ** Google:**凭借其垂直集成的TPU策略,Google可能会绕过与OpenAI的模型培训和推理相关的高GPU成本(通常称为“ NVIDIA税”)。此成本优势转化为更实惠的API和更好的长期总拥有成本(TCO)可预测性。 - ** OpenAi/Microsoft:**尽管Microsoft通过其广泛的用户群以及与Microsoft 365 Copilot这样的广泛使用的工具集成了无与伦比的市场覆盖范围和可访问性,但OpenAI面临着巨大的GPU成本,可能会影响其AI部署的整体经济可持续性。2。**模型功能:** - ** Google Gemini:**以大量上下文窗口(目前有100万个令牌,扩展到200万个),Gemini是处理大型代码库或文档集的理想选择。 - **优点:**非常适合处理广泛的数据并提供可靠的输出。 - **缺点:**可能在单个回合中不出色地在多工具推理中表现出色。 - ** Openai O3:**专注于单个回合内的深层,工具辅助的推理。 - **专业人士:**需要多步推理的复杂任务中的尖端功能。 - **缺点:**与以前的O1这样的模型相比,幻觉率更高。3。**代理框架和集成:** - ** Google:**强调对代理互操作性的开放愿景,这对于希望无缝集成多个AI工具的企业可能是有益的。 - ** OpenAI/Microsoft:**在Microsoft生态系统内提供深入集成的工具模型,从而使已在Azure和Microsoft 365上标准化的组织更容易采用。4。**企业拟合和分销:** - ** Google:**在现有的Google Cloud和Workspace客户的深度集成中,提供了统一的控制平面并更快的时间价值。 - ** OpenAI/Microsoft:**利用微软的庞大用户群和​​市场范围将AI功能嵌入广泛使用的工具中,从而使许多企业的收养更容易。5。**可靠性与创新:** - ** Google Gemini:**通常将其描述为对企业任务的更可靠和可预测。 - ** Openai O3:**展示尖端创新,但幻觉速度可能更高。**战略决策因素:** - **现有的供应商关系:**已经投资于Google生态系统的企业将发现深厚的集成有益,而在Microsoft 365和Azure中标准化的企业可能更喜欢Openai的无缝集成。 - ** TCO的含义:**长期成本可预测性对于大规模AI部署至关重要。绕过高GPU成本的经济优势会极大地影响TCO。 - **模型可靠性与尖端推理:**企业必须平衡对可靠的,可预测的输出的需求,并需要有效处理复杂任务的尖端推理能力。 - **代理策略和开放性:**更喜欢开放互操作性的组织可能会倾向于Google的方法,而那些偏爱紧密集成解决方案的组织可能会选择Microsoft/Google的生态系统。总而言之,企业需要根据其特定需求和现有基础设施仔细评估这些因素。选择通常归结为成本效率,模型能力,集成深度和市场范围之间的平衡。随着AI的工作负载继续成倍增长,使用更可持续的经济引擎选择该平台对于长期成功至关重要。为了更深入了解这些权衡,观看视频或播客,像Sam Witteveen这样的专家讨论这些主题可以提供宝贵的背景和分析。