英语轻松读发新版了,欢迎下载、更新

微软的AI计划:Letai承担风险

2025-04-07 22:42:00 英文原文

分析Microsoft AI首席执行官Mustafa Suleyman赞扬了在Generative-Ai比赛中扮演第二小提琴的优点。

在电视新闻中面试上周,苏莱曼(Suleyman)认为,这对Trail Frontier Model Builders的成本效益更高,其中包括从Windows Giant中夺走了数十亿美元的OpenAI,三到六个月的成就比直接与他们竞争。

鉴于这些模型的资本强度,我们的策略是发挥非常紧张的一秒钟

他在周五对CNBC表示:“鉴于这些模型的资本强度,我们的策略是发挥非常紧张的一秒钟。”

苏莱曼(Suleyman)表示,除了便宜之外,额外的时间使Microsoft能够为特定的客户用例优化。

尽管对于Genai运动的跳动心脏而言,该策略对于一家公司而言似乎是不寻常的,但它反映了微软(现在是Suleyman)找到自己的位置。

您可能还记得,苏莱曼(Suleyman)为自己成为DeepMind的联合创始人,该名称是Google于2014年收购的。Suleyman加入Microsoft于去年短暂担任AII的首席执行官。

虽然他的巧克力工厂的前雇主正在直接与人类和Openai之类的人竞争,以建立更有能力和功能丰富的模型,但Microsoft尚未推出自己的边境模型。

取而代之的是,雷德蒙德的策略与OpenAI紧密相关,它提供了不足的数量的Azure Cloud Compute,以换取使用创业公司GPT模型家族的权利副驾驶 - 品牌AI服务。

这种关系可能可以解释苏莱曼的方法。投资建立可能在市场上可能或可能不会在OpenAi的好友Sam Altman倒闭时可能会成功的边界模型所需的大量资本所需的大量资本没有太多意识。

话虽如此,微软并没有将所有鸡蛋放在一个篮子里。虽然GPT系列是许多熟悉的Windows和Microsoft Cloud Copilot服务的核心,但它并不是唯一的模型集合。Excel巨人特别发展PHI代号下的一系列允许许可的小语言模型。

与GPT-4.5之类的东西相比,这些开放型号很小,通常在单个至两位数的参数范围内称重,使其适合在包括笔记本电脑在内的边缘设备上使用,而不是数百万美元的GPU群集。这些模型通常还落后于Openai的顶级产品,例如多模式或专家(MOE)架构的混合物。

在这种秃鹰的个人经验中,微软的PHI模型家族通常很有能力,因为它们的规模也不倾向于在相对而言。

他们的小尺寸带来了某些优势。例如,PHI-4的140亿参数可以在单个高端GPU上运行,同时保持可接受的发电率。这使得这些神经网络相对便宜,可以在模型旁边运行几倍,这通常需要多个GPU(即使不是GPU服务器)才能实现可接受的性能。

自给自足的前身

尽管Suleyman可能很快就不会直接与OpenAI或Anthropic竞争,但微软对Openai的依赖可能不会永远持续下去。

长期我们能够在Microsoft进行自给自足的人AI绝对至关重要

他告诉CNBC:“从长远来看,我们能够在微软自给自足的情况下进行自给自足,这绝对至关重要。”

但是,尽管PHI可能是实现这一目标的先驱,但似乎雷德蒙德与Openai的纽带至少将持续五年。他补充说:“至少在2030年之前,我们与Openai有着深入的伙伴关系,他们对我们有着非常成功的关系。”

苏莱曼(Suleyman)轻描淡写了有关微软与Openai的关系的关注合作去年宣布的Oracle和Softbank。作为该交易的一部分,微软不再是Openai的独家云合作伙伴。

但是,应该注意的是,微软不是唯一玩此游戏的人。其他几个云提供商在此遵循领导者的策略中发现了成功。

亚马逊网络服务可以说直接落入了这个营地。AWS很重投资在Openai竞争对手人类中,它贡献了天文数量的计算,例如Rainier群集宣布回到十二月。

同时,AWS一直在悄悄地建立自己的语言模型,代号Nova。但是,与Microsoft不同,AWS似乎在其项目上保持了更严格的皮带。Nova是专有的,而Microsoft的PHI模型则由MIT许可,并在包括拥抱脸在内的模型中心免费获得。

还可以使中国电子商务和云巨头阿里巴巴在其QWEN团队中采取了类似的策略。

Qwen系列的模型家族与微软的PHI相同,引起了人们的关注。这些型号虽然不一定在技术上开创性,但通常远远超过了体重级别,使其具有数量与LLM的尺寸相当。

Qwen的QWQ 32B预览于11月下旬首次亮相,在Openai的O1预览将“思考”又称推理模型的概念推广后两个月后。阿里巴巴又花了三个月的抛光发行最终模型是在O1完成三个月后完成的。

可以为DeepSeek提出类似的论点。通过证实了推理语言模型的概念,中国人工智能创业公司可以专注于迭代和优化该概念,以极大地减少创建和运行这种模型的计算要求。

系统方法

除了便宜之外,苏莱曼的策略还意味着微软可以将更多的能量集中在大型语言模型周围的建筑应用和其他系统上,而不是寻找解决神经网的新方法。

虽然像我们以前一样,已经引起了许多模型本身的关注讨论,以实际上有价值的方式将它们集成到企业系统中可能是一个棘手的命题。

除了其PHI模型外,微软还稳步推出了研究和软件框架,旨在使集成这些模型更容易,更有效。

例如,IT Titan发达Autogen,一个编排多个AI代理的框架。同时,上个月,雷德蒙德详细的它在KBLAM上的工作旨在减少与使用结构化数据扩展语言模型知识相关的计算和复杂性。

上周,微软引入Vidtok是一种开源视频令牌,用于将视频转换为令牌,以使机器学习模型更容易理解视频内容。®

关于《微软的AI计划:Letai承担风险》的评论


暂无评论

发表评论

摘要

Microsoft AI首席执行官Mustafa Suleyman倡导遵循OpenAI的次数三到六个月,而不是由于成本和优化收益而直接竞争。这种策略使Microsoft能够在关注特定客户需求的同时利用OpenAI的进步。微软的方法包括开发较小,更高效的模型,例如PHI系列的允许许可,可以在边缘设备上运行。Suleyman在强调AI的长期自给自足的同时,确认与OpenAI建立了伙伴关系,直到至少2030年。其他科技巨头(如AWS和Alibaba)也采用了类似的策略来平衡创新和成本效率。