作者:As told to Jane Zhang
这篇文章是基于与密歇根州立大学AI初创企业超级焦点的联合创始人兼理论物理和计算数学,科学和工程学教授史蒂夫·霍斯(Steve Hsu)的对话。以下是为了长度和清晰度编辑。
在Superpocus,我们为企业创建超人AI。典型的用例包括客户服务,订购,交付,文档分析和旅行计划。构建我们的AI系统时,我们通常使用的一个组件之一是AI,例如GPT-4O。
从与其他AI创始人和工程师交谈,听起来每个人都在尝试DeepSeek型号。它们是最好的 - 如果不是最好的开源车型,并且比封闭式型号便宜得多,如果没有大的转变为开源型号明年。Steve HSU的启动SuperFocus计划转移到使用封闭源型号的DeepFocus。
DeepSeek-V3模型使用我们的系统运行,但是我们已经非常有信心它足够好,可以做我们需要做的事情,如果客户从中受益,我们可以进行切换。除了客户工作外,我们在公司中还拥有自己的研究开发,其中包括大量的每月OpenAI法案。
为了节省资金,我们计划将很多活动转移到诸如DeepSeek之类的开源模型上。
DeepSeek模型是关于30倍便宜运行比可比的Openai型号。这为客户服务行业提供了可观的成本节省。
美国客户服务员工的全部费用可能是每小时25美元。如果一家公司去菲律宾,它可能是每小时5到10美元。我们的模型使用OpenAI作为LLM提供商,使我们比在菲律宾雇用人的人数便宜10倍。
但是现在以DeepSeek-V3为模型,我们的成本可能会降低30倍。
我们发现,开源模型也更快。这对我们来说很重要,因为我们的许多作品都涉及语音互动,而人类不喜欢停止说话和模型响应时的长期潜伏期。听起来不自然,不像对话。
当您使用新技术(尤其是在软件中)进行创新时,由于更好的优化和使用算法,您往往会更快地获得10倍或100倍的加速。
DeepSeek团队实施了大量非常聪明的优化和创新,以修改实际的模型体系结构,这意味着他们可以使用更少的内存和需要少得多的计算产生令牌或训练模型;因此,一旦收到提示,该模型就会更快地生成代币。
一些客户担心他们的数据流过OpenAI模型或专有模型。例如,如果我们有一个私募股权基金客户,AI可能会分析他们不希望公司以外的任何人看到的非常敏感的文件。
由于DeepSeek是开源的,因此任何人都可以在自己的硬件上或从AWS或其他云提供商租用的服务器上运行该模型。该模型本身没有回到DeepSeek的通信渠道。因此,我们能够构建AI软件平台完全在云实例中客户的数据已经存在,从不将数据发送到Google AI或OpenAI的API中。
如果像中国公司制造的其他LLM一样,它是封闭的消息来源,情况并非如此。在这种情况下,您必须通过其API与模型进行通信,并且它在中国公司控制的硬件上运行,就像OpenAI一样。
我可以想象一个客户说:“我们不想使用那些共产主义中国模型。即使价格高10倍或30倍,我还是宁愿使用OpenAI或人类模型。”如果有人对我们这么说,那没问题。但是,因为我们公司的目的是建立狭窄的AI,以达到特定目的,所以政治问题通常不会出现。
我一直在关注几家中国公司建造LLM的工作,我们的团队已经测试了中国的开源车型已有很多月了。我认为DeepSeek是一家非常令人印象深刻的公司,生产了非常好的研究论文。您可以说他们试图非常清楚自己的所作所为和结果,并鼓励他人重新进化或验证他们做了什么。
创始人非常理想主义,并且具有他的理念在采访中谈论,通过开放,该领域的进展将更快,我认为这是真的。它们比美国几乎任何其他顶级实验室都更开放,包括Openai,关于他们在做什么 - 具有讽刺意味。
现在,突然之间,许多美国人都知道一些他们以前一无所知的中国技术。但是我们的美国自尊心如此之高,以至于人们否认,假装我们在AI和中国还没有领先赶上了。在线人士,包括技术领域的著名创始人,甚至说他们从我们那里偷走了信息,就像DeepSeek的说法一样将模型从Openai模型中提炼550万美元的培训成本是假的。我认为这些指控不是真的。
这个AI种族是一项重要的竞争,在经济和技术声望的基础上。我认为这将是美国和中国之间的激烈竞争,在任何给定的时刻,许多顶级模型都将是中国模型。
这将是一场伟大的比赛,因为价格下降,消费者将赢得胜利。人们将在日常生活中以较低的价格获得越来越多的推理和应用情报。随着竞争的推动,更多的大脑在问题上,我想我们会到达Agi甚至更快。
这也将使科学家受益。例如,加州理工学院的教授将能够下载像R1这样的推理模型,并开始对其进行微调以帮助他解决物理或数学研究问题。Openai模型无法做到这一点。真正良好的开源模型的可用性将触发大量的创新。
如果您是AI专家,并且想分享您对最新AI开发的见解,请发送电子邮件给Jane Zhangjanezhang@businessinsider.com。.