英语轻松读发新版了,欢迎下载、更新

使用GPU -DataScienceCentral.com支撑高级机器学习模型

2025-02-06 15:20:05 英文原文

作者:Jelani Harper

machine-learning-4129175_1280

尽管它很少在媒体上宣传,但并不是关于部署的所有内容,也不是关于培训或微调的高级机器学习模型,可以通过API轻松访问。对于某些实现,语言模型的企业规模应用程序的成功取决于硬件,支持基础架构以及其他不仅仅需要云服务提供商的实用性。

图形处理单元(GPU)可以说是这些考虑因素的最前沿,特别是对于拥有自己数据中心的组织。尽管计算资源GPU提供了某些AI用例(尤其是建筑模型和其他数据科学要求)必不可少的,但它们并不总是很容易获得。

他们似乎很难找到,或者它们附带了很多串,”LeaseWeb高级解决方案工程师。长期以来,长期承诺的前期费用。或者,无论他们问多少或提供多少钱,公司都可以得到它们。他们的提供者没有可用的。

LeaseWeb最近宣布了一系列NVIDIA GPU的可用性,旨在减轻这些问题并加强采用高级机器学习所需的基础设施。该公司正在提供NVIDIA L4,NVIDIA L40和NVIDIA H100 NVL,这些NVL可通过其专用服务器提供。

在LeaseWeb的销售解决方案和运营经理Devon Rutherford提到。我们可以每台服务器进行多个GPU。我们与许多不同的客户合作,这些客户利用我们的GPU,用于从语言模型到视频分析的所有事物。

可扩展的企业处理

GPU对语言模型和其他高级机器学习用例的企业应用的价值是不可估量的。此外,他们超越了通过抹布和其他及时的增强方法。取而代之的是,他们为关键任务用例的企业AI的完整规模提供了动力。Lahr阐明了医疗保健用例,这可能是GPU提供的可扩展处理的可能性。

医疗保健提供者从许多来源(包括病历,分析数据)中摘取数据,并采用结果来个性化患者的治疗。通过这种方法,该组织可以确保人们服用他们应该服用的药物,或者考虑其历史的家族史,遗传学。”这只是一个令人难以置信的数据。然后,他们能够就他们应该做什么,不应该与任何特定的患者做什么建议。

GPU选择过程

Lahr提到的医疗保健组织雇用了LeaseWebNvidia该应用程序的GPU。但是,有许多GPU可用,这使企业上的责任选择合适的gpus以满足其特定需求。在这方面,特定的应用几乎总是证明确定性的。我们必须与任何客户进行更重要的对话是您在哪里?” Lahr透露。这是推理模型吗?我们正在生产吗?我们在训练吗?

从头开始构建模型的数据科学要求,甚至在某些情况下是微调模型,通常比操作模型的数据科学要求更为严格。但是,由于数据科学周期不可避免地涉及此范围的两端,因此组织应策略其访问哪种类型的GPU。Lahr指出,如果您进行培训,您可能需要更多的力量。h100真正进入的地方。到您完成生产工作量时,您可能不需要太多的功率,而L4或L40可能会做到。

GPU策略

H100S LAHR提到的是目前提供的GPU LeaseWeb最有能力的,而L4最少。但是,它可以为任何数量的工作量提供动力,包括数据科学并提示这些处理器的演变及其对企业的总体优点。LAHR评论说,L4现在称其为入门级,但它比上一代中的中层要多得多。”当我们从组到群体时,情况发生了很大变化。

因此,在使用GPU时,可能会认为组织选择较低的能力(且价格较低)的组织,并考虑将它们合并到工作负载中,尤其是因为可以通过专用服务器访问多个以上的服务器。拉赫尔说,这是某些人的一个很好的策略,要保留多张小牌而不是一张大牌。”我们可以建造适合。我们以这种方式灵活。

可扩展的AI处理

GPU对于提供了组织规模扩展其认知计算需求所需的计算资源所需的关键。从建筑和微调模型到将它们投入生产,它们可以加速AI各个方面的这些部署。因此,对于许多用例,尤其是涉及高性能计算方面的用例,它们可能仍然是优先事项。” 

关于《使用GPU -DataScienceCentral.com支撑高级机器学习模型》的评论


暂无评论

发表评论

摘要

LeaseWeb宣布了NVIDIA GPU(L4,L40S,H100 NVL)的可用性,以支持高级机器学习模型的企业规模应用程序。这些GPU迎合了从小用用案例的范围,对于数据分析,医疗保健中的个性化治疗以及其他AI-Mintsiment任务至关重要。适当的GPU的选择取决于组织是在培训还是部署模型,其中H100适用于强化培训,L4或L40S适合生产工作量。组织还可以采用一项策略,结合了多个较小的GPU,以有效地满足其特定需求。