英语轻松读发新版了,欢迎下载、更新

Hugging Face 的 SmolVLM 可以大幅降低企业的人工智能成本

2024-11-27 17:51:54 英文原文

作者:Michael Nuñez

Credit: VentureBeat made with Midjourney

图片来源:VentureBeat 使用 Midjourney 制作

加入我们的每日和每周时事通讯,了解有关行业领先人工智能报道的最新更新和独家内容。了解更多


拥抱脸刚刚发布斯摩尔VLM,一种紧凑的视觉语言人工智能模型,可以改变企业在运营中使用人工智能的方式。新模型以惊人的效率处理图像和文本,而所需的计算能力仅为竞争对手的一小部分。

时机再好不过了。当公司与成本飙升为了实现大型语言模型和视觉 AI 系统的计算需求,SmolVLM 提供了一种实用的解决方案,不会为了可访问性而牺牲性能。

小模型,大影响:SmolVLM 如何改变游戏规则

“SmolVLM 是一种紧凑的开放式多模态模型,它接受任意序列的图像和文本输入以生成文本输出,”Hugging Face 的研究团队在型号卡

其意义重大在于该模型前所未有的效率:它仅需要 5.02 GB GPU RAM,而竞争对手模型如Qwen-VL 2B实习生VL2 2B分别需要 13.70 GB 和 10.52 GB。

这种效率代表了人工智能开发的根本性转变。Hugging Face 没有遵循行业越大越好的方法,而是证明了精心的架构设计和创新的压缩技术可以在轻量级封装中提供企业级性能。这可以大大降低寻求实施人工智能视觉系统的公司的进入壁垒。

视觉智能突破:解释 SmolVLM 的先进压缩技术

背后的技术成果斯摩尔VLM是非凡的。该模型引入了积极的图像压缩系统,比同类中的任何先前模型更有效地处理视觉信息。– SmolVLM 使用81 个视觉标记研究人员解释说,对大小为 384 × 384 的图像块进行编码,这种方法允许模型处理复杂的视觉任务,同时保持最小的计算开销。

这种创新方法不仅仅局限于静态图像。在测试中,SmolVLM 在视频分析方面表现出了意想不到的能力,在测试中获得了 27.14% 的分数CinePile 基准测试。这使得它在更大、资源更密集的模型之间具有竞争力,这表明高效的人工智能架构可能比之前想象的更强大。

企业人工智能的未来:可访问性与性能的结合

的商业影响斯摩尔VLM是深刻的。通过让计算资源有限的公司能够使用先进的视觉语言功能,Hugging Face 基本上实现了一项以前为科技巨头和资金雄厚的初创公司保留的技术的民主化。

该模型具有三种变体,旨在满足不同的企业需求。公司可以部署基本版本进行定制开发,使用合成版本来增强性能,或实施指导版本以在面向客户的应用程序中立即部署。

发布于阿帕奇2.0许可证,SmolVLM 基于形状优化的 SigLIP 图像编码器和用于文本处理的 SmolLM2 构建。训练数据源自 The Cauldron 和 Docmatix 数据集,可确保在各种业务用例中实现稳健的性能。

研究团队表示,“我们期待看到社区将利用 SmolVLM 创造出什么成果”。这种对社区发展的开放性,加上全面的文档和集成支持,表明 SmolVLM 可能成为未来几年企业人工智能战略的基石。

这对人工智能行业的影响是重大的。随着公司面临着实施人工智能解决方案、同时管理成本和环境影响的越来越大的压力,SmolVLM 的高效设计为资源密集型模型提供了一个引人注目的替代方案。这可能标志着企业人工智能新时代的开始,其中性能和可访问性不再相互排斥。

模型是立即可用通过 Hugging Face 平台,有可能重塑企业在 2024 年及以后实施视觉 AI 的方式。

VB日报

保持了解!每天在您的收件箱中获取最新消息

订阅即表示您同意 VentureBeat 的服务条款。

感谢您的订阅。查看更多VB 时事通讯在这里

发生错误。

关于《Hugging Face 的 SmolVLM 可以大幅降低企业的人工智能成本》的评论


暂无评论

发表评论

摘要

Hugging Face 发布了 SmolVLM,这是一种紧凑型视觉语言 AI ​​模型,仅需要 5.02 GB GPU RAM,显着低于竞争模型。这种高效的模型提供了先进的图像和视频处理能力,同时减少了计算需求,使资源有限的企业更容易使用高性能人工智能。SmolVLM 提供三种变体,可满足不同的企业需求,并获得 Apache 2.0 许可,并承诺使以前仅限于科技巨头的人工智能技术民主化。