Meta 在将强大的人工智能应用到手机上的竞赛中击败了谷歌和苹果

2024-10-24 18:57:42 英文原文

作者:Michael Nuñez

Credit: VentureBeat made with Midjourney

该进步使用了一种称为

Meta结合了两种方法:使用 LoRA 适配器 (QLoRA) 进行量化感知训练

以保持准确性,并且自旋量子以提高便携性。这项技术成果解决了一个关键问题:在没有大量计算能力的情况下运行先进的人工智能。到目前为止,复杂的人工智能模型需要数据中心和专用硬件。

测试于一加 12Android 手机显示,压缩后的模型体积缩小了 56%,使用的内存减少了 41%,同时处理文本的速度提高了一倍多。这些模型可以处理最多 8,000 个字符的文本,足以满足大多数移动应用程序的需要。在 Android 手机上进行测试时,Meta 的压缩 AI 模型(SpinQuant 和 QLoRA)与标准版本相比,速度和效率显着提高。较小的型号在使用一半内存的情况下运行速度提高了四倍。(来源:元)

科技巨头竞相定义人工智能的移动未来

Meta 的发布加剧了科技巨头之间控制人工智能在移动设备上运行方式的战略战。尽管谷歌和

苹果

对移动人工智能采取谨慎、受控的方法——保持其与操作系统紧密集成——Meta 的策略明显不同。

通过开源这些压缩模型并与芯片制造商合作高通联发科,Meta绕过了传统的平台看门人。

开发人员无需等待 Google 即可构建 AI 应用程序安卓更新或苹果的iOS功能这一举措呼应了移动应用程序的早期,当时开放平台极大地加速了创新。与的合作伙伴关系高通

联发科都特别重要。这些公司为全球大多数 Android 手机提供支持,包括 Meta 认为具有增长潜力的新兴市场的设备。通过针对这些广泛使用的处理器优化其模型,Meta 确保其人工智能可以在不同价位的手机上高效运行,而不仅仅是高端设备。通过双方分配的决定

Meta’s Llama 网站抱脸影响力越来越大的人工智能模型中心,体现了 Meta 致力于接触开发人员已经工作的领域的承诺。这种双重分发策略可以帮助 Meta 的压缩模型成为移动 AI 开发的事实上的标准,就像TensorFlow火炬成为机器学习的标准。

口袋里的人工智能的未来

Meta 今天的声明表明人工智能领域发生了更大的转变:从集中式计算转向个人计算。虽然基于云的人工智能将继续处理复杂的任务,但这些新模型预示着未来手机可以私下快速处理敏感信息。

时机很重要。科技公司在数据收集和人工智能透明度方面面临着越来越大的压力。Meta 的方法(开放这些工具并直接在手机上运行)解决了这两个问题。您的手机(而不是远程服务器)很快就能处理文档摘要、文本分析和创意写作等任务。

这反映了计算领域的其他关键转变。正如处理能力从大型机转移到个人电脑,计算能力从台式机转移到智能手机一样,人工智能似乎已经准备好向个人设备过渡。Meta 的赌注是,开发人员将接受这一变化,创建将移动应用程序的便利性与人工智能的智能融为一体的应用程序。

成功并不能保证。这些型号仍然需要功能强大的手机才能良好运行。开发人员必须权衡隐私的好处与云计算的原始能力。Meta 的竞争对手,尤其是苹果和谷歌,对手机上人工智能的未来有着自己的愿景。

但有一点是明确的:人工智能正在脱离数据中心,一次只使用一部手机。

VB日报

保持了解!每天在您的收件箱中获取最新消息

订阅即表示您同意 VentureBeat 的服务条款。

感谢您的订阅。查看更多VB 时事通讯在这里

发生错误。

关于《Meta 在将强大的人工智能应用到手机上的竞赛中击败了谷歌和苹果》的评论


暂无评论

发表评论

摘要

2024 年 10 月 24 日 11:57图片来源:VentureBeat 使用 Midjourney 制作加入我们的每日和每周时事通讯,了解有关行业领先人工智能报道的最新更新和独家内容。了解更多Meta Platforms 创建了 Llama 人工智能模型的较小版本,可以在智能手机和平板电脑上运行,为数据中心之外的人工智能开辟了新的可能性。该公司今天发布了 Llama 3.2 1B 和 3B 型号的压缩版本,其运行速度提高了四倍,而使用的内存还不到早期版本的一半。这反映了计算领域的其他关键转变。Meta 的竞争对手,尤其是苹果和谷歌,对手机人工智能的未来有着自己的愿景。2024 年 10 月 24 日 11:57图片来源:VentureBeat 使用 Midjourney 制作加入我们的每日和每周时事通讯,了解有关行业领先人工智能报道的最新更新和独家内容。了解更多元平台创建了 Llama 人工智能模型的较小版本,可以在智能手机和平板电脑上运行,为数据中心之外的人工智能开辟了新的可能性。该公司宣布其压缩版本羊驼3.2 1B和3B型号如今,其运行速度提高了四倍,而使用的内存还不到早期版本的一半。