Metas Llama AI 模型现在也支持图像 - TechCrunch

2024-09-25 15:12:25 英文原文

本杰明·富兰克林曾经写道,除了死亡和税收之外,没有什么是确定的。让我修改一下这句话,以反映当前的人工智能淘金热:除了死亡、税收和新的人工智能模型,没有什么是确定的,而这三者中的最后一个的到来速度不断加快。

本周早些时候,谷歌发布了升级版的 Gemini 模型,本月早些时候,OpenAI 发布了其 o1 模型。但周三,轮到 Metas 在门洛帕克举行的公司年度 Meta Connect 2024 开发者大会上推出了最新产品。

Llamas 多模态

Metas 多语言 Llama 系列模型已达到版本 3.2,与 3.1 相比有所提升,这意味着一些 Llama 模型现在是多模式的。Llama 3.2 11B 是一个紧凑模型,而 90B 是一个更大、功能更强大的模型,可以解释图表和图形、为图像添加标题,并在给出简单描述的情况下精确定位图片中的对象。

给定一张公园地图,例如,Llama 3.2 11B 和 90B 可能能够回答这样的问题:地形什么时候会变得更陡?这条路径的距离是多少?或者,提供显示公司一年内收入的图表,这些模型可以快速突出表现最好的月份。

对于希望将模型严格用于文本应用程序的开发人员,Meta 表示 Llama 3.2 11B 和 90B 被设计为 3.1 的直接替代品。11B 和 90B 可以在使用或不使用新的安全工具 Llama Guard Vision 的情况下进行部署,该工具旨在检测输入到模型或由模型生成的潜在有害(即有偏见或有毒)的文本和图像。

在大多数情况下在世界范围内,多模式 Llama 模型可以在多种云平台上下载和使用,包括 Hugging Face、Microsoft Azure、Google Cloud 和 AWS。Metas 还在 Llama 官方网站 Llama.com 上托管它们,并使用它们在 WhatsApp、Instagram 和 Facebook 上为其 AI 助手 Meta AI 提供支持。

但无法访问 Llama 3.2 11B 和 90B在欧洲。因此,欧洲用户无法使用其他地方可用的一些 Meta AI 功能,例如图像分析。Meta 再次指责集团监管环境的不可预测性。

了解如何从 AWS 优化生成式 AI 部署

关于《Metas Llama AI 模型现在也支持图像 - TechCrunch》的评论


暂无评论

发表评论

摘要

本杰明·富兰克林曾经写道,除了死亡和税收之外,没有什么是确定的。对于希望将模型严格用于文本应用程序的开发人员,Meta 表示 Llama 3.2 11B 和 90B 被设计为 3.1 的直接替代品。鉴于 405B 规模庞大,训练时间可能长达数月,这可能是计算资源有限的问题。我们已经询问 Meta 是否还有其他因素在起作用,如果我们收到回复,我们将更新这个故事。Llama 3.2 模型都没有解决当今人工智能的首要问题,比如它倾向于编造和重复有问题的训练数据(例如,可能未经许可使用的受版权保护的电子书,这是针对 Meta 的集体诉讼的主题)。