结果表明,使用更少但质量更高的数据来训练模型可以降低计算成本。
结果表明,使用更少但质量更高的数据来训练模型可以降低计算成本。p>
非营利性研究机构艾伦人工智能研究所 (Ai2) 正在发布一系列名为 Molmo 的开源多模式语言模型,据称该模型的性能与 OpenAI、Google 和Anthropic。
该组织声称,其最大的 Molmo 模型拥有 720 亿个参数,在测量理解图像、图表等内容的测试中,其性能优于 OpenAI 的 GPT-4o(估计有超过一万亿个参数)、和文档。
与此同时,Ai2 表示,具有 70 亿个参数的较小 Molmo 模型在性能上接近 OpenAI 最先进的模型,并将这一成就归功于更高效的数据收集
Ai2 首席执行官阿里·法哈迪 (Ali Farhadi) 表示,Molmo 表明,开源人工智能开发现在与封闭的专有模型相当。开源模型具有显着的优势,因为它们的开放性意味着其他人可以在它们之上构建应用程序。Molmo 演示可在此处获取,开发人员也可以在 Hugging Face 网站上进行修改。(最强大的 Molmo 模型的某些元素仍然被屏蔽。)
其他大型多模态语言模型是在包含从互联网上收集的数十亿图像和文本样本的庞大数据集上进行训练的,并且它们可以包含数万亿个参数。Ai2 的高级研究主管阿尼·肯巴维 (Ani Kembhavi) 表示,这个过程给训练数据带来了很多噪音,并随之产生了幻觉。相比之下,Ai2 的 Molmo 模型是在一个更小、更精心策划的数据集上进行训练的,该数据集仅包含 600,000 张图像,并且具有 10 亿到 720 亿个参数。Kembhavi 表示,这种对高质量数据的关注,而不是不加区别地抓取数据,可以用更少的资源获得良好的性能。
Ai2 通过让人类注释者描述模型训练数据集中的图像来实现这一目标多页文本的令人难以忍受的细节。他们要求注释者谈论他们所看到的内容,而不是打字。然后,他们使用人工智能技术将语音转换为数据,这使得训练过程更快,同时降低了所需的计算能力。
如果我们想要有效地管理我们使用的数据,这些技术可能非常有用Hugging Face 的机器学习和社会负责人 Yacine Jernite 没有参与这项研究,他表示,对于人工智能开发来说,这是有道理的。
一般来说,使用更高质量的数据进行训练可以降低斯坦福大学基础模型研究中心主任珀西·梁(Percy Liang)也没有参与这项研究,他说:“计算成本”。
另一个令人印象深刻的功能是该模型可以指向事物,这意味着它可以通过识别回答查询的像素来分析图像的元素。
在《麻省理工科技评论》分享的演示中,Ai2 研究人员在西雅图当地码头的办公室外拍了一张照片,并要求模型识别各种图像的元素,例如躺椅。该模型成功地描述了图像中包含的内容,计算了躺椅的数量,并按照研究人员的要求准确地指出了图像中的其他事物。然而,它并不完美。例如,它无法找到特定的停车场。
其他先进的人工智能模型擅长描述场景和图像,Farhadi 说。但是,当您想要构建更复杂的网络代理来与世界交互并且可以预订航班时,这还不够。他说,指向可以让人们与用户界面进行交互。
Jernite 表示,Ai2 的运营方式比我们在其他人工智能公司看到的更加开放。他说,虽然 Molmo 是一个良好的开端,但它的真正意义在于开发人员在其基础上构建的应用程序以及人们改进它的方式。
Farhadi 同意。过去几年,人工智能公司吸引了数万亿美元的巨额投资。但在过去的几个月里,投资者对这项投资能否带来回报表示怀疑。他认为,大型、昂贵的专有模型无法做到这一点,但开源模型可以。他说,这项工作表明,开源人工智能也可以以一种有效利用金钱和时间的方式构建。
Farhadi 说,我们很高兴能够为他人提供帮助,并看到其他人会用它来构建什么。
到目前为止,LLM 的大部分进展都是语言驱动。这个新模型进入了复杂推理领域,对物理、编码等都有影响。
支持语音的机器人今天,聊天机器人将向一小群人开放,并在秋季面向所有 ChatGPT Plus 用户开放。
It即使您没有任何设计技能,也可以轻松在平台上构建新的游戏环境。
提出的系统来自麻省理工学院、OpenAI、微软和其他公司的研究人员可以通过利用技术弱点来遏制欺骗性人工智能的使用。
发现特别优惠、头条新闻、即将举办的活动等。