Meta研发了一种能够自我训练的人工智能模型

2024-10-21 20:27:14 英文原文

作者:By

这里有一个会吓到人工智能恐慌论者的。据报道,路透社Meta发布了一个新的生成式AI模型,该模型能够自我训练以提升其输出质量。

那是对的,它是有生命的,虽然也不完全是。

根据路透社:

Meta于周五表示,将发布一个“自学评估器”,这可能会为减少人工智能开发过程中的人工干预提供一条途径。该技术涉及将复杂问题分解为更小的逻辑步骤,并且似乎可以提高科学、编程和数学等学科中难题回答的准确性。

因此,Meta不是依赖人工监督,而是在人工智能系统中开发更多的AI系统,这将使其流程能够测试和改进模型本身的部分。然后这将导致更好的输出结果。

Meta已经概述了该过程在一份报告中新论文,解释了系统是如何工作的:

Meta AI self education

根据元数据:

在本文中,我们提出了一种旨在仅通过合成训练数据而不依赖人工标注来改进评估者的方法。从无标签的指令开始,我们的迭代自我提升方案生成对比模型输出,并训练一个作为裁判的大规模语言模型以产生推理轨迹和最终判断,在每次新的迭代中使用改进的预测结果重复这一培训过程。

挺吓人的,对吧?也许今年万圣节你可以打扮成“作为法官的LLM”,尽管你得解释一番这个装扮恐怕会让它难以实现。

正如路透社指出的,该项目是Meta的几项新的AI发展之一,现在所有项目均已作为模型形式发布,供第三方测试。Meta还发布了代码它的更新版“分割一切”过程,一个新的多模态语言模型结合了文本和语音,a设计用于帮助确定和防范基于人工智能的网络攻击的系统改进了翻译工具,并且有了发现无机原材料的新方法。

这些模型都是Meta的一部分开源的生成式人工智能开发方法该公司将与外部开发者分享其人工智能研究发现,以帮助推进其工具的发展。

这也伴随着一定的风险,因为我们还不知道人工智能实际上能做多少事情。让AI训练AI听起来在某些方面像是麻烦的根源,但我们仍然处于起步阶段离自动通用智能(AGI)还很遥远这将最终使基于机器的系统能够模拟人类思维,并在不受干预的情况下提出创意解决方案。

这才是那些担忧人工智能的人的真实顾虑,即我们即将构建出比人类更聪明的系统,而这些系统可能会把人类视为威胁。再次强调,这种情况不会在短期内发生,还需要多年的研究才能模拟出类似大脑的实际活动。

但是即使如此,并不意味着我们不能用现有的AI工具产生有问题的结果。

这比《终结者》式的机器人末日要风险小,但随着越来越多的系统融入生成式人工智能,这样的进步可能有助于提高输出质量,但也可能导致更多不可预测且潜在有害的结果。

虽然这些初步测试的目的大概就是为了这个,但也许这样全面开源会扩大潜在的风险。

您可以阅读关于Meta最新人工智能模型和数据集的内容这里.

关于《Meta研发了一种能够自我训练的人工智能模型》的评论


暂无评论

发表评论

摘要

这里有一个会让人工智能恐慌论者感到害怕的内容。Meta在一份新论文中概述了这一过程,解释了系统的工作原理: 根据Meta的说法: “在这项工作中,我们提出了一种方法,旨在不使用人工标注的情况下通过合成训练数据来改进评估器。这些模型都是Meta开源的人工智能开发方法的一部分,公司将与外部开发者分享其人工智能研究成果以帮助推进工具的发展。让AI训练AI听起来在某些方面可能是一条充满麻烦的道路,但我们距离自动化通用智能(AGI)还很远,最终这种系统将能够模拟人类思维,并在没有干预的情况下提出创造性的解决方案。尽管如此,我想这些初始测试就是为此目的而设计的,但也许以这种方式开源一切会扩大潜在的风险。