作者:By
这里有一个会吓到人工智能恐慌论者的。据报道,路透社Meta发布了一个新的生成式AI模型,该模型能够自我训练以提升其输出质量。
那是对的,它是有生命的,虽然也不完全是。
根据路透社:
“Meta于周五表示,将发布一个“自学评估器”,这可能会为减少人工智能开发过程中的人工干预提供一条途径。该技术涉及将复杂问题分解为更小的逻辑步骤,并且似乎可以提高科学、编程和数学等学科中难题回答的准确性。
因此,Meta不是依赖人工监督,而是在人工智能系统中开发更多的AI系统,这将使其流程能够测试和改进模型本身的部分。然后这将导致更好的输出结果。
Meta已经概述了该过程在一份报告中新论文,解释了系统是如何工作的:
根据元数据:
“在本文中,我们提出了一种旨在仅通过合成训练数据而不依赖人工标注来改进评估者的方法。从无标签的指令开始,我们的迭代自我提升方案生成对比模型输出,并训练一个作为裁判的大规模语言模型以产生推理轨迹和最终判断,在每次新的迭代中使用改进的预测结果重复这一培训过程。”
挺吓人的,对吧?也许今年万圣节你可以打扮成“作为法官的LLM”,尽管你得解释一番这个装扮恐怕会让它难以实现。
正如路透社指出的,该项目是Meta的几项新的AI发展之一,现在所有项目均已作为模型形式发布,供第三方测试。Meta还发布了代码它的更新版“分割一切”过程,一个新的多模态语言模型结合了文本和语音,a设计用于帮助确定和防范基于人工智能的网络攻击的系统改进了翻译工具,并且有了发现无机原材料的新方法。
这些模型都是Meta的一部分开源的生成式人工智能开发方法该公司将与外部开发者分享其人工智能研究发现,以帮助推进其工具的发展。
这也伴随着一定的风险,因为我们还不知道人工智能实际上能做多少事情。让AI训练AI听起来在某些方面像是麻烦的根源,但我们仍然处于起步阶段离自动通用智能(AGI)还很遥远这将最终使基于机器的系统能够模拟人类思维,并在不受干预的情况下提出创意解决方案。
这才是那些担忧人工智能的人的真实顾虑,即我们即将构建出比人类更聪明的系统,而这些系统可能会把人类视为威胁。再次强调,这种情况不会在短期内发生,还需要多年的研究才能模拟出类似大脑的实际活动。
但是即使如此,并不意味着我们不能用现有的AI工具产生有问题的结果。
这比《终结者》式的机器人末日要风险小,但随着越来越多的系统融入生成式人工智能,这样的进步可能有助于提高输出质量,但也可能导致更多不可预测且潜在有害的结果。
虽然这些初步测试的目的大概就是为了这个,但也许这样全面开源会扩大潜在的风险。
您可以阅读关于Meta最新人工智能模型和数据集的内容这里.