英语轻松读发新版了,欢迎下载、更新

梅塔说,其最新的AI模型少了,更像是Elon的Grok

2025-04-10 20:25:05 英文原文

作者:Thomas Maxwell

梅塔(Meta)表示,其最新的AI模型Llama 4在政治上的偏见不如其前辈。该公司表示,这部分是通过允许模型回答更多政治分裂的问题的部分来实现的,并补充说,Llama 4现在比较比较Grok中缺乏政治精益,这是Elon Musk Xai的Nonwoke Chatbot。

我们的目标是从我们的AI模型中消除偏见,并确保Llama能够理解并阐明一个有争议的问题的双方,META继续进行。作为这项工作的一部分,我们继续使Llama更加响应,以便回答问题,可以在不通过判断的情况下回答各种不同的观点,并且不支持其他观点。

由少数公司开发的大型模型的怀疑论提出的一个问题是对信息领域可以产生的信息的控制类型。控制AI模型的人本质上可以控制人们收到的信息,以任何方式移动拨号。当然,这并不是什么新鲜事。互联网平台长期以来使用算法来决定要浮出水面的内容。这就是为什么梅塔仍受到保守派的攻击,许多人坚持认为该公司抑制了右倾的观点,尽管事实上保守的内容历史上在Facebook上更加受欢迎。首席执行官马克·扎克伯格(Mark Zuckerberg)一直致力于超速驾驶,以期使人头痛。

在它的博客文章Meta强调,它对Llama 4的变化专门旨在使模型降低自由主义。众所周知,所有领先的LLM都有偏见的问题。这是由于互联网上可用的培训数据的类型。该公司尚未透露用于培训Llama 4的数据,但众所周知,Meta和其他模型公司依靠盗版书并在没有授权的情况下刮擦网站。

优化平衡的问题之一是,它可以为不基于经验,科学数据的不良信仰论点创造错误的等价性和信誉。通俗地称为两种方面主义``即使一方正在提出基于数据的论点,而另一种是吐出阴谋理论,媒体中有些人有责任为相反的观点提供同等的权重。像Qanon这样的团体很有趣,但代表了一个边缘运动,从未反映出许多美国人的观点,也许被给予的播放时间超出了应有的时间。

领先的AI模型继续存在一个有害的问题,即至今仍经常制作信息和躺在上面。AI有许多有用的应用程序,但是作为信息检索系统,使用仍然很危险。大型语言程序充满信心地吐出不正确的信息,以及以前使用直觉来衡量网站是否合法的所有方法。

众所周知,AI模型确实存在偏见识别模型的问题,例如,识别有色人种的人存在问题。女人经常是以性方式描绘,例如穿着披着衣服的衣服。偏见甚至以更无害的形式出现:通过经常出现EM破折号,发现AI生成的文本很容易,标点符号受到记者和其他生产大量内容模型的作家的青睐。模型展示了公众流行的主流观点。

但是,扎克伯格(Zuckerberg)看到了一个机会,有机会求助于特朗普(Trump),并正在做政治上的权宜之计,因此梅塔(Meta)专门将其模型推广,以至于它的模式将不太自由。因此,下次您使用Meta的AI产品之一时,它可能愿意通过服用马匹镇静剂来争辩19固化Covid-19。

关于《梅塔说,其最新的AI模型少了,更像是Elon的Grok》的评论


暂无评论

发表评论

摘要

Meta声称其新的AI模型Llama 4在政治上比以前的版本更少,旨在解决大型语言模型中历史左倾倾向的倾向。该公司断言,Llama 4现在可以对不同的观点做出中立的反应,而不受任何方面的影响,与Xai的Grok等其他模型中发现的偏见形成鲜明对比。Meta强调了平衡政治中立的努力,但批评家警告说,通过AI控制信息相关的风险,强调了对虚假等效性和边缘意识形态的扩增的担忧。该模型的培训数据仍未公开,引发了有关其准确性和公平性的问题。