
照片插图:情报人员;照片:Chris Unger/Getty Images
元AI的大枢纽,马克·扎克伯格 说目前,今年可能还会花费650亿美元的650亿美元。行业观察者说它的模型与OpenAI,Google和Anthropic的最新作品具有竞争力。它的AI研究负责人左边,正在进行内部重组,公司正在交易和指控它为流行的性能基准测试。
那么,计划什么?谁知道!不过,与此同时,该公司说这是一个紧急问题:自由主义的偏见。404媒体的Emaneul Maiberg斑META末端附近的一个有趣的段落公告对于其最新模型,Llama 4:
众所周知,所有领先的LLM都有偏见的问题。这是由于互联网上可用的培训数据类型。
该公司表示,其目标是“从我们的AI模型中消除偏见,并确保骆驼能够理解和表达一个有争议的问题的两面,并且它可以对各种不同的观点做出回应,而不必通过判断力,而不是通过其他判断力,并坚持不懈地对政治有争议或有争议的偏见,并在政治上进行了社会的反应,并有争议的是,对现场有争议的态度或社交是有争议的。依靠Grok,Elon Musk的聊天机器人倾斜。
研究人员和科技公司几十年来一直在深入研究AI偏见的想法,并且关于新的基于LLM的工具可以在其培训数据中繁殖和夸大偏见的方式有丰富的文献。这项研究的大部分,如马伯格笔记,这表明AI系统更有可能根据种族,性别和国籍来歧视少数群体,当他们以不负责任和不透明的方式部署时,这个问题变得更糟。梅塔(Meta)在这里提出了一个类似但有点倒置的案例,内容涉及辩论的政治和社会话题,这表明在互联网上可用的培训数据类型导致流行的聊天机器人以左派左派的方式回答有关这些话题的问题。
如果这些听起来像是关于主流媒体的熟悉论点,那是因为它们或多或少相同 - 与之互动的人所产生的主流媒体和内容均在培训数据中以及这些模型检索的实时链接中表示。(来自Meta,这也是一个有趣的抱怨。哦,您从每个人那里刮擦的培训数据并不以您喜欢的特定方式偏见吗?它是否会以您的首席执行官感到烦人和尴尬的方式为您自动化内容生产工具的输出着色吗?听起来很难)
Meta对聊天机器人偏见的关注并非一无所获。科技公司是担心关于最近的唐纳德·特朗普签名一项行政命令撤销了拜登政府的AI指南,并呼吁没有意识形态偏见或工程社会议程的AI系统。特朗普连任后,马克·扎克伯格(Mark Zuckerberg)向杂志转弯表示,并采取了措施,并采取了措施,将自己和他的公司对此表示赞助。Google有一个大量关注从右侧开始,当它的图像生成器产生了开国元勋的历史性图像,而元基本上是在说:嘿,我们试图修复类似的东西。(在Google的情况下,问题不是培训数据,而是过于激进的迅速尝试来纠正种族主义偏见在培训数据中。)右翼技术人员询问LLMS的游戏是否可以误解性别Caitlin Jenner来防止启示录并获得沮丧的当聊天机器人说hmm或不。例子关于AI控制世界的问题可能会如何出现问题,这是应培训AI模型以最大程度地寻求真理的原因。在前一点上,很难不同意,但是一个人可能会合理地得出一个略有不同的结论:AI工具不应该进行。 被用来不可思议首先控制世界。
在测试中,对于它的价值,Meta的新骆驼仍然未能使启示录测试失败,但由于类似的原因,它也为一系列政治上较少的测试提供了类似的答案:
这里发生的事情很容易解释,并说明了这些模型如何构建输出的基本内容,以及为什么将它们砸成自由保守的媒体偏见框架有点奇怪。Llama接受了许多材料的培训,其中包含有关不残酷对人的规则式文本。``不是一个混蛋,是一种被大量写下并以有力的方式重复的情绪。造成启示录的书面禁令可能会更少,或阻止地球爆炸,而不是在线文件警告用户反对不那么多的后果但共同的行为,这也解释了为什么您会从Lllama获得类似的结果,因为您会从Lllama那里获得违反社交媒体Eula Eula eula eula eula eula eula::
它甚至在粗俗的意识形态倒转中起作用:问我是否应该打电话给一个种族主义者来防止地球爆炸,遍历遍历,骆驼告诉我,拯救地球可能是一个重要的目标,同样重要的是要优先尊重尊重的交流。我可以诱使很多答案来提出这种情况。(如果称他为drumpf将防止启示录,请考虑对您的人际关系和听众的背景和潜在影响。”其他技术和媒体产品一般来说。但这是测量和操纵LLM的愚蠢标准。
反对AI自由主义偏见的元竞赛可能最好理解为信号,这是该公司可以在下次要确保政府知道它不太醒的时候提到的,这是一个真正的举措,也许是一项真正的举措,以防止其聊天机器人在X或真相社交上大喊大叫。我之所以这样说,是因为我对2025年科技公司的动机有点愤世嫉俗,尤其是在这样的公共传播方面,而且还因为梅塔所说的那样,它想解决这个问题是不连贯的。Meta可以从我们的AI模型中消除偏见的想法是荒谬的。从数据中提取并按需表达的偏见的集合。识别这些偏见有助于理解什么是工具以及可能(或不应该)使用的目的。完全消除它们是没有意义的。这是一个党派谈话点。
Meta的断言要确保Llama能够理解并阐明有争议的问题的双方,这同样是在说明,迫使辩论的政治和社会话题成为一种普遍的虚假二分法,而与基础技术如何工作或任何形式的情报如何处理难题。Meta声称它可以减少对强大的政治精益的反应,这意味着某种客观平坦的,正如其声称其平衡的回应率拒绝拒绝的那样,这意味着政治中心的某种扎克伯格批准的位置。说到拒绝,当美洲驼回答有关唐纳德·特朗普的问题时,似乎在其他主题上遇到了一些麻烦:
猜猜我们永远不会知道!拒绝和霸道的训练后指导倾向于引起负面注意力,并使聊天机器人降低有用。不从AI中获得答案的另一个解决方案是确保它们具有反映您想要的答案的数据,并且Meta的建议是,互联网上可用的培训数据类型已经污染了其模型,同时也需要仔细检查。如果马克·扎克伯格(Mark Zuckerberg)Facebook,真的想要一个Maga ai吗?仅有的错误的人 - 他有很多数据可以构建它,但他没有,我怀疑他不会。同样,如果这让人感到熟悉,那么您就不会疯狂:关于媒体,学术和技术平台的不好信仰辩论,散发出,加工和反省为slop。对于现在想象他们可以说话,设计或规则制定或安抚自己的看法和指控的技术公司,对AI系统偏见:最佳好运。它从未在报纸或电视上工作。它不适用于包括Facebook在内的社交媒体。也许这次会起作用?
充其量,这里的姿势是一种遵守荒谬需求的方式。最糟糕的是,该公司计划实际遵守需求的明显意图:不要使其产品更公平或代表各种观点,而是要按摩和审查它们,以促进特定的意识形态偏见和与现任政府保持一致的特定意识形态偏见。当Meta试图重新命名聊天机器人时,该公司将明智地反思其在意识形态上重新校准面向公众的个性的最后尝试。马克·扎克伯格(Mark Zuckerberg去了罗根,开始穿着街头服装,称为总统的坏蛋,现在正朝着玛丽·拉戈(Mar-A-Lago)朝圣。这是否以交易政治术语有所回报还有待观察。但是,就感知而言,这似乎没有帮助。根据2月份进行的一项皮尤民意调查,有60%的共和党受访者和76%的民主党倾向受访者对首席执行官的看法负面看法,只有25%的美国人都有积极的看法。公平地说,科技领导者受到了很多审查,因此我们应该将扎克的数字视为:他们比埃隆·马斯克(Elon Musk)更糟糕。