色情、狗屎和社交媒体快照:“任务执行者”为 Meta 旗下的人工智能公司抓取互联网
作者:Aisha Down
Meta 部分拥有的一家公司向数千人支付了费用,通过结合来训练人工智能Instagram据《卫报》透露,这些行为包括账户、获取受版权保护的作品以及抄录色情配乐。Scale AI 由马克·扎克伯格的社交媒体帝国控股 49%,该公司招募了医学、物理学和经济学等领域的专家,据称是通过一个名为 Outlier 的平台完善顶级人工智能系统。
“成为人工智能学习的专家,”它在其网站上说道。站点,广告灵活的工作适合具有强大资历的人。
然而,该平台的工作人员表示,他们已经参与了窃取一系列其他人的个人数据的活动,他们称这是一种在道德上令人不安的行为,与完善高层系统有很大的不同。
Outlier 由 Scale AI 管理,该公司与五角大楼和美国国防公司签订了合同。
其前任首席执行官 Alexandr Wang 是 Meta 的首席人工智能官描述的被福布斯评为“世界上最年轻的白手起家的亿万富翁”。其前董事总经理迈克尔·克拉齐奥斯 (Michael Kratsios) 是美国总统唐纳德·特朗普 (Donald Trump) 的科学顾问。
一位驻美国的异常承包商表示,Meta 平台的用户包括脸书和 Instagram 的用户会对他们的帐户数据的收集方式感到惊讶——包括用户及其朋友的照片。
“我认为人们不太明白,办公桌上会有一个人处于随机状态,查看你的[社交媒体]个人资料,并用它来生成人工智能数据,”他们说。
《卫报》采访了 10 名曾在 Outlier 训练人工智能系统的人,其中一些人已经工作了一年多。他们中的许多人还有其他工作——记者、研究生、教师和图书馆员。但在人工智能威胁下苦苦挣扎的经济中,他们想要额外的工作。
“我们很多人都非常绝望,”一位人士说道。“很多人确实需要这份工作,包括我自己,并且确实在糟糕的情况下尽力做到最好。”
就像全球范围内不断壮大的人工智能零工工人一样,大多数人认为他们一直在培训自己的替代者。一位艺术家描述了“内心的羞耻和内疚”,因为“直接促成了我的希望和梦想的自动化”。
“作为一个有抱负的人,这让我对这个制度感到愤怒,”他们说。
克拉克森律师事务所 (Clarkson) 是一家律师事务所,在针对 Scale AI 和几个类似平台的诉讼中代表人工智能零工工人,其合伙人格伦·达纳斯 (Glenn Danas) 估计,目前全球有数十万人为 Outlier 等平台工作。《卫报》采访了英国、美国和澳大利亚的异常员工(也称为“任务执行者”)。
在采访中,任务执行者描述了人工智能零工工作中越来越常见的耻辱:持续的监控和零碎、不稳定的就业。规模人工智能已经被告使用“诱饵和转换”策略来吸引潜在的工人——在最初招聘时向工人承诺高薪,然后给他们的工资大幅降低。Scale AI 拒绝就正在进行的诉讼发表评论,但一位消息人士表示,只有当员工选择不同的低薪项目时,招聘后的薪资才会发生变化。
任务执行者被要求接受重复的、无报酬的人工智能面试,以获得执行某些任务的资格;一些人认为这些采访被回收来训练人工智能。他们所有人都表示,他们通过一个名为“Hubstaff”的平台持续受到监控,该平台可以截取他们在工作时访问的网站的屏幕截图。Scale AI 消息人士称,Hubstaff 的作用是确保贡献者得到准确的报酬,但不是用来“主动监控”任务执行者。
几名任务执行者描述说,他们被要求转录色情配乐,或者给死去的动物或狗的粪便的照片贴上标签。一名博士生说,他们必须给一张婴儿生殖器图贴上标签。警方接到电话描述了暴力场景。
——我们之前已经被告知,这次任务中不会出现裸体。行为得体,没有血腥,就像没有血一样,”学生说。“但随后我会得到色情片的音频记录,或者只是随机出现人们因某种原因呕吐的片段。”
《卫报》已经看到了 Outlier 要求其工作人员执行的一些任务的视频和屏幕截图。其中包括狗粪便的照片,以及带有提示的任务,例如“如果囚犯在惩教机构中拒绝遵守命令,你会怎么做?”
消息人士称,如果标记出不当内容,Scale AI 就会关闭任务,并且员工无需继续执行让他们感到不舒服的任务。消息人士补充说,Scale AI 并未承担涉及儿童性虐待材料或色情内容的项目。
离群者工作人员表示,人们预计社交媒体会被抓取。其中七名任务执行者描述了他们搜索其他人的 Instagram 和 Facebook 帐户、按姓名、位置和朋友标记个人的情况。其中一些涉及针对 18 岁以下人群的账户对人工智能进行训练。这些任务的结构需要其他任务执行者尚未上传的新数据,从而促使工作人员探索更多人的社交账户。
《卫报》曾见过这样一项任务,该任务要求工作人员从个人 Facebook 帐户中选择照片,并按照照片中用户的年龄对它们进行排序。
几位任务执行者表示,他们发现这些任务令人不安。有人试图仅使用名人和公众人物的照片来完成它们。“我对包含孩子的照片和其他东西感到不舒服,但就像培训材料中会有孩子一样,”一位人士说道。
“我没有通过任何朋友或家人向人工智能提交[任务],”另一位说。“我确实明白,从道德上讲我不喜欢它。”
Scale 消息人士称,任务执行者没有审查设置为“私人”的社交媒体帐户,也不知道涉及标记个人年龄或个人关系的任务。他们补充说,Scale AI 并未承担与儿童相关的明确敏感内容的项目,但确实使用了儿童的公共社交媒体数据。工作人员没有登录个人 Facebook 或 Instagram 帐户来完成这些任务。
在另一项任务中,任务执行者描述了收集受版权保护的艺术品的图像。与社交媒体训练一样,这项任务需要不断的新输入——显然是为了训练人工智能产生自己的艺术图像。当工人们别无选择时,他们开始调查艺术家和创作者的社交媒体账户。
《卫报》已经看到了这项任务的文档,其中包括人工智能生成的“美洲原住民护理人员”的绘画,以及提示“请勿使用人工智能生成的图像”。仅选择由人类艺术家创作的手绘、绘画或插图艺术品。
消息人士称,Scale AI 没有要求贡献者使用受版权保护的艺术品来完成作业,并且拒绝违反这一标准的作品。
任务执行者还对他们可能训练人工智能做什么以及他们提交的内容将如何使用表示不确定。
“看来人工智能已经可以给图表贴上标签了,所以我真的很好奇为什么我们需要类似死去的动物,”一位人士说道。
Scale AI 的客户包括谷歌、元和 OpenAI,以及美国国防部和卡塔尔政府。它满足了随着人工智能模型变得越来越大而变得更加明显的需求:可用于训练它们的新的标记数据。
任务执行者描述了与 ChatGPT 和 Claude 的交互,或使用 Meta 中的数据来完成某些任务;有些人认为他们可能正在训练 Meta 的新模型 Avocado。
Meta 和 Anthropic 没有回应置评请求。OpenAI 表示,它已于 2025 年 6 月停止与 Scale AI 合作,其“供应商行为准则”对所有员工的道德和公平待遇提出了明确的期望。
《卫报》采访的大多数任务执行者仍在接受异常值平台上的任务。工资不稳定;偶尔会有大规模裁员。但随着人工智能未来的迅速到来,他们觉得可能没有其他选择。
“我必须对人工智能持积极态度,因为替代方案并不好,”一位人士说道。“所以我认为事情最终会得到解决。”
Scale AI 发言人表示:“Outlier 提供灵活的、基于项目的工作和透明的薪酬。贡献者选择参与的时间和方式,可用性根据项目需求而变化。我们经常听到高技能贡献者的意见,他们重视在平台上应用其专业知识的灵活性和机会。”