英语轻松读发新版了,欢迎下载、更新

基于发展中国家技术工人“奴隶劳役”的人工智能——亚洲时报

2024-10-09 06:23:26 英文原文

作者:Ganna Pogrebna

在世界各地尘土飞扬的工厂、狭小的网吧和简陋的家庭办公室里,数百万人坐在电脑前枯燥地标注数据。

这些工人是蓬勃发展的人工智能(AI)行业的生命线。没有他们,像ChatGPT这样的产品根本就不存在。这是因为他们标注的数据帮助AI系统“学习”。

但尽管这支劳动力对一个预计到2027年价值4070亿美元的行业作出了至关重要的贡献,组成这支劳动力的个人却往往处于隐身状态,并经常遭到剥削。

今年早些时候,来自肯尼亚的近100名数据标注员和人工智能工作者为Facebook、Scale AI和OpenAI等公司工作。发布了一封公开信致美国总统乔·拜登的信中他们写道:

我们的工作条件相当于现代奴隶制。

为了确保人工智能供应链是道德的,行业和政府必须紧急解决这个问题。但关键问题是:如何做?

数据标注是对原始数据——如图像、视频或文本——进行标注的过程,以便AI系统能够识别模式并作出预测。

自动驾驶汽车就是一个例子,依赖于标注了的视频片段以区分行人和路标。大型语言模型如ChatGPT依赖于标注过的text理解人类语言。

这些标注的数据集是人工智能模型的生命线。没有它们,AI系统将无法有效运行。

像Meta、谷歌、OpenAI和微软这样的科技巨头将这项工作的很大一部分外包给诸如本国的数据标注工厂。菲律宾, 肯尼亚, 印度, 巴基斯坦, 委内瑞拉和哥伦比亚. 中国也成为另一个全球数据标注中心。

提供此类服务的外包公司包括Scale AI、iMerit和Samasource。这些都是非常大的公司。例如,总部位于加州的Scale AI目前价值高达140亿美元.

偷工减料

像谷歌母公司阿尔法벳、亚马逊、微软、英伟达和Meta等大型科技公司已投入数十亿进入人工智能基础设施,从计算能力、数据存储到新兴的计算技术。

大型AI模型的成本可能达到数千万美元用于培训部署后,维护这些模型需要持续投入数据标注、优化和真实世界测试。

但尽管人工智能的投资规模很大,收入并未总是达到预期。许多行业继续将人工智能项目视为实验性且盈利路径不明确.

对此,许多公司都在削减成本,而这影响到了人工智能供应链最底层的人,他们往往非常脆弱:数据标注员。

低工资,危险的工作环境

参与人工智能供应链的公司通过雇用大量数据标注工人来降低成本,这些工人来自南半球国家,如菲律宾、委内瑞拉、肯尼亚和印度。这些国家的工人们面临的问题是停滞或缩水的工资.

例如,委内瑞拉的人工智能数据标注员的小时费率在之间从90美分和2美元.相比之下,在美国,这个比率在之间每小时10美元到25美元.

在菲律宾,为Scale AI等数十亿美元公司标注数据的工人通常赚取远低于最低工资标准. 一些标注提供商甚至采取了童工用于标注目的。

但人工智能供应链中还有许多其他劳工问题。

许多数据标注员工作在拥挤且尘土飞扬的环境这对他们的健康构成严重风险。他们通常也以独立承包商的身份工作,缺乏诸如医疗保健或补偿等保护措施。

数据标注工作对精神的压力也很大,重复的任务、严格的截止日期和僵化的质量控制要求让人感到疲惫。数据标注员有时还被要求阅读并标注仇恨言论或其他辱骂性语言或材料,这一点也很令人担忧。已被证明具有负面的心理影响.

错误可能导致薪资削减或失业。但标注员常常经历对其工作评估过程缺乏透明度的情况。他们往往无法访问绩效数据,这阻碍了他们改进或质疑决定的能力。

使人工智能供应链符合伦理道德

随着人工智能的发展变得越来越复杂以及公司力求最大化利润,建立道德的人工智能供应链的需求日益紧迫。

公司可以通过应用一种方式来帮助确保这一点:以人权为中心的设计、审议和监督方法他们必须采用公平的工资政策,确保数据标注员获得反映其贡献价值的生活工资。

通过将人权嵌入供应链,人工智能公司可以培育一个更加道德和可持续的行业,确保工人权益与企业责任相协调,以实现长期成功。

政府还应制定新的法规强制实施这些做法,促进公平性和透明度这包括在绩效评估和个人数据处理方面的透明度,使工人能够了解他们是如何被评价的,并且可以对任何不准确之处提出异议。

明确的支付系统和救济机制将确保工人得到公平对待。而不是破坏工会,如同Scale AI在2024年肯尼亚所做的那样公司还应支持数字劳工工会或合作社的形成。这将给工人一个发声的机会,为更好的工作条件进行倡导。

作为AI产品的用户,我们都可以通过支持那些对其AI供应链透明并承诺公平对待工人的公司来倡导伦理实践。

就像我们奖励绿色和公平贸易的实体商品生产商一样,我们可以选择符合人权标准的数字服务或智能手机应用来推动变革,通过社交媒体推广道德品牌,并每天用我们的消费选择要求科技巨头承担责任。

通过做出明智的选择,我们都可以为整个AI行业的更道德实践作出贡献。

甘娜·波格布纳是AI与网络未来研究所的执行主任,查尔斯特大学

本文重新发布自对话在知识共享许可下。阅读该许可证的内容。原文章.

关于《基于发展中国家技术工人“奴隶劳役”的人工智能——亚洲时报》的评论


暂无评论

发表评论

摘要

在全球各地布满灰尘的工厂、拥挤的网吧和临时的家庭办公室里,数百万人坐在电脑前枯燥地给数据打标签。像ChatGPT这样的大型语言模型依赖于标注过的文本来理解人类的语言。在菲律宾,为Scale AI等数十亿美元的公司打标签的数据工作者通常挣得远低于最低工资标准。他们往往无法访问绩效数据,这限制了他们的改进能力和对决策进行申诉的机会。作为人工智能产品的用户,我们都可以通过支持那些对其人工智能供应链透明并承诺公平对待工人的公司来倡导道德实践。