
杰西卡·史密斯
今年夏天,当杰西·史密斯 (Jess Smith) 将自己的照片上传到人工智能图像生成器时,她并没有想到这是一场社会实验。
这位前澳大利亚残奥会游泳运动员想要美化她的爆头照片,并上传了一张她的全身照片,并特别提示她从肘部以下失去了左臂。
但 ChatGPT 无法创建她所要求的图像,尽管有各种提示,但结果基本相同 - 一个有两只手臂的女人或一个带有代表假肢的金属装置的女人。
她问人工智能为什么创建图像如此困难,人工智能说这是因为它没有足够的数据来处理。
“这对我来说是一个重要的认识,人工智能当然反映了我们当今生活的世界以及存在的不平等和歧视程度,”她说。
Smith 最近尝试在 ChatGPT 上再次生成该图像,并惊讶地发现它现在可以生成像她一样只有一只手臂的女性的准确图像。
“天哪,它成功了,令人惊奇的是它终于被更新了,”她告诉英国广播公司。“这是向前迈出的一大步。”

杰西卡·史密斯
这听起来可能没什么大不了的,但对于数百万残疾人来说,这种转变很重要。
“技术的代表性意味着不被视为事后的想法,而是被视为正在建设的世界的一部分,”杰西说。
“人工智能正在不断发展,当它的发展以包容性为核心时,我们都会受益。这不仅仅是技术的进步,也是人类的进步。”
ChatGPT 背后的公司 OpenAI 的发言人表示,该公司最近对其图像生成模型进行了“有意义的改进”。
他们补充道:“我们知道挑战仍然存在,特别是在公平代表性方面,我们正在积极努力改进这一点,包括完善我们的培训后方法并添加更多样的示例,以帮助随着时间的推移减少偏见。”

娜奥米·鲍曼
虽然史密斯的残疾现在已经通过人工智能得到了体现,但只有一只眼睛有视力的内奥米·鲍曼仍然遇到了类似的问题。
她要求 ChatGPT 模糊一张图片的背景,但结果“完全改变了我的脸,让我的眼睛变得均匀”。
“即使我特别解释说我有眼睛问题并且不要管我的脸,它也无法计算,”她说。
内奥米最初觉得这很有趣,但她说“现在让我感到难过,因为它显示了人工智能固有的偏见”。
她呼吁人工智能模型“以严格的方式进行训练和测试,以减少人工智能偏见,并确保数据集足够广泛,以便每个人都能得到代表和公平对待”。
一些担心人工智能对环境影响的人批评了 ChatGPT 上的图像创建。
伦敦玛丽女王大学 Gina Neff 教授告诉英国广播公司ChatGPT 正在“消耗能源”,为其供电的数据中心一年消耗的电力比 117 个国家还多。
尴尬的谈话
专家表示,人工智能的偏见往往反映了更广泛的社会中存在的相同盲点,而不仅仅是残疾人没有得到体现。
Create Labs 是一家致力于构建具有文化意识的人工智能系统的美国公司,其首席执行官阿布兰·马尔多纳多 (Abran Maldonado) 表示,人工智能的多样性始于谁参与训练和标记数据。
“这是关于构建数据时谁在房间里,”他解释道。“在创作阶段你需要文化代表性。”
并非所有内容都在互联网上正确呈现,马尔多纳多补充说,如果你不咨询有生活经验的人,那么人工智能就会错过他们。
一个众所周知的例子是2019 年美国政府研究研究发现,与白人面孔相比,面部识别算法在识别非裔美国人和亚洲人面孔方面的准确度要低得多。
尽管用一只手臂生活,杰西并不认为自己是残疾人,她说她面临的障碍是社会方面的。
“如果我使用公共厕所,水龙头必须按住,这会影响我的能力,不是因为我做不到,而是因为设计师没有考虑到我。”
她认为,在人工智能世界、在没有考虑到每个人的情况下构建的系统和空间中,存在发生同样监督的风险。
当 Jess 在 LinkedIn 上分享她最初的经历时,有人给她发消息说他的人工智能应用程序会创建一个只有一只手臂的女人的图像。
“我试图创建它,但同样的事情发生了,我无法生成图像,”她说。
她告诉了那个人,但他们从未回复她,她说这是关于残疾的典型对话。
“谈话太尴尬和不舒服,所以人们都退缩了。”