英语轻松读发新版了,欢迎下载、更新

AI不是问题,我们是

2025-04-13 14:01:43 英文原文

作者:Online: Faisal Hoque, Twitter, LinkedIn

最近的公众讨论人工智能无论好坏,它都将其视为可以重塑社会的力量。AI被视为外部的东西,一种非人类的存在,正在将自己插入我们的生活中,并威胁要改变我们的生活和工作方式。了解AI对我们日常存在的影响很重要。但是这次谈话中缺少一个至关重要的作品。当我们考虑这项技术时,它不足以询问它将如何改变我们。我们还需要了解我们如何塑造AI以及该过程可以告诉我们关于自己的事情。

我们将每个AI系统创建为镜像,以惊人的清晰度反映我们的价值观,优先级和假设。当面部识别技术难以识别较深的肤色时,这不是故障,这反映出嵌入了经过训练的数据中的假设和观点。当内容建议引擎放大愤怒和分裂时,这并不意味着它们被打破了。他们成功地优化了与人类在现实中的行为方式的互动。在许多情况下,AI的威胁和危险与技术本身无关。取而代之的是,我们必须担心的事情是对人类不可避免的品质的思考。

编码的反射

考虑雇用算法。2018年,亚马逊取消了AI驱动的发现其偏向女性候选人后,雇用工具。AI没有被编程为歧视,但接受了对有利于男子的历史招聘数据进行培训,并且学会了复制这些模式。同样,研究加州大学伯克利分校发现抵押贷款批准算法通常对黑人和西班牙裔申请人提供较不利的条款,从而加强了长期存在的贷款不平等现象。

在执法,医疗保健和教育揭示类似的模式。预测性警务工具倾向于专注于某些社区因为他们接受了历史训练犯罪数据。医疗保健算法可能更有可能误诊患者属于某些人群群体。学校的自动分级系统有有时被显示在工作质量相同时,从富裕的经济背景的学生偏爱与他人相比的学生。在所有这些情况下,AI都不会产生新的偏见,它反映了现有的偏见。

这种镜像效应为自我检查提供了重要的机会。通过使这些问题更加明显和更紧急,AI挑战我们承认和解决引起算法的数据来源偏见。这个挑战将变得越来越个性化。宣布新一代人的动力可以适应环境条件的机器人,我们可以期望单个所有者的偏见能够塑造这些系统的行为方式。

我们当前对AI的方法充满了矛盾,AI反映了对我们的矛盾。我们将AI视为提高业务效率的工具,但我们担心它从事人工工作。我们对AI驱动的监视表示担忧,同时愿意移交我们的个人数据以换取小型便利(61%的成年人确认数字服务的交易隐私)。尽管错误信息是一个日益关注的问题,但以参与度为驱动的AI模型继续偏爱病毒含量而不是准确性。

每个行为都留下痕迹

随着人工智能的不断发展,我们必须问自己,作为个人如何塑造其在社会中的作用。这仅仅是关于改进算法,而是要确保AI是负责任地开发和部署的。

一些组织已经在朝这个方向采取措施。而不是简单地完善具有提高经济效率的唯一目标的AI模型,而是他们 评估塑造AI模型行为的数据,策略和假设。这可能有助于减轻意外后果。

不过,我们不能指望组织和机构能够完成所有工作。只要AI受到人类数据的培训,它将反映人类的行为。这意味着我们必须仔细考虑自己留在世界上的痕迹。我可能会声称重视隐私,但是如果我心跳放弃访问网站,算法可能会对我真正想要的东西和对我有益的评估做出截然不同的评估。如果我声称想要有意义的人际关系,但要花更多的时间社交媒体在我朋友的身体公司中,我更少的时间正在隐含地培训有关人类真实本质的AI模型。人工智能不仅暴露了系统矛盾,还突出了个人的内部冲突。随着人工智能变得更加强大,我们需要越来越多的护理将我们的原则读为行动的记录,而不是让两者分歧。

随着我们继续将AI融入我们的生活,我们必须认识到这些系统不仅可以预测我们的行为。他们反映了我们的性格。思考这种反思使我们能够做出更好,更有原则的选择,但前提是我们愿意仔细观察并对所见所闻负责。

关于《AI不是问题,我们是》的评论


暂无评论

发表评论

摘要

围绕AI的公开论述通常将其描绘成具有不确定结果的外部力量重塑社会。但是,一个关键方面被忽略了:人类通过其数据和价值来塑造AI,然后AI反射。这种反思揭示了招聘,医疗保健和执法等领域的现有社会偏见。随着人工智能继续发展,尤其是在自适应机器人的情况下,这种镜像效应变得更加个人化,挑战个人,以面对其既定的价值观和行为之间的矛盾。组织开始通过审查AI模型背后的数据和假设来解决这些问题,但是个人还需要对他们在数字世界中留下的痕迹负责,以确保AI发展与道德原则保持一致。