作者:Herb Weisbaum, The ConsumerMan
公司越来越多地使用算法和人工智能(AI)来分析他们挖出的有关我们的大量数据,以确定我们资格获得的金融产品以及我们为它们支付多少资格。这些复杂的工具在做出贷款决策时,雇主筛选工作申请以及在大多数州,在设定保费时通过汽车和家庭保险公司使用。
如果经过培训以确保公平和准确性,AI可以扩大获得信贷的机会并减少人类偏见引起的歧视。如果没有,它可能会造成巨大的财务伤害。
例如,如果AI拒绝您的贷款申请,那么您将无法知道为什么做出该决定或使用了哪些数据。
``通过许多AI和机器学习模型,他们从社交媒体,手机上使用数字应用程序从数据库中进行了吸尘,您不知道他们拥有的数据库中有什么影响。它甚至可能是其他名字相似的人,而不是您的名字。
大多数申请人不知道何时由AI做出决定。即使他们这样做了,那个决策过程也是不透明的,因此他们永远都不知道考虑哪些因素。AI工具可能会从Internet上删除有关申请人不准确或完全错误的信息。
非营利性消费者联合会首席执行官苏珊·温斯托克(Susan Weinstock)说,这是黑盒问题。”Weinstock在最近的一集中说,如果有不良的数据出现,您会收到垃圾数据。”Checkbook的Consumerpedia播客。然后,消费者完全受到了不良数据的摆布。监管机构甚至可能不知道该算法有偏见。
去年,消费者报告和美国消费者联合会给消费者金融保护局的信警告说,算法歧视可能来自许多来源,例如非代表性,不正确或不完整的培训数据,以及反映历史偏见的数据。
在设计过程中,可以将偏差嵌入AI模型中,例如当受保护的特征(例如种族)直接使用或通过代理使用不当时。
例如,为贷款工具创建的数据库可能包括邮政编码,这似乎是开发人员的中立因素,但可以作为种族,收入,性别或宗教的代理。
贝尔解释说,当您有替代歧视时,您会歧视应得到公平待遇的受保护类别的人,而且您甚至没有真正关注他们受到模型受到伤害的事实。从本质上讲,这是我们所拥有的。
支票簿要求行业贸易集团AI协会对此发表评论,但没有回应我们的要求。
消费者担心
消费者报告的2024年调查发现大多数美国人对AI的生活有些不舒服或非常不舒服。
当CR被问及在使用AI做出招聘决定的公司申请工作时,有83%的人表示,他们想知道该计划用于做出决定的个人信息,而93%的人表示,他们希望有机会纠正任何不正确的AI招聘工具。
允许机器做出重要财务决策的压倒性不适可能是有利的。研究表明,AI可以产生错误的结果并扩大有害偏见。
生成的AI工具具有其他误导性输出的潜力,马萨诸塞州技术学院的报告。报告指出,它们还为用户提供了看起来真实的数据,这些数据似乎是如此普遍。我们称它们为幻觉。
需要护栏
消费者拥护者说,他们认为需要新的法律和法规,以保护消费者免受AI决策的不断扩展。
Cr Bell告诉Checkbook,我们需要谈论AI如何公平和负责,并以帮助消费者而不是阻止他们退缩的方式使用。[应该]清楚地披露了何时使用算法工具,以便消费者知道正在使用AI。如果算法拒绝其应用,我们希望看到人们能够吸引人类。
消费者报告需要州和联邦规则,这些规则将在AI被用来做出有关消费者的结果决定时必须做什么,例如,他们是否有资格获得贷款,被选为公寓租金,获得晋升或看到其保险费率上升。
这是一些关键建议CR的政策建议:
2023年,欧盟通过了人工智能法案,一组确保欧盟使用的AI系统的规则是安全,透明,可追溯,非歧视性和环保性的。
韦斯托克说:``美国都没有理由这样做,也不应该这样做。”我们为什么在欧洲人身后?这些产品要负责任地使用,并考虑到消费者的想法,这确实非常重要。
来自支票簿的更多信息:消费者播客:算法秘密控制您的财务命运
消费者支票簿杂志和Checkbook.org是一个非营利组织,其使命是帮助消费者获得良好的服务和低价。它通过提供公正的评级,建议和价格信息来做到这一点。支票簿得到了消费者的支持,并且不从其评估的服务提供商那里拿走任何钱。您可以在他的网站上找到草药consuberman.com。