作者:Kyle Wiggers
谷歌修改了条款,明确表示客户可以部署其生成式人工智能工具,在医疗保健等“高风险”领域做出“自动化决策”,只要有人参与其中。
据该公司称已更新周二发布的生成式人工智能禁止使用政策,客户可以使用谷歌的生成式人工智能做出“自动决策”,这可能会对“个人权利产生重大不利影响”。前提是有人监督在某些方面,客户可以使用 Google 的生成式人工智能来做出有关就业、住房、保险、社会福利和其他方面的决策“高风险”地区。
在人工智能的背景下,自动化决策是指人工智能系统基于事实和推断数据做出的决策。例如,系统可能会自动做出授予贷款的决定,或筛选求职者。
这以前的谷歌的条款草案暗示全面禁止涉及该公司生成人工智能的高风险自动化决策。但谷歌告诉 TechCrunch,只要有人监督,客户就可以随时使用其生成式人工智能进行自动决策,即使是高风险的应用程序也是如此。
“对于所有高风险域,人工监督要求始终存在于我们的政策中,”谷歌发言人在通过电子邮件联系其置评时表示。“[W]我们正在重新分类一些项目(用我们的术语),并更明确地列举一些示例,以便让用户更清楚。”
谷歌的主要人工智能竞争对手 OpenAI 和 Anthropic 对于在高风险自动化决策中使用人工智能有更严格的规则。例如,OpenAI 禁止使用其服务进行与信贷、就业、住房、教育、社会评分和保险相关的自动化决策。Anthropic 允许其人工智能应用于法律、保险、医疗保健和其他高风险领域进行自动化决策,但只能在“合格专业人员”的监督下进行,并且要求客户披露他们的信息。为此目的正在使用人工智能。
做出影响个人的自动决策的人工智能引起了监管机构的审查,监管机构对该技术可能导致结果产生偏差表示担忧。研究表明例如,人工智能用于做出批准信贷和抵押贷款申请等决策可能会延续历史歧视。
非营利组织人权观察组织被称为特别是禁止“社会评分”系统,该组织表示,该系统可能会扰乱人们获得社会保障支持的机会,损害他们的隐私,并以有偏见的方式对他们进行分析。
根据欧盟人工智能法案,高风险的人工智能系统,包括那些做出个人信用和就业决策的系统,面临最多的监管。除其他要求外,这些系统的提供商必须在数据库中注册、执行质量和风险管理、雇用人工监督员并向相关当局报告事件。
在美国,科罗拉多州最近通过了一项法律,要求人工智能开发人员披露有关“高风险”人工智能系统的信息,并发布总结系统功能和局限性的声明。与此同时,纽约市禁止雇主使用自动化工具来筛选候选人以做出就业决定,除非该工具在上一年内接受过偏见审计。
TechCrunch 有一份以人工智能为中心的时事通讯! 在这里注册每周三将其发送到您的收件箱。
Kyle Wiggers 是 TechCrunch 的高级记者,对人工智能特别感兴趣。他的文章曾发表在 VentureBeat 和 Digital Trends 以及一系列小工具博客上,包括 Android Police、Android Authority、Droid-Life 和 XDA-Developers。他和他的伴侣(一位钢琴教育家)住在布鲁克林,他自己也涉足钢琴。偶尔——如果大多不成功的话。