信任因素:犹他州人工智能时代的平衡战略
作者:Brooke Nally
编者注:这是三个故事中的第二个,该系列探讨了犹他州的人工智能方法及其持续治理。
盐湖城——如果你想了解为什么犹他州——传统上避免过度监管的州——突然成为国家人工智能政策的设计者,你必须看看玛格丽特·伍利·布斯(Margaret Woolley Busse)办公桌上的诉讼。
作为犹他州商务部的执行主任,Busse 经历了四年的“社交媒体之旅”,领导了对科技巨头的指控比如 TikTok、Meta 和 Snap。但对于布斯来说,这些法律斗争不仅仅关乎过去,还关乎过去。它们是对未来的警示。
“我们还没有真正解决社交媒体问题,但现在我们遇到了这个问题,”巴斯说,他指的是生成人工智能的爆炸式增长。“我们看到同样的商业模式——收集数据,利用数据来货币化——这让社交媒体变得很糟糕。我们决定不会让这种情况再次发生。”
信任的“政治危机”
巴斯将人工智能描述为面临“政治危机”。尽管硅谷注重速度,但公众却越来越焦虑。最近发生的涉及人工智能“同伴”和青少年自残的悲剧已经改变了局势。对于许多家庭来说,对智能世界的兴奋已经被对榨取式世界的恐惧所取代。
“对于美国人如何看待人工智能而言,焦虑实际上已经战胜了兴奋,”布斯指出。“如果我们对这项技术不信任,就会出现巨大的反弹。我们必须以建立信任的方式来做这件事。”
2026年立法“牙齿”
犹他州的答案是一个建立在六个不同的支柱:监管政策、公共保护、学习、劳动力、学术界和州政府。
当前的 2026 年立法会议正在向前推进HB286,《人工智能透明度法案》”,由众议员道格·菲菲亚 (Doug Fiefia)、R-Herriman 牵头。与早期的社交媒体法不同,该法案将先进的人工智能模型视为产品功能而不是“言论自由”,要求“前沿模型”开发者:
- 发布儿童保护计划:详细说明如何防止针对未成年人的有害目标或情感剥削。
- 提供举报人保护:确保这些人工智能公司的员工可以报告安全事件或“灾难性风险”,而不必担心遭到报复。
- 执行:首次违规将处以 100 万美元的民事罚款,后续违规将处以 300 万美元的民事罚款。如果犹他州“学习实验室”的一家公司未能获得安全标志,该州可以立即撤销其监管救济,使其完全承担法律责任。
创新受到关注
这种“信任第一”的模式在犹他州最近的试点中最为明显。多创力,第一个国家批准的允许人工智能参与处方续签医疗决策的项目。Doctronic 试点项目是犹他州“第三条道路”的一个典型例子——它与合法性或繁文缛节无关,而是创造一个创新能够安全发展的受监督环境。
虽然“机器人”签署心脏药物的想法可能会引起人们的怀疑,但布斯认为这实际上比现状更安全。“这可能比(医生)所做的更彻底……它提出了医生通常不会提出的问题,”她解释道。
然而,防护栏是绝对的:人工智能无法处理阿片类药物等受控物质,并且它在严格的“分阶段审查”下运行。在系统进入下一个自主级别之前,人类医生必须手动验证试点项目中前 250 名患者的每一张处方。它是自动化的,旨在支持医生,而不是取代医生。
人类进步的未来
她说,Busse 的人工智能最终目标是成为一种“增强人类能力”的技术,成为解决癌症的工具,而不是“让我们坐在沙发上”。这包括推动课堂的发展,以确保技术充当学生的“人在环”导师和教师的助手,而不是取代指导。
当犹他州引领全国对话时,巴斯向业界传达的信息很明确:在蜂巢之州,质量和安全并不是创新的障碍——它们是确保创新经受住公众日益增长的怀疑的唯一途径。
这个由三部分组成的系列的最后一部分将研究位于 Lehi 的 SchoolAI 系统,该系统在课堂上使用人工智能。
阅读更多:
修正:玛格丽特·布斯在之前的版本中被错误引用。
本文的要点是在大型语言模型的帮助下生成的,并由我们的编辑团队审核。这篇文章本身完全是人类撰写的。