加入我们的每日和每周时事通讯,了解有关行业领先人工智能报道的最新更新和独家内容。了解更多
人工智能正在以惊人的速度发展,但监管环境却一片混乱。随着即将上任的特朗普政府誓言对监管采取不干涉的态度,联邦层面缺乏人工智能监管意味着美国正面临着国家主导规则的碎片化拼凑– 或者在某些情况下根本没有规则。
最近的报告暗示当选总统特朗普正在考虑任命一名白宫的“人工智能沙皇”负责协调联邦政策和政府对人工智能的使用。虽然此举可能表明人工智能监管方式正在不断演变,但目前尚不清楚实际将实施多少监管。尽管特斯拉首席执行官埃隆·马斯克显然没有承担人工智能沙皇的角色,但预计他将在塑造未来的用例和围绕人工智能的辩论中发挥重要作用。但马斯克很难读懂。虽然他主张实行最低限度的监管,但他也表达了对不受限制的人工智能的担忧——因此,如果说有什么不同的话,那就是他的角色注入了更多的不确定性。
特朗普的“效率”任命人马斯克和维韦克·拉马斯瓦米誓言要采取措施联邦官僚机构的电锯方法可以减少“25%”或更多。因此,似乎没有任何理由期望很快就会出现强有力的监管。对于像富国银行梅塔·金坦这样的高管来说,在 1 月份的 AI Impact 活动中,他呼吁监管以创造更多确定性,缺乏监管并没有让事情变得更容易。
事实上,围绕人工智能的监管已经远远落后,进一步拖延意味着更多的麻烦。该银行已经受到严格监管,现在面临着一场关于未来可能受到监管的持续猜测游戏。Chintan 当时表示,这种不确定性迫使它花费大量的工程资源——围绕事物构建脚手架,因为它不知道应用程序进入市场后会发生什么。
这种谨慎是当之无愧的。凯捷 (Capgemini) 人工智能执行副总裁史蒂夫·琼斯 (Steve Jones) 表示,没有联邦人工智能法规意味着 OpenAI、微软、谷歌和 Anthropic 等前沿模型公司不会对其模型生成的任何有害或可疑内容承担任何责任。结果,企业用户不得不承担风险:“你只能靠自己了,”琼斯强调。如果出现问题,公司无法轻易追究模型提供商的责任,从而增加了潜在负债的风险。
而且,琼斯指出,如果这些模型提供商在没有适当赔偿的情况下使用抓取的数据或泄露敏感信息,企业用户可能会容易受到诉讼。例如,他提到一家大型金融服务公司诉诸于“毒害”其数据,将虚构数据注入其系统中,以在数据泄露时识别任何未经授权的使用。
这种不确定的环境给执行决策者带来了巨大的风险和隐藏的机会。
加入我们12 月 5 日在华盛顿特区举办人工智能监管独家活动来自凯捷 (Capgemini)、Verizon、富达 (Fidelity) 等公司的演讲嘉宾,我们消除喧嚣,提供清晰的战略,帮助企业领导者领先于合规性挑战,驾驭不断变化的法规,并利用当前环境的灵活性,无所畏惧地进行创新。聆听人工智能和行业顶级专家分享可行的见解,指导您的企业度过监管狂野的西部。(RSVP 和完整议程的链接这里. 空间有限,所以行动要快。
探索人工智能监管的狂野西部:未来的挑战
在快速发展的人工智能领域,企业领导者面临着双重挑战:利用人工智能的变革潜力,同时遇到通常不明确的监管障碍。越来越要求公司积极主动,否则,他们最终可能会陷入困境,例如安全出租,不付款和明视。一个
凯捷的史蒂夫·琼斯指出,依赖没有明确赔偿协议的模型提供商是有风险的——不仅模型的输出可能会带来问题,数据实践和潜在的责任也可能会带来问题。
缺乏连贯的联邦框架,加上各州法规的不同,造成了复杂的合规环境。例如,联邦贸易委员会针对 DoNotPay 等公司的行动表明,他们对人工智能相关的虚假陈述采取了更积极的立场,而州级举措,例如纽约的偏见审计法,则提出了额外的合规要求。人工智能沙皇的潜在任命可能会集中人工智能政策,但对实际监管的影响仍然不确定,给公司带来的问题多于答案。
加入对话:人工智能监管的未来
企业领导者必须采取积极主动的策略来应对这种环境:
- 实施稳健的合规计划:开发全面的人工智能治理框架,以解决潜在的偏见、确保透明度并遵守现有和新兴法规。
- 随时了解监管动态:定期监控联邦和州监管变化,以预测和适应新的合规义务,包括人工智能沙皇计划等潜在的联邦努力。
- 与政策制定者互动:参与行业团体并与监管机构合作,影响兼顾创新和道德考虑的平衡人工智能政策的制定。
- 投资道德人工智能实践:优先开发和部署符合道德标准的人工智能系统,从而减轻与偏见和歧视相关的风险。
企业决策者必须保持警惕、适应性强和积极主动,才能成功应对人工智能监管的复杂性。通过学习他人的经验并通过研究和报告了解情况,公司可以充分利用人工智能的优势,同时最大限度地降低监管风险。我们邀请您加入我们参加即将于 12 月 5 日在华盛顿特区举行的沙龙活动,参与这一重要对话,并获得保持领先监管曲线所需的知识,并了解 AI 沙皇等潜在联邦行动的影响。