英语轻松读发新版了,欢迎下载、更新

尽管存在不确定性,首席信息官仍希望加强人工智能治理

2024-11-04 10:01:00 英文原文

作者:by Paula Rooney Senior Writer

随着人工智能的使用、创新和监管混乱超过了批准的标准,IT 领导者只能开发内部方法来减轻人工智能风险,依靠框架、工具和同事来正确对待人工智能。

随着越来越多的生成式人工智能项目从概念验证转向生产,首席信息官将承担制定人工智能治理政策以保护企业及其工作的额外压力。

美国政府和欧盟以及顶级市场研究人员不乏可用的人工智能治理框架,但毫无疑问,随着新一代人工智能创新超过正式标准,首席信息官将需要在 2025 年制定和完善内部人工智能治理政策——观察人士称,并让整个高管团队参与到这一过程中,以确保他们不会独自承担责任。

在这里,管辖权的不平衡正在发挥作用。

– 在负责任的人工智能政策制定和行为准则制定方面,根据 2024 年 2 月的调查,美国组织与欧洲组织持平,但在按照欧盟人工智能法案的建议建立多学科/部门间治理委员会方面落后于欧洲组织”,IDC 研究总监 Grace Trinidad 说道,她敦促首席信息官不要单独承担人工智能治理工作。

例如,IDC 建议NIST 人工智能风险管理框架Trinidad 表示,作为帮助 CIO 制定内部人工智能治理的合适标准,以及欧盟 AI ACT 条款,他在《人工智能治理某些方面》中引用了人工智能治理的最佳实践。IDC PeerScape:保护 AI 模型和应用程序安全的实践. –

Trinidad 指出,首席信息官们承认实施人工智能治理的方法有很多种,大多数人已经开始实施至少一些计划,尽管并非所有部分都已到位。

为此,Ciena 首席数字信息官 Craig Williams 表示,该网络公司已经成立了人工智能工作组来解决治理挑战。

——我认为未来人工智能治理不会由单一实体或政府本身拥有——这太具有挑战性了。然而,公司需要建立自己的治理流程,以确保端到端的问责制,”他说。– 我们认识到人工智能系统需要透明度、公平性和问责制。因此,我们竭尽全力确保让正确的利益相关者参与治理流程本身。

专家和 IT 领导者表示,跨职能的努力是关键。

“治理实际上就是相互倾听和学习,因为我们都关心结果,但同样重要的是我们如何实现结果本身,”威廉姆斯说。“一旦跨过这座桥,您就可以快速转向人工智能工具和实际项目本身,这更容易操作。”

随着人工智能创新的蓬勃发展,TruStone Financial Credit Union 也在努力建立全面的人工智能治理计划。

– 新的生成式人工智能平台和功能每周都会出现。当我们发现它们时,我们会阻止访问,直到我们能够彻底评估我们的控制措施的有效性。”TruStone 的执行副总裁兼首席技术官 Gary Jeter 说道,并举例指出,他决定阻止对 Google NotebookLM 的访问初步评估其安全性。

与许多企业一样,TruStone 已经在全公司范围内部署了一个名为 TruAssist 的政策和程序生成人工智能平台。

“所有[大约] 560 名团队成员都在使用此 AI 工具快速访问 500 多项政策和程序,显着节省了时间,并增加了巨大的价值,”Jeter 说。– 我们于 2023 年 11 月启动了价值证明试点,并于 2024 年 2 月向所有团队成员推出。速度非常快,我们学到了很多东西。我们正在采取更为保守的方法,利用生成式人工智能来开发面向会员的应用程序,但我们正在取得进展。”

人工智能治理框架和平台

Travelers 是另一家大型企业,该公司制定人工智能治理战略已有一段时间了,该公司执行副总裁兼首席技术和运营官 Mojgan LeFebvre 表示。

“作为 Travelers 治理框架不断发展和成熟的一部分,我们还建立了负责任的人工智能框架,该框架提出了指导我们开发和使用人工智能、高级分析和建模的基本原则,”勒斐伏尔说。– 该框架的目标是帮助确保我们以负责任且符合道德的方式行事 – 符合我们业务和文化核心的负责任的商业价值观。 –

观察人士指出,人工智能治理不仅是为了保护企业免遭数据泄露或知识产权盗窃,还在于使成本符合预算。

IT 领导者应该以“非常务实”、“深思熟虑且缓慢”的方式推出新一代人工智能应用程序,因为高管和 IT 部门仍在学习如何管理概率性企业应用程序的风险,而且存在实际成本。GAI Insights 首席执行官兼首席分析师 Paul Baier 表示。

Baier 表示,增加新一代 AI 风险和成本的另一个因素是大多数组织中存在大量“影子 IT”,因为员工使用个人帐户来使用 ChatGPT 等工具来处理公司数据。

Gartner 表示,组织控制人工智能使用的一种方法是实施人工智能治理平台,该技术将该技术确定为 2025 年第二大战略趋势,预测到 2028 年实施人工智能治理平台的组织将经历 40%与没有此类系统的情况相比,与人工智能相关的道德事件更少。

Gartner 声称,人工智能治理平台的好处包括创建、管理和执行“确保负责任地使用人工智能、解释人工智能系统如何工作、建模生命周期管理以及提供透明度以建立信任和问责制的政策。”

面临的挑战?“人工智能指南因地区和行业而异,因此很难建立一致的实践,”Gartner 表示。

未来的挑战

观察家表示,首席信息官还需要调整能够适应未来变化的人工智能治理框架,特别是在人工智能(ACI)出现的情况下。

“我们正在评估哪种人工智能使用政策最适合我们目前的需求,该模型可以在我们前进的过程中灵活地适应并了解我们尚不知道的东西,”浸信会 CIDO 汤姆·巴尼特 (Tom Barnett) 说道孟菲斯的纪念医疗保健。

这将导致什么结果是一个巨大的未知数,特别是考虑到人工智能在过去两年中取得的进展。让问题变得复杂的不仅是人工智能法规错综复杂这些都是新兴的,但商业模式和市场本身也发生了变化。

两年前,当 ChatGPT 首次亮相时,OpenAI 的创始人指出,需要妥善管理生成式人工智能,这是该公司成为非营利组织的一个关键原因。从那时起,除了两名创始人之外,所有创始人都离开了,OpenAI 正在努力将其核心业务重组为营利性公司不再受其非营利组织董事会控制。

Gartner 云、边缘和人工智能基础设施技术和服务副总裁 Sid Nag 表示,NIST 的人工智能安全研究所联盟和负责任人工智能中心自 2021 年以来在人工智能治理方面取得了进展,但没有批准的监管标准指导 CIO 们在越来越大的压力下摆脱实验并通过对生成式人工智能平台和工具的大量投资来赚钱。

他强调,没有一个文件能够涵盖风险的所有方面,也没有明确的权力来强制使用每天都在进步的生成式人工智能。“人工智能就像一列失控的火车,每个人都想从中赚钱,”他说。

尽管如此,很少有首席信息官或最高管理层对人工智能治理不屑一顾。大大小小的企业都清楚,生成式人工智能如果落入坏人之手,可能会带来灾难。

医疗设备租赁公司 US Med-Equip 的首席信息官 Antonio Marin 表示,人工智能正在帮助他的公司快速发展,但在治理方面,所有人都在齐心协力。

“我们正在将人工智能治理纳入我们的数据和网络安全治理的一部分,”Marin 说道,他补充说,当 POC 从沙箱转移到生产环境时,风险就会激增。– 在某些情况下,我们的最高管理层将人工智能视为某些流程问题的解决方案。他们将人工智能视为获得市场份额或降低运营成本的机会,同时保持高客户体验质量和卓越运营。

TruStone 的 Jeter 预计监督将在适当的时候成为法律和监管要求。“我将审查员和内部/外部审计员视为合作伙伴,有着与我们价值观一致的共同目标,”杰特说。“因此,我没有任何顾虑。”

订阅我们的时事通讯

从我们的编辑直接发送到您的收件箱

请在下面输入您的电子邮件地址开始使用。

关于《尽管存在不确定性,首席信息官仍希望加强人工智能治理》的评论


暂无评论

发表评论

摘要

由于创新的快速发展和监管混乱超过了正式标准,IT 领导者正在开发内部方法来减轻人工智能风险。随着生成式人工智能从概念验证转向生产,首席信息官面临着实施人工智能治理政策的压力。尽管有各种可用的框架,包括 NIST 的人工智能风险管理框架和欧盟人工智能法案条款,组织仍需要量身定制的内部政策。TruStone Financial Credit Union 和 Travelers 等公司正在创建工作组和负责任的人工智能框架,以确保透明度、公平性和成本控制。实施人工智能治理平台被认为对于减少道德事件和管理与影子 IT 使用人工智能工具相关的风险至关重要。人工智能法规的不断演变和 ACI 的出现使 CIO 适应治理框架的挑战进一步复杂化。