权衡生成AI过快发展的风险

2024-10-09 10:00:00 英文原文

作者:by Maria Korolov Contributing writer

跟风进入通用人工智能领域可能会带来反效果,但行动过于迟缓也不明智。找到最佳步伐取决于多种因素,首要的是对风险的健康承受能力。

谈到人工智能,担心错失机会是真实的。根据Coleman Parkes Research代表Riverbed进行的研究,大型公司的91%决策者担心如果竞争对手在人工智能方面领先,他们将处于劣势。因此,毫不意外的是,每个受访者都说,在接下来的18个月内,他们要么会使用生成式AI,要么会对其进行测试,要么会计划与之相关的项目。

无 내용을 제공하지 않았습니다,原文为"The",没有实际内容可翻译。保持原句:"The"前所未有的采用率根据S&P全球市场情报公司在9月发布的一项调查,对于新的技术而言,生成式人工智能现在在企业中超越了所有其他人工智能应用。近四分之一(24%)的组织已经将生成式AI作为贯穿整个组织的集成能力,而37%的组织已经在生产环境中使用它但尚未全面推广。

“FOMO(害怕错失恐惧)确实存在,尤其是在每个组织似乎都有某种AI战略的情况下,”Forrester Research的分析师Alla Valente表示。“但也存在着行动过快的风险,包括负面公关、合规或网络安全风险、法律责任,甚至集体诉讼。”

即使生成式AI失败没有达到重大公共丑闻或诉讼的程度,它仍然可能抑制公司的业绩风险偏好导致其犹豫不决,不敢启动更多的AI项目。

“那些不愿承担生成式人工智能风险的组织将无法快速成长或创新,并将在长期内失利。甚至在中期,它们也会失去市场份额给竞争对手,”瓦伦特说。

那并不意味着立即在 everywhere 每个地方部署通用人工智能。注意这里的"everywhere"直译为“每个地方”,如果具体上下文中有特定的翻译习惯,可以替换为更合适的中文表达。若需要进一步调整,请告知。原文:那并不意味着立即在每个地方部署通用人工智能。

“公司真的需要考虑‘黄金比例’的方法,”她说。“对他们而言的‘刚刚好’。这意味着要考虑到他们的风险承受能力、风险管理成熟度和生成式AI治理框架。”

将人工智能隔绝于公众之外

公司在将生成式AI应用于面向公众的项目时应谨慎行事。

自从2022年底推出以来,许多公司在部署ChatGPT时过于草率而陷入了麻烦。一家航空公司的聊天机器人给一位客户提供了不应享有的折扣,导致公司被裁定承担责任。谷歌的AI告诉用户要在比萨饼上涂胶水以防止奶酪滑落。最近,埃隆·马斯克的Grok AI被发现传播选举虚假信息,迫使五个州务卿向母公司X发出公开信,要求修复聊天机器人。

这种行为让一些公司不敢公开发布其生成式AI。相反,他们将该技术集中用于内部运营,在那里它仍然可以发挥作用。产生有意义的影响以免出现问题时造成巨大的公共关系灾难。

例如,财富1000强科技咨询公司Connection正在内部使用生成式人工智能进行几个项目,比如使用Fisent的流程自动化解决方案BizAI来比较客户的采购订单与销售记录,并推荐是否应批准该订单。

连接使用Pega平台根据业务规则和逻辑在公司多个领域管理工作流,以智能地推动工作。通过添加BizAI,连接现在可以数字化并进一步自动化关键的业务流程。

“我们每年从大量小型和中型企业的客户那里收到大约5万到6万个不同的采购订单,这些企业没有设置与我们进行电子集成的系统,”Connection公司流程优化和转型高级总监Jason Burns表示。

这些客户可能会将PDF、电子表格、图像文件或其他类型的文档作为电子邮件附件发送,或者直接将采购订单粘贴在邮件正文里。

“在AI出现之前,审核是手动进行的,人们需要将采购订单的纸质副本与系统中的条目手动进行比较,”他说。大约有十几个人从事这项工作,由于文件积压,在订单进来后通常需要长达四小时的时间才能有人对其进行查看并做出决定。现在有了生成式AI进行初始比较和推荐,周转时间仅需两分钟。

例如,生成式AI可以帮助确定订单是否是发送给Connection的;有时客户会不小心将采购订单发错供应商。生成式AI还会检查地址是否匹配,这是较旧类型的AI难以做到的事情。但生成式AI还可以将客户对所需产品的描述与Connection内部的SKU进行匹配。

“我们的客户不了解我们内部的SKU,”伯恩斯说。“他们可能以一种方式描述产品,而我们可能以另一种方式描述它们,我们的AI能够相当有效地将这些描述关联起来。”

AI被设定为特别保守,比人类还要保守。如果有任何不清楚的地方,它会默认返回给人类审核。由于AI仅根据呈现给它的信息工作而不生成新的内容,只是进行简单的推荐,因此出现幻觉的可能性也被最小化了。

“到目前为止,我们还没有出现过AI推荐订单向下流通而人类操作员不同意的情况,”Burns说。更有可能的是,AI会将订单保留给人类进行审核,然后人类操作员表示可以继续前进。“我们发现的可靠性超出了最初的预期,并且甚至在考虑如何允许AI放松一些,对文件的要求不那么严格。”

连接公司接下来计划在十几个类似的内部应用场景中部署生成式人工智能,并且还将利用其帮助编写代码、撰写信件和总结会议。“潜在的生产力提升是巨大的,我们需要探索这一点,”伯恩斯说。

但鉴于额外的风险,Connection目前还不能在面向客户的AI上使用。“风险承受力在AI方面确实非常重要,”他说。“我们认识到有巨大的潜力,但我们首先关心的是客户、他们的数据和安全以及提供出色的成果。技术将随着时间发展,我们将与之共同进化。”

保持人类在循环中

TaskUs,一家拥有约50,000名员工的业务流程外包公司,也将通用人工智能保留在公司内部。但它也专注于那些有专人负责解决问题的使用场景。

“我们不希望AI随心所欲地自行其是,”TaskUs的CIO Chandra Venkataramani说。

该公司建立了一个名为TaskGPT的内部平台,帮助员工支持客户,并已看到了15%到35%的效率提升。人工智能也开始被用于内部自动化和其他生产力提升方面。

Venkataramani表示,加拿大航空的例子——他们的聊天机器人承诺给客户折扣,但公司拒绝了这一承诺,后来却被迫兑现——是一个警示例子,说明面向公众的AI风险有多大。相反,这些工具被用来帮助人们提出建议和推荐。

“那样的话,队友就可以控制它,”他说。“他们可以说,‘这听起来不对劲。我不会发送给我的客户。’人为干预非常重要。”因此,他正在推动内部团队更多地使用它,但仅用于提高效率。“我们敦促我们的客户采用它,但我们并不轻率使用,”他补充道。“如果我们能够获得20%的改进并且确保100%的安全,或者获得30%或40%的改进但不安全,我们会选择20%的改进和安全性。安全性和保障是我们最关心的问题。”

事实上,许多人工智能问题可以通过人类监督来避免。“幻觉(生成错误信息)是会发生 的,”夏姆普莱恩学院在线运营副总裁Christa Montagnino说,“AI被训练以取悦我们,并不一定总是准确的。”该学院一直在使用通用AI来帮助课程设计师和主题专家创建在线课程。她说,在过去,这个过程非常繁琐。教师们并不一定接受过教育设计培训,并且会被分配给课程设计师合作。一个为期七周的课程大约需要15周才能完成,但是借助通用AI,时间被缩短了一半。

不过,人为因素仍然是这个过程中的关键部分。“我们现在从生成式AI开始,然后请领域专家与课程设计师合作,”她说。“他们就是这些信息的编辑者;他们会加入对学生有意义的内容以及需要包含的其他资源。”

加入人工智能也减少了某些路由管理任务和负担,她说,使教师能有更多时间与学生相处。

然而,提供职场工伤处理服务的Company Nurse公司却因此吃尽了苦头。该公司利用AI自动化了其QA流程,在此过程中,为客户组织员工提供医疗建议的护士们会立即收到关于她们在通话中错误的反馈。

“我们认为如果我们能给我们的代理人员提供更多关于他们做错什么的反馈,他们会犯更少的错误,”该公司首席技术官亨利·斯文德布拉德说。相反,护士们开始离职。离职率从个位数增加到了三十几。这其中部分原因是疫情和大辞职现象的开始,但也有一部分原因是因为代理人员收到了太多负面反馈。

“我们从代理商那里明确得知,告诉他们在每次互动中所犯的每一个错误并不能带来积极的工作满意度,”他说。“我们发现有时会向新员工发送设备,但等到他们收到时已经不想做这份工作了。这种情况以前从未发生过。”

为了解决这个问题,TaskUs将人类重新纳入流程中,聘请了一名人力发展经理,并开始更多地关注护士们所做的积极方面,而不仅仅是消极方面。“我们确实在自动化质量保证(QA)方面的步伐上放慢了速度,”他说。

避免敏感信息

尚普兰山纳诺的蒙塔尼诺表示,学院愿意使用生成式人工智能来帮助开发课程内容或营销材料,因为这不涉及向AI提供敏感信息。

但她表示,在涉及学生数据的项目中情况并非如此,因此这些类型的倡议将稍后进行。“我觉得我们现在最好的机会在于产品开发和吸引未来的学员方面,”她补充道。

最近从LabCorp分拆出来的临床试验公司Fortrea也非常谨慎地选择隐私风险最小的项目。“我们将临床试验提升到下一个水平的机会非常巨大,”CIO Alejando Galindo说,“我们最近启动了一个机器学习和人工智能工作室——这是我们用来推动创新的一个领域。”

例如,Fortrea 正在为其技术栈部署微软的 Copilot 助手。“它正在组织中像野火一样迅速蔓延,因为我们已经取得了一些有趣的结果,”他说。“这是我们带给组织的一个智能层。”

该公司已经将提案请求所需的信息收集时间减少了30%。“这大大提高了我们的生产力,”他说。“而且产品的质量比过去好得多。”这是因为AI可以从多个独立的数据源中提取信息,他表示。但作为一家医疗保健组织,Fortrea在部署技术时也必须非常小心,以避免任何合规问题。

“我们必须在创新速度与合规性和安全性之间找到平衡,”他说。“我们是快速跟随者。”例如,临床试验非常依赖纸质文件,他说道。当一位临床研究协调员前往试验点时,可以收集大量信息。但公司对于AI将首先处理哪些信息选择性很强。

“我们需要得到隐私官的批准,确保我们正在建设的东西符合规定,”他说。“而且我的首席安全官在我们的选择中拥有很强的话语权。”

例如,能够帮助扫描文件的技术(带有过滤器以确保患者信息不会意外暴露)可能在未来被部署。但今天,在临床试验现场访问方面,该公司首先关注的是非敏感类型的信息,如使用的物理设备。

“我们可以给冰箱拍张照,扫描一下维护时间以及当前的温度设置。”他说。“我们要确保设施内的所有条件都符合要求。”

花时间做基础工作

除了公共羞辱、失去客户或员工以及法律和合规责任之外,过快地推进生成式AI还存在其他更技术性的风险。

例如,那些在推出人工智能之前没有做好充分准备的公司可能不具备合适的数据基础或恰当的安全措施,或者他们可能会过于迅速地将所有希望寄托在一个供应商身上。

“组织可能会通过多年期的安排把自己锁定在很多风险之中。”花费或承诺戴维·瓜雷拉(EY美洲生成式AI负责人)说:“一两年后就会发现有更好的、更便宜的方法来做事。”而且有些组织在没有考虑其企业整体技术战略的情况下就投身于人工智能。

他在说:“在很多地方,组织正在开发数十或数百个原型。”“他们可能有一个由技术部门制作的合同分析工具,还有一个由首席财务官办公室制作的不同合同分析工具,甚至彼此都不知道对方的存在。我们可能会有很多无处可去的原型项目最终被废弃。”

然后还有浪费资金的问题。“比如说一个组织害怕错过机会(FOMO),购买了一大批GPU,但没有确认这些GPU是否真的需要,”他说。“在这里投入可能会挤占你在数据领域真正需要的投资的风险。也许你真正需要的是更多的数据治理或数据清洗。”

急于启动试点项目并仓促做出支出决定的原因是每个人都感到恐慌,希望尽快掌握生成式人工智能。“但他补充说,也有办法来应对这一技术,以将未来的遗憾降到最低。”

迅速行动打破常规可能是小型创业公司的良好口号,但对于较大的组织来说并不适用。“你不想把你投入的数十亿美元和你的市场置于风险之中,”Guarrera说。

ニュースレターを購読する

編集者から直接受信トレイに

接收当日的头条新闻 • CIO.com的通讯涵盖了广泛的管理话题和技术话题。管理话题包括IT战略、创新、IT管理、CIO的角色、雇用与员工管理、IT服务和产品采购、IT运营以及应对相关法规等。技术话题则涵盖云计算、人工智能(包括预测分析和生成式AI)、数据分析及商业智能、数据中心、数据管理和策略、企业软件、安全、身份管理和隐私、移动计算、协作技术、远程工作、软件开发与DevOps、网络技术和系统管理监控等方面。我们为中大型企业、政府机构和研究机构提供全球资讯,请输入您的电子邮件地址开始订阅。

关于《权衡生成AI过快发展的风险》的评论


暂无评论

发表评论

摘要

跟上生成式人工智能的潮流可能会适得其反,但行动过于缓慢也不明智。在人工智能领域,担心错失机会是真实的。例如,《财富》杂志评选出的1000家科技咨询公司Connection正在内部使用生成式AI进行一些项目,比如利用Fisent的过程自动化解决方案BizAI来比较客户的采购订单与销售记录,并推荐是否应批准该订单。因此,他正推动内部团队更广泛地使用它,但仅限于提高效率。“组织可能会因多年投入或承诺而将自己锁定在高风险之中,一两年后才发现有更好的、成本更低的方法。”EY美洲的生成式AI负责人David Guarrera如是说。