英语轻松读发新版了,欢迎下载、更新

自带人工智能:如何平衡风险和创新 - 麻省理工斯隆管理评论

2024-10-03 11:00:05 英文原文

自带人工智能:如何平衡风险和创新

禁止 GenAI 工具是行不通的。领导者应制定指导方针,让员工进行实验:研究表明,这可以降低风险,同时为组织收益打开大门。

主题

自 ChatGPT 于 2022 年底推出以来,员工不断发现利用生成人工智能 (GenAI) 力量的新方法。对于许多人来说,GenAI 工具加快了创建从文本到视频等内容的能力。例如,这些工具可以帮助人们总结会议文档、产生想法和构建电子邮件。ChatGPT 和 Claude AI 等免费提供的 Gen AI 工具,以及 Microsoft 和 Adob​​e 等软件中嵌入的支持 GenAI 的功能,推动了 GenAI 工具在工作场所内外的使用不断增长。然而,随着 GenAI 的兴起,组织领导者面临着新的挑战:自带 AI (BYOAI) 现象,当员工使用未经审查的公开 GenAI 工具进行工作时就会出现这种现象。

虽然这些工具承诺它们在提高生产力和创造潜力的同时,也带来了组织安全和治理风险,包括数据丢失、知识产权泄露、版权侵犯和安全漏洞。这就提出了一个关键问题:领导者是否应该禁止 BYOAI 以保护其组织免受 GenAI 工具带来的危险,还是应该拥抱这些工具并指导员工使用这些工具来减轻风险并获得潜在收益?

获取领导力更新借助人工智能和数据

每月获取有关人工智能如何影响您的组织及其对您的公司和客户意味着什么的见解。

请输入有效的电子邮件地址

感谢您注册

为了获得基于现实经验的答案,麻省理工学院信息系统研究中心在 2023 年末至 2024 年 8 月期间与代表 50 个组织的 70 多名数据和技术高管进行了研究。(请参阅研究。)在本文中,我们将探讨为什么禁止不是答案,以及领导者如何提供适当的指导,将 BYOAI 从负债转变为推动有益的 GenAI 能力建设和创新的资产。

禁止 GenAI 工具行不通:三个更明智的步骤

考虑到与 BYOAI 相关的风险,领导者考虑彻底禁止未经审查的 GenAI 工具似乎是合乎逻辑的。

参考文献 (1)

1.C.W. 鲁道夫 (C.W. Rudolph)、I.M. 卡茨 (Katz)、K.N.Lavigne 等人,《工作重塑:个体差异、工作特征和工作成果关系的元分析》,《职业行为杂志》102(2017 年 10 月):112-138。

关于《自带人工智能:如何平衡风险和创新 - 麻省理工斯隆管理评论》的评论


暂无评论

发表评论

摘要

自带人工智能:如何平衡风险和创新 禁止 GenAI 工具是行不通的。ChatGPT 和 Claude AI 等免费提供的 Gen AI 工具,以及 Microsoft 和 Adob​​e 等软件中嵌入的支持 GenAI 的功能,推动了 GenAI 工具在工作场所内外的使用不断增长。然而,随着 GenAI 的兴起,组织领导者面临着新的挑战:自带 AI (BYOAI) 现象,当员工使用未经审查的公开 GenAI 工具进行工作时就会出现这种现象。这就提出了一个关键问题:领导者是否应该禁止 BYOAI 以保护其组织免受 GenAI 工具带来的危险,还是应该拥抱这些工具并指导员工使用这些工具来减轻风险并获得潜在收益?人工智能如何影响您的组织以及它对您的公司和客户意味着什么。《工作重塑:个体差异、工作特征和工作成果关系的元分析》,《职业行为杂志》102(2017 年 10 月):112-138。