英语轻松读发新版了,欢迎下载、更新

为什么领导者必须在AI时代选择人类而不是便利

2025-04-06 23:15:59 英文原文

作者:Dan Pontefract

盖蒂

盖蒂

工作场所中的激增和向人工智能(AI)转移到了迫使一个紧迫的问题出现:作为领导者,您应该依靠AI,在什么时候您会冒着外包人类的风险?

在算法与日常决策融合在一起的时代,领导者开始面临鲜明的当务之急。

您可以在不投降判断,创造力或领导者的核心价值观的情况下利用AI的潜力吗?

你还记得人类吗?

现在做出的选择将确定AI是否成为可信赖的合作伙伴,可以增强您的组织或完全破坏它的破坏性力量。

这些是作者和企业家的问题Faisal Hoque在他的书中问超越:解锁AI时代的人类

AI世界中的人类司机

霍克(Hoque)认为,找到人类代理和AI援助之间的适当平衡是我们这个时代的决定性领导挑战之一。

人类生活的很大一部分不是关于目的地的。霍克写道,这是关于到达那里的旅程,使用自动驾驶汽车的隐喻来质疑我们将多少控制权交给机器。

我们必须问自己,我们是否想坐在人生旅程中的AI驱动的自动驾驶汽车中,或者我们宁愿自己驾驶汽车。更确切地说,我们将需要问自己,两者的混合方式最适合我们。

换句话说,领导者需要确定自动化和人类自主权之间的界限。

Hoque的观点是,AI与我们之前见过的任何技术不同。它正在成为我们决策的积极参与者。正如Hoque所描述的那样,一个人与数千或数百万个模拟智力的大脑相提并论可能会感到艰巨。

风险是我们成为被动的乘客。

霍克告诉我,做出决定是一个直觉的元素。您的肠道告诉您,不,这听起来不对。机器不会去。

在领导力的话语中,尽管AI可能会加快分析或驱动常规选择的人类领导者必须在驾驶道德和常识方面留在驾驶员席位中。

ai的镜子和偏见的困境

将人工智能视为客观的超级聪明助手,这是令人欣慰的,但这是一个危险的过度简化。

hoque警告说:“ AI是我们社会的一面镜子,是我们喂养它的镜子。

在我们的谈话中,他解开了看似有效的AI招聘工具如何反映和扩大现有偏见的包装。

例如,如果对sumâ© - 屏幕算法进行了历史上有偏见的数据培训,那么它可能会开始偏爱来自一个城市或背景的候选人,而无需任何人注意。

人类的偏见是指数算法算法的偏见,仍然是偏见。检测的速度更快,更具挑战性。布鲁金斯的研究人员有警告如果不选中,这种有偏见的算法可能会在大规模上产生系统不公平的结果。

对于领导者而言,课程很明显。我们可以假设AI会神奇地摆脱我们的组织。霍克(Hoque)敦促领导人主动质疑并测试其AI系统的输出。

建议公平吗?数据有多样化吗?首先是最新的,没有偏见?

这种领导警惕性是保护人类代理的一部分,确保重要的决策(招聘,促销,客户产品及以后)并非完全割让给具有盲点的黑盒模型。

过度依赖的成本

除了道德困境之外,还有另一个人类的陷阱要避免:您是否允许AI侵蚀工作场所中人类的联系和创造力?

便利性是一种毒品。我们享有舒适性的生物,很容易让AI写下您所有的电子邮件,生成您的所有想法,甚至处理团队沟通。

Faisal HoqueFaisal Hoque

但是,正如霍克指出的那样,如果您做得太多了,那么您将自己的能力外包,而您不再想思考。”那是危险的地方。当人们依靠AI依靠AI依靠AI时,他们可能会逐渐失去最初使它们变得有价值的技能和直觉。

有越来越多的证据表明,对AI的过度依赖会伤害您团队的福祉和表现。

最近的

研究强调了一种醒目的趋势:使用AI的员工广泛地感到孤立且在社会上漂浮,即使他们变得更有生产力。在AI的帮助下处理的工作团队成员越多,他们成长的孤独。

正如研究人员所指出的那样,具有讽刺意味的是,在通过AI来追求效率时,公司冒着创造最终表现更糟的脱离员工的风险。``孤独的,脱节的员工很可能使自己的最佳自我上班。这项研究得出结论,他们不太可能为组织合作,创新或付出更多的努力。

霍克(Hoque)建议领导者保持正念并设定界限:仅仅因为AI工具可以做某事并不意味着您应该为此使用它。

例如,如果经理通过Chatgpt自动生成他们的所有团队绩效审查反馈,则他们可能会节省时间,但在被抓住时不可避免地会失去信任。

员工可以区分敷衍的机器人和真诚的善解人意的交流。目的是让AI处理咕unt的工作。同时,领导者对领导力教练,建立关系建设和愿景的独特人类方面进行了加倍,认为没有机器可以复制。

目的驱动,开放和护理领导

那么,领导者应该如何进行AI?

超越

Simon&Schuster

超越,霍克(Hoque)概述了一个开放框架(概述了情况,与技术和人员的合作伙伴,进行实验,学习和进行监督导航)与一个护理框架配对(灾难化最坏情况,评估不确定性,用护栏进行调节,并退出以将其关闭)。

哲学是拥抱AI固有的创新,但同时守卫人类价值观。

此外,您是否有目的地领导?领导者应该在AI兴起之前就问这是一个问题。

hoque说。这提醒人们克制是一种领导美德。

领导者应制定道德准则,甚至为AI计划杀死开关。正如Hoque指出的那样,如果没有正确的话,则需要开放,小心地运作,并有目的地领导。

伴侣不替代

Hoque希望领导者重新考虑AI在工作场所的含义。他敦促,将AI视为合作伙伴,而不是外包商。”

当领导者将AI定位为协作合作伙伴时,他们会发出明确的信息。团队成员希望领导者倡导他们的领导者,而不是悄悄使用技术来削减成本或工作的借口。

正如Hoque提醒我们的那样,超越AI诱惑意味着故意以目的,同情和坚定的承诺对人类尊严的坚定承诺。

当领导者这样做时,他们会确保我们最聪明的机器扩大了我们最好的人类本能,而不是破坏它们。

在下面的领导力计划中观看Faisal Hoque和Dan Pontefract的完整采访,或在您喜欢的播客

关于《为什么领导者必须在AI时代选择人类而不是便利》的评论


暂无评论

发表评论

摘要

AI在工作场所的兴起为领导者提出了关键的问题,即平衡对技术的依赖与保存人类的判断和道德规范。作者菲萨尔·霍克(Faisal Hoque)在他的《超越》一书中指出,在人类代理和AI援助之间找到适当的平衡至关重要。他警告不要过度依赖AI,这可能导致被动决策,由于偏见而导致的道德困境以及失去人类的创造力和联系。Hoque为领导者提供了一个“开放护理”框架,以在道德上指导AI融合,同时强调以人为尊严和创新的目标驱动的领导。

相关新闻

相关讨论