我们保守的秘密:为什么我们隐藏了对AI的使用

2025-09-19 19:05:03 英文原文

作者:Online: Northwestern University Pritzker School of Law, Facebook, LinkedIn, Instagram

光标眨眼。走廊上的脚步。从聊天机器人回到电子表格的快速轻弹,您的经理也不是明智的。心脏加快;脸保持中立。这是一个小的,每天的遗漏,没有什么违法的,没有什么戏剧性的,但它留下了痕迹:隐藏AI在工作中的安静张力。

而且它不仅限于办公室。在Zoom电话中,一个问题降落,同事停下来思考时,您将其悄悄地输入chatgpt。几秒钟后,您大声重复抛光的答复,投影信心当你的眼睛甩到屏幕上。掩盖AI使用时,微笑,点头,轻松自在,您不想承认。当下有效。但是之后是耳语:那真的是我还是机器?

跨工作场所,这种隐藏的习惯已成为秘密我们保留 - 阴影经济生产率这比拥有更安全。调查显示近三分之一使用AI的员工承认他们掩盖了裁员,声誉损害或对自己的能力是自动化的判断。这与遵守无关。这是关于身份:我们所知道的与我们希望别人相信我们之间的差距。

影子生产力的心理学

信任演算。当政策不清楚时,保密会比透明度更安全,并发出信号领导混在一起。在倾向于监视的文化中,隐藏成为一种自我保护的策略。人们不仅掩盖了人们的方法。

身份威胁和冒名顶替综合症当您不应该提出AI的工作时,就不会使用AI,就好像这是您自己的即时专业知识一样。将产生的答案传递出来,因为您只是知道的事物会造成不和谐:向外的信心,内向怀疑。这种差距养育了冒名顶替综合症,以及您的信誉是借来而不是赚取的蔓延感。2025年的研究标记了能力罚款,表明,当员工承认使用AI时,他们的工作通常被认为即使质量提高,他们的工作也较低或不太真实。结果:人们要么掩盖自己的方法,要么内部化他们的成功是不当的。

自治与监视。电子监控可能会提高依从性,但会腐蚀心理安全。研究表明,监视降低了工作满意度并提高压力。在混合物和应力化合物中添加保密性。这不仅是您隐藏的工作你自己,隐瞒行为成为第二工作。

隐藏使用科学

人工智能采用是超越政策。微软的工作趋势指数报告说,四分之三知识工作者现在使用生成的AI,许多人将自己的工具带入工作。但是指导滞后,使员工无法发明私人解决方法。结果:生产力的阴影层产生不均匀的质量,真实的安全风险和隐藏的认知税。

隐藏需要警惕。您不仅完成任务;您还可以进行性能切换选项卡,编辑措辞,排练交付。该双重项目耗尽了能量,沉闷创造力,削弱信任。保密提供临时保障,但提取了长期成本。

斯多葛镜:内部谈判

Stoics将其称为什么:内部谈判

  • 控制二分法。您可以控制老板对AI的立场,但是您可以控制自己的标准。您决定是将生成的工作转移为自发的光彩还是承认脚手架并拥有结果。
  • 正直作为策略。对于Stoics来说,诚信不是奢侈的。那是盔甲。从长远来看,要赢得信任,您的外部演示文稿必须与您的内在现实相匹配。影子捷径侵蚀了他们要保护的信誉。
  • 同理心,认知和情感。领导者害怕声誉风险和安全漏洞;员工担心过时和柱头。斯多加同理心需要认识到双方不仅看到什么人们在保密,但是为什么

选择是在使用AI之间是否使用AI之间真实性。在这种情况下,勇气并不承认每一个击键。它使您的方法与您的价值观对齐,因此您内部的谈判结束了。

专业人士的三步剧本

1)审核并命名
跟踪AI与您的工作相交的位置:集思广益,起草,总结和事实检查。对于每种用途,请确定您的人类烙印判断,策略和创造力。将其命名使价值有形,而冒名顶替的声音更安静。

2)设计透明度
制作单行披露您可以重复使用:在AI协助下准备的草稿;经过验证,编辑,确认,扩展并通过[您的名字]完成。这将框架从藏匿的框架转变为设定标准。

3)提高标准
使用AI来提高地板的较少错误,更快的草稿,但只有您才能提供的东西来提高天花板:上下文,细微差别,道德护栏,叙事视觉。记录您的改进。那本笔记本是您对害怕被自动化的盾牌。

领导者的角落:没有偏执的政策

  • 阐明。发布一个简单,公平的AI策略,该政策阐明了允许的用途,禁止投入和披露期望。歧义繁殖了阴影。
  • 核实。用样品检查替换常量监控,以获得准确性,归因和偏见。标准比监视更有效地建立信任。
  • 报酬。庆祝可见的改进和透明过程。将道德使用正常化,保密将其溶解在结构化创新中。

关闭倒置

保密缩小了你。所有权扩大了您。
随着您自己的即时专业知识可能会感觉像生存一样,传递AI,但它腐蚀了您保护的信誉。Stoicism教导说,真正的电力座椅在内部:正直与行动保持一致。在一个嘈杂的时代,最稀有的信心是安静的清晰度我使用了该工具,拥有该过程,然后站在工作后面。

关于《我们保守的秘密:为什么我们隐藏了对AI的使用》的评论


暂无评论

发表评论

摘要

员工越来越多地使用AI工具在工作中而没有透露其使用,因为担心判断或影响。这种隐藏的做法,称为“影子生产力”,涉及掩盖AI的帮助,以避免对降低能力或工作安全的看法。困境反映了更深层次的身份和信任问题,员工在实际使用技术和所需的自我表现之间存在差距。研究强调,尽管质量提高了,但承认AI使用可能会导致对较低能力或真实性的判断。领导层的政策和混杂的信号使这种趋势加剧了这种趋势,导致保密循环破坏了心理安全和生产力。这篇文章建议将透明度和与道德标准保持一致的行动作为前进的道路。