作者:PYMNTS
随着人工智能(AI)聊天机器人进入工作场所,它们不仅提高了生产力——还打开了通向公司机密的数字后门,超过三分之一的员工不知不觉地扮演了守门人的角色。
一个9月24日调查问卷由...直到...(如果具体信息不全,这是完整句的一部分,无法单独翻译。请提供完整的句子以便准确翻译。)原文:" by the "国家网络安全联盟揭示了一个令人震惊的趋势:38%的员工在未经雇主许可的情况下,与人工智能工具分享敏感的工作信息。这个问题尤其在年轻员工中突出,其中46%的Z世代和43%的千禧一代承认有这种行为,而X世代的比例为26%,婴儿潮一代则为14%。
迪内什·贝沙加里,一名前端工程师在亚马逊网络服务拥有AI和医疗领域专业知识的(AWS)警告了看似无害的AI互动背后的风险。
贝塞阿加里对PYMNTS表示:“最突出的情况是员工使用聊天机器人进行付款或任何形式的金融交易,其中他们需要提供支付详情和其他账户信息。”
尽管像这样的AI公司发出警告开放人工智能基金会,其在ChatGPT中写道用户指南:“我们无法从您的历史记录中删除特定的提示。请勿在对话中分享任何敏感信息。”普通员工可能会发现很难时刻考虑数据泄露的风险。
人们倾向于像与另一人或安全系统交流一样与聊天机器人分享信息。阿克马梅特·阿拉格耶夫,一家AI公司的首席执行官我的检查(MyChek)帮助移民导航该过程的一位人士在接受PYMNTS采访时表示,“这可能会导致一些严重的安全问题……员工可能无意中分享个人信息、敏感公司数据甚至财务信息。”
问题的范围是重大的。
“IBM Security X-Force威胁情报指数2021报告显示,大多数组织因使用某种形式的人工智能而报告了用户数据泄露事件,这表明在安全方面人工智能的使用仍有很大的改进空间,”贝赛哈加里说。
最近的数据来自数据管理公司Veritas科技公司进一步凸显了这一问题的紧迫性。一项针对11,500名办公室工作人员的调查显示,22%的人每天在工作中使用公共生成式AI工具。更令人担忧的是,17%的人认为将公司机密新闻输入这些工具是有价值的,而25%的人则认为分享姓名、电子邮件地址和电话号码等个人识别信息没有问题。
也许最令人担忧的是员工需要提高意识。Veritas的调查发现,16%的受访者认为在工作中使用公共生成式AI工具对其业务没有风险。这种认知差距因雇主缺乏明确指导而加剧,36%的员工报告称他们的公司从未就如何在工作场所使用这些工具传达任何政策。
为了应对这些风险,专家建议采取多管齐下的方法。Allakgayev 分享了 MyChek 与谷歌 Gemini 集成聊天机器人的经验:
“加密一切。确保与聊天机器人共享的数据在发送和存储后都进行加密,这可以防止他人窥探。”他建议道。“限制访问权限;不要让聊天机器人访问公司内的每个系统。确保它只能看到和处理必要的数据。”
新的威胁是“影子AI”的崛起——即员工在没有组织批准的情况下未经授权使用人工智能工具。
“Allakgayev表示:‘这是员工开始使用AI工具而IT部门却一无所知的时候,’他说,‘人们通常会因为这些工具方便且能帮助他们更快地完成工作而使用它们,但如果IT部门不了解情况,则无法管理风险。’”
未能管理好影子人工智能的后果可能是严重的。
“公司若违反数据隐私法可能会面临巨额罚款,”阿勒克盖耶夫警告说。“还有可能因损害客户信任或将有价值的公司信息泄露给竞争对手而遭受损失。”
为了避免这些陷阱,公司需要制定关于可以使用哪些人工智能工具的明确规则,为员工提供安全的替代方案,并密切监控公司在内部的人工智能活动。这种方法不仅降低了风险,还使组织能够安全有效地利用人工智能的力量。
“人工智能非常强大,但如果没有适当的保障措施,它很容易导致意外的数据泄露,”阿勒库盖耶夫说。“在争相拥抱人工智能的竞赛中,我们无意间构建了数字特洛伊木马——而让它们进入的风险可能比我们想象的要高得多。”