在最近飞往法国的飞行中,我和我旁边的那个女人交谈,而Chatppt出现了。她曾担任银行业务员,并说她现在使用聊天机器人与同事和客户一起写了她的大部分信件。
她解释说,写作从来都不是她的强项,并且该应用程序能够生成文本,以捕捉她想说的比她想说的更好。我开玩笑说,她会在她知道之前用它向朋友和家人写消息,而她宁愿回答自己已经有过的消息,向最近的生日文字寻求帮助。
她的不安表明,她觉得自己在做什么在某种程度上错了。然而,与其他许多人一样,她现在正在使用生成的AI来产生大量的个人和专业沟通,这对于那些收到这些AI生成的信息的人不知道。
在公司探索如何以有利可图的方式利用生成的AI变革性,他们的员工已经在进行一场安静的革命。律师,银行家,医生和许多其他专业人员现在定期使用聊天机器人写信给同事,客户,客户和患者。
公司高管似乎低估了员工使用该技术的广泛使用。
去年10月,民意调查德勤(Deloitte)在欧洲的吸收中发现,熟悉AI的受访者中有将近一半(47%)将其用于个人活动,而四分之一(23%)则将其用于工作。该报告还显示,四分之一的员工使用了他们为自己支付的模型。
这是在Chatgpt发布的两年之内,该应用程序每月的使用额为20美元,而无需使用限额。上个月,中国的自由竞争对手DeepSeek将Openai的Changpt流离失所。它的受欢迎程度可能导致更广泛地采用生成AI。
德勤的调查对11个国家 /地区的30,000名消费者和员工进行了调查,报告说,有63%的员工使用生产AI表示,他们的公司要么鼓励(44%),要么允许(19%)用于工作目的(19%)。但是将近四分之一(23%)表示,他们的组织没有AI政策。
这种缺乏清晰度导致阴影使用情况的上升,这意味着有些公司几乎不知道员工在做什么。虽然有希望AI可以提高生产率,如果缺乏培训和监督意味着员工或客户之间的信息不准确,这将是有代价的。如果工人使用未遵守安全和隐私标准的未批准的工具,机密细节也可能处于危险之中。”
研究欧洲职业培训发展中心发现,欧洲劳动力市场中七分之一的成年工人现在使用数字工具来完成任务,其中22%的员工使用AI来识别,翻译,翻译,转录或生成文本。
大多数媒体组织,包括英国银行,都有政策表明新闻业不能由AI创建。但是与同事的沟通呢?可以使用Generative AI将电子邮件起草给经理,要求加薪或编写团队成员的绩效审查?
使用生成AI的员工对技术有太多信心。在德勤报告中,有70%的用户表示,他们将信任新闻文章的生成AI摘要。该数字在诸如纳税申报表或福利之类的个人事务上为64%。其他以英国为中心的调查发现36%的用户错误地认为AI始终是准确的。
AI工具的输出一直在改善,但是错误仍然很常见,并且越来越难以发现。去年,技术公司的事实著名的AI模型定期从摘要中删除新闻归因,例如从新闻报道中删除警方。对于审查案件的律师,这样的遗漏可能至关重要。
这项技术迅速编织到我们的个人生活中的方式是什么?AI写了生日钞票,还是仍然很重要?聊天机器人会协助那些努力将思想变成言语的人比少写的人更好,还是我们应该保护的个人声音的侵蚀是更好的?显然,越来越多的公司必须提供大纲,以解释员工如何使用AI进行交流。作为一个社会,我们也应该做同样的事情。