英语轻松读发新版了,欢迎下载、更新

9件事,您不应该在工作中使用AI

2025-08-01 12:18:00 英文原文

作者:Written by

9 things you shouldn't use AI for at work
男士摄影 /盖蒂图像

ZDNET的关键要点

  • 有时,AI会造成您或您的公司无法弥补的伤害。
  • 与AI共享机密数据可能会产生法律后果。
  • 不要让AI在没有监督的情况下与客户交谈。

几周前,我与您分享了”9编程任务,您不应该将其交给AI,以及原因。“关于如何避免AI产生可能会破坏您一整天的代码,这充满了良好的建议和建议。

然后,我和我的编辑都会说话,我们意识到“何时不使用AI”的整个想法总体上适用于工作。在本文中,我向您介绍了九件事,您在工作中不应该使用AI。这远非综合列表,但应该让您思考。

另外: 这一功能可以使GPT-5成为真正的游戏规则改变者(如果OpenAi正确地获得)

LinkedIn学习AI教练说:“请务必记住,AI不会阅读您的Miranda权利,将您的个人信息包裹在HIPAA等法律保护中,或者犹豫披露您的秘密。”帕姆·贝克,最畅销的作者骗子伪造的生物AI

“这是AI工作的两倍,您的雇主会密切监控。无论您做什么或告诉AI可以并且可能在某个时候都会对您不利于您。”

要保持有趣的事情,请继续阅读。在那里,我分享了一些有趣而恐怖的故事,内容涉及如何在工作中使用AI如何变得可怕,可怕和有趣的错误。

事不宜迟,这是您在工作中不应该对AI做的九件事。

1。处理机密或敏感数据

这很容易。每次您提供AI的信息时,请问自己,如果将其发布到公司的公共博客上或在行业贸易杂志的首页上刊登,您会感觉如何。

还:2025年编码的最佳AI(以及不使用的方法)

此问题还包括可能受到披露法规的信息,例如HIPAA以获取健康信息或在欧盟运营的人们的个人数据的GDPR

不管AI公司告诉您的是什么,最好简单地假设您为AI所提供的一切现在都对模型培训工厂来说都是磨碎的。您进食的任何东西都可能在其他地方回应某人的提示。

2。审查或写入合同

合同旨在详细介绍两党如何互动的具体协议。它们被认为是管理文件,这意味着写不良合同就像编写不良代码一样。Baaad事情会发生。

不要向AIS寻求合同的帮助。他们会犯错误和遗漏。他们会组成东西。更糟糕的是,他们会在发出权威的同时这样做,因此您更有可能使用他们的建议。

还:您现在可以使用Google的数学奥林匹克奖授予的Deep Think AI模型 - 价格为

此外,合同的条款通常受合同管辖。换句话说,许多合同说合同中实际上是机密的,如果您与任何外部方共享协议的详细信息,将会产生可怕的后果。如上所述,与AI共享就像在博客的头版上发布一样。

让我直言不讳。如果您让AI处理合同,并且犯了一个错误,那么您(不是)将长期付出代价。

3。使用AI进行法律建议

您知道您与律师所分享的内容受到保护的信息,并且不能对您不利吗?是的,您友好的社区AI不是您的律师。

作为报道了未来主义,Openai首席执行官(和chatgptSam Altman的主要啦啦队对Podcaster Theo von表示,在使用Chatgpt出于您的法律问题时,没有法律机密性。

还:甚至Openai首席执行官Sam Altman都认为您不应该信任AI治疗

之前,我讨论了AI公司如何将您的数据用于培训,并将该数据嵌入及时响应中。但是,阿尔特曼(Altman)提出了一个档案。他建议Openai有义务与Chatgpt分享您的对话,如果他们被法院传唤。

杰西·邦迪,位于诺克斯维尔的律师,放大了Altman的声明在推文中:“当您使用Chatgpt时,没有法律特权。因此,如果您要粘贴合同,提出法律问题或提出策略,您不会获得法律建议。您正在获得可发现的证据。没有律师/客户特权。没有保密。没有道德义务。没有人保护您。”

她用一个特别令人讨厌的声明总结了自己的观察:“这可能会感到私密,安全和方便。但是律师必然会保护您。雅各布(Chatgpt)不是,可以对您不利。”

4.使用AI进行健康或财务建议

当我们涉及指导的话题时,让我们访问其他两个类别,在这些类别中,受过良好培训,许可和受监管的专业人员可以提供建议:医疗保健和金融。

看,要求Chatgpt向您解释医疗或财务概念可能是可以的,就像您一岁的孩子一样。但是,当需要提出真正的建议时,您打算在做出重大决定时考虑,只是不要。

让我们摆脱责任风险问题,专注于常识。首先,如果您使用诸如Chatgpt之类的实际建议,则必须知道要问什么。如果您没有从事这些职业的培训,那么您可能不知道。

另外: Zuckerberg的“个人超级智能”的销售宣传出了什么

其次,Chatgpt和其他聊天机器人可以是壮观,绝大多数,几乎令人难以置信的错误。他们误解了问题,捏造答案,混合了概念,并通常提供可疑的建议。

问问自己,您是否愿意将自己的生活或财务未来押在一个令人愉悦的机器人上,因为它认为这是您想听的?

5。呈现AI生成的作品作为您自己的

当您要求聊天机器人为您写东西时,您是否要求自己?有些人告诉我,由于他们写了提示,因此产生的输出是他们创造力的结果。

还:我发现5个可以正确识别AI文本的AI内容检测器100%的时间

是的?不多。韦伯斯特(Webster)的“窃”定义为“窃取和删除他自己的想法或单词),并将“使用(他人的生产)在不归功于来源的情况下使用”。该词典还将窃的定义为“将文学盗窃:作为新的和原始的想法或产物源自现有来源的想法或产品”。

这听起来不像聊天机器人做什么吗?它肯定确实是“从现有来源衍生的新想法”。聊天机器人接受了现有资源的培训。然后,他们在添加了一点旋转后将这些来源掠夺。

让我们清楚。使用AI并说其输出是您的,这可能会使您损失您的工作。

6.与客户交谈而无需监视聊天

前几天,我有一个技术问题我的Synology服务器。下班后我提交了一张支持票。稍后,我得到了自我识别支持AI的电子邮件回复。很酷的事情是答案是完整的,正是我所需要的,所以我不必将票证升级给人助手。

另外: AI是夸张的还是不明的?6个技巧,将事实与小说分开

但是,并非所有与客户的AI互动都很好。即使一年半后,我仍然在笑雪佛兰经销商聊天机器人这为客户提供了55,000美元的雪佛兰Tahoe卡车。

提供训练有素的聊天机器人作为客户的一种支持选项是完全可以的。但是不要以为它总是正确的。确保客户可以选择与人交谈。并监视启用AI的过程。否则,您也可能会赠送1美元的卡车。

7.进行最终招聘和解雇解决方案

根据简历应用程序简历构建器的调查,大多数经理正在使用AI“确定加薪(78%),晋升(77%),裁员(66%),甚至终止(64%)”。

“你为什么要解雇我?”

“这不是我的错。AI让我做到了。”

是的,那。更糟糕的是,显然,至少有20%的经理(其中大多数没有接受过AI使用的权利和错误培训)正在使用AIS做出最终就业决定,甚至不愿意监督AI。

另外: AI敲门时,开源技能可以节省您的职业

但这是擦。工作通常受劳动法的管辖。尽管目前来自华盛顿的反对行动推动,但偏见仍然可以导致歧视诉讼。即使您在技术上没有做错任何事情,防御诉讼也可能很昂贵。

如果您使您的公司处于诉讼的接收端,因为您不愿意成为人类的人AI为什么在会计中can can can can can can in councting,那么您将是下一个被送给粉红色的纸条。不要做。只是说不。

8。回应记者或媒体查询

我要告诉你一个秘密。记者和作家并不仅仅为了促进您的公司而存在。当然,我们想提供帮助。知道我们正在帮助人们发展业务,感觉很好。但是,而且您需要坐下来供这个消息,有其他公司

我们也很忙。我每天收到数千封电子邮件。其中数百个是有史以来最新和最具创新性的AI公司。这些球场中的许多是AI生成的,因为公关人员不愿意花时间将他们的球场集中精力。他们中的一些人是如此糟糕,以至于我什至无法说出PRS试图霍克的东西。

但是,还有另一面。有时,我会与一家公司联系,愿意代表他们使用我最宝贵的资源 - 时间。当我回到AI驱动的响应时,我要么继续前往下一家公司(要么在社交媒体上嘲笑他们)。

另外: 根据亚马逊的说法,5个入门级技术工作已经在增加

其中一些AI驱动的答案确实非常不合适。但是,由于AI代表公司而不是思想的人,因此失去了机会。

请记住,我不喜欢出版会使某人工作的事情。但是其他作家不一定是类似的倾向。正确运行的业务不仅将使用人类来应对新闻界,而且还将限制人类代表公司的人,以表达适当经验的人。

或者继续砍伐。我总是需要有趣的饲料我的Facebook提要

9.使用AI进行编码而无需备份

早些时候,我写了”9个编程任务,您不应该交给AI,“您应该避免使用哪些详细的编程任务。

但是我真的不明白将编码责任委托给AI时会走多远。我的意思是,是的,我知道AIS可能很愚蠢。而且我当然知道人类可能很愚蠢。但是,当AIS和人类协同工作以共同推动他们愚蠢的原因时,结果可能会令人振奋。

在 ”不良共鸣:AI代理如何编码灾难的方式,“我的ZDNET同事史蒂文·沃恩·尼科尔斯(Steven Vaughan-Nichols)写了一个开发人员,他很高兴氛围编码他自己使用了几乎完整的软件。首先,AI硬编码的谎言是关于单位测试的执行方式。然后,AI删除了他的整个代码库。

使用AI来帮助您编码不一定是错误的。但是,如果您使用的是无法备份的工具,或者您不会首先备份代码,那么您只是尽力赚钱数字达尔文奖

奖金:其他不做什么的例子

这是使用人工智能的闪电般的骨头动作。他们太好了(好的,我的意思是不好),以至于不叙述:

  • 让聊天机器人管理工作申请人数据:还记得我们如何告诉您不要使用AI雇用和射击吗?麦当劳使用聊天机器人来筛选申请人。显然,聊天机器人暴露了数百万申请人的个人信息使用密码123456的黑客。
  • 用AI代替支持人员,然后振奋:电子商务平台Dukaan的首席执行官终止了90%的支持人员,并用AI代替了他们。然后他吹牛。在Twitter/x上。公众反应并不是积极的。少。
  • 制作一个由所有假标题组成的阅读列表:芝加哥太阳时光通常是一篇非常受人尊敬的论文,出版了AI产生的夏季阅读清单。陷阱?这些书都不是真实的。
  • 建议终止员工转向聊天机器人以寻求舒适:Xbox生产商(是的,是Microsoft)建议在微软终止9,000名员工之后,这种Chatgpt或Copilot可以“有助于减少失业带来的情感和认知负担”。成就解锁了。

你呢?您是否看到AI在工作中脱离轨道?您是否曾经想过将任务委托给聊天机器人,因为事后看来,这可能需要人类的感觉?您是否相信AI可以处理敏感数据,与客户沟通或做出影响人们生活的决定?您在工作中划清界限的位置?在下面的评论中让我们知道。


您可以在社交媒体上关注我的日常项目更新。确保订阅我的每周更新时事通讯,并在Twitter/X上关注我@davidgewirtz,在Facebook上facebook.com/davidgewirtz,在Instagram上instagram.com/davidgewirtz,在布鲁斯基(Bluesky)@davidgewirtz.com,在YouTube上youtube.com/davidgewirtztv。.

关于《9件事,您不应该在工作中使用AI》的评论


暂无评论

发表评论

摘要

ZDNET概述了九种情况,其中在工作场所使用AI可能是有问题的:1。处理机密或敏感数据。2。审查或写入合同。3。寻求AI的法律建议。4。依靠AI来获得健康和财务建议。5。声称AI生成的作品是您自己的原始创作。6.使用AI与客户进行沟通而没有人类监督。7.仅根据AI建议做出最终招聘,解雇和就业决策。8。通过AI回应记者或媒体询问。9。编码完全取决于没有适当备份的AI。文章强调与这些实践相关的风险,包括潜在的法律后果,机密性违规和专业不当行为。它还强调了具体的例子,说明与AI的管理不良导致了各个行业的严重问题。