尽管大多数迹象都告诉我们人工智能没有从事任何人的工作,但雇主仍在使用该技术来证明裁员是正当的,,,,将工作外包给全球南方, 和恐吓工人提交。但这并不是所有的雇主都在使用AI不仅是缩小尺寸的借口,而且在谁被裁定的最终决定权中给予了最终决定权。
那是根据1,342名经理的调查由ResumeBuilder.com撰写,该博客专用于人力资源。在接受调查的人中,有10名在决定影响其员工的重大人力资源决定时咨询了大型语言模型(LLM)。
根据报告,有78%的人表示,他们咨询了聊天机器人,以决定是否授予员工加薪,而77%的人表示他们用它来确定促销活动。
惊人的66%的人说,像Chatgpt这样的LLM帮助他们决定裁员。64%的人表示,他们已向AI寻求有关终止的建议。
为了使事情变得更加无关,调查记录说,近5个经理中的近1经常让他们的LLM对没有人类投入的决策有最终决定权。
调查中的一半以上的经理使用了Chatgpt,Microsoft的Copilot和Google的双子座分别排名第二和第三。
这些数字绘制了一个严峻的图片,尤其是当您考虑LLM粘浮问题问题时 - LLM会产生讨人喜欢的响应,从而增强用户的倾向。Openai的Chatgpt是臭名昭著因为它的棕色鼻子,以至于被迫解决问题带有特别更新。
如果单独的Chatgpt做出可以颠覆某人生计的决定,那么笨拙的问题是一个特别明显的问题。考虑经理正在寻求借口解雇员工的情况,允许LLM确认其先前的概念,并有效地将责任传递到聊天机器人上。
AI Brownsing已经有一些毁灭性的社会后果。例如,有些人相信LLM是真正有吸引力的,这可能与“人工智能”品牌有关 - 开发了所谓的事物”Chatgpt精神病。”
Chatgpt消费的人们经历了严重的心理健康危机,其特征是从现实中妄想。尽管Chatgpt仅在市场上投放了三年不到三年,但它已经被指责为造成离婚,失业,无家可归,在某些情况下,它已经被指责精神科护理设施中的非自愿承诺。
这一切都没有提及LLMS的诀窍幻觉一个不太小的问题,聊天机器人吐出化妆的胡言乱语以提供答案,即使这完全是错误的。随着LLM聊天机器人消耗更多数据,它们也成为更容易容易对于这些幻觉,这意味着问题可能只会随着时间的流逝而变得更糟。
当涉及到可能改变生活的选择,例如谁开火和宣传谁,您会更好地掷骰子,然后与LLM不同,至少您会知道赔率。
有关LLM的更多信息: Openai承认,其新型号仍然幻觉超过三分之一的时间