英语轻松读发新版了,欢迎下载、更新

人工智能的谎言:数万亿美元的炒作如何杀死人类

2025-01-23 09:27:12 英文原文

作者:Andy KurtzigSocial Links NavigationCEO of Pearl AI Search, a division of JustAnswer.

AI Education
(图片来源:Pixabay)

人工智能公司喜欢谷歌,开放人工智能,而 Anthropic 希望您相信我们正处于通用人工智能 (AGI) 的风口浪尖,在这个世界中,人工智能工具可以超越人类,不费吹灰之力处理复杂的专业任务,并开辟自主智能的新领域。谷歌刚刚重新聘请了Character.AI的创始人来加速其对AGI的探索,OpenAI最近发布了其第一个“推理”模型,Anthropic的首席执行官Dario Amodei表示AGI最早可以在2026年实现。

但令人不安的事实是:在医学、法律、兽医建议和财务规划等高风险领域寻求通用人工智能的过程中,人工智能不仅“还没有实现”,而且可能永远不会实现。到那里。

JustAnswer 旗下部门 Pearl AI Search 的首席执行官。

人工智能缺点的铁证

今年,普渡大学的研究人员提出了一项研究,显示聊天GPT52% 的情况下,编程题做错了。在其他同样高风险的类别中,GenAI 的表现也好不到哪儿去。

当人们的健康、财富和福祉岌岌可危时,GenAI 平台目前的高失败率是令人无法接受的。残酷的事实是,要克服这个准确性问题将极具挑战性。

乔治城大学最近的一项研究表明,仅将人工智能的质量提高 10% 就可能花费 1 万亿美元。即便如此,它仍与生死攸关的可靠性相去甚远。不可否认,人工智能变得比人类专家更安全的准确性的“最后一英里”将比公众想象的更加困难、更加昂贵和耗时。

人工智能的不准确性不仅仅会产生理论上或学术上的后果。一名 14 岁男孩最近向一名人工智能聊天机器人而且,人工智能并没有引导他寻求帮助、心理健康资源,甚至是公共礼仪,而是敦促他结束自己的生命。可悲的是,他做到了。他的家人现在正在提起诉讼,而且他们很可能会赢,因为人工智能的输出不仅仅是一个“幻觉”或可爱的错误。这是灾难性的,而且它来自一个完全错误的体系。就像鲁莽的“克里夫·克拉文”(他将自己在《危险边缘》中赢得的全部奖金都押在电视节目“干杯”上)一样,人工智能在说出完全错误的答案时充满了自信。

机械土耳其人 2.0——有所改变

今天的人工智能炒作让人想起臭名昭著的 18 世纪土耳其机械人:一种假想的会下棋的自动机,实际上里面藏着一个人。现代人工智能模型还隐藏着一个肮脏的秘密——它们严重依赖人类输入。

来自注释和清洁培训数据为了调节输出内容,数以千万计的人仍然参与到推进 GenAI 的几乎每一步中,但大型基础模型公司无法承认这一点。这样做就等于承认我们离真正的通用人工智能还有多远。相反,这些平台陷入了“假装成功”的策略,筹集数十亿美元购买更多 GPU,并承诺通过强力手段神奇地实现 AGI。

这是一个炒作的金字塔计划:说服公众通用人工智能即将到来,获得大量资金,建造更多消耗更多能源的巨型数据中心,并希望以某种方式,更多的计算将弥合诚实科学所说的可能永远无法实现的差距越过。

这让人痛苦地想起十年前围绕 Alexa、Cortana、Bixby 和 Google Assistant 的热议。用户被告知语音助手将在几个月内占领世界。然而如今,这些设备中的许多都积满了灰尘,大部分都被用来设置厨房定时器或显示当天的天气。伟大的革命从未发生过,这对今天更宏伟的 AGI 承诺来说是一个警示。

保护自己免受责任

为什么主要人工智能平台不承认其准确性的真相?因为这样做会打开责任的闸门。

承认人工智能推理中的根本缺陷将为法庭提供确凿的证据,就像 14 岁男孩的悲惨案件一样。由于涉及数万亿美元,没有哪位高管愿意向原告律师提供最终证据:“我们知道它存在严重缺陷,但无论如何我们还是将其交付。”

相反,公司加倍努力营销旋转,称这些致命错误为“幻觉”,好像这是一个可以接受的权衡。如果医生告诉一个孩子自杀,我们应该称其为“幻觉”吗?​​或者,我们应该称其为“不可原谅的失败”,应承担完全的法律后果并永久撤销提供建议特权?

人工智能的采用平台期

人们很快了解到 Alexa 和其他语音助手无法可靠地回答他们的问题,因此他们停止使用它们来完成除了最基本的任务之外的所有任务。人工智能平台将不可避免地遇到采用壁垒,危及当前用户,同时吓跑其他可能依赖或尝试其平台的人。

想想自动驾驶汽车的起起落落;尽管汽车制造商做出了巨大的自动驾驶承诺——特斯拉已承诺到 2027 年推出无人驾驶机器人出租车——但高盛最近降低了对半自动驾驶汽车的使用预期。在自动驾驶汽车达到更高标准之前,许多人都会保留完全的信任。

同样,即使有一天人工智能等同于人类智能,许多用户也不会完全信任它;它的能力一定比最聪明的人还要强大得多。其他用户可能会被人工智能回答简单问题的能力所迷惑,但当他们提出高风险的问题时,就会感到焦头烂额。对于任何一个群体来说,人工智能的缺点都不会使其成为受欢迎的工具。

必要的支点:纳入人类判断

这些有缺陷的人工智能平台无法用于关键任务,除非它们达到神话般的通用人工智能状态或纳入可靠的人类判断。

考虑到数万亿美元的成本预测、大型数据中心的环境损失以及不断增加的人员伤亡,选择很明确:将人类专业知识放在首位。我们不要再假装通用人工智能即将来临。这种虚假的叙述正在欺骗一些人,并实际上杀死其他人。

相反,利用人工智能赋予人类权力并创造新的就业机会,而人类的判断会调节机器的产出。让专家可见,而不是将他们隐藏在企业虚张声势的烟幕后面。除非人工智能达到近乎完美的可靠性,否则人类专业人员是不可或缺的。现在是我们停止炒作、面对真相、建设人工智能为人类服务的未来的时候了,而不是危害人类。

我们编制了一份最佳招聘平台清单

本文是 TechRadarPro 专家见解频道的一部分,我们在该频道中汇集了当今技术行业中最优秀、最聪明的人才。本文表达的观点仅代表作者的观点,并不一定代表 TechRadarPro 或 Future plc 的观点。如果您有兴趣贡献,请在此处了解更多信息:https://www.techradar.com/news/submit-your-story-to-techradar-pro

订阅 TechRadar Pro 时事通讯,获取您的企业成功所需的所有热门新闻、观点、功能和指导!

关于《人工智能的谎言:数万亿美元的炒作如何杀死人类》的评论


暂无评论

发表评论

摘要

Google、OpenAI 和 Anthropic 等公司对通用人工智能 (AGI) 的追求遭到了人们对其在医学、法律和金融等高风险领域的实用性和可靠性的怀疑。尽管取得了进步,人工智能仍然不准确且不可靠,需要在幕后进行大量的人工输入才能有效运行。改进人工智能的经济和环境成本令人望而却步,并且存在人工智能给出有害建议的悲惨例子。由于责任风险,主要人工智能平台避免承认这些缺陷,导致其局限性缺乏透明度。因此,随着用户对其执行关键任务的能力失去信任,人工智能的采用陷入停滞状态。文章主张将人类判断与人工智能相结合,以确保安全性和可靠性,而不是追求AGI难以捉摸的目标。