英语轻松读发新版了,欢迎下载、更新

这就是为什么我们需要开始将AI视为“正常”的原因

2025-04-29 09:00:00 英文原文

作者:By James O'Donnellarchive page

目前,尽管无处不在,但AI被视为正常技术。有人谈论AI系统,很快就会值得超级智能,Google的前首席执行官最近建议我们控制AI模型,以控制铀和其他核武器材料的方式。人类正在花时间和金钱来学习AI福利,包括哪些权利AI模型有权获得。同时,这种模型正在进入那些从事人类明显的学科音乐提供治疗

难怪有人思考AI的未来往往会落入乌托邦或反乌托邦营地。而Openai的Sam Altman缪斯AI的影响会比工业革命更像是文艺复兴时期的一半美国人对AI的未来更关心。(那一半包括我的几个朋友,他们最近在一个聚会上推测AI抗性社区是否会出现现代的Mennonites,从而分辨出AI受选择限制的空间,而不是必需的。) 

因此,在这个背景下,最近散文普林斯顿的两名AI研究人员感到非常挑衅。指导大学信息技术政策中心的Arvind Narayanan和博士候选人Sayash Kapoor为每个人写了40页的请求,以使每个人都冷静下来,并将AI视为正常技术。这与类似于单独物种的常见趋势相反,这是一个高度自动的,潜在的超级智能实体。

取而代之的是,根据研究人员的说法,AI是一种通用技术,它的应用可能比采用电力或互联网的采用比核武器更好,尽管他们承认这在某些方面是有缺陷的类比。

卡普尔说,核心点是我们需要开始区分AI的快速发展方法 -浮华以及AI在实验室中可以做的事情以及实际来自实际的表现申请AI,在数十年来的其他技术的历史例子中。 

Kapoor告诉我,关于AI社会影响的许多讨论都忽略了这种采用过程,并期望社会影响会以技术发展的速度发生。

在文章中,这对夫妇提出了其他一些表格论点:诸如“超级智能”之类的术语是如此不一致和投机,我们不应该使用它们;人工智能会自动化所有事情,但会诞生一类人类劳动,以监视,验证和监督AI;而且,我们应该将重点放在AI的可能性上,使社会中当前的问题恶化,而不是创造新问题。

Narayanan说,AI增强了资本主义。他说。 

不过,作者忽略的AI的一个令人震惊的部署是:军队使用AI。当然,那是接起来迅速地,提出警报,人们越来越多地支持生死决策。作者不包括在他们的文章中使用这些,因为很难分析而无需访问机密信息,但他们说他们对该主题的研究即将到来。 

将AI视为正常的最大含义之一是,它将颠覆拜登政府和现在的特朗普白宫的立场:建立最好的AI是国家安全的优先事项,联邦政府应采取一系列行动限制可以向中国出口的筹码,将更多的能量用于数据中心,以使数据中心实现这一目标。在他们的论文中,两位作者将US-CHINA AI ARM RACERORIOC称为“刺耳”。

纳拉亚南说,武器竞赛在荒谬的荒谬之中。他说,建立强大的AI模型所需的知识迅速传播,并且已经由世界各地的研究人员进行,而且在该规模上保持秘密是不可行的。” 

那么作者提出了什么政策?卡普尔(Kapoor)并没有围绕科幻恐惧进行计划,而是谈论加强民主制度,提高政府的技术专长,提高人工智能识字能力,并激励捍卫者采用AI。 

与旨在控制AI超级智能或赢得军备竞赛的政策相反,这些建议听起来完全无聊。这就是重点。

这个故事最初出现在我们在AI上的每周通讯算法中。首先在收件箱中获取这样的故事, 在这里注册

关于《这就是为什么我们需要开始将AI视为“正常”的原因》的评论


暂无评论

发表评论

摘要

两名普林斯顿AI研究人员反对将人工智能(AI)视为一种非凡的技术,而是建议将其视为正常技术,类似于逐渐采用电力或互联网。他们认为,由于AI的技术进步,人们对快速社会影响的担忧过早,强调对社会的较慢,更渐进的影响。该论文驳回了诸如“超级智能”之类的投机术语,强调了在AI应用中对人类监督的需求,并建议着重于AI如何加剧现有的社会问题而不是创造新问题。它还批评了国家之间AI军备竞赛的概念,主张提高民主制度并提高AI素养而不是实施限制性措施的政策。