作者:By James O'Donnellarchive page
目前,尽管无处不在,但AI被视为正常技术。有人谈论AI系统,很快就会值得超级智能,Google的前首席执行官最近建议我们控制AI模型,以控制铀和其他核武器材料的方式。人类正在花时间和金钱来学习AI福利,包括哪些权利AI模型有权获得。同时,这种模型正在进入那些从事人类明显的学科音乐提供治疗。
难怪有人思考AI的未来往往会落入乌托邦或反乌托邦营地。而Openai的Sam Altman缪斯AI的影响会比工业革命更像是文艺复兴时期的一半美国人对AI的未来更关心。(那一半包括我的几个朋友,他们最近在一个聚会上推测AI抗性社区是否会出现现代的Mennonites,从而分辨出AI受选择限制的空间,而不是必需的。)
因此,在这个背景下,最近散文普林斯顿的两名AI研究人员感到非常挑衅。指导大学信息技术政策中心的Arvind Narayanan和博士候选人Sayash Kapoor为每个人写了40页的请求,以使每个人都冷静下来,并将AI视为正常技术。这与类似于单独物种的常见趋势相反,这是一个高度自动的,潜在的超级智能实体。
取而代之的是,根据研究人员的说法,AI是一种通用技术,它的应用可能比采用电力或互联网的采用比核武器更好,尽管他们承认这在某些方面是有缺陷的类比。
卡普尔说,核心点是我们需要开始区分AI的快速发展方法 -浮华以及AI在实验室中可以做的事情以及实际来自实际的表现申请AI,在数十年来的其他技术的历史例子中。
Kapoor告诉我,关于AI社会影响的许多讨论都忽略了这种采用过程,并期望社会影响会以技术发展的速度发生。
在文章中,这对夫妇提出了其他一些表格论点:诸如“超级智能”之类的术语是如此不一致和投机,我们不应该使用它们;人工智能会自动化所有事情,但会诞生一类人类劳动,以监视,验证和监督AI;而且,我们应该将重点放在AI的可能性上,使社会中当前的问题恶化,而不是创造新问题。
Narayanan说,AI增强了资本主义。他说。
不过,作者忽略的AI的一个令人震惊的部署是:军队使用AI。当然,那是接起来迅速地,提出警报,人们越来越多地支持生死决策。作者不包括在他们的文章中使用这些,因为很难分析而无需访问机密信息,但他们说他们对该主题的研究即将到来。
将AI视为正常的最大含义之一是,它将颠覆拜登政府和现在的特朗普白宫的立场:建立最好的AI是国家安全的优先事项,联邦政府应采取一系列行动限制可以向中国出口的筹码,将更多的能量用于数据中心,以使数据中心实现这一目标。在他们的论文中,两位作者将US-CHINA AI ARM RACERORIOC称为“刺耳”。
纳拉亚南说,武器竞赛在荒谬的荒谬之中。他说,建立强大的AI模型所需的知识迅速传播,并且已经由世界各地的研究人员进行,而且在该规模上保持秘密是不可行的。”
那么作者提出了什么政策?卡普尔(Kapoor)并没有围绕科幻恐惧进行计划,而是谈论加强民主制度,提高政府的技术专长,提高人工智能识字能力,并激励捍卫者采用AI。
与旨在控制AI超级智能或赢得军备竞赛的政策相反,这些建议听起来完全无聊。这就是重点。
这个故事最初出现在我们在AI上的每周通讯算法中。首先在收件箱中获取这样的故事, 在这里注册。