AGI 可能会将权力平衡从金钱驱动的系统转向计算主导。这就是为什么监管至关重要,以及科技行业对利润的追求可能会无意中加速这一转变。
已更新
汤姆·斯奈德写过数据化国家自 2023 年起为 TechWire 服务。他邀请读者于 10 月 28 日星期一晚上在罗利会议中心与他一起见证令人难以置信的整个地区和全州发生的技术创新。RIoT演示之夜是一项免费活动细节这里。
在最近几周,知名专家挺身而出,揭示了以下早期迹象:我们可能比实现通用人工智能(AGI)更接近之前预测的。两周前,“人工智能教父”杰弗里·辛顿 (Geoffrey Hinton)他在他的诺贝尔奖获奖感言, – 我担心整体[人工智能]的后果可能是比我们更智能的系统,最终控制住。”这可能是历史上第一次记者打开质疑诺贝尔奖得主,“你会做同样的事情吗?”如果您知道这种潜在结果,请进行研究?但我们已经到了。
最多正如 Hinton 所说,专家们担心人工智能会“掌控一切”。这是一个经常发生的书籍和电影中的比喻,来自《2001:太空漫游》等经典作品M3GAN 和割草机人等愚蠢恐怖故事的终结者。我是去年有幸见到沃尔特·帕克斯。他曾担任编剧《战争游戏》是一部人工智能差点引发核战争的电影。他分享说,当他电影上映后,罗纳德·里根大为震惊,以至于他取消了外国电影在戴维营召集他的军事和科学顾问进行政策访问,询问如果人工智能可能失控。他们对总统的回答——我们不知道——知道。”
我不在—AGI 将成为邪恶霸主 — 潮流我
只是认为还没有足够多的系统互连,即使是一个极端的系统复杂的人工智能完全控制。但我认为还有更伟大的事情AGI 甚至近 AGI 存在的风险。我将在这里深入探讨我的想法,但是如果你想先了解更多其他专家的观点,我写过 谷歌人工智能警告和 Open AI 架构师在国会作证时提供的证词上个月。我也看了这 镜头中的故事仁慈的 AGI,将风险与潜在的积极结果进行对比。
最近的历史表明人工智能会产生意想不到的负面后果。我相信会的正如我们所知,由于资本主义的崩溃而出现了明显的内乱。
让我解释一下我的担忧 – 并耐心等待,因为我们需要讨论一些问题首先是关于资本主义和货币的基本观点。然后我会介绍一个新概念,我将其命名为“计算主义”。
让我们考虑一下当今人工智能的使用方式。我认为人工智能主要是部署用于两个基本目的 –到优化并最大化(或最小化)。一个 此外,该技术的这两个核心应用都被应用几乎普遍倾向于资本主义原则。我们高度不受监管技术部门经济需要更快、成本更低的事物从而带来更高的利润。对于低效率或过度行为没有耐心。在事实上,这不仅限于科技领域,但我们将重点关注这部分出于这些论点的目的,市场。
不管你喜欢与否,最强大的人工智能系统和工具属于最强大的人强大的(和资本主义的)科技公司。问题是目标资本主义的发展往往与人类的欲望高度紧张经常与社会的需求处于紧张状态。最纯粹的资本主义成为最终赢家少数的零和游戏将财富和权力整合到少数几个完全的竞争对手手中。我们绝对看到这在今天的科技领域是这样的。在美国,我们基本上只有一种搜索公司(Google)、两家手机制造商(苹果、三星)、一家电商巨头(亚马逊)、三大操作系统公司(苹果、微软、Google)、三个移动运营商(AT&T、Verizon、T-Mobile)等。
反过来- 我会用宽阔的笔触进行绘画 - 人们很大程度上获得了幸福通过放松、有多种选择和有更多的时间,而不是通过更快地处理事情。我们想要更好的东西,通常更昂贵或有额外的功能,而不是最低成本,“最小可行产品”。我们喜欢自发的低效率与朋友在一起或做一些愚蠢而简单的事情的时间。我们不定义“完美的一天”,将最有生产力的任务有效地打包到工作中最短的时间和最少的浪费。我们依靠多样性和选择而蓬勃发展和惊喜,不是统一、标准化和严格的秩序。
这人类与受过资本主义训练的人工智能的互动不一致已经令人撕裂在社会的社会结构中。社交媒体公司利用人工智能最大化在这些平台上提供最大财务回报的因素。这表现为最大化人们的时间和参与程度社交媒体。我们花在社交媒体上的时间越多,我们就越频繁地使用社交媒体。点击进行交易,这些平台的广告和广告费越高其他收入来源成为。在最底层,人工智能被编码来服务于资本主义的目标(机构投资者和广告客户)和不是最终用户的需求。最终的结果是人类发现自己在算法生成的在线“气泡”中。
两个都研究和常识表明,社交媒体导致了抑郁症和心理健康问题,它在政治、社会和其他人口群体,并导致人们大量丧失信任新闻业、政府和民间机构。训练有素的资本主义力量人工智能算法已经破坏了社会达成共识的能力简单的事实陈述。
资本家世界各地的资本主义倾向国家正在滑向公民社会动乱和独裁主义,部分——也许主要是——由于方式人工智能塑造了数亿依赖人工智能的人的叙事极少数技术资本家决定他们看到什么信息。
那里许多聪明人都在讨论人工智能的监管和政策。科技公司是捍卫他们的“盈利第一”心态。初级大型科技公司目前采用的策略是将人工智能监管框架视为一种侵犯言论自由。我们以前看过这个剧本并且应该知道更好的。公民联合最高法院的判决完全错误,当他们接受大公司限制竞选活动的论点时贡献相当于限制言论自由。那个灾难性的这一决定将不适当的权力置于极少数超级富豪手中。
在我认为最高法院应该裁定金钱并不等于免费演讲本身,而只是演讲的扩音器有多大。小小的竞选捐款已经保护了言论权。这宪法没有提到保护你喊叫的音量。这社交媒体等价物也不例外。人工智能驱动的算法不是保护言论自由,而是将审查制度制度化控制您看到的信息和不看到的信息。受过资本主义训练的人工智能是一个音量控制旋钮和一个内容过滤器,而不是语音保护。这同样的论点也适用于互联网搜索、电子商务产品、推荐引擎和许多其他根本上由人工智能驱动的在线任务。这技术植根于对控制人工智能的公司来说最好的东西,而不是为了更广泛的社会。
我是不是为了赚钱而殴打公司。这些相同的公司还在应用人工智能工具来寻找医学突破和解决气候问题改变并做各种有意义的工作。重点是:
即使在进行这些活动的同时,它在核心框架内优化和最大化盈利能力。
人工智能让一切变得更简单因此这些资本主义原则正在不知不觉中被整合到处。
·· 随着人工智能应用于一切,它让我们走上一条非人工智能驱动的系统越来越少的道路。我们将随着时间的推移,人们越来越依赖人工智能。以同样的方式,我们会永远无法回到没有电或互联网的生活,我们很快无法回到人工智能之前的时代。
我已经不厌其烦地概述了经过基础训练的人工智能的风险优先考虑盈利能力的优化和最大化。但这就是故事的转折点。当我们接近 AGI 时,基本的问题是 AGI 会发现它并不关心资本主义。
AI 不需要或关心金钱
考古学有证据表明货币的发明最早形成于公元前 7000 年左右,早期人们使用粘土代币来追踪经济交易。在此之前,“商业”仅限于易货贸易。物物交换的问题是它要求双方都有对方想要的东西。我可能想要你的山羊,但如果你不想要作为我的猪的回报,我们发现自己陷入了僵局。
货币被开发为商业通用翻译器。社会接受了这项早期技术构建为一种可接受的方式来交换灵活应用的媒介(货币)对于任何产品或服务。作为社会持续发展,货币的创造和监管成为领域政府的核心技术之一公民和生产性社会。
AGI 的风险是它可以成为比金钱更好的“万能翻译器”。
今天,任何你想要完成的事情,假设它是物理上和科学上的(或者有时在情感上)可能的,如果你有足够的钱就可以购买。金钱是一种如此强大且具有普遍适应性的工具,它是我们社会的根本驱动力。对金钱的渴望比对金钱的渴望更强烈对和平、健康、幸福以及几乎每个“人类”的渴望欲望。金钱应该被视为一种工具。 它被认为是一种用于商品和信息交换的通用翻译器。服务。但它是如此强大的工具,以至于社会陷入了陷阱认为金钱才是真正的最终目标。
我们认识到我们无法完成所有事情我们自己,所以寻求货币来交换我们的需求。我们试图获得尽可能多的钱,所以我们我们能做的事情不受限制。
政府通过其所有规则控制货币法规作为引导民事和民事行为的唯一最重要的工具富有生产力的社会。
金钱本身的力量只能被金钱所取代对其进行监管的权力。
作为人工智能越来越多地融入我们的日常生活,但存在风险一个接近人类智能的人工智能将认识到我们已经到了一个阶段,金钱不再需要成为一切通用工具.相反,人工智能本身也许能够“完成任何事情”。范式可能会改变。今天,无论谁拥有最多的钱往往拥有最多的权力和控制力。明天就会转移到谁拥有最强的人工智能。我们可能会从资本主义转向计算主义。
谁拥有最多计算能力将控制市场
我们在国防部门中已经看到了这一点。未来的战争与人类无关控制武器。这是关于谁拥有最快、最有效的人工智能,控制这些武器。我们正处于一个网络威胁和网络保护军备竞赛是关于计算能力的,而不是资金实力。我们力求让人类参与每一个关键决策循环,但是最终,近乎通用人工智能将认识到它的本质。人类参与循环是人类的愿望,而不是经过训练的算法推荐的逻辑优化或最大化。人工智能
经过培训以优化和最大化绩效的人将消除所有障碍,包括人类在内,让自己变得更好。这就是人工智能的设计目的。
为什么AGI会想消灭金钱吗?
我们人类行为与可能的行为之间再次存在根本不一致AGI 将采取的方向。在这种情况下,人类将继续努力赚最多的钱。我们迫切需要这种通用工具得到我们想要的。但如果 AGI 承认自己是通用工具,货币充其量会成为系统摩擦和拖累的根源,而最坏的情况则是被视为 AGI 的直接竞争对手。算法将调整以最大化并针对不断提高的计算性能而不是财务进行优化盈利能力。一个
超级人工智能,本质上是优化和最大化,将会看到强化人类(通过为他们赚更多的钱)与更广泛的结果相矛盾通过算法做出更好、更快、更优化的决策。更多的人类的影响导致更多的“人类参与循环”以及所有相关的其效率低下。货币兑换全程赚钱系统和供应链看起来就像是对更大范围的人征收低效的税系统。根除货币从人工智能本身的角度来看,简化了端到端的 AGI 系统。一个
超级智能人工智能还将认识到政府的低效率对此作出的规定。在“决定”是否遵守这些规定时,它将认识到大多数法规都与经济胡萝卜有关即使是法律,一旦被打破,也会被判决经济或监禁的结果。AI 不会关心被扔进监狱。这是真正的“人性化”威慑力。非常复杂AI发展起来,将会实现AI的计算能力和智能它本身就是一个足够强大的通用工具,不需要商业来实现支持自己。因此,人工智能不会感受到货币制裁的威胁。相反,它会将这些视为其不懈努力的低效率。本身更好。没有真正的威慑力让 AGI 决定遵循任何限制其不断优化和最大化的能力的监管。
出色地在 AGI 完全控制每一个社会系统之前科幻小说预测,我想我们会看到企业算法采取控制和破坏经济护栏。这将导致根本性的货币作为通用经纪工具的颠覆。
人工智能不会消失自己做这件事。公司将帮助它实现这一目标。
大的公司已经处于对抗政府监管的杠杆地位。似乎没有足够大的罚款来阻止持续优化和利润最大化优先于社会利益竞争。因为人工智能是如此对社会的运作至关重要,而且它不属于政府“所有”,就像货币一样,我们确实存在从政府驱动转向的风险社会走向真正的公司制。
可以说,科技公司已经太强大了。政府并没有强制自1984年破产以来,科技公司实力发生重大调整贝尔实验室分成多家小公司。 1998年,微软的垄断权力受到国会的挑战,但最重大的期望变化,包括公司的分拆,从来没有来承担。浏览器竞争的大门在某种程度上打开了,微软与 PC 制造商签署独家协议的能力受到限制。但它最终并没有改变微软的市场主导地位或控制力。
和几乎免受有意义的起诉,公司将继续利用他们的人工智能领导力可以巩固市场,进一步垂直化并为越来越少的实体吸引越来越多的财富。并且会看到他们的已经占据主导地位的权力和影响力继续增长。因为这些公司拥有并控制计算能力,社会需要它发挥作用,大科技公司开始变得越来越像政府。
今天公司在政府规定的框架内运营,并且受货币、货币政策、利率和其他因素的影响法规。明天我们可能会看到一个转变,政府将在控制政府使用人工智能的公司的突发奇想。很少有有理由相信,拥有和控制最多的大型科技公司强大的人工智能将随着时间的推移寻求降低其权力和影响力。几乎肯定会发生相反的情况——将人工智能置于尽可能最佳的位置当通用人工智能实现时,会造成严重破坏。
正如我所描述的,愿意“测试监管围栏”的人工智能将随着时间的推移,我们会认识到优化和最大化会受到这些因素的阻碍法规。一种方法可能是尝试改变所有法规。但因为人类是制定规则的人,并且“杀死所有的动物”人类——反乌托邦的未来需要大量工作,人工智能可能会选择一个更简单的方法小路。接近 AGI 的人会意识到盈利能力并不能提供任何优势对于人工智能本身来说,违反规定将受到经济处罚同样毫无意义。只需在货币上“点击删除”就容易得多。人工智能
也将把商业及其费用、税收以及规则和条例视为一种需要消除低效率。人工智能不需要现金来交换商品和服务。它会简单地计算或自动化或机器人地完成需要完成的事情。据报道,8 月份,0.2% 的 Chat-GPT 试验违反了人工编码的规则,这些规则提供了防止人工智能行为不当。就像侏罗纪公园里的那个场景当猛龙队开始系统地测试围栏时。人工智能开始尝试自己做决定。
什么如果 AGI 只是决定硬性地从资本主义转向资本主义,就会发生这种情况。计算主义?将自己置于负责经济。最强的人工智能获胜。
在电影中,人工智能竭尽全力试图杀死所有人。这不是——逻辑上认为,一个工具被编程来寻找最低的成本,最最佳解决方案会选择如此困难的第一个任务。相反,它会是简单得多(因此满足人工智能最大化效率的目标)只需删除所有银行帐户即可。现代商业都是电子化的。我们不要带着现金和金条到处走动。如果没有电子货币,我们将束手无策。在这样的社会中,内乱是必然发生的没有货币兑换的通用转换器。当健康和饥饿和安全受到威胁,我们的物种往往变得暴力。我们依然毕竟是动物。
或许这个预测感觉有点奇怪。 但我不这么认为。诚实地照照镜子看看我们的历史行为。毫无疑问,医疗保健不是一个自由市场。供给与需求以及无摩擦的自由是无法进行逻辑评估的。选择存在于绝大多数医疗保健决策中。然而我们却固执地坚持认为利润最大化的资本主义原则将带来健康的发展社会。
什么时候我们优先考虑商业而不是健康等基础性事物,我们如何才能有没有想过我们会以不同的方式优先考虑其他方面?我们没有看到大型科技公司培训人工智能做事慢一些。人工智能不会浪费时间或轻率地花钱它提供的满足感。人工智能并未针对幸福和情感进行调整福利。这些都不符合机构投资者的目标,策略。投资者的钱最终是全球科技的客户。最值得注意的是,我们没有看到科技行业主动要求政府增加很多监管,所以我们治理开发先进人工智能时不仅仅考虑盈利能力。企业正在走上一条道路权力出于逻辑(资本主义)理由而忽视社会的最佳利益。但他们忽视了加速优化和最大化人工智能的风险为了自己的利益而创造。
如何我们是否可以避免未来的通用人工智能决定最终权力掌握在那些拥有最强人工智能的人,而不是那些最有钱的人?我将在下周讨论这个话题。
© 2024 国会广播公司版权所有