作者:AI News
OpenAI 的 ChatGPT 等生成式 AI 聊天机器人所展现的智能激发了个人和企业的想象力,人工智能突然成为最令人兴奋的技术创新领域。
人工智能被认为是游戏规则的改变者,有可能改变我们生活的许多方面。从个性化医疗到自动驾驶汽车,从自动化投资到数字资产,人工智能带来的可能性似乎无穷无尽。
但尽管人工智能将带来变革,但这项新技术也带来了很多风险。虽然对恶意的天网式人工智能系统失控的担忧是错误的,但人工智能中心化的危险却并非如此。随着微软、谷歌和英伟达等公司在人工智能领域不断前进,人们对权力集中在少数集中参与者手中的担忧变得越来越明显。
中心化人工智能带来的最紧迫问题是少数科技巨头实现这一目标的前景垄断控制超过行业。大型科技巨头已经在人工智能领域积累了非常大的市场份额,掌握了大量数据。他们还控制人工智能系统运行的基础设施,使他们能够压制竞争对手、阻碍创新并延续经济不平等。
通过实现对人工智能开发的垄断,这些公司更有可能对监管框架产生不公平的影响,并可以利用这些框架来谋取自身利益。这意味着缺乏大型科技巨头巨大资源的小型初创公司将难以跟上创新的步伐。那些确实生存下来并且看起来可能蓬勃发展的公司几乎肯定最终会被收购,从而进一步将权力集中在少数人手中。其结果将是人工智能开发方面的多样性减少、消费者的选择减少、优惠条件较差,从而限制了人工智能所承诺的用例和经济机会。
除了垄断控制之外,人们还真正担心人工智能系统的偏见随着社会越来越依赖人工智能,这些担忧将变得更加重要。
风险源于这样一个事实:组织越来越依赖自动化系统在许多领域做出决策。例如,公司采用人工智能算法来过滤求职者的情况并不罕见,而风险在于,有偏见的系统可能会根据种族、年龄或地点不公平地排除一部分候选人。保险公司还使用人工智能来设定保单利率,金融服务公司还使用人工智能来确定某人是否有资格获得贷款以及他们需要支付的利息金额,执法部门还使用人工智能来确定哪些领域更有可能出现这种情况。更高的犯罪率。在所有这些用例中,有偏见的人工智能系统的潜在影响非常令人担忧。
无论是针对少数族裔社区的执法、歧视性贷款做法还是其他什么,中心化的人工智能都可能加剧社会不平等并引发系统性歧视。
中心化人工智能系统带来的另一个风险是缺乏隐私保护。当少数大公司控制人工智能生成的绝大多数数据时,他们就有能力对其用户进行前所未有的监视。最主要的人工智能平台积累的数据可用于以令人难以置信的准确性监控、分析和预测个人行为,从而侵犯隐私并增加信息被滥用的可能性。
在独裁政府国家中,这一点尤其令人担忧,因为这些国家的数据可以被武器化,以创建更复杂的工具监控公民。但即使在民主社会,监控的增加也会带来威胁,爱德华·斯诺登揭露美国国家安全局棱镜计划就是例证。
企业还可能滥用消费者数据来增加利润。此外,当中心化实体积累大量敏感数据时,这使它们成为黑客更有利可图的目标,从而增加了数据泄露的风险。
集中式人工智能也可能引发国家安全问题。例如,人们有理由担心人工智能系统可能会被武器化被各国用来进行网络战、从事间谍活动和开发新武器系统。人工智能可能成为未来战争的关键工具,增加地缘政治冲突的风险。
人工智能系统本身也可能成为攻击目标。随着各国对人工智能的依赖增加,此类系统将成为诱人的目标,因为它们是明显的单点故障。去掉人工智能系统,你可能会扰乱城市的整个交通流量,破坏电网等等。
中心化人工智能的另一个主要问题是伦理。这是因为控制人工智能系统的少数公司将对社会文化规范和价值观产生重大影响,并且可能经常优先考虑利润,从而引发进一步的道德问题。
例如,人工智能算法已经被社交媒体平台广泛使用来调节内容,试图识别和过滤攻击性帖子。令人担忧的是,算法,无论是偶然还是有意为之,最终可能会压制言论自由。
关于人工智能驱动的审核系统的有效性已经存在争议,许多看似无害的帖子被自动算法屏蔽或删除。这导致人们猜测,此类系统并未被破坏,而是根据该平台试图宣传的政治叙事在幕后被操纵。
对抗中心化人工智能的唯一合乎逻辑的平衡是去中心化人工智能系统的开发,以确保技术的控制权仍然掌握在大多数人而不是少数人手中。通过这样做,我们可以确保没有任何一家公司或实体对人工智能的发展方向产生重大影响。
当人工智能的开发和治理由数千或数百万个实体共享时,其进步将更加公平,更加符合个人的需求。结果将是更加多样化的人工智能应用,不同系统使用的模型几乎无穷无尽,而不是少数几个模型主导行业。
去中心化的人工智能系统还意味着对大规模监视和数据操纵风险的制衡。中心化的人工智能可以被武器化并以违背多数人利益的方式使用,而去中心化的人工智能则可以对冲这种压迫。
去中心化人工智能的主要优势在于,每个人都可以控制技术的发展,从而防止任何单个实体对其发展产生过大的影响。
去中心化人工智能涉及对构成人工智能技术堆栈的各层的重新思考,包括基础设施(计算和网络资源)、数据、模型、训练、推理和微调过程等元素。
如果底层基础设施仍然完全由亚马逊、微软和谷歌等云计算巨头集中,我们就不能仅仅把希望寄托在开源模型上。我们需要确保人工智能的各个方面都是去中心化的
分散人工智能堆栈的最佳方法是将其分解为模块化组件,并根据供需围绕它们创建市场。其运作方式的一个例子是球体,它创建了一个任何人都可以参与的去中心化物理基础设施网络(DePIN)。
借助 Spheron 的 DePIN,每个人都可以自由共享其未充分利用的计算资源,实质上是将其出租给那些需要基础设施来托管 AI 应用程序的人。因此,使用配备 GPU 的强大笔记本电脑的图形设计师可以在不使用 DePIN 进行自己的工作时向 DePIN 捐赠处理能力,并获得代币奖励。
这意味着人工智能基础设施层变得广泛分布和去中心化,没有任何单一提供商可以控制。它由区块链技术和智能合约实现,提供透明度、不变性和自动化。
DePIN 还可以适用于开源模型和底层数据。例如,可以在去中心化网络上共享训练数据集,例如库比克,这将确保每次人工智能系统访问数据提供者的信息时都会获得奖励。
为了确保访问和权限的分散,技术堆栈的每个部分都以这种方式分布。然而,人工智能行业目前很难提供如此程度的去中心化。尽管开源模型在人工智能开发人员中非常流行,但大多数人仍然依赖专有的云网络,这意味着训练和推理过程高度集中。
但权力下放有强大的动力来获胜。例如,DePIN 网络的主要优点之一是它们有助于减少管理费用。由于像 Spheron 这样的网络不依赖中介机构,因此参与者不需要支付任何费用或与第三方分享收入。此外,与面临盈利增长压力的企业相比,它们在定价方面更有竞争力。
人工智能的未来拥有巨大潜力,但也充满危险。虽然人工智能系统的能力在过去几年中得到了显着提高,但大部分进步都是由实力雄厚的公司取得的,这导致它们对行业的影响力增加。为此要付出代价,而不仅仅是金钱方面。
唯一合理的选择是促进去中心化人工智能的广泛采用,这可以增强可访问性并确保人工智能更大的灵活性。通过让每个人平等地参与人工智能的发展,我们将看到更多样、有趣、有用的应用程序,这些应用程序可以平等地惠及每个人,并将用户放在第一位。
构建去中心化的人工智能未来将涉及人工智能堆栈每一层的大量协调和协作。幸运的是,参与者有强烈的动机这样做。再说一次,激励措施不仅仅是金钱上的。