作者:By Brian Kateman Jan. 2, 2025 3 AM PT
无论是我们手机中的虚拟助理,还是为客户提供客户服务的聊天机器人 银行和 服装店, 或者工具就像ChatGPT和Claude让工作量变得更轻一样,人工智能已经迅速成为我们日常生活的一部分。我们倾向于认为我们的机器人只不过是机器——它们没有自发的或原创的思想,而且绝对没有感情。不这样想似乎是可笑的。但最近,这正是人工智能专家要求我们做的事情。
Eleos AI 是一家非营利组织,致力于探索人工智能感知能力(或感受能力)和幸福感的可能性,发布了 报告十月,与纽约大学思想、道德和政策中心合作,题为“认真对待人工智能福利”。在其中,他们断言人工智能实现感知力确实可能在不远的将来发生– 大约十年后。因此,他们认为,我们有道德义务开始认真思考这些实体的福祉。
我同意他们的观点。我从报告中清楚地看出,与岩石或河流不同,人工智能系统很快就会拥有某些特征,使它们更有可能产生意识——例如感知、注意力、学习、记忆和规划等能力。
这么说我也明白了 怀疑论。任何非有机实体都有自己的主观体验的想法对许多人来说是可笑的,因为意识被认为是碳基生物所独有的。但正如该报告的作者指出的那样,这更多的是一种信念,而不是一个可证明的事实——只是一种意识理论。一些理论暗示需要生物材料,另一些理论则暗示不需要,而我们目前无法确定哪个是正确的。现实是,意识的出现可能取决于系统的结构和组织,而不是其特定的化学成分。
关于人工智能感知的对话中的核心概念是伦理哲学领域的经典概念:“道德圈,—描述我们给予道德考虑的生物种类。这个想法被用来描述一个人或社会关心谁和什么,或者至少他们应该关心谁。历史上,只包括人类,但随着时间的推移,许多社会已经将一些动物带入圈子,特别是狗和猫等宠物。然而,许多其他动物,例如工业化农业饲养的动物,如鸡、猪和牛,仍然基本上被排除在外。
许多致力于人工智能意识研究的哲学家和组织都来自动物研究领域,他们本质上主张将思路扩展到包括计算机程序在内的非有机实体。如果某个东西确实有可能成为一个受苦的人,那么我们如果不认真考虑如何避免造成这种痛苦,那就是道德上的疏忽。
不断扩大的道德圈要求道德的一致性,并且很难根据文化或个人偏见排除例外。现在,只有这些偏见让我们忽视了可能性有感知力的人工智能。如果我们在道德上保持一致,并且关心尽量减少痛苦,那么这种关心就必须延伸到许多其他生物——包括 昆虫, 微生物也许我们未来的计算机中也会有一些东西。
即使人工智能发展出感知能力的可能性很小,但这样的机会实在是太多了——数字动物— 其影响是巨大的。如果有一天每部手机、笔记本电脑、虚拟助手等都有自己的主观体验,那么可能会有数万亿个实体在人类手中遭受痛苦,而我们中的许多人都在假设它不存在的情况下工作甚至可能首先。这并不是第一次人们通过告诉自己和他人他们的行为的受害者来处理道德困境 根本无法体验像你或我一样深刻的事情。
出于所有这些原因,OpenAI 和谷歌等科技公司的领导者应该开始认真对待他们的创造物可能带来的福利。这可能意味着聘请人工智能福利研究员和开发框架来估计其创作中的感知概率。如果人工智能系统进化并具有一定程度的意识,研究将确定它们的需求和优先事项与人类和动物的需求和优先级是否相似或不同,这将告诉我们保护它们的方法应该是什么样子。
也许未来有一天,我们会广泛接受机器人确实可以思考和感觉的证据。但如果我们等待这个想法,想象一下在此期间将会发生的所有痛苦。目前,人工智能正处于前景光明但仍相当初级的阶段,我们有机会在潜在的道德问题进一步向下游蔓延之前预防它们。让我们借此机会与技术建立一种我们不会后悔的关系。万一。
布莱恩·凯特曼 (Brian Kateman) 是 Decetarian 基金会的联合创始人,该基金会是一个致力于减少社会动物产品消费的非营利组织。他最新的书和纪录片是 –半路给我肉. –