作者:Sigal Samuel
您可能听说过这样的想法:人工智能是 –随机鹦鹉,——机械地向我们重复我们的话,但实际上并没有理解它们。但香农·瓦洛尔爱丁堡大学的技术哲学家认为有一个更好的比喻:她说,人工智能是一面镜子。
毕竟,鹦鹉是另一种思想——虽然不完全像我们的头脑,但仍然是有感知力的头脑。像 ChatGPT 这样的大型语言模型则不然。它向我们反映我们自己的图像、文字以及我们输入到训练数据中的任何其他内容。当我们参与其中时,我们很像水仙花,这个神话般的男孩看到自己在水中美丽的倒影,并被它迷住了,认为这是另一个人。
在她的新书中人工智能镜子,瓦洛尔认为,我们倾向于将人工智能误认为是一种思想,并认为它甚至可能具有能力比我们更有道德因为它更加“客观”和“理性”,给人类带来了真正的生存风险,而不是人工智能本身可能做的任何事情。
我与 Vallor 讨论了她认为风险到底是什么、她认为风险对人类能动性有何影响,以及风险如何影响人类的行为。超人类主义该运动主张人类应该积极利用技术来增强和进化我们的物种。这是我们的谈话记录,为了长度和清晰度而进行了编辑。
你不是那种因为担心人工智能会成为恶意决定奴役我们所有人而彻夜难眠的人。但你确实认为人工智能确实带来了生存风险。它是什么?
我所说的风险在哲学意义上是存在主义的,即真正触及人类的核心以及我们赋予我们存在意义的能力。作为人类的一个基本挑战,也是我们经常珍惜的事情,是我们没有被困在一系列反射或无意识的反应中——事实上,我们可以利用认知来摆脱这些反应。我们习惯的习惯和社会脚本,并选择向新的方向发展。我们可以为社会选择新的道德模式、新的政治结构或规范。
在人类历史的每一个时刻,我们都会看到个人或社区选择改变模式的时刻。但这需要对我们自己、对彼此、对人类能做到这一点的力量充满信心。这也是对我们拥有这种权力的权利的一种道德主张。
在我去过的每一个谈论人工智能的国家中,我听到的一件事是:人类真的与人工智能有什么不同吗?归根结底,我们不就是预测文本机器吗?除了模式匹配和模式生成之外,我们还做过其他事情吗?
这种修辞策略实际上让我感到害怕。这不是机器本身。当今人工智能的言论是要让人类放弃自己的权力以及对自己的能动性和自由的信心。这就是存在的威胁,因为这会让人类感觉我们可以把双手从方向盘上拿开,让人工智能来驾驶。
在某些方面,人们的言论不仅是我们可以,而且是我们应该让人工智能进行深思熟虑并做出重大决策,因为人工智能是据说更理性、更客观。
确实如此,如果你不同意这一点,你就无法提高效率,无法与进步合作,就无法实现创新。
当你写到这种对人类能动性信心的丧失时,你借鉴了存在主义者的观点,他们认为生命没有内在意义,而是人类需要选择如何创造的东西。您特别借鉴了 20 世纪初的西班牙哲学家何塞·奥尔特加·伊·加塞特 (José Ortega y Gasset) 以及他的概念 –自动制造. – 为什么这对您来说是人工智能背景下的一个关键想法?
奥尔特加思考了人类意义的核心问题,那就是我们必须自己创造意义。这就是他所说的自动制造,字面意思就是自我制造。他说,这是人类的基本条件:一遍又一遍地塑造自己。这项工作永远不会停止,因为我们的认知设备有能力将我们带入自我意识的境界,这样我们就可以看到我们正在做的事情并真正决定改变它。
从存在主义的角度来看,这种自由也是一种负担,对吧?自动制作是需要相当大的勇气和力量的事情,因为更容易的事情是让别人告诉你剧本是最终的,你无法改变它,所以你还不如跟着它走,然后你不必让自己承担起决定自己或其他人的未来的责任。
因此,围绕人工智能的言论告诉我们的是放弃人类自由,对我来说,这是对人类美好本质的严重侵犯。我们应该放弃这一点的想法意味着放弃艺术成长、政治成长、道德成长的可能性——我认为我们不应该这样做。
这种言论的表现方式之一是在“机器伦理”领域——努力构建可以充当我们道德顾问的道德机器。超人类主义者特别看好这个项目。哲学家埃里克·迪特里希甚至争论我们应该建造“比我们本性更好的机器人”——在道德上超越我们的机器——然后将世界交给“智人 2.0”。您对此有何看法?
我一直对道德机器项目持怀疑态度,因为它通常最终只是试图众包道德判断(并根据人类直觉训练人工智能)——但重点是,群体并不总是正确的!因此,众包道德判断是一件非常危险的事情。如果你在纳粹德国使用众包道德机器来聚合道德判断,然后试图用它在其他地方自动化决策,那么你就会为道德犯罪企业的扩张做出贡献。
众包确实看起来是一种有问题的方法,但如果我们不偏离大众的想法,我们会做什么呢?我们是否提议追随一些哲学家国王,在这种情况下可能会担心这是不民主的?
我认为总有一条更好的途径,那就是让道德仍然是一个有争议的领域。它必须接受挑战。了解与他人和谐共处意味着什么,以及我们对彼此的亏欠——这种对话永远不会停止。因此,我非常不愿意开发旨在找到最佳答案并就此止步的机器。
是的——仅仅按照人们今天所说的道德规范行事似乎与你所谓的“站在道德理由的空间中”有很大不同。请阐明你的意思。
☀理由空间— 是哲学家威尔弗里德·塞拉斯 (Wilfrid Sellars) 提出的概念。在这个领域中,我们可以探索彼此相信某件事的理由,我们可以为彼此辩护并寻求理由。其他哲学家后来改编了他关于理性的逻辑空间的想法,以便能够思考理性的道德空间,因为我们在道德中也这样做:当我们彼此提出道德主张时,尤其是当它们是新的和不熟悉的时候,我们必须证明它们的合理性。我们的理由必须能够被彼此理解,这样我们才能弄清楚我们共同认识和接受的是什么。
我认为如果我们有一个真正的道德机器,它就能和我们一起站在那个空间里。它将能够阐明理由并理解我们的理由,并以一种不仅仅是反映我们已经达成的共识的方式与我们协商这些理由。因为如果我们最终处于环境发生变化或在某种程度上是新的情况,任何仅仅反映熟悉的道德模式的机器都可能会陷入麻烦。
这让我想起你经常写到的一种特殊美德:实践智慧或实践智慧,使用古希腊术语。那是什么?为什么它如此重要?
亚里士多德写道我们通过实践和习惯来培养诚实等美德。说谎更容易让你得到你想要的东西,但是一旦你养成了说真话的习惯,你实际上可以培养出一种诚实是很容易做到的性格,甚至在极少数情况下你可能不得不挣扎。你需要说谎。
但有些时候,依赖你已经养成的习惯实际上可能会导致伤害,因为情况是新的,你的旧习惯可能不太适合当前的情况。智慧是一种智力美德,它可以让你认识到这一点,并改变你的习惯反应,使之变得更好。例如,在民权运动中,人们可以说:通常情况下,遵守法律是道德上的事情,但现在我们意识到事实并非如此——事实上,在这种情况下,公民不服从在道德上是必要的。
实践智慧就像所有其他美德一样,是通过实践建立起来的,所以如果你没有推理的机会,也没有思考某些事情的实践,那么你以后就无法很好地思考。我们需要大量的认知练习才能发展并保留实践智慧。我们有理由担心认知自动化会剥夺我们建立和保留这些认知肌肉的机会。这就是风险智力和道德去技能化。这种情况已经发生,我认为我们必须抵制它。
当我试图对我们所看到的超人类主义趋势进行慈善解读时,我认为其背后的核心情感是对人类状况感到羞耻。在两次世界大战、核武器的使用、气候危机等等之后,人类感到这种耻辱是有道理的。因此,我可以从心理上理解为什么会有一种冲动,想要逃离所有的人性,转向我们认为会更客观的机器,尽管我不同意这一点。
我认为我挣扎的地方是,我们如何知道使用技术改造自己在多大程度上有意义,而不陷入深刻的反人文主义?
超人类主义有一种空虚,因为它不知道我们想要什么,它只是希望有能力创造其他东西——从我们的身体、从死亡、来自我们的限制。但它总是免于自由,而不是为了自由。自由是为了什么?我们想要实现的积极愿景是什么?
我对人类的处境抱有深深的乐观态度。我认为道德不仅是由恐惧驱动的——它更多的是由爱、由相互关怀和团结的经历驱动的。我们对美好事物的最初体验是受到他人的照顾,无论是母亲、父亲还是护士。对我来说,其他一切都是为了以新的、更广泛的形式追求这一目标。所以对我来说有一种自由为了,它植根于人类动物的本质。难道还有其他生物比我们更好吗?
事实上,我认为这是一个没有意义的问题。比什么更好?他们可能更擅长做自己,但我认为道德植根于你所拥有的特定存在形式。我们作为一种特殊的社会性、脆弱性、相互依存的动物而存在,拥有大量多余的认知能量。所有这些因素都影响着人类的道德。对我来说,这种抽象概念——某种纯粹的普遍道德观念,认为与我们完全不同的生物可以以某种方式比我们做得更好——我认为这从根本上误解了道德是什么。