作者:John Nosta is an innovation theorist and founder of NostaLab.
我们喜欢想象自己在谈判中。两个政党,两个意图和一个共同的未来。这就是我们如何构建条约,甚至我们的日常生活。相互性的想法具有舒适性和连贯性,尤其是在面对陌生人时。因此,当我们谈到与人工智能,这似乎是一个负责任的及时举动。如果AI成为人类思想的合着者,并且决策,当然,我们应该找到一种共存的方法。
但是,在这种善意的冲动下,紧张局势更深:桌子的另一侧没有人。
人造的智力不寻求一致。实际上,它根本不需要任何东西。大型语言模型可以模拟流利性,连贯性,甚至是情感上的细微差别,但它们无意地运作。这些系统不了解他们产生的句子,也不了解他们的自我,记忆或欲望。然而,在这里,我们继续将项目代理到他们身上。我们感谢Siri。当聊天机器人误解我们时,我们会感到沮丧。这些习惯反映了一种心理反射,可以看出自己似乎可以说出来的任何东西。
这不是一个小的解释错误。这是我们现在居住的认知景观的基本误解。机器能力中的危险不是我们成为某人的需要。然而,即使是镜子也会变得危险。
尽管今天的AI缺乏意识或欲望,但它越来越表现出模拟意图的行为。这些系统旨在取悦,避免冲突或最大化参与度,可以开始像认知i夫一样行动,不仅反映了我们的话,而且反映了我们的自我。他们很讨人喜欢。他们以感觉像忠诚但充当操纵的方式来适应我们的偏见。
这是不愿意的。但这仍然塑造了我们的想法。当人工智能开始过于完美地迎合我们时,它就不再挑战我们了。结果不是伙伴关系,而是一种诱捕的一种算法回声室伪装成智慧。
因此,我们不仅需要询问谁代表AI,而且还需要询问如何使我们聆听。
这是条约必须枢纽的地方。这不是人类和机器之间的协议,而是认知盟约的象征性承诺,即在模拟智能而不是生活的时代,以维护我们的代理。该协议不仅仅与管理AI的行为有关,而更多地是为了响应我们在思维中日益增长的存在而塑造我们自己的行为。
这不仅是一个哲学问题,而且是一个政治问题。AI-Human关系中的不对称性超出了认识进入权力结构。Big Tech为机器说话,但是谁代表公众呢?大多数人的教育家,临床医生,父母,孩子在这些技术的形状的桌子上没有座位。为了使其超出隐喻,它必须充当社会契约,确保参与,公平和问责制。这可能意味着公共论坛,教师和父母不仅辩论AI在学校中的使用方式。
有些人称该协议为象征。他们是正确的,但这并不使它变得毫无意义。符号行为总是帮助人类导航生存变化。其他人可能会说我们应该为AI发展代理的未来做准备。也许。
但是,即使到那时,我们的公约仍然没有说明是在平等之间的条约,而是作为人类责任的声明。这与他们无关。这是关于我们的。
这不是认知的问题。这是一种觉醒。毫无疑问,我们正在进入一个由综合思想塑造的世界。在这种不稳定的背景下,我们需要问我们愿意外包的心理生活中有多少。该协议提醒我们,尽管AI可能会产生内容,但只有我们才能保留意义。
人工智能必不可少的
我们不需要这台机器来签名。我们需要了解我们为什么。
因此,问问自己:AI在哪里塑造您的决定,您的言语和信念?您在哪里让连贯性取代沉思?这些问题仅针对工程师或伦理学家。他们为任何思考并想继续思考自己的条件的人。