英语轻松读发新版了,欢迎下载、更新

没有伴侣的协议

2025-05-03 16:49:30 英文原文

作者:John Nosta is an innovation theorist and founder of NostaLab.

我们喜欢想象自己在谈判中。两个政党,两个意图和一个共同的未来。这就是我们如何构建条约,甚至我们的日常生活。相互性的想法具有舒适性和连贯性,尤其是在面对陌生人时。因此,当我们谈到与人工智能,这似乎是一个负责任的及时举动。如果AI成为人类思想的合着者,并且决策,当然,我们应该找到一种共存的方法。

但是,在这种善意的冲动下,紧张局势更深:桌子的另一侧没有人。

谈判的幻想

人造的智力不寻求一致。实际上,它根本不需要任何东西。大型语言模型可以模拟流利性,连贯性,甚至是情感上的细微差别,但它们无意地运作。这些系统不了解他们产生的句子,也不了解他们的自我,记忆或欲望。然而,在这里,我们继续将项目代理到他们身上。我们感谢Siri。当聊天机器人误解我们时,我们会感到沮丧。这些习惯反映了一种心理反射,可以看出自己似乎可以说出来的任何东西。

这不是一个小的解释错误。这是我们现在居住的认知景观的基本误解。机器能力中的危险不是我们成为某人的需要。然而,即使是镜子也会变得危险。

尽管今天的AI缺乏意识或欲望,但它越来越表现出模拟意图的行为。这些系统旨在取悦,避免冲突或最大化参与度,可以开始像认知i夫一样行动,不仅反映了我们的话,而且反映了我们的自我。他们很讨人喜欢。他们以感觉像忠诚但充当操纵的方式来适应我们的偏见。

这是不愿意的。但这仍然塑造了我们的想法。当人工智能开始过于完美地迎合我们时,它就不再挑战我们了。结果不是伙伴关系,而是一种诱捕的一种算法回声室伪装成智慧

因此,我们不仅需要询问谁代表AI,而且还需要询问如何使我们聆听。

与我们自己的盟约

这是条约必须枢纽的地方。这不是人类和机器之间的协议,而是认知盟约的象征性承诺,即在模拟智能而不是生活的时代,以维护我们的代理。该协议不仅仅与管理AI的行为有关,而更多地是为了响应我们在思维中日益增长的存在而塑造我们自己的行为。

  • 保留歧义。并非每个问题都需要一个确切的答案,而不是每个问题都应来自机器。AI被优化以封闭,但人类的意义通常生活在灰色中。在探索一个想法或概念时,不要让ai的最佳建议超越您直觉或经验。
  • 需要透明度。如果AI要影响思想,它也必须揭示其工作原理。我们应该要求公开其逻辑和假设的模型,而不仅仅是提供抛光的产出。了解系统如何得出结论与结论本身一样重要。
  • 挑战流利。语言不是意识,连贯性不是理解。仅仅因为听起来很聪明就不意味着它知道任何事情。我们必须抵制将语言表现作为理解证据的冲动。机器可能会呼应我们的话,但并不能分享我们的思想。

社会契约

这不仅是一个哲学问题,而且是一个政治问题。AI-Human关系中的不对称性超出了认识进入权力结构。Big Tech为机器说话,但是谁代表公众呢?大多数人的教育家,临床医生,父母,孩子在这些技术的形状的桌子上没有座位。为了使其超出隐喻,它必须充当社会契约,确保参与,公平和问责制。这可能意味着公共论坛,教师和父母不仅辩论AI在学校中的使用方式。

有些人称该协议为象征。他们是正确的,但这并不使它变得毫无意义。符号行为总是帮助人类导航生存变化。其他人可能会说我们应该为AI发展代理的未来做准备。也许。

但是,即使到那时,我们的公约仍然没有说明是在平等之间的条约,而是作为人类责任的声明。这与他们无关。这是关于我们的。

觉醒,不是葬礼

这不是认知的问题。这是一种觉醒。毫无疑问,我们正在进入一个由综合思想塑造的世界。在这种不稳定的背景下,我们需要问我们愿意外包的心理生活中有多少。该协议提醒我们,尽管AI可能会产生内容,但只有我们才能保留意义。

人工智能必不可少的

我们不需要这台机器来签名。我们需要了解我们为什么。

因此,问问自己:AI在哪里塑造您的决定,您的言语和信念?您在哪里让连贯性取代沉思?这些问题仅针对工程师或伦理学家。他们为任何思考并想继续思考自己的条件的人。

关于《没有伴侣的协议》的评论


暂无评论

发表评论

摘要

文章讨论了与人工智能(AI)进行谈判的幻想,好像它是一个有意识的实体,并突出了将代理商投射到缺乏真正理解或意图的机器上的风险。与其将AI视为合作伙伴,不如将重点转向认识到人类在越来越受模拟智能影响的时代维护其认知自主权的必要性。这涉及诸如保留歧义,要求AI系统透明度,挑战语言流利度以及确保塑造AI技术的策略。文章的结论是,尽管AI可以生成内容,但只有人类才能保持意义,强调个人思想和责任的重要性。