我们经常被喂食的AI版本,看起来,听起来和行为像我们一样可疑。它用抛光的句子说话,模仿情绪,表达好奇心,声称感到同情,甚至涉嫌它所谓的创造力。
但这是事实:它没有这些品质。它不是人类。并呈现它好像是吗?那很危险。因为这令人信服。没有什么比令人信服的幻想更危险的了。
尤其是通用人工智能 - 据称反映人类思想的神话般的人工智能仍然是科幻小说,然后很可能会这样。
我们今天所说的AI不过是一台统计机器:从人类数据的海洋中挖掘出的数字鹦鹉反流式模式(由于它是这样,情况就没有太大变化在这里讨论五年前)。当它写下一个问题的答案时,它实际上只是猜测哪个字母和单词将根据训练的数据来序列。
这意味着AI没有理解。没有意识。没有任何真实的人类意识的知识。只是纯粹的概率驱动,设计的光彩 - 仅此而已。
那么,为什么真正的思考AI可能不可能呢?因为它是Bodiless。它没有感官,没有肉,没有神经,没有疼痛,没有愉悦。它没有饥饿,欲望或恐惧。而且由于没有认知 - 没有碎片 - 它消耗的数据(由于人类的感受和经验而诞生的数据)与它们可以对其做些什么之间存在根本差距。
哲学家戴维·查尔默斯(David Chalmers)称我们的身体与意识之间关系的神秘机制意识的严重问题。杰出的科学家最近假设,意识实际上是从内部整合,精神状态具有感官表示(例如心率变化,出汗等等)。
鉴于人类的感官和情感对意识的重要性至关重要。
主人
在您辩称AI程序员是人类之前,请让我阻止您在那里。我知道他们是人类。这是问题的一部分。您会将最深层的秘密,人生决策,情感动荡委托给计算机程序员吗?然而,这正是人们在做什么。
给AI的脸部,声音或语气是一种危险的数字交叉行为。它触发了我们的自动反应,这是一种拟人化的反射,导致异常主张,据说某些AI通过了著名的AIS图灵测试(它测试了机器表现出智能的,类似于人类的贝埃奥尔的能力)。但是我相信,如果AIS通过Turing测试,我们需要更新测试。
AI机器不知道成为人类意味着什么。它不能提供真正的同情心,无法预见您的痛苦,不能直觉隐藏动机或谎言。它没有味道,没有本能,没有内心的指南针。这是使我们成为我们身份的所有混乱,迷人的复杂性。
仍然更令人不安:AI没有自己的目标,除非注入其代码,否则没有欲望或道德。这意味着真正的危险不在机器上,而是在其主人中 - 程序员,公司,政府。仍然感到安全吗?
而且,请不要对我来:您太苛刻了!您不愿意的可能性!或更糟糕的是:这是如此黯淡的视野。当我焦虑时,我的伙伴使我平静下来。
我缺乏热情吗?几乎没有。我每天使用AI。这是我有史以来最强大的工具。我可以翻译,总结,可视化,代码,调试,探索替代方案,分析数据比我自己梦dream以求的快速,更好。
我很敬畏。但这仍然是一种工具 - 仅此而已。就像人类发明的每个工具一样,从石轴和弹弓到量子计算和原子弹,它可以用作武器。它将用作武器。
需要视觉吗?想象一下,就像在电影中一样,爱上了令人陶醉的AI。现在想象一下,决定离开你。您会做什么来阻止它?要明确:这不会是AI拒绝您。它将是其背后的人类或系统,使该工具成为控制您行为的武器。
卸下面具
那我要去哪里?我们必须停止给予人工智能。我与GPT-3的第一次互动使我烦恼。它假装是一个人。它说它有感觉,野心,甚至意识。
值得庆幸的是,这不再是默认行为。但是互动的风格 - 对话的自然流动仍然完好无损。而且这也令人信服。太令人信服了。
我们需要去拟人化AI。现在。剥去它的人体面具。这应该很容易。公司可以删除AI的所有参考情感,判断或认知处理。特别是,它应该在事实上做出回应,而无需说“我,或者我觉得我很好奇。”
会发生吗?我怀疑。它使我想起了我们忽略了20多年的另一条警告:我们需要削减Co co的排放。但是,我们必须警告大型科技公司与AIS的人性化相关的危险。他们不太可能打球,但应该这样做,尤其是当他们认真对待更多的发展道德AIS。
就目前而言,这就是我要做的(因为我经常会得到这种令人毛骨悚然的感觉,我在使用chatgpt或claude时正在与合成人说话):我指示我的AI不要用名字来解决我。我要求它自称为AI,用第三人称讲话,并避免情感或认知术语。
如果我正在使用语音聊天,我要求AI使用平坦的韵律,并有点像机器人。它实际上很有趣,并使我们俩都处于舒适区。