一个人试图用屠夫杀死一名警察,因为Openai杀死了他的爱人。一位29岁的母亲建议她与Chatgpt的关系不是真实的。 一位现年41岁的现在的妈妈与丈夫一起被聊天机器人交流,发展出奇怪的偏执和阴谋理论后,与丈夫分裂。
这些故事,报告由纽约时报和滚石,代表了聊天机器人引起的疯狂的恐惧,远端。我们可能会想知道多少人悄悄地失去了思想,因为他们转向聊天机器人是为了孤独或沮丧的浪漫欲望的一种破坏机器人?
我们可能并非都在失去思想。但是,聊天机器人仍然会影响我们的微妙,有害的方式。因为它们的设计目的是将自己作为个人生物展示,所以我们不得不将它们人格化。我们向他们寻求帮助,做出决定,建议和律师。公司正在着手通过更换与治疗的关系来赚很多钱治疗聊天机器人并建议提供AI的同伴,老年人因此,他们遥远的孩子不必经常去。你是孤独的吗?与一个交谈机器。公司很乐意以Abbi,Claude和Alexa等人类名字赋予这些计划。
这是一场灾难。在毫不批判的使这些机器塑造我们的生活的过程中,我们成为了各种操纵的猎物,我们忽视了现实,并以一种重要的方式诱使我们对实际人的降低视野。聊天机器人为我们提供一种不摩擦的关系形式,没有负担和责任。这种虚幻的关系妨碍了我们参与真正纽带的艰难挑战的能力,这是唯一可以赋予人类生活的事物。我们越来越多的AI,我们对孤立和欺骗的生活越懒。
在避免所有这些方面的努力时,重要的是要认识到人工智能的基本思想是虚假的。如果我们了解人工智能是什么,我们将摆脱它的欺骗,可以自由地在我们自己和他人中培养真正的智力。
语言很重要。孔子,什么时候问他会为了治愈社会做的事情,他说他将首先做出正确的名字。人类社会的健康必须基于真理和诚实,而贤哲思想的名字应该尽其所能与现实相匹配。一词 - 人工智能,因为它是基于虚假的,应该放弃反映现实的语言。
计算与理解。
我们经常了解智力,以指代执行思想依赖任务的某种卓越。因此,当计算机生产与智能产品相似的产品时,我们也开始称其为智能。
著名的图灵测试(由著名的数学家艾伦·图灵(Alan Turing)在1940年代提出的智力都可以降低为任务完成的想法),该想法提出,如果用户与机器和人的交流都无法区分两者,则可以说这是一个很明显的工具。真的在想事情。
哲学家约翰·塞尔(John Searle)著名地提出了一个相反的思想实验,称为中国房间。一个人知道中文,一个人不知道。非扬声器配备了一套复杂,详尽的规则,使他可以将正确的响应字符与中国说话者提交的字符匹配。结果,这位中国发言人收到了对他的疑问和陈述的足够和明智的书面回应。这个中国人可能会相信他正在进行真实的对话 尽管他的对话伙伴对角色中的角色的含义一无所知。他只遵循一组模式和规则。
这个思想实验向我们展示了图灵测试如何作为对智力的评估失败,因为可能是被测试的机器没有理解完全但仅遵循一组规则,实际上,这些规则仅仅是旨在可靠地产生某些符号输出来响应某些输入的物质过程。
确实,即使在最复杂的计算机中,这确实是发生的。在理解这一点时,最简单的是从袖珍计算器开始。该机器已被编程,以便何时这按钮,这按钮,和那按下按钮,屏幕上将出现一组像素集。在此过程中,计算器绝对没有理解数学,因为理解是指对事物的主观理解。计算器会产生人类理解为代表概念的符号。机器具有符号,但没有概念。没有人认为他们的口袋计算器是一种思考的事情。
因此,它也有更高级的机器。即使很复杂,计算机仍然是基于某些机械输入(通常在键上输入)可靠地产生某些符号输出的机器。像计算器一样,计算机实际上不包含信息,具有内存或思考(其中包含的内容是电线和晶体管等) - 因此,当我们说计算机包含信息或内存时,我们会松散地使用这些术语。响应电荷的复杂晶体管网络令人印象深刻,这证明了人类创造力。但这不是在想。
因为我们中的许多人不了解计算机的工作原理,并且由于从视图中隐藏了机械过程,因此模仿人类智能产物的过程几乎就像是真正的智能。但是,无论这些过程多么复杂且精心设计,它们仍然是机械过程,不包含固有的理解。
与其他形式的计算相对于其他形式的人格幻想的一部分是其响应能力。Ai的运作是通过使用所谓的神经网(本身就是一个可疑的术语,假定电路与神经元更神秘的工作之间的等效性)。这些是可以通过数据运行数据的计算模型,并且可以通过该模型来整理数据点之间的统计学意义相关性。根据指定程序,这允许机器对足够的数据进行了训练,可以检测规律性并对符号输入产生可能的响应。由于聊天机器人以大型语言模型(LLM)运行的方式向我们展示了自己,因为显然是从屏幕上弹出的响应,因此我们可能不会认识到产生这些响应的机器实际上是在占用的大型服务器上运行的美国农村地区的大型仓库。这产生了谈话的幻想。但是,聊天机器人更准确地描述为一个荣耀,令人印象深刻的自动完整程序,根据统计相关性选择了下一个最可能的单词。
这就是为什么用户可以欺骗阴谋理论或浪漫史的一部分。用非常人性化的语气,该机器将产生用户寻找的最统计学上可能的东西。Ai'是对整个互联网的数据的培训,包括浪漫小说和阴谋论。因此,如果用户沿着可能产生这些结果的路径查询,那就是他们将取得的结果。
科幻小说为我们提供了由AI的社会形象。在这些故事中,该机器比人类更有能力汇总数据并为社会问题提供可靠的解决方案。根据故事的不同,这台机器可以被描绘成恶毒或仁慈。您可能会想到最近的实体任务:不可能,或在Attin中运行地球的仁慈的AI星球大战:骨架工作人员。但是,我们应该认识到,无论刻画了多么出色,这是一件死的东西,一种工具,没有欲望,没有个性,没有判断力。相反,它体现了设计它的人的欲望,个性和判断力及其受过训练的数据。
那些认识到这一点的人,如AI的进步,将能够看到新偶像的粘土脚。将有一种诱惑,就像甲骨文一样。认识到这是一台机器,而不是明智的真理柜台,将帮助我们避免判断自己的判断能力,毕竟只是(非常引人注目的)人类文物。
善与度。
机械过程和心理过程之间的区别不是程度,但是种类。好像计算器的想法并不是一定的,超级计算机会想到很多。这两个过程都是相同的,只是不同程度的复杂性。但是心理过程完全是不同的。信息,概念及其之间的关系不是机械过程,即使它们与活体大脑中的物理过程相关或依赖于它们。
要看到这是事实,必须只认识到,心理现实永远无法用物理术语完全描述。即使是对人脑工作方式的完全详尽的解释也会使心灵的生活成为一个谜,因为它不包括概念,思想,思想或选择的概念。您可以完全描述神经元及其相互作用的性质,并且您仍然不会描述一个想法或想法。这些心理术语是无限的个人,如果尝试减少物理语言,则无法保留其含义。”
物质大脑和思维之间的关系是神秘的。我们知道大脑中的事件会影响思想。我们还知道,心灵中的事件会影响大脑。这就是方法治疗对于某些类型的强迫症作用。通过暴露疗法产生的对安全的主观理解实际上会改变和重组大脑远离恐惧产生的反应,而参与曝光疗法的选择也只能在精神上完全描述,即与思想有关的术语。仅使用物理科学的术语,将仅限于仅仅描述性的物理事件,描述了光子在时间1时如何击中视网膜,从而启动了一系列的电和化学转移。完全缺席将是充分解释正在发生的事情所需的心理现实,包括恐惧和安全的主观概念。在这种情况下,患者选择坐下来体验他们担心的东西。正是患者的选择(精神的) 为此和接受他们自己的安全真的(心理)改变身体(包括大脑)的方式。
这并不是从人类思想和人的大脑显然相关的事实,即一组电线可以以某种方式召唤一个思想。这回到了我们关于差异的观点种类在思想的生活中,体现在有机存在中,以及机器的功能。正如我们想说的那样,一个在Chuck E. Cheese上被动画老鼠愚弄的孩子根本不知道这是一台机器,所以我们应该想到一个被一个非常好的愚蠢的人。
这些哲学问题很复杂,可以在这里充分说明。但是我希望至少能提供一些概念澄清的工具,并对人工智能的可能性产生怀疑。”
聊天机器人的基本欺骗。
部分原因是要更加清楚什么是什么,不是这些机器以及他们相关的权衡,实际上和道德上的折衷方案在我们的生活中变得无处不在。关于风险的构成,可以写很多东西,实际上已经写了。也许我们熟悉过度依赖的想法引起萎缩以我们自己的阅读,思考,推理和联系的能力。我们知道一个决定将人类从地球上清除地球的世界末日情景。
但是,即使是当今更简单的聊天机器人也具有道德价值:它们是不道德的,因为它们从根本上具有欺骗性。他们是由Openai和Google等公司向我们展示的,就好像他们在思考事情一样,他们的发展旨在使它们越来越欺骗性,直到甚至关键用户也可以愚弄机器认为这是欺骗性的。
除了简单的不诚实外,这些机器中智力的欺骗还使人分心真正的个人关系。通过创建同情,引人入胜的对话和贤哲建议的模拟(例如,克劳德告诉您如何为约会做准备,或者在失去母亲后安慰您),这些机器使我们远离与生活中的人建立真实的个人纽带。”
聊天机器人变态我们对人际关系的感觉。因为AI迎合我们,因为在关系中确实只有一个人,所以AIS的人类结合的模拟从根本上是以自我为中心的。在选择满足我们每种欲望的机器的低摩擦选项时,我们朝着自私的态度塑造,而不是融入真正的同理心,同情和关心他人。他们也可能会导致我们处理人际关系与萎缩的困难的能力。关于如何管理差异,误解和心碎的智慧,通过摩擦和失败获得了实践。只有在困难中,我们才能学会如何成为完全成熟的人。
聊天机器人也将我们偏向于单词可降低连接的想法。AI疗法的想法已经在使用并为进取的公司赚取利润。这项技术的想法是,治疗就是简单地听到正确的词。实际上,治疗,就像所有人际关系一样理解另一个。尽管这是机器无法做的,尽管营销人员的语言和用户。
当我们记得LLM非常奇怪的自动完成时,我们应该知道Sam Altman和其他AI助推器正试图欺骗我们。苹果的研究人员感激地震惊了这一趋势,发表了他们的发现关于在LLM的某些逻辑和推理难题时,思想出现的方式就会崩溃。但是,许多AI助推器都了解这些机器和程序,并且至少是隐式的,鼓励公众相信AIS可以思考,关联和理解用户。
一个新术语。
当然,Ai肯定是人造的,是由人类手制成的。但是他们不聪明。称他们为人工智能是接受,不仅是小说,而且是谎言。这是误解机器和人的本质。这是屈服于聊天机器人威胁我们人类萎缩的方式,甚至在极端情况下,甚至驱使我们发疯。”
代替人工智能,我提出了一个更准确,具有道德和社会负责的名称:模式引擎。差异引擎这个名字充分认识到了手头的机器的现实。确实是发动机,并且发动机用于汇总模式并将数据分类为统计相关性。确实,它们是根据已分类内容的统计重量来将物体分类为模式并产生输出的引擎。
一个健康的社会必须基于真理。而且,随着技术进步的速度比我们理解和适应能力的速度快,我们至少不能因为发生的事情而被愚弄。如果您愿意的话,请加入我的态度。如果赶上它,也许我们可以找到使用模式引擎的方法,以使人类有尊重而不是降级。