人工智能驱动的系统已经席卷整个商业领域,在偶尔合理的炒作中掀起一股浪潮。当它们很好的时候,它们真的很好,例如,一个旨在帮助日本面包店顾客更快地完成结账的神经网络,最终对于检测皮肤癌非常有用。使用图像识别来区分烘焙食品的独特轮廓的能力被证明是一种可转移的技能,因为皮肤癌具有随时间变化的特征形状和轮廓。
所有这种能力的问题在于,它不一定具有准确性。想象一下一辆配备 V8 发动机的后轮驱动汽车在雪地里行驶。近似就像航位推算,如果航向偏离,人工智能可能会偏离航线。学习能力不会自动包含在神经网络的结构中,而在获得良好结果方面,学习是一个巨大的优势。
那么,什么是首先是机器学习?如果机器如此聪明,为什么它们仍然如此愚蠢?
学习的目的是提高结果。为了获得最佳结果,模型需要既强大又准确。机器学习是人工智能中的一个研究领域,涉及制定可以从经验中学习的算法,从而提高自身的性能。
卡内基梅隆大学的机器学习专家 Tom M. Mitchell 表示像这样:“如果计算机程序在 T 中的任务上的性能(由 P 测量)随着经验 E 的提高而提高,则可以说计算机程序可以从关于某类任务 T 和性能测量 P 的经验 E 中学习。”
机器学习有两大工作:模式识别和预测。有效的学习利用过去的经验来成功地概括、预测或预测新情况的结果。为了做出准确的预测,人工智能需要知道问题的哪些部分是重要的,以及它们之间存在什么关系。只有这样它才能开始做出决策。
神经网络必须在众多选择中选择自己的方式,根据哪些关系权重最大来选择路径。这个过程是使用一种称为梯度下降的方法来完成的。这就像分水岭的运作方式:水总是滚下山。陡峭的山丘流水速度更快,深谷则聚水更快。许多软件,包括 ChatGPT、Copilot 和 Google 的 Vertex AI 等知名软件,都使用向量和张量的数学语言进行导航,这些语言描述和比较 n 维空间中坐标之间的运动。机器学习允许人工智能改变其决策环境的地形。
人工智能是软件:用编程语言编写的算法或逻辑模型。(通常是 Python 或它的近亲,如 PyTorch。)这些模型将冗余的迭代过程与一种称为矩阵的巨大电子表格结合起来。但机器学习不仅仅是保存文件。当人工智能学习时,它会改变自己的假设,甚至改变其过程。
神经网络最常见的训练算法(至少截至 2024 年)称为反向传播。在反向传播中,过程后期的信息被传送回早期步骤,从而对下游产生影响。
训练神经网络就是这个过程教它如何执行任务。这是一个极简主义的事情;更大的数据集通常更好。Copilot 和 ChatGPT 等强大的人工智能非常灵活,因为它们依赖包含整个语言的逻辑模型来理解所遇到的问题。反过来,语言是由系统中元素(例如单词和语法)之间的关系定义的。更常一起使用的单词之间的关系,神经网络会判断为具有更大的重要性或权重。
一般来说,机器学习分为三种类型,每种都有自己的方法角度和最佳方法用例。在完成工作之前,神经网络必须经过训练,这样它就可以通过一些上下文来扩展问题,从而进行泛化。如果它是一个目标导向的系统,它需要某种方法来决定自己的输出是否符合标准,以便下次获得最佳结果。有时,问题太复杂,如果不稍微简化就无法处理。
当人工智能处于训练状态时,它的指令是在训练数据集中寻找模式。当这个过程有指导(例如来自帮助标记和清理数据的人)时,它被称为监督学习。另一方面,无监督学习让人工智能在数据集上得出自己的结论。
当涉及到数据集时,通常越大越好,但有一个警告:大量混乱的数据并不适用。必然比较小但组织良好的数据集更好。无监督学习具有独特的力量:发现人类甚至可能没有意识到的微妙模式,更不用说解释了。但纯粹的无监督算法可能会迅速陷入混乱。因此,许多人工智能在半监督方法中取得了成功。
现实世界的问题可能很难解决,因为来自现实世界的数据通常很混乱。在任何给定的系统中,无论是否存在,都会发生很多事情。具有大量位深度的复杂数据有时被描述为具有“高维度”,因为它有很多变量,这些变量有时称为维度。
为了使问题在合理的时间内得到解决,人类经常简化我们的模型。例如,许多有关运动物体的数学和物理问题都包含短语“忽略风阻”。(一个深情的物理学笑话指出,物理学家经常“假设一头球形牛。”)这种简化的正式名称是“降维”。
降维可以使问题变得不那么复杂,但这种简化是有代价的。例如,自动驾驶汽车使用的软件可以对周围环境做出一些明智的假设。但人工智能仍然被困在好、快或便宜之间的铁三角中,二选一。使用捷径假设就像尝试以土豆分辨率观看视频:它牺牲了准确性以换取速度,这基本上没问题。
大多数情况下。
人工智能拥有如此强大的力量,以至于当它失败时,有时会令人惊讶地看到根部离地表有多近。但是,当人工智能出错时,充其量,结果只是手工的,有时它们是不准确的、超级诅咒的,甚至是危险的。与仅用于识别模式或求解方程的人工智能相比,生成式人工智能的问题更为严重。例如,人工智能生成的食谱是出了名的糟糕。
如果有更深入的理解,这不是很棒吗?但它仍然需要一些指导,也许还需要事后的健全性检查。这就是强化学习的用武之地。
人工智能是对模仿人类智能或行为某些方面的系统的研究。一旦目标导向的人工智能做出选择,它就可以应用反馈来改进下一次迭代的结果。社团是学习的基本单位。在某种程度上,这模仿了简单的条件反射,就像巴甫洛夫和他的狗一样。即使失败,这个类比仍然成立。人类可能是地球上最聪明的生物,但我们也有能力做出令人震惊的愚蠢行为。
人工智能基于大型语言模型 (LLM),该模型基于从大量互联网来源提取的数据进行训练就像维基百科和 Ubuntu 帮助论坛中发帖者之间的自然语言交流一样。因此,人工智能聊天机器人可以像人类一样在语法上有细微差别,但散文是木讷且重复的。人工智能图像生成经常会错误地计算手指和牙齿的数量。Deepfakes 和自动驾驶令人惊叹,但对于人工智能的所有复杂性,我们又回到了“数数手指,以免在不知情的情况下与 FAE 打交道。”
最终,更好的算法建立在彼此。这些人工智能聊天机器人仍然感觉像三只穿着风衣的浣熊,拼命地试图表现得冷静。但它们也表明我们是多么站在巨人的肩膀上。