作者:By John Pavlus April 30, 2025
Rttring Intelligence迅速移动,因此理解它的第一步,其在科学中的作用是了解Lingo。从诸如神经网络和概括的基本概念到诸如幻觉和推理之类的更有争议的术语,这里是现代AI领域的19个关键思想。从开始
人工智能/根据约翰·麦卡锡(John McCarthy)的说法,制作智能机器的科学和工程1955年创造了这个短语。在接下来的几十年中,与人工智能相关的思想和实践与认知科学等多样化的领域相交,机器学习,机器人技术和语言学。AI一词现在主要是指使用人工神经网络的系统。特定的AI应用程序尤其是基于Alphafold3或Chatgpt等生成模型的应用程序通常被称为AIS。
基准 /一组旨在评估AI系统性能的特定任务。他们还可以推动研究进展:2012年,一个名为成像网帮助建立神经网络的主导地位,在2018年胶水做过同一件事用于基于变压器的语言模型。它们必须经过精心设计以防止偏见或者误导结果。(例如,一种称为伯特的语言模型似乎是王牌的推理基准通过利用这个事实,即这个词经常出现在正确的答案中;删除这个怪癖使伯特的表现降低到没有比机会更好。)
偏见 /AI系统中的信息以特定方式影响其输出。在大型Internet数据集上训练的生成模型通常包含负偏见:例如在2023年,AI图像发生器稳定的扩散更可能描绘出具有浅色皮肤的男性。但是,诸如增强学习和符号回归可以用来使AI系统更有生产力的偏见,例如轮流进行对话或者尊重物理定律。
嵌入/神经网络用来表示其培训数据中特定关系的数字列表。它们像坐标一样:在验证的语言模型中,狗的嵌入在几何上与幼犬的嵌入,与鼠标的嵌入相似,而dog的嵌入则不太相似。机器学习算法,它们很少被人类解释。
基础模型 /一个短语斯坦福大学研究人员于2021年创造描述AI模型的经过深思熟虑,使其适应一系列任务(而不是针对特定应用程序进行定制,就像机器学习中的典型情况一样)。图像和文本生成器(例如DALL-E和GPT-3)是最早的基础模型,但研究人员正在积极开发诸如物理,,,,生物学和机器人技术。
概括 /AI系统对不属于其原始培训数据的一部分的新投入的能力很好。例如,当猫面对相机时,经过训练以识别图像中猫的计算机视觉模型可能会表现出色,但是何时在个人资料中显示猫或倒置时无法概括。基础模型可能是在大量数据集上概述的科学学科`提高其概括能力,或以有用的方式偏见它们。
生成的AI /大型神经网络,通常基于变压器,可以产生新颖的输出,例如写作或图像。生成技术启用了人工智能在2022年发行Chatgpt之后;他们也能为Alphafold,可以预测蛋白质结构,并基于扩散的图像发生器。
幻觉 /一个常见(但是有争议的)ART术语用于生成AI产生的不良输出,例如聊天机器人发明不正确的事实或图像发电机创建七指手。目前没有防止幻觉的万无一失的方法。
推理 /``对于训练有素的神经网络计算预测时会发生的事情。与人类不同,当前的模型只能在培训期间而不是在推理过程中整合新信息。这就是为什么他们有知识截止表明他们何时停止训练(例如,2024年10月Claude 3.7十四行诗)。但是,增加了AI系统在推理时间上所做的计算量(与培训)可能会提高其性能,尤其是在所谓的推理任务上。
机器学习/AI的子场,使用算法自动训练或改善其他算法的性能。在一种流行的方法中,一种数学功能首先测量算法在某些预测任务中的表现如何(例如分类图像)通过将算法的预测与一组示例进行比较,称为训练数据。然后,对算法进行了调整以改善其预测。然后重复多次此过程,直到算法能够在给出新数据时做出准确的预测。以这种方式培训的算法,例如神经网络,倾向于在类似于训练数据的输入上表现更好。
矩阵乘法 /–为现代AI提供动力的基本算术及其庞大的主要来源能源需求。神经网络中发生的大多数计算都涉及数字的巨大表,称为矩阵,被无数次乘以。研究人员一直在试图优化这个过程数十年,包括使用AI这样做。完全将其删除可以从根本上提高AI的能源效率。
机械解释性 /AI研究的新兴子场,重点是了解神经网络如何通过经验探测,定义和验证产生其产出的内部机制来处理数据。实验有时会受到神经科学可能涉及一定的逆向工程特征网络从培训数据中学到了(例如,短语金门大桥),计算电路和个人神经元。
模型 / - 通过将机器学习算法应用于培训数据集创建的任务的数学表示。例如,像GPT-3.5这样的大语言模型(为chatgpt的原始版本提供了动力)试图以给定序列(包括序列的序列)预测下一个文本的尝试。AI模型将自动编码(或嵌入)数据中增加其任务性能的任何功能,而不管这些功能是否可解释,正确甚至相关的达到任务本身的意图。
神经网络/现代AI的主力模型,该模型通过将称为“神经元的数学功能”安排成层并将数据传递到其他层的层中,从而大致模拟了哺乳动物大脑中的连接。每个神经元都包含'参数,在训练过程中由机器学习算法设置的数值值。神经元的第一层编码原始输入,而数百或数千个隐藏的层可能包含数十亿甚至数万亿个参数 - 执行最终在输出层中产生预测的计算(通常是矩阵乘法)。[查看我们的身临其境解释神经网络如何工作]。
预处理 /â€培训AI模型,以一系列不同的,通常没有标记的数据(例如从互联网上刮除的原始文本)到提高其对新投入的响应良好的能力。经过验证的模型通常是通过预期用途确定的额外培训的。例如,为了创建Chatgpt,Openai仔细考虑了从Internet收集的数百个单词的模型,然后使用了一种用人类反馈的技术进行了强化学习的技术,以优化该模型来生成聊天风格的对话。
推理 /一系列内部提示(称为经过思考链â)在推理时由某些AI模型自我生成,用于将复杂的请求分解为更简单的步骤,并(有时)产生更准确的响应。因为它们由可读的文本组成,所以这些链看起来非常像一个真正的推理过程不是 每个人说服了。
强化学习/AI系统通过试用和错误最大化奖励信号来提高其性能的机器学习技术。通常用来训练机器人和游戏代理,增强学习现在正在帮助模型避免幻觉和使能够类似于推理的行为。
合成数据/生成AI产生的数据随后用作其他模型的培训数据。研究人员转向合成数据,在那里存在可用培训数据质量或数量的问题。例如,斯坦福AI模型可以生成医学上准确的胸部X射线图像,以纠正现有数据集中的偏见(例如缺乏女性患者)。但是,对合成数据的过度训练可能会导致AI模型坍塌在螺旋上的性能下降。
变压器/一种神经网络将输入序列分解为小块,并学习它们之间的上下文关系,从而可以做出预测。这些网络可以应用于各种任务,包括文档翻译,文本和视频生成,语音识别,游戏玩法,计算机视觉和蛋白质折叠。由Google在2017年发明,变形金刚成为建设的基础第一个大语言模型,很快成为主导体系结构用于当代AI系统。