
现在人工智能(AI)可以说是相当火爆,对于想投身AI领域的同学,有必要对AI相关的名词了解清楚。其领域涉及的概念繁多,为了方便查阅,我将常见且重要的AI名词按照类别进行了整理和解释。这个术语表涵盖了从基础理论到前沿技术的核心词汇,希望能帮助你快速理解。
01 基础概念
人工智能(Artificial Intelligence,AI):指通过计算机程序或机器模拟、延伸和扩展人类智能的理论、方法、技术及应用系统。目标是使机器能像人一样思考、学习、决策。
图灵测试(Turing Test):由艾伦·图灵提出,测试机器是否能表现出与人类无法区分的智能行为。如果一台机器在对话中能让人类无法分辨它是人还是机器,就认为它具有智能。
强人工智能vs弱人工智能:
弱人工智能(Weak AI/Narrow AI):专注于完成特定任务(如人脸识别、语音助手),当前所有AI都属于此类。
强人工智能(Strong AI/AGI):具备与人类同等水平的通用智能,能理解、学习和应用知识解决任何问题,目前尚未实现。
超人工智能(Artificial Superintelligence,ASI):假设中在几乎所有领域都远超最聪明人类的智能体,仍处于理论阶段。
智能体(Agent):能够感知环境并采取行动以实现目标的实体,可以是软件程序(如聊天机器人)或硬件设备(如机器人)。
02 机器学习(Machine Learning,ML)
机器学习:实现AI的主要途径,通过数据训练模型,使计算机能从经验中自动改进。
监督学习(Supervised Learning):使用带标签的数据训练模型,输入与输出一一对应,如分类、回归任务(识别猫狗图片)。
无监督学习(Unsupervised Learning):使用无标签数据,让模型自行发现数据中的模式或结构,如聚类、降维(客户分群)。
半监督学习(Semi-supervised Learning):结合少量标签数据和大量无标签数据训练,降低标注成本。
强化学习(Reinforcement Learning,RL):智能体通过与环境交互,根据奖惩信号学习最优策略,如AlphaGo、自动驾驶。
特征(Feature):用于描述数据的属性或变量,如预测房价时的面积、卧室数量。
标签(Label):监督学习中希望预测的结果,如邮件是否为垃圾邮件(是/否)。
模型(Model):通过算法从数据中学习到的规律或表示,可用于对新数据进行预测。
训练(Training):使用数据调整模型参数,使模型预测误差最小的过程。
过拟合(Overfitting):模型在训练数据上表现极好,但在新数据上表现差,因为学到了噪声或细节。
欠拟合(Underfitting):模型过于简单,无法捕捉数据中的规律,在训练和测试数据上表现都差。
泛化能力(Generalization):模型对新数据的适应能力,是衡量模型好坏的关键。
交叉验证(Cross-validation):将数据分成多份,轮流用作训练集和验证集,以更稳健地评估模型性能。
偏差与方差(Bias and Variance):
偏差:模型预测值与真实值的差距,高偏差导致欠拟合。
方差:模型对训练数据波动的敏感度,高方差导致过拟合。
损失函数(Loss Function):衡量模型预测值与真实值差异的函数,训练目标是最小化损失。
梯度下降(Gradient Descent):通过计算损失函数对参数的梯度,沿梯度反方向更新参数以最小化损失的优化算法。
超参数(Hyperparameter):训练前人为设定的参数,如学习率、神经网络层数,不由模型自动学习。
03 深度学习(Deep Learning,DL)
深度学习的核心是构建多层神经网络,自动提取数据的层次化特征。
神经网络(Neural Network):模拟人脑神经元结构的计算模型,由输入层、隐藏层、输出层组成,每层包含多个神经元。
神经元(Neuron):神经网络的基本单元,接收输入、加权求和、经激活函数输出。
激活函数(Activation Function):引入非线性,使网络能学习复杂模式。常用:ReLU、Sigmoid、Tanh。
层(Layer):
输入层:接收原始数据。
隐藏层:中间计算层,可有多层。
输出层:输出最终结果。
深度神经网络(Deep Neural Network,DNN):具有多个隐藏层的神经网络。
卷积神经网络(Convolutional Neural Network,CNN):专为处理网格状数据(如图像)设计的网络,利用卷积核提取局部特征,常用于计算机视觉。
循环神经网络(Recurrent Neural Network,RNN):处理序列数据(如文本、时间序列)的网络,具有记忆能力,但存在长程依赖问题。
长短期记忆网络(Long Short-Term Memory,LSTM):RNN的一种变体,通过门控机制有效解决长期依赖问题。
门控循环单元(Gated Recurrent Unit,GRU):LSTM的简化版本,参数更少,训练更快。https://mybj123.com/29850.html
Transformer:基于自注意力机制的架构,彻底改变了自然语言处理领域,是BERT、GPT等模型的基础。
自注意力(Self-Attention):Transformer的核心,允许序列中每个位置关注所有其他位置,捕捉长距离依赖。
多头注意力(Multi-Head Attention):将自注意力并行执行多次,从不同表示子空间学习信息。
前馈网络(Feed-Forward Network,FFN):Transformer中的组成部分,对每个位置的表示进行非线性变换。
位置编码(Positional Encoding):Transformer中为序列添加位置信息的方法,因为模型本身不具备顺序概念。
残差连接(Residual Connection):将输入直接加到输出上,缓解深层网络梯度消失问题,让训练更深网络成为可能。
层归一化(Layer Normalization):对每个样本的特征进行归一化,稳定训练过程。
反向传播(Backpropagation):计算损失函数对每个参数梯度的算法,用于更新网络权重。
优化器(Optimizer):实现梯度下降的具体算法,如SGD、Adam、RMSprop。
批量(Batch):一次训练中同时输入模型的多个样本。
轮次(Epoch):完整遍历一次整个训练数据集。
学习率(Learning Rate):梯度下降中参数更新的步长,过大可能震荡,过小收敛慢。
嵌入(Embedding):将离散对象(如词、商品)映射为连续向量,便于模型处理。
词嵌入(Word Embedding):将单词表示为低维稠密向量,语义相近的词向量距离近,如Word2Vec、GloVe。
04 自然语言处理(Natural Language Processing,NLP)
让计算机理解、生成和处理人类语言的技术。
分词(Tokenization):文本切分成更小的单元(词、子词、字符),如“我爱AI”→[“我”,“爱”,“AI”]。
词性标注(Part-of-Speech Tagging):为每个词标注词性,如名词、动词。
命名实体识别(Named Entity Recognition,NER):识别文本中的专有名词(人名、地名、机构名等)。
句法分析(Parsing):分析句子的语法结构,如依存关系、短语结构。
语义理解(Semantic Understanding):理解文本的含义,包括词义消歧、意图识别等。
情感分析(Sentiment Analysis):判断文本的情感倾向,如正面、负面、中性。
机器翻译(Machine Translation,MT):将一种语言自动翻译成另一种语言,如谷歌翻译。
文本生成(Text Generation):根据输入自动生成连贯的文本,如写诗、新闻稿。
问答系统(Question Answering,QA):自动回答用户提出的问题,可基于文档或知识库。
对话系统(Dialogue System):与用户进行多轮对话,如聊天机器人、任务型助手。
预训练语言模型(Pre-trained Language Model,PLM):在大规模语料上预先训练好的语言模型,下游任务微调即可使用,如BERT、GPT。
BERT(Bidirectional Encoder Representations from Transformers):Google提出的双向Transformer编码器,善于理解上下文,适合分类、阅读理解等任务。
GPT(Generative Pre-trained Transformer):OpenAI提出的自回归语言模型,擅长文本生成,如ChatGPT。
大语言模型(Large Language Model,LLM):参数规模巨大(数十亿至数千亿)的语言模型,如GPT-4、Llama、通义千问。
上下文学习(In-Context Learning):大模型通过提示词中的示例直接学习任务,无需更新参数。
思维链(Chain-of-Thought,CoT):引导模型生成中间推理步骤,提升复杂问题解决能力。
提示工程(Prompt Engineering):设计输入提示词以引导大模型生成期望输出的技术。
微调(Fine-tuning):在预训练模型基础上,用特定任务数据继续训练,使模型适应下游任务。
RLHF(Reinforcement Learning from Human Feedback):基于人类反馈的强化学习,用于使大模型输出更符合人类偏好(如ChatGPT)。
幻觉(Hallucination):大模型生成看似合理但事实上错误或无依据的内容。
05 计算机视觉(Computer Vision,CV)
让计算机理解和处理图像、视频等视觉信息。
图像分类(Image Classification):将图像分为预定义类别,如“猫”、“狗”。
目标检测(Object Detection):识别图像中多个物体的位置和类别,用边界框标出。
图像分割(Image Segmentation):
语义分割:给每个像素分配类别标签。
实例分割:区分同一类别的不同个体。
人脸识别(Face Recognition):识别或验证图像中的人脸身份。
图像生成(Image Generation):根据输入(如文本、噪声)生成新图像,如GAN、扩散模型。
图像超分辨率(Super-Resolution):从低分辨率图像重建高分辨率图像。
图像风格迁移(Style Transfer):将一幅图像的风格应用到另一幅图像上。
卷积核(Kernel/Filter):CNN中用于提取特征的矩阵,在图像上滑动进行卷积操作。
池化(Pooling):降低特征图尺寸的操作,如最大池化、平均池化。
感受野(Receptive Field):网络中某层神经元对应的输入图像区域大小。
06 强化学习(Reinforcement Learning)
智能体(Agent):做出决策的实体。
环境(Environment):智能体交互的外部世界。
状态(State):环境在某个时刻的描述。
动作(Action):智能体可执行的操作。
奖励(Reward):环境对智能体动作的反馈信号(标量),指导学习。
策略(Policy):从状态到动作的映射,可以是确定性的或随机的。
值函数(Value Function):评估某个状态或状态下采取某个动作的长期期望回报。
Q-learning:一种无模型的强化学习算法,学习动作值函数(Q函数)https://mybj123.com/29925.html。
深度强化学习(Deep Reinforcement Learning):使用深度神经网络近似策略或值函数,如DQN、AlphaGo。
蒙特卡洛树搜索(Monte Carlo Tree Search,MCTS):通过模拟搜索最优决策的算法,AlphaGo中用到。
07 生成模型
生成对抗网络(Generative Adversarial Network,GAN):由生成器和判别器组成,两者博弈,生成器力图生成逼真数据,判别器判断真假。
变分自编码器(Variational Autoencoder,VAE):基于自编码器的生成模型,学习数据的潜在分布,可生成新样本。
扩散模型(Diffusion Model):通过逐步向数据添加噪声(前向过程),然后学习逆向去噪过程来生成数据,如Stable Diffusion、DALL·E 2。
自回归模型(Autoregressive Model):逐个生成序列元素,每一步都依赖之前生成的内容,如GPT、PixelCNN。
08 框架与工具
TensorFlow:Google开发的开源深度学习框架,支持静态计算图。
PyTorch:Facebook开发的开源深度学习框架,动态计算图,研究界广泛使用。
Keras:高级神经网络API,可运行在TensorFlow、Theano等后端上。
JAX:Google开发的数值计算库,支持自动微分和GPU/TPU加速。
Hugging Face Transformers:提供大量预训练模型(BERT、GPT等)的库,简化NLP开发。
LangChain:用于构建基于大语言模型应用的框架,提供链式调用、记忆、工具集成等。
Scikit-learn:Python机器学习库,包含传统ML算法和工具。
Pandas/NumPy:数据处理和数值计算的基础库。
OpenCV:计算机视觉开源库,提供图像处理、视频分析等功能。
CUDA:NVIDIA的并行计算平台,允许利用GPU加速深度学习计算。
09 其他重要术语
图神经网络(Graph Neural Network,GNN):处理图结构数据(如社交网络、分子结构)的神经网络。
迁移学习(Transfer Learning):将一个任务上学到的知识迁移到另一个相关任务,减少训练数据需求。
多模态(Multimodal):涉及多种类型数据(如文本、图像、音频)的AI任务,如文生图、视频理解。
联邦学习(Federated Learning):在保护数据隐私的前提下,分布式训练模型,数据不离开本地。
可解释AI(Explainable AI,XAI):旨在让AI模型的决策过程透明、可理解,增强信任。
对抗样本(Adversarial Example):对输入故意添加微小扰动,导致模型错误分类的样本。
元学习(Meta Learning):学会如何学习,让模型能够快速适应新任务。
零样本学习(Zero-shot Learning):模型能识别训练中从未见过的类别,依靠语义描述。
少样本学习(Few-shot Learning):仅用少量样本就能完成新任务的学习。
知识蒸馏(Knowledge Distillation):将大模型(教师)的知识转移到小模型(学生),压缩模型体积。
模型量化(Quantization):降低模型参数精度(如从32位浮点转为8位整数),减少内存和加速推理。
剪枝(Pruning):移除神经网络中不重要的连接或神经元,压缩模型。
这个列表涵盖了AI领域的主要名词,但AI技术日新月异,新术语将会不断涌现。我们也需要与时俱进,不断学习。