AGI:Artificial General Intelligence (通用人工智能):是指具备与人类同等或超越人类的智能,能够表现出正常人类所具有的所有智能行为。又被称为强人工智能。
🤖 AI:Artificial Intelligence (人工智能):于1956年在Dartmouth学会上提出,是一种技术,通过类似人类反应的方式对刺激做出反应并从中学习。其理解和判断水平通常仅在人类的专业技能中找到。AI因其具备自主学习和认知能力,能够进行自我调整和改进,从而应对更加复杂的任务。
🎨 AIGC:AI Generated Content (生成式AI):又称为生成式AI,意指由人工智能生成的内容。包括AI文字续写、文字转像的AI图、AI主持人等应用都属于AIGC。
🔍 ANI:Artificial Narrow Intelligence (狭义人工智能):即专注于一项任务的人工智能,例如下围棋的AlphaGo。又被称为弱人工智能。
🧠 ASI (人工超级智能):尽管存在争议,ASI通常被定义为超越人类思维能力的人工智能。
🚀 Accelerator(加速器):一类旨在加速人工智能应用的微处理器。
🔄 Agents(智能体):Agent是一个设定了目标或任务的大型语言模型,可以迭代运行。与大型语言模型(LLM)在工具如ChatGPT中通常被用于回答问题的方式不同,Agent具有复杂的工作流程,模型本质上可以自我对话,而无需人类驱动每一部分的交互。
🤝 Alignment(人工智能对齐):指引导人工智能系统的行为,使其符合设计者的利益和预期目标。已对齐的人工智能行为会朝着预期方向发展,而未对齐的人工智能行为虽然具备特定目标,但此目标并非设计者所预期。
👀 Attention(注意力机制):在深度学习中指的是模型对输入的不同部分分配不同注意力的机制,有助于处理长距离依赖性。注意力机制有助于模型在生成输出时专注于输入的相关部分。
🔄 Backpropagation(反向传播):是一种用于训练神经网络的算法,通过不断调整模型参数以最小化预测误差。
🎭 Bias(偏见):在机器学习中指的是模型对训练数据的错误偏见,可能导致对新数据的不准确预测。
🎨 CLIP:Contrastive Language-Image Pre-training(对比语言-图像预训练):是一种由 OpenAI 提出的模型,用于联合处理图像和文本,使其能够理解和生成图像的描述。
📷 CNN:Convolutional Neural Network(卷积神经网络):一种专门用于处理图像和视频等网格数据的深度学习神经网络。此类模型通常用于图像识别任务。
👁️🗨️ CV:Computer Vision(计算机视觉):是一种让计算机能够理解和解释视觉信息的技术领域。它指的是用摄影机和计算机代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步进行图像处理,使其更适合人眼观察或传送给仪器检测的图像。
💬 ChatGPT(对话生成预训练变压器):由 OpenAI 创建的一种对话型语言模型。于2022年11月推出。该程序使用基于GPT-3.5、GPT-4架构的大型语言模型并以强化学习训练。
🔗 CoT:Chain-of-Thought (思维链提示):通过提示LLM生成一系列中间步骤,提高LLM的推理能力。这些中间步骤导致多步骤问题的最终答案。该技术由谷歌研究人员于2022年首次提出。
🖥️ Compute(计算资源):在上下文中,通常指的是计算机硬件资源,如CPU、GPU或TPU,用于进行计算和执行机器学习模型。
🧠 Connectionism(联结主义):也称为神经网络或基于学习的AI。主要观点是,知识存储在大量连接中,模拟了大脑的神经网络。这种方法依赖于从数据中学习和适应,而不是依赖预定义的规则。连接主义AI的典型例子是深度学习。
🔀 Cross-modal Generalization(跨模态泛化):是一种机器学习能力,指的是模型能从一种模态(或类型)的数据中学习,并将这些学习应用到另一种模态的数据上。
🔄 Data Augmentation(数据增强):是一种通过对原始训练数据进行随机变换或扩充的方法,以增加模型的多样性和泛化能力。通过添加现有数据的略微修改的副本来增加用于训练模型的数据量和多样性的过程。
🧠 Deep Learning(深度学习):是一种机器学习的分支,以人工神经网络为架构,对数据进行表征学习的算法。深度学习中的形容词“深度”是指在网络中使用多层。
🔍 DeepMind(深度思维):是一家人工智能研究实验室,致力于推动人工智能的前沿研究,曾开发出AlphaGo等领先的人工智能系统。
🌀 Diffusion Models(扩散模型):在机器学习中,是一类潜变量模型,用于训练马尔可夫链。在计算机视觉中,通过学习逆扩散过程训练神经网络,使其能够对叠加了高斯噪声的图像进行去噪。它是DALL-E、Stable Diffusion和Midiourney的基础模型。
📈 Double Descent(双降):指机器学习中的一种现象,其中模型性能随着复杂性的增加而提高,然后变差,然后再次提高。
🔗 Embedding(嵌入):在机器学习中,指的是将高维数据映射到低维空间的过程,常用于表示词向量或图像特征。
😌 Emergence(涌现):是一种现象,许多小实体相互作用后形成了具有小实体不具备特性的大实体。在整合层次和复杂系统理论中,涌现扮演着核心角色。例如,生物学中的生命现象即是化学的一种涌现。
🔄 End-to-End Learning(端到端学习):是一种无需手动设计功能的机器学习模型。该模型提供原始数据,期望从这些输入中学习。
🧠 Expert Systems(专家系统):是一种使用专业知识和规则来模拟人类专家决策过程的人工智能系统。
📚 Few-Shot Learning(小样本学习):旨在从少量样本中学习解决问题的方法。与小样本学习相关的概念还包括零样本学习(在没有训练数据的情况下利用类别属性等信息训练模型,从而识别新类别)。
🛠️ Fine-Tuning(微调):是迁移学习的一种常用技术。目标模型在除去输出层的源模型上进行复制,并在目标数据集上微调这些参数。在自然语言处理(NLP)中尤为常见。
📊 Fitting(拟合):是在机器学习和统计学中描述或预测数据的过程。理想的拟合是模型能够准确捕捉数据的基本结构和模式,同时处理一些随机的、无法预测的噪声。
🚀 Forward Propagation(前向传播):在神经网络中,是指输入数据通过每一层(从输入层到输出层)产生输出的过程。网络对输入应用权重和偏差,并使用激活函数生成最终输出。
🔍 Foundation Model(基础模型):是在广泛数据上训练的大型AI模型,旨在适应特定任务。
🤖 GAN(General Adversarial Network):是一种机器学习模型,通过使两个神经网络相互对抗(一个生成器创建新数据,另一个鉴别器试图将数据与真实数据区分开)来生成类似于现有数据的新数据。
🚀 GPT-4(Generative Pre-trained Transformer 4):是由OpenAI公司于2023年3月14日发布的自回归语言模型。相较于GPT-3和GPT-3.5模型,在各个方面都有所优化。
💻 GPU(Graphics Processing Unit):是一种高性能的专用处理器,常用于加速深度学习和图形处理任务。
🔗 Generalize(广义化):指将事物的定义修改或补充以使其适用于更大范围,伴随着将主体的定义或概念抽象化的过程。
🎯 Generalization Ability(泛化能力):是模型对新数据的适应和预测能力,是评估模型性能的重要指标之一。
💡 Generative AI(生成式人工智能):是一类能够生成新的、以前未见的数据的人工智能系统,如图像、文本等。
🔄 Gradient Descent(梯度下降):是一种通过沿损失函数梯度的反方向更新模型参数的优化算法,以最小化损失。
🌌 Hallucinate(幻觉):在人工智能中,是指模型生成的内容不基于实际数据或与现实明显不同的现象。
🕵️ Hidden Layer(隐藏层):是神经网络中介于输入层和输出层之间的层,用于学习输入数据的抽象表示。
🔧 Hyperparameter Tuning(超参数调整):通过调整模型的超参数(如学习率、层数等)来提高模型性能的优化过程。
🧠 Inference(推理):在机器学习中指使用经过训练的模型对新数据进行预测或分类的过程。
🛠️ Instruction Tuning(指令调优):在机器学习中指通过调整模型的指令或策略来改善性能的过程。
🧪 Knowledge Distillation(数据蒸馏):旨在将原始大数据集浓缩成小型数据集,使得在小数据集上训练的模型与在原数据集上训练的模型表现相似。这一技术在深度学习中得到广泛应用,特别是在模型压缩和模型部署方面。它有助于将复杂模型转化为更轻量级的版本,促进模型的迁移学习和模型集成,提高模型的鲁棒性和泛化能力。
💬 LLM(Large Language Model):是由具有数十亿或更多权重的神经网络组成的语言模型。通过自监督学习或半监督学习对大量未标记文本进行训练。
🔄 LSTM(Long Short-Term Memory):是一种用于处理序列数据的循环神经网络(RNN)架构。
🌌 Latent Space(潜在空间):指模型学到的数据的低维表示,其中隐藏了数据的关键特征。
📉 Loss Function(损失函数):也称为成本函数,是机器学习模型在训练期间试图最小化的函数,量化了模型预测与真实值的距离。
🤖 Machine Learning(机器学习):是人工智能的一个分支,通过机器学习可以解决人工智能中的部分问题。它是实现人工智能的途径之一,强调通过学习解决问题。
🧠 Mixture of Experts(专家组合):是一种机器学习技术,通过训练多个专门的子模型(“专家”),并以依赖于输入的方式组合它们的预测。
🌐 Multimodal(模态):在人工智能中,指可以理解和生成多种类型数据(如文本和图像)信息的模型。
🗣️ NLP(Natural Language Processing):是人工智能和语言学领域的分支学科,探讨如何处理及运用自然语言。NLP包括认知、理解、生成等多方面步骤。
🎨 NeRF(Neural Radiance Fields):是一种用于渲染三维场景的神经网络模型。
🧠 Neural Network(神经网络):是一种受人脑启发的人工智能模型,由连接单元或节点(神经元)组成,用于接受输入、进行计算并产生输出。
📈 Objective Function(目标函数):在机器学习中指用于衡量模型性能的函数,模型的训练目标是最小化或最大化这个函数。
🤖 OpenAI:是一家人工智能研究实验室,致力于推动人工智能的前沿研究,创造对人类有益的AI。
📈 Overfitting(过拟合):在机器学习中指模型在训练数据上表现很好,但在未见过的新数据上表现差的现象。过度拟合训练数据可能导致模型泛化能力差。
🎛️ Parameters(参数):在机器学习模型中,指模型的权重和偏差等可调整的变量。
🔄 Pre-training(预训练):是一种机器学习的方法,通过在大规模数据上进行初始训练,然后在特定任务上进行微调。
🛠️ Prompt Engineering(提示工程):是一种调整和优化自然语言处理模型输入提示的方法,以获得更准确和有针对性的输出。
🔄 RLHF(Reinforcement Learning with Human Feedback):是一种结合强化学习和人类反馈的方法,用于改进模型性能。
🔄 RNN(Recurrent Neural Network):是一种用于处理序列数据的神经网络结构。
🛠️ Regularization(正则化):是一种用于减小模型过拟合风险的技术,通过对模型参数引入额外的惩罚项。
🚀 Reinforcement Learning(强化学习):是机器学习的一个领域,强调如何基于环境而行动,以取得最大化的预期利益。是除了监督学习和非监督学习之外的第三种机器学习方法。
🌀 Singularity(奇点):在人工智能的背景下,奇点(技术奇点)指的是未来的一个假设时间点,当技术增长变得不可控和不可逆转时,将导致人类文明发生不可预见的变化。
📚 Supervised Learning(监督学习):是一种机器学习方法,模型通过从有标签的训练数据中学习,通过最小化预测和实际标签之间的差异来训练模型。
🔍 Symbolic AI(符号主义):也被称为基于规则的AI或逻辑主义。符号主义认为所有知识和推理都可以用符号和规则来表示。这种方法依赖于明确定义的规则和符号,通过逻辑推理解决问题。专家系统是符号主义AI的典型例子。
🧠 TPU(Tensor Processing Unit):是由谷歌设计的专用硬件,用于高效进行张量运算,特别适用于深度学习任务。
🚀 TensorFlow:是由谷歌开发的开源机器学习框架,用于构建和训练深度学习模型。
🔠 Token(标记):在自然语言处理中,指的是文本中的基本单元,可以是一个单词、一个字符或一个子词。
📊 Training Data(训练数据):用于训练机器学习模型的数据集,包含输入特征和相应的标签。
🔄 Transfer Learning(迁移学习):是一种机器学习方法,通过在一个任务上学到的知识来改善在另一个相关任务上的性能。
🌀 Transformer(变压器):是一种处理序列数据的模型架构,通过自注意力机制实现了对序列的全局关注。
🤖 Turing Test(图灵测试):是一种测试人工智能是否能够表现得像人类一样的方法,即能否欺骗人类判别其是否为机器。
📉 Underfitting(欠拟合):在机器学习中指的是模型对训练数据学得不够好,不能很好地适应新数据。
🌌 Unsupervised Learning(无监督学习):是一种机器学习方法,模型从没有标签的数据中学习,目标是发现数据中的模式和结构。
📈 Validation Data(验证数据):用于调整模型超参数的数据集,不用于模型的训练,而是用于评估模型性能。
🔍 Vector(向量):在数学和机器学习中指的是具有大小和方向的量,常用于表示特征或嵌入。
🧠 XAI(Explainable Artificial Intelligence):是一种人工智能方法,强调模型决策的可解释性和可理解性。
📚 Zero-Shot(零样本学习):是一种机器学习范例,使用预先训练的深度学习模型来泛化新类别的样本。其思路是将训练实例中已包含的知识迁移到测试实例分类的任务中。需要注意,零样本学习中训练和测试集是不相交的。