机器学习与深度学习基础概念

简介: 主要包括标签、特征、样本、训练、模型、回归模型、分类模型、泛化、过拟合、预测、平稳性、训练集、验证集、测试集。

主要术语(基本)


主要包括标签、特征、样本、训练、模型、回归模型、分类模型、泛化、过拟合、预测、平稳性、训练集、验证集、测试集。


标签(label)

标签是我们要预测的事物,在分类任务中的类别,比如是猫或狗;简单线性回归中的y变量;。标签可以是小麦未来的价格、图片中显示的动物品种、音频剪辑的含义或任何实物。


在监督学习中,标签值是样本的“答案”或“结果”部分。


特征(feture)

在进行预测时使用的输入变量。


特征是输入变量,即简单线性回归中的x变量;在分类任务中的输入图像特征。


简单的机器学习项目可能会使用单个特征,而比较复杂的机器学习项目可能会使用数百万个特征,按如下方式制定:


在垃圾邮箱检测器示例中,特征可能包括:


电子邮件文件中的字词

发件人的地址

发送电子邮件的时段

电子邮箱包含“一些敏感词”

样本(example)

数据集的一行。在监督学习的样本中,一个样本既有特征,也有标签。在无监督学习的样本中,一个样本只有特征。


样本是指数据的特定示例:x。(x表示一个矢量)将样本分为以下两类:


有标签样本

无标签样本

有标签样本同时包含特征的标签,即:


labeled examples: {features, label}: (x, y)


 

我们使用有标签样本训练模型;在垃圾邮件检测器示例中,有标签样本是用户明确标记为“垃圾邮件”或“非垃圾邮件”的各个电子邮件。


例如,下表显示了从包含加利福尼亚房价信息的数据集中抽取的5个有标签样本:

image.png


无标签样本包含特征,但不包含标签,即:


unlabeled examples: {features, ?}: (x, ?)


 

以下是取自同一住房数据集的3个无标签样本,其中不包含medianHoustonValue:

image.png


在使用有标签样本训练模型之后,我们会使用该模型预测无标签样本的标签。在垃圾邮件检测器示例中,无标签样本是用户尚未添加标签的新电子邮件。


模型(model)

模型定义了特征与标签之间的关系。比如,垃圾邮件检测模型可能会将某些特征与“垃圾邮件”紧密联系起来。模型生命周期的两个阶段:


训练是指创建或学习模型。即:向模型展示有标签样本,让模型逐渐学习特征与标签之间的关系。

推断是指将训练后的模型应用于无标签样本。即:使用经过训练的模型做出有用的预测.在推断期间,可以针对新的无标签样本预测medianHouseValue。

回归模型(regression model)

一种模型,能够输出连续值(通常为浮点值)。


回归模型可预测连续值。例如,回归模型做出的预测可回答如下问题:


xxx地方的一栋房产的价值是多少?

用户点击此广告的概率是多少?

分类模型(classification model)

用于区分两种或多种离散类别。


分类模型可预测离散值。例如,分类模型做出的预测可回答如下问题:


某个指定电子邮件是垃圾邮件还是非垃圾邮件?

这是一张狗或是猫的图像?

训练(training)

构成模型中理想参数的过程;训练一个好的模型,主要是得到模型中的参数,包括权重和偏置等。


泛化(generalization)

是指模型依据训练时采用的模型,针对未见过的新数据做出争取预测的能力。


过拟合(overfitting)

创建的模型与训练数据过于匹配,以至于模型无法根据新数据做出正确的预测。


预测(perdition)

模型在收到数据样本后的输出。


平稳性(stationarit)

数据集中数据的一种属性,表示数据分布在一个或多个维度保持不变。这种维度最常见的是时间,即:表明平稳性的数据不随时间而变化。


训练集(training set)

数据集的子集,用于训练模型。与验证集和测试集相对。


验证集(validation set)

数据集的一个子集,从训练集分离而来,用于调整超参数。与训练集和测试集相对。


测试集(test set)

数据集的子集,用于在模型经过验证集的初步验证后,进行测试模型。与训练集和验证集相对。


主要术语(进阶版1)


主要包括类别、分类模型、回归模型、收敛、准确率、精确率、召回率、凸集、凸函数、凸优化、激活函数、反向传播算法、批次、批次大小。


类别(class)

类别是标签枚举的一组目标值中的一个。比如:在二分类中,标签组一共有两个,分别为猫、狗;其中“猫”是一个类别;“狗”也是一个类别。


分类模型(classification model)

用于区分两种或多种离散类别。


比如,在猫狗识别中,模型要区分这个输入的图像是“猫”,还是“狗”,这是一个典型的二分类模型。


在语言分类中,模型需要区分输入的是中文、英语、法语、俄语,还是其他语言;这是一个多分类模型。


回归模型(regression model)

用于预测输出连续值,比如浮点值。


比如:在放假预测中,输入一些与房价有关的数据,销售日期、销售价格、卧室数、浴室数、房屋面积、停车面积、房屋评分、建筑面积等等;通过模型来预测房子的价格,比如输出56.78万元。


收敛(convergence)

是指在训练期间达到的一种状态,模型达到稳定状态,即经过一定次数的迭代之后,训练损失和验证损失在每次迭代中的变换都非常小或根本没有变化。


准确率(accuracy)

通常用于分类模型,表示分类模型的正确预测所占的比例。在多分类中,定义:

image.png

acc是指准确率;n是指正确分类的个数;sum是指总样本数。


比如:一共有100个数据样本,模型正确预测出98个,有2个预测错误了,那么该模型的准确率为:acc = 98 / 100 = 0.98 ,即:98%


精确率(precision)

一种分类模型的指标,是指模型正确预测正类别的频率,即:

image.png

pre是指精确率;TP(正例)是指实际为正,预测为正;FP(假正例)是指实际为负,预测为正。


精确率针对的是正类别,一共预测了若干个正类别(正例 + 假正例),其中有多少个是预测正确的。


准确率针对的是整体数据,包括正类别、负类别(正例 + 负类 +假正例 + 假负例),在整体数据中有多少是预测正确的。


召回率(recall)

一种分类模型指标,是指在所有可能的正类别标签中,


凸集(convex set)

欧几里得空间的一个子集,其中任意两点之间的连线仍完成落在该子集内。


比如,下面的两个图像都是凸集:

2cd5736d074d017fd2a4b563cb0ddc26_20210507183851529.png

相反,下面的两个图形都不是凸集:

de273512d8676f15d434f40c912958f1_watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzQxMjA0NDY0,size_16,color_FFFFFF,t_70.png


凸函数(convex function)

函数图像以上的区域为凸集,典型凸函数的形状类似于字母U,以下是几种凸函数:

aafb250b4c8885b814bf91e3cc2f68de_watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzQxMjA0NDY0,size_16,color_FFFFFF,t_70.png

相反,以下函数则不是凸函数,请注意图像上方的区域不是凸集:

eac3e33ec609a4be9812f51704dcbbb1_watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzQxMjA0NDY0,size_16,color_FFFFFF,t_70.png

严格凸函数只有一个局部最低点,改点也是全局最低点。


常见的函数都是凸函数:


L2损失函数

对数损失函数

L1正则化

L2正则化

梯度下降法的很多变体都一定能找到一个接近严格图函数最小值的点。


随机梯度下降法的很多变体都很高可能(并非一定能找到)接近严格凸函数最小值的点。


两个凸函数的和也是凸函数,比如L2损失函数+L1正则化。


深度模型绝不会是凸函数。但专门针对凸优化设计的算法往往总能在深度网络上找到非常好的解决方案,虽然这些解决方案并不一定对应全局最小值。


凸优化(convex optimization)

使用数学方法寻找凸函数最小值的过程。


机器学习方面的大量研究都是专注于如何通过公式将各种问题表示为凸优化问题,以及如何高效解决这些问题。


激活函数(activation function)

本质是一种函数,通常把输入值映射为另一个值,映射的方式有:线性映射、非线性映射;


比如:在线性映射中,假设激活函数为 ,即 y = 2x,输入值x, 映射后的输出值y;当输入值为3,经过激活函数映射后,输出值为6。


在非线性映射中,假设激活函数为  ,输入值x, 映射后的输出值y;输入值为0时,经过激活函数映射后,输出值为0.5。


其实这个非线性映射的激活函数是比较常见的Sigmoid函数,看看它的图像:

eec04ae22e2b1d4e5f84f6e85fa6ff08_watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzQxMjA0NDY0,size_16,color_FFFFFF,t_70.png


反向传播算法(backpropagation)

该算法会先按前向传播方式计算(并缓存)每个节点的输出值,然后再按反向传播遍历图的方式计算损失函数值相对于每个参数的偏导数。


批次(batch)

模型训练的一次迭代(一次梯度更新)中使用的样本集。


批次大小(batch size)

一个批次中的样本数。比如,在随机梯度下降SGD算法中,批次大小为1;在梯度下降算法中,批次大小为整个训练集;


批量梯度下降算中,批次大小可以自定义的,通常取值范围是10到1000之间。比如:训练集为40000个样本,设置批次大小为32,训练一次模型,使用到32个样本。


深度学习主要术语

主要术语,包括偏差、推断、线性回归、权重、经验风险最小化、均方误差、平方损失函数、损失、梯度下降法、随机梯度下降、批量梯度下降法、参数、超参数、学习率、特征工程、离散特征、独热编码、表示法、特征组合、合成特征、


偏差(bias)

距离原点的截距或偏移。偏差(也称为偏差项)在机器学习模型中用b或表示。例如,在下面的公式中,偏差为b:


推断(inference)

在机器学习中,推断通常指以下过程:通过将训练过的模型应用于无标签样本来做出雨雪。在统计学中,推断是指在某些观察数据条件下拟合分布参数的过程。(请参阅维基百科中有关统计学推断的文章。)


线性回归(linear regression)

一种回归模型,通过将输入特征进行线性组合输出连续值。


权重(weight)

模型中特征的系数,或深度网络中的边。训练模型的目标是确定每个特征的理想权重。如果权重为0,则相应的特征对模型来说没有任何影响。


经验风险最小化(ERM,empirical risk minimization)

用于选择函数,选择基于训练集的损失降至最低的函数。与结构风险最小化相对。


均方误差(MSE,Mean Squared Error)

每个样本的平均平方损失。MSE的计算方法是平方损失除以样本数。


平方损失函数(squared loss)

在线性回归中使用的损失函数(也称为L2损失函数)。改行可计算模型为有标签样本预测的值,和标签的真实值之差的平方。   由于取平方值,该损失函数会放大不佳预测的影响。与L1损失函数相对,平方损失函数对离群值的反应更强烈。


损失(Loss)

一种衡量指标,用于衡量模型的预测偏离其标签程度。要确定此值,模型需要定义损失函数。例如:线性回归模型参与均方误差MAS损失函数,分类模型采用交叉熵损失函数。


梯度下降法(gradient descent)

一种通过计算梯度,并且将损失将至最低的技术,它以训练数据位条件,来计算损失相对于模型参数的梯度。梯度下降法以迭代方式调整参数,逐渐找到权重和偏差的最佳组合,从而将损失降至最低。


随机梯度下降(SGD)

梯度下降法在大数据集,会出现费时、价值不高等情况。如果我们可以通过更少的计算量得出正确的平均梯度,效果更好。通过从数据集中随机选择样本,来估算出较大的平均值。


原理  它每次迭代只使用一个样本(批量大小为1)。


如果进行足够的迭代,SGD也可以发挥作用,但过程会非常杂乱。“随机”这一术语表示构成各个批量的一个样本都是随机选择的。


批量梯度下降法(BGD)

它是介于全批量迭代与随机选择一个迭代的折中方案。全批量迭代(梯度下降法);随机选择一个迭代(随机梯度下降)。


原理  它从数据集随机选取一部分样本,形成小批量样本,进行迭代。小批量通常包含10-1000个随机选择的样本。BGD可以减少SGD中的杂乱样本数量,但仍然波全批量更高效。


参数(parameter)

机器学习系统自行训练的模型变量。例如,权重。它们的值是机器学习系统通过连续的训练迭代逐渐学习到的;与超参数相对。


超参数(hyperparameter)

在模型训练的连续过程中,需要人工指定和调整的;例如学习率;与参数相对。


学习率(learning rate)

在训练模型时用于梯度下降的一个标量。在每次迭代期间,梯度下降法都会将学习速率与梯度相乘;得出的乘积称为梯度步长。


特征工程(feature engineering)

是指确定哪些特征可能在训练模型方面非常有用,然后将日志文件及其他来源的原始数据转换为所需的特征。特征工程有时称为特征提取。


离散特征(discrete feature)

一种特征,包含有限个可能值。例如,某个值只能是“动物”、或“蔬菜”的特征,这是都能将类别列举出来的。与连续特征相对。


独热编码(one-hot-encoding)

一种稀疏二元向量,其中:


一个元素设为1.

其他所有元素均设为0 。

独热编码常用语表示拥有 有限个可能值的字符串或标识符。


表示法(representation)

将数据映射到实用特征的过程。


合成特征(synthetic feature)

一种特征,不在输入特征之列,而是从一个或多个输入特征衍生而来。合成特征包括以下类型:


对连续特征进行分桶,以分为多个区间分箱。

将一个特征值与其他特征值或本身相差(或相除)。

创建一个特征组合。

仅通过标准化或缩放创建的特征不属于合成特征。


特征组合(feature cross)

通过将单独的特征进行组合(求笛卡尔积),形成的合成特征。特征组合有助于表达非线性关系。


L1正则化(L1 regularization)

一种正则化,根据权重的绝对值的总和,来惩罚权重。在以来稀疏特征的模型中,L1正则化有助于使不相关或几乎不相关的特征的权重正好为0,从而将这些特征从模型中移除。与L2正则化相对。


L2正则化(L2 regularization)

一种正则化,根据权重的平方和,来惩罚权重。L2正则化有助于使离群值(具有较大正值或较小负责)权重接近于0,但又不正好为0。在线性模型中,L2正则化始终可以进行泛化。

目录
相关文章
|
26天前
|
机器学习/深度学习 人工智能 安全
探索AI的未来:从机器学习到深度学习
【10月更文挑战第28天】本文将带你走进AI的世界,从机器学习的基本概念到深度学习的复杂应用,我们将一起探索AI的未来。你将了解到AI如何改变我们的生活,以及它在未来可能带来的影响。无论你是AI专家还是初学者,这篇文章都将为你提供新的视角和思考。让我们一起探索AI的奥秘,看看它将如何塑造我们的未来。
66 3
|
16天前
|
机器学习/深度学习 人工智能 算法
【手写数字识别】Python+深度学习+机器学习+人工智能+TensorFlow+算法模型
手写数字识别系统,使用Python作为主要开发语言,基于深度学习TensorFlow框架,搭建卷积神经网络算法。并通过对数据集进行训练,最后得到一个识别精度较高的模型。并基于Flask框架,开发网页端操作平台,实现用户上传一张图片识别其名称。
53 0
【手写数字识别】Python+深度学习+机器学习+人工智能+TensorFlow+算法模型
|
2月前
|
机器学习/深度学习 人工智能 算法
揭开深度学习与传统机器学习的神秘面纱:从理论差异到实战代码详解两者间的选择与应用策略全面解析
【10月更文挑战第10天】本文探讨了深度学习与传统机器学习的区别,通过图像识别和语音处理等领域的应用案例,展示了深度学习在自动特征学习和处理大规模数据方面的优势。文中还提供了一个Python代码示例,使用TensorFlow构建多层感知器(MLP)并与Scikit-learn中的逻辑回归模型进行对比,进一步说明了两者的不同特点。
74 2
|
2月前
|
机器学习/深度学习 自然语言处理 算法
机器学习和深度学习之间的区别
机器学习和深度学习在实际应用中各有优势和局限性。机器学习适用于一些数据量较小、问题相对简单、对模型解释性要求较高的场景;而深度学习则在处理大规模、复杂的数据和任务时表现出色,但需要更多的计算资源和数据,并且模型的解释性较差。在实际应用中,需要根据具体的问题和需求,结合两者的优势,选择合适的方法来解决问题。
70 0
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
浅谈机器学习与深度学习的区别
浅谈机器学习与深度学习的区别
55 0
|
4天前
|
机器学习/深度学习 数据采集 传感器
基于深度学习的图像识别技术在自动驾驶中的应用研究####
本文旨在探讨深度学习技术,特别是卷积神经网络(CNN)在自动驾驶车辆图像识别领域的应用与进展。通过分析当前自动驾驶技术面临的挑战,详细介绍了深度学习模型如何提升环境感知能力,重点阐述了数据预处理、网络架构设计、训练策略及优化方法,并展望了未来发展趋势。 ####
29 6
|
7天前
|
机器学习/深度学习 自然语言处理 语音技术
Python在深度学习领域的应用,重点讲解了神经网络的基础概念、基本结构、训练过程及优化技巧
本文介绍了Python在深度学习领域的应用,重点讲解了神经网络的基础概念、基本结构、训练过程及优化技巧,并通过TensorFlow和PyTorch等库展示了实现神经网络的具体示例,涵盖图像识别、语音识别等多个应用场景。
27 8
|
11天前
|
机器学习/深度学习 人工智能 自然语言处理
深度学习中的卷积神经网络(CNN)及其在图像识别中的应用
本文旨在通过深入浅出的方式,为读者揭示卷积神经网络(CNN)的神秘面纱,并展示其在图像识别领域的实际应用。我们将从CNN的基本概念出发,逐步深入到网络结构、工作原理以及训练过程,最后通过一个实际的代码示例,带领读者体验CNN的强大功能。无论你是深度学习的初学者,还是希望进一步了解CNN的专业人士,这篇文章都将为你提供有价值的信息和启发。
|
11天前
|
机器学习/深度学习 数据采集 测试技术
深度学习在图像识别中的应用
本篇文章将探讨深度学习在图像识别中的应用。我们将介绍深度学习的基本原理,以及如何使用深度学习进行图像识别。我们将通过一个简单的代码示例来演示如何使用深度学习进行图像识别。这篇文章的目的是帮助读者理解深度学习在图像识别中的作用,并学习如何使用深度学习进行图像识别。
|
8天前
|
机器学习/深度学习 人工智能 自然语言处理
探索深度学习中的卷积神经网络(CNN)及其在现代应用中的革新
探索深度学习中的卷积神经网络(CNN)及其在现代应用中的革新