图像分类_03分类器及损失:线性分类+ SVM损失+Softmax 分类+交叉熵损失

简介: 解释:w的每⼀⾏都是其中⼀个类的分类器。这些数字的⼏何解释是,当我们改变w的⼀行时,像素空间中相应的线将以不同的⽅向旋转。⽽其中的偏置是为了让我们避免所有的分类器都过原点。

815902569f6a467a99304f9ac1482386.png


2.3.1 线性分类


92279349a51e4f90afeae2a8da597d6b.png


2.3.1.1 线性分类解释


95124fa719554aae9b1803121d68c57f.png


上图图中的权重计算结果结果并不好,权重会给我们的猫图像分配⼀个⾮常低的猫分数。得出的结果偏向于狗。


如果可视化分类,我们为了⽅便,将⼀个图⽚理解成⼀个⼆维的点,在下⾯坐标中显示如下:



d2378efea8a44bed9a204c07bd93fb48.png


  • 解释:w的每⼀⾏都是其中⼀个类的分类器。这些数字的⼏何解释是,当我们改变w的⼀行时,像素空间中相应的线将以不同的⽅向旋转。⽽其中的偏置是为了让我们避免所有的分类器都过原点。


  • 总结:分类器的权重矩阵其实是对应分类的经过训练得到的⼀个分类模板,通过测试数据与分类模板间的数据计算来进⾏分类。在训练的过程中,其实可以看作是权重矩阵的学习过程,也可以看成是分类模板的学习过程,如何从训练样本中学习分类的模板。模板权重的⼤⼩,反映了样本中每个像素点对分类的贡献率。


学习到的权重


db31fe90d27346f7b3750326d3067563.png


2.3.2 损失函数


损失函数是⽤来告诉我们当前分类器性能好坏的评价函数,是⽤于指导分类器权重调整的指导性函数,通过该函数可以知道该如何改进权重系数。CV与深度学习课程之前,⼤家应该都接触过⼀些损失函数了,例如解决⼆分类问题的逻辑回归中⽤到的对数似然损失、SVM中的合⻚损失等等。


对数似然损失


88aee9d1a9d74f66b67094d0283fdd05.png


合⻚损失


e699b9706df54af885a4782b99e52262.png


现在回到前⾯的线性分类例⼦,该函数预测在“猫”、“狗”和“船”类中的分数,我们发现,在这个例⼦中,我们输⼊描绘猫的像素,但是猫的分数与其他类别(狗的分数437.9和船的分数61.95)相⽐⾮常低(-96.8)。那么这个结果并不好,我们将会去衡量这样的⼀个成本,如果分类做好了,这个损失将会减少。


多分类问题的损失该如何去衡量?下⾯会进⾏通常会使⽤的两种⽅式作对⽐,这⾥介绍在图像识别中最常⽤的两个损失——多类别SVM损失(合⻚损失hinge loss)和交叉熵损失,分别对应多类别SVM分类器和Softmax分类器


2.3.2.1 多分类SVM损失


337f476876cc453f8518e7888f7e35ad.png


我们正针对于前⾯简化例⼦,来复习理解下SVM损失,下图使我们得到的线性模型预测分数结果


1c307a3098e349e69b39869b1dc64475.png

573cd616beb740b28eb17681f6bf3658.png


573cd616beb740b28eb17681f6bf3658.png

987220a1936545cc95a1a2656db6c1f4.png


15bbcb3bcbea4748afff142eec506baf.png


2.2.2.2 Softmax 分类(Multinomial Logistic Regression)与cross-entropy(交叉熵损失)


1、Softmax


3bca560e75aa4acabb98fc6eb2291526.png

b0ce8349df7c47ddadbe5c84943a1be5.png


2、cross-entropy



43a7a3ddd42a403da0acf4aa950338c1.png

ae94fa5abacf422f8e2971a3ad74872c.png


20200506212804906.png


2.3.3 SVM与Softmax对比


下面这张图就清楚的展示了两个分类以及其损失计算方式的区别


da54e8b07a2e4b1ba0d97939edf13389.png


714bdc03605848ac99f4d2988b1ac011.png

175a71e750774577ac128f4384fb454c.png

目录
相关文章
|
7月前
|
机器学习/深度学习
为什么在二分类问题中使用交叉熵函数作为损失函数
为什么在二分类问题中使用交叉熵函数作为损失函数
279 2
|
2月前
|
机器学习/深度学习 自然语言处理
交叉熵损失
【10月更文挑战第2天】
|
6月前
|
机器学习/深度学习 算法 计算机视觉
【YOLOv8改进-损失函数】SlideLoss损失函数,解决样本不平衡问题
YOLO-FaceV2是基于YOLOv5的实时人脸检测模型,采用RFE模块增强小人脸检测,NWD损失处理定位偏差,SEAM注意力模块应对遮挡,Slide Loss解决样本不平衡,提升对难样本的关注。在WiderFace数据集上超越YOLO系列。论文和代码已公开。Slide Loss通过IoU加权,优化边界样本,提高模型性能。
|
机器学习/深度学习 数据采集
Softmax 分类器
机器学习中的 Softmax 分类器是一种常用的多分类模型,它将逻辑回归(Logistic Regression)推广到多分类问题中。在 Softmax 分类器中,我们使用一个二维平面(或多维空间中的超平面)来将不同类别的数据分开。这个超平面由一个线性函数决定,该线性函数可以表示为:y = w1 * x1 + w2 * x2 +... + wn * xn 其中,y 是输出变量(通常为类别的概率向量),x1, x2,..., xn 是输入变量,w1, w2,..., wn 是需要学习的权重。 Softmax 分类器的主要优点是它可以处
205 3
特征选择:回归,二分类,多分类特征选择有这么多差异需要注意
特征选择:回归,二分类,多分类特征选择有这么多差异需要注意
158 0
|
机器学习/深度学习
Lesson 4.2 逻辑回归参数估计:极大似然估计、相对熵与交叉熵损失函数-2
Lesson 4.2 逻辑回归参数估计:极大似然估计、相对熵与交叉熵损失函数-2
|
机器学习/深度学习 算法
Lesson 4.2 逻辑回归参数估计:极大似然估计、相对熵与交叉熵损失函数-1
Lesson 4.2 逻辑回归参数估计:极大似然估计、相对熵与交叉熵损失函数-1
|
数据采集 知识图谱
4-1预测与回归
4-1预测与回归
129 0
4-1预测与回归
|
机器学习/深度学习 数据可视化 PyTorch
使用度量学习进行特征嵌入:交叉熵和监督对比损失的效果对比
使用度量学习进行特征嵌入:交叉熵和监督对比损失的效果对比
303 0
使用度量学习进行特征嵌入:交叉熵和监督对比损失的效果对比
|
机器学习/深度学习 敏捷开发 传感器
【LSTM回归预测】基于主成分分析结合BiLSTM实现数据回归预测附matlab代码PCA-BiLSTM
【LSTM回归预测】基于主成分分析结合BiLSTM实现数据回归预测附matlab代码PCA-BiLSTM

相关实验场景

更多