图像分类_03分类器及损失:线性分类+ SVM损失+Softmax 分类+交叉熵损失

简介: 解释:w的每⼀⾏都是其中⼀个类的分类器。这些数字的⼏何解释是,当我们改变w的⼀行时,像素空间中相应的线将以不同的⽅向旋转。⽽其中的偏置是为了让我们避免所有的分类器都过原点。

815902569f6a467a99304f9ac1482386.png


2.3.1 线性分类


92279349a51e4f90afeae2a8da597d6b.png


2.3.1.1 线性分类解释


95124fa719554aae9b1803121d68c57f.png


上图图中的权重计算结果结果并不好,权重会给我们的猫图像分配⼀个⾮常低的猫分数。得出的结果偏向于狗。


如果可视化分类,我们为了⽅便,将⼀个图⽚理解成⼀个⼆维的点,在下⾯坐标中显示如下:



d2378efea8a44bed9a204c07bd93fb48.png


  • 解释:w的每⼀⾏都是其中⼀个类的分类器。这些数字的⼏何解释是,当我们改变w的⼀行时,像素空间中相应的线将以不同的⽅向旋转。⽽其中的偏置是为了让我们避免所有的分类器都过原点。


  • 总结:分类器的权重矩阵其实是对应分类的经过训练得到的⼀个分类模板,通过测试数据与分类模板间的数据计算来进⾏分类。在训练的过程中,其实可以看作是权重矩阵的学习过程,也可以看成是分类模板的学习过程,如何从训练样本中学习分类的模板。模板权重的⼤⼩,反映了样本中每个像素点对分类的贡献率。


学习到的权重


db31fe90d27346f7b3750326d3067563.png


2.3.2 损失函数


损失函数是⽤来告诉我们当前分类器性能好坏的评价函数,是⽤于指导分类器权重调整的指导性函数,通过该函数可以知道该如何改进权重系数。CV与深度学习课程之前,⼤家应该都接触过⼀些损失函数了,例如解决⼆分类问题的逻辑回归中⽤到的对数似然损失、SVM中的合⻚损失等等。


对数似然损失


88aee9d1a9d74f66b67094d0283fdd05.png


合⻚损失


e699b9706df54af885a4782b99e52262.png


现在回到前⾯的线性分类例⼦,该函数预测在“猫”、“狗”和“船”类中的分数,我们发现,在这个例⼦中,我们输⼊描绘猫的像素,但是猫的分数与其他类别(狗的分数437.9和船的分数61.95)相⽐⾮常低(-96.8)。那么这个结果并不好,我们将会去衡量这样的⼀个成本,如果分类做好了,这个损失将会减少。


多分类问题的损失该如何去衡量?下⾯会进⾏通常会使⽤的两种⽅式作对⽐,这⾥介绍在图像识别中最常⽤的两个损失——多类别SVM损失(合⻚损失hinge loss)和交叉熵损失,分别对应多类别SVM分类器和Softmax分类器


2.3.2.1 多分类SVM损失


337f476876cc453f8518e7888f7e35ad.png


我们正针对于前⾯简化例⼦,来复习理解下SVM损失,下图使我们得到的线性模型预测分数结果


1c307a3098e349e69b39869b1dc64475.png

573cd616beb740b28eb17681f6bf3658.png


573cd616beb740b28eb17681f6bf3658.png

987220a1936545cc95a1a2656db6c1f4.png


15bbcb3bcbea4748afff142eec506baf.png


2.2.2.2 Softmax 分类(Multinomial Logistic Regression)与cross-entropy(交叉熵损失)


1、Softmax


3bca560e75aa4acabb98fc6eb2291526.png

b0ce8349df7c47ddadbe5c84943a1be5.png


2、cross-entropy



43a7a3ddd42a403da0acf4aa950338c1.png

ae94fa5abacf422f8e2971a3ad74872c.png


20200506212804906.png


2.3.3 SVM与Softmax对比


下面这张图就清楚的展示了两个分类以及其损失计算方式的区别


da54e8b07a2e4b1ba0d97939edf13389.png


714bdc03605848ac99f4d2988b1ac011.png

175a71e750774577ac128f4384fb454c.png

目录
相关文章
|
6月前
|
机器学习/深度学习
为什么在二分类问题中使用交叉熵函数作为损失函数
为什么在二分类问题中使用交叉熵函数作为损失函数
191 2
|
机器学习/深度学习 人工智能 测试技术
使用随机森林分类器对基于NDRE(归一化差异水体指数)的特征进行分类
使用随机森林分类器对基于NDRE(归一化差异水体指数)的特征进行分类
96 1
|
5月前
|
机器学习/深度学习 算法 计算机视觉
【YOLOv8改进-损失函数】SlideLoss损失函数,解决样本不平衡问题
YOLO-FaceV2是基于YOLOv5的实时人脸检测模型,采用RFE模块增强小人脸检测,NWD损失处理定位偏差,SEAM注意力模块应对遮挡,Slide Loss解决样本不平衡,提升对难样本的关注。在WiderFace数据集上超越YOLO系列。论文和代码已公开。Slide Loss通过IoU加权,优化边界样本,提高模型性能。
|
6月前
广义线性模型glm泊松回归的lasso、弹性网络分类预测学生考试成绩数据和交叉验证
广义线性模型glm泊松回归的lasso、弹性网络分类预测学生考试成绩数据和交叉验证
|
6月前
|
机器学习/深度学习 数据采集 算法
乳腺癌预测:特征交叉+随机森林=成功公式?
乳腺癌预测:特征交叉+随机森林=成功公式?
83 0
乳腺癌预测:特征交叉+随机森林=成功公式?
特征选择:回归,二分类,多分类特征选择有这么多差异需要注意
特征选择:回归,二分类,多分类特征选择有这么多差异需要注意
143 0
|
机器学习/深度学习 PyTorch 算法框架/工具
深度学习05】 交叉熵损失函数
不同的信息,含有不同的信息量,假设下列对阵表中阿根廷的夺冠概率是1/8,A同学告诉我阿根廷夺冠了,那么这个信息量就很大了(因为它包括了阿根廷进了四强,决赛);B同学告诉我阿根廷进决赛了,那么这个信息量就较小。
132 0
|
机器学习/深度学习 算法
连载|GBDT如何进行回归和分类
连载|GBDT如何进行回归和分类
|
数据采集 知识图谱
4-1预测与回归
4-1预测与回归
123 0
4-1预测与回归
|
机器学习/深度学习 数据可视化 PyTorch
使用度量学习进行特征嵌入:交叉熵和监督对比损失的效果对比
使用度量学习进行特征嵌入:交叉熵和监督对比损失的效果对比
294 0
使用度量学习进行特征嵌入:交叉熵和监督对比损失的效果对比