白话——胡说图像分类器

简介: 版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/zergskj/article/details/40025909 以下信息全部...
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/zergskj/article/details/40025909
以下信息全部是作者的个人理解,记录下来方便用简单的视角去理解复杂的问题,其中不乏胡说八道和想当然,如有与事实不符的地方,请大家多多批评指正!

图像分类器最早诞生的应该是贝叶斯分类器:
为什么?因为贝叶斯网络实际上就是把各种可能性串联起来,完全符合人脑的推理过程,
朴素贝叶斯分类器:贝叶斯网络实际上是由N种可能性构成的树组成的,比如,下图照片中一张红桃A,贝叶斯算法的推断过程如下:


->一张扑克牌(90%的可能性)->一张带红心的扑克牌(80%)->一张带红心带A字母的扑克牌(80%)->一张红桃A扑克牌
                                                                                          ->一张带红心带阿拉伯数字4的扑克牌(20%)->一张错误的红桃4扑克牌
                                             ->一张带黑桃的扑克牌(20%)->一张带黑桃带A字母的扑克牌(80%)->一张黑桃A扑克牌
                                                                                          ->一张带黑桃带阿拉伯数字4的扑克牌(20%)->一张错误的黑桃4扑克牌 
大家看上述的推断,是不是就形成了一个有主干有分叉的树,这就是最基本的朴素贝叶斯分类器,推断的可能性形成了一棵树,所以叫“朴素(树)”,那么在贝叶斯的主要思想领域内,又有一些人进行了一些优化,无非就是增加一些参数阀值之类的,把树变成图,让可能性节点可以在树枝之间流通,目的都是为了使分类更准确 

虽然很容易被理解, 但是,朴素贝叶斯分类器不能对复杂图像数据进行准确的推断和分类,数字图像信息量庞大,朴素贝叶斯分类器仅仅只能针对特征明显或者一维空间可分的图像进行分类。

随着计算机运算能力的发展,使得大规模的分类运算带来了可能,于是就诞生了神经网络分类器, 神经网络,就是模拟人的大脑的工作方式,用大量分类器节点模拟人脑的“处突”,进行大型分类运算。每一个“处突”分类器节点可以是一个“贝叶斯分类器”
人工神经网络:由N多个类似于“贝叶斯算法”的分类器组成的集合,一起进行推断。


注:每个蓝圆点都看作一个贝叶斯分类器,这样便于理解

好了,看到这里,或许就明白了,为啥现在这么多人都在研究神经网络了?因为在这样的系统架构下,可以发挥的空间和潜力是巨大的
但这种架构治标不治本,真正决定图像分类效果的,还是每一个具体节点里的算法,而大量节点的参与,只不过是一种“人海战术”(机海) 

于是人们就开始思考怎样让复杂而又难以分类的图像数据,变得可分, 于是“支持向量机”分类器就诞生了
支持向量机分类器:一句话概括,将低维空间中不可分的数据转换到高维度空间,使其可分

支持向量机这个名字太学术化了,让人望而生畏,其实没那么复杂。比如,依旧是上述红桃A扑克牌,支持向量机的工作过程是怎样的呢?


数字图像二维数据(x轴数据,y轴数据)->(是否可分)->三维数据(x轴灰度,y轴灰度,整体颜色值)->(是否可分)->四维数据(x轴灰度,y轴灰度,x轴颜色,y轴颜色)……


看到这里,你或许就明白了,支持向量机就是把原始混杂无规律的数据按一定规则筛选出来,寻找筛选出来的数据规律,直到找到规律为止。

所以,支持向量机分类的好坏,取决于筛选规则的设定,也就是所谓的核函数。那么支持向量机就真正从数字的意义上对图像的内容进行学习了,所以也是现在研究的热门!

今天就先写到这里,希望能帮助大家理解这些概念,传统的资料上总是写一大堆的数学公式,其实很多都没必要,用公式去表达概念,就是数学界的文言文,有点装的意思哈。
相关文章
|
机器学习/深度学习 数据挖掘 计算机视觉
经典神经网络论文超详细解读(一)——AlexNet学习笔记(翻译+精读)
经典神经网络论文超详细解读(一)——AlexNet学习笔记(翻译+精读)
1212 1
经典神经网络论文超详细解读(一)——AlexNet学习笔记(翻译+精读)
|
3月前
|
机器学习/深度学习 算法 网络架构
神经网络架构殊途同归?ICML 2024论文:模型不同,但学习内容相同
【8月更文挑战第3天】《神经语言模型的缩放定律》由OpenAI研究人员完成并在ICML 2024发表。研究揭示了模型性能与大小、数据集及计算资源间的幂律关系,表明增大任一资源均可预测地提升性能。此外,论文指出模型宽度与深度对性能影响较小,较大模型在更多数据上训练能更好泛化,且能高效利用计算资源。研究提供了训练策略建议,对于神经语言模型优化意义重大,但也存在局限性,需进一步探索。论文链接:[https://arxiv.org/abs/2001.08361]。
42 1
|
机器学习/深度学习 编解码 算法框架/工具
经典神经网络论文超详细解读(二)——VGGNet学习笔记(翻译+精读)
经典神经网络论文超详细解读(二)——VGGNet学习笔记(翻译+精读)
302 0
经典神经网络论文超详细解读(二)——VGGNet学习笔记(翻译+精读)
|
机器学习/深度学习 编解码 算法
经典神经网络论文超详细解读(四)——InceptionV2-V3学习笔记(翻译+精读+代码复现)
经典神经网络论文超详细解读(四)——InceptionV2-V3学习笔记(翻译+精读+代码复现)
189 0
经典神经网络论文超详细解读(四)——InceptionV2-V3学习笔记(翻译+精读+代码复现)
|
机器学习/深度学习 编解码 算法框架/工具
经典神经网络论文超详细解读(八)——ResNeXt学习笔记(翻译+精读+代码复现)
经典神经网络论文超详细解读(八)——ResNeXt学习笔记(翻译+精读+代码复现)
537 1
经典神经网络论文超详细解读(八)——ResNeXt学习笔记(翻译+精读+代码复现)
|
机器学习/深度学习 数据采集 监控
经典神经网络论文超详细解读(六)——DenseNet学习笔记(翻译+精读+代码复现)
经典神经网络论文超详细解读(六)——DenseNet学习笔记(翻译+精读+代码复现)
2369 1
经典神经网络论文超详细解读(六)——DenseNet学习笔记(翻译+精读+代码复现)
|
机器学习/深度学习 Shell 数据处理
深度学习原理篇 第九章:UP-DETR
简要介绍UP-DETR的原理和代码实现。
222 0
|
机器学习/深度学习 编解码
【深度学习】聊一聊什么是卷积神经网络,卷积是什么意思?
【深度学习】聊一聊什么是卷积神经网络,卷积是什么意思?
253 0
|
机器学习/深度学习
【论文写作分析】之六《基于WordVec和改进注意力机制AlexNet-2的文本分类方法》
【论文写作分析】之六《基于WordVec和改进注意力机制AlexNet-2的文本分类方法》
121 0
【论文写作分析】之六《基于WordVec和改进注意力机制AlexNet-2的文本分类方法》
|
机器学习/深度学习 Go 计算机视觉
【论文泛读】 GooLeNet:更深的卷积网络
【论文泛读】 GooLeNet:更深的卷积网络
【论文泛读】 GooLeNet:更深的卷积网络