【ML】什么是判别模型和生成模型

本文涉及的产品
交互式建模 PAI-DSW,5000CU*H 3个月
简介: 什么是判别模型和生成模型,请阅读下文
1. 判别模型和生成模型所属范畴

在这里插入图片描述

2. 直观理解

【判别模型】:要确定一张图片是猫还是狗,用判别模型的方法就是根据数据集X训练模型,然后把新的图片输入到模型中,模型给出这个图片是每个类别的概率。

【生成模型】:生成模型是对原始数据集X和其标签Y建模,生成其联合概率。然后将新的图片放入是否是猫的模型中,看概率是多少;然后将新的图片放入是否是狗的模型中,看概率是多少。

联合概率:联合概率是指在多元的概率分布中多个随机变量分别满足各自条件的概率。假设X和Y都服从正态分布,那么P{X<4,Y<0}就是一个联合概率,表示X<4,Y<0两个条件同时成立的概率。表示两个事件共同发生的概率。A与B的联合概率表示为 P(AB) 或者P(A,B),或者P(A∩B)。)

3. 判别模型

【判别模型】:由数据直接学习决策函数f(x)或者条件概率分布P(Y|X)作为预测的模型,即判别模型。
【基本思想】是有限样本条件下建立判别函数,不考虑样本的产生模型,直接研究预测模型。
【典型的判别模型】包括KNN,感知机,决策树,支持向量机等。

常见的判别模型:KNN,SVM,神经网络,决策树。

4. 生成模型

【生成模型】:由数据学习==联合概率密度分布P(X,Y)==,然后求出条件概率分布P(Y|X)作为预测的模型,即生成模型:P(Y|X)= P(X,Y)/ P(X)。
【基本思想】是首先建立样本的联合概率概率密度模型P(X,Y),然后再得到后验概率P(Y|X),再利用它进行分类。

常见的模型有:高斯混合模型,朴素贝叶斯模型。

5.生成模型和判别模型的联系

由生成模型可以得到判别模型,但由判别模型得不到生成模型。

6. 生成模型和判别模型的优缺点

在监督学习中,两种方法各有优缺点,适合于不同条件的学习问题

生成模型的特点:上面说到,生成方法学习联合概率密度分布P(X,Y),所以就可以从统计的角度表示数据的分布情况,能够反映同类数据本身的相似度。但它不关心到底划分各类的那个分类边界在哪。生成方法可以还原出联合概率分布P(Y|X),而判别方法不能。生成方法的学习收敛速度更快,即当样本容量增加的时候,学到的模型可以更快的收敛于真实模型,当存在隐变量时,仍可以用生成方法学习。此时判别方法就不能用。

判别模型的特点:判别方法直接学习的是决策函数Y=f(X)或者条件概率分布P(Y|X)。不能反映训练数据本身的特性。但它寻找不同类别之间的最优分类面,反映的是异类数据之间的差异。直接面对预测,往往学习的准确率更高。由于直接学习P(Y|X)或P(X),可以对数据进行各种程度上的抽象、定义特征并使用特征,因此可以简化学习问题。

参考:

https://www.cnblogs.com/itmorn/p/13199148.html

https://mp.weixin.qq.com/s/l5f4jpqK120TpWGQbP1dBg

https://blog.csdn.net/zouxy09/article/details/8195017

相关文章
|
4月前
|
机器学习/深度学习 人工智能 计算机视觉
AIGC基础模型——Vision Transformer (ViT)
【1月更文挑战第12天】AIGC基础模型——Vision Transformer (ViT)
134 6
AIGC基础模型——Vision Transformer (ViT)
|
11月前
|
机器学习/深度学习 编解码 人工智能
深度学习应用篇-计算机视觉-图像分类[3]:ResNeXt、Res2Net、Swin Transformer、Vision Transformer等模型结构、实现、模型特点详细介绍
深度学习应用篇-计算机视觉-图像分类[3]:ResNeXt、Res2Net、Swin Transformer、Vision Transformer等模型结构、实现、模型特点详细介绍
10563 1
 深度学习应用篇-计算机视觉-图像分类[3]:ResNeXt、Res2Net、Swin Transformer、Vision Transformer等模型结构、实现、模型特点详细介绍
|
11月前
|
机器学习/深度学习 数据采集 存储
机器学习之PyTorch和Scikit-Learn第4章 构建优秀的训练数据集 - 数据预处理Part 1
数据质量及所包含的有用信息量是决定机器学习算法能学到多好的关键因素。因此,在将数据集喂给机器学习算法前对其进行检查和预处理绝对很重要。本章中,我们会讨论一些基本数据预处理技术,有助于我们构建很好的机器学习模型。
141 0
|
11月前
|
机器学习/深度学习 数据采集 算法
机器学习之PyTorch和Scikit-Learn第4章 构建优秀的训练数据集 - 数据预处理Part 2
我们在第1章 赋予计算机学习数据的能力和第3章 使用Scikit-Learn的机器学习分类器之旅中简单地介绍了将数据集划分为训练集和测试集的概念。在测试集中比较预测标签和真实标签可以看成是发布上线前对模型的无偏差性能评估。本节中,我们会准备一个新的数据集,葡萄酒数据集。在预处理完数据集后,我们会探讨不同的特征选择技术来对数据集降维。
169 0
机器学习之PyTorch和Scikit-Learn第4章 构建优秀的训练数据集 - 数据预处理Part 2
|
12月前
|
机器学习/深度学习 数据采集 算法
机器学习之PyTorch和Scikit-Learn第2章 为分类训练简单机器学习算法Part 2
前一节中,我们学习了Rosenblatt感知机规则的原理,下面使用Python进行实现并使用第1章 赋予计算机学习数据的能力中介绍的鸢尾花数据集进行训练。
203 0
机器学习之PyTorch和Scikit-Learn第2章 为分类训练简单机器学习算法Part 2
|
12月前
|
机器学习/深度学习 人工智能 算法
机器学习之PyTorch和Scikit-Learn第2章 为分类训练简单机器学习算法Part 1
本章中我们会使用所讲到的机器学习中的第一类算法中两种算法来进行分类:感知机(perceptron)和自适应线性神经元(adaptive linear neuron)。我们先使用Python逐步实现感知机,然后对鸢尾花数据集训练来分出不同花的品种。这有助于我们理解用于分类的机器学习算法概念以及如何用Python进行有效的实现。
137 0
机器学习之PyTorch和Scikit-Learn第2章 为分类训练简单机器学习算法Part 1
|
12月前
|
机器学习/深度学习 自然语言处理 算法
计算机视觉论文速递(九)EfficientFormer: Vision Transformers at MobileNet Speed 轻量化实时推理的Transformer模型
Vision Transformers (ViT) 在计算机视觉任务中取得了快速进展,在各种基准测试中取得了可喜的成果。然而,由于大量的参数和模型设计,例如注意力机制,基于 ViT 的模型通常比轻量级卷积网络慢几倍。因此,应用部署 ViT 具有很大的挑战性,尤其是在移动设备等资源受限的硬件上。
224 0
|
12月前
|
机器学习/深度学习 人工智能 自然语言处理
【Pytorch神经网络理论篇】 36 NLP中常见的任务+BERT模型+发展阶段+数据集
是一种类似于卷积思想的网络。它通过矩阵相乘,计输入向量与目的输出之间的相似度,进而完成语义的理解。
264 0
|
12月前
|
机器学习/深度学习 人工智能 PyTorch
【Pytorch神经网络理论篇】 39 Transformers库中的BERTology系列模型
词表文件:在训练模型时,将该文件当作一个映射表,把输入的单词转换成具体数字。(文本方式保存)
182 0
|
机器学习/深度学习 人工智能 自然语言处理
Transformers+世界模型,竟能拯救深度强化学习?
Transformers+世界模型,竟能拯救深度强化学习?
172 0

热门文章

最新文章