PRML 1.5 决策论

简介: PRML 1.5 决策论

PRML 1.5 决策论


20210710200657856.png

1.5.1 最小化错误分类率(Minimizing the misclassification rate)


对监督学习中的分类问题来讲,我们需要一个“规则”,把每一个x 分到合适的类别中去。这个“规则”会把输入空间分成不同的区域,这种区域叫做决策区域(decisionregion),而决策区域的边界叫做决策边界或者叫决策面。如上图所示,如果我们将属于C 1  类的值分到了C 2 类中,那么我们就犯了一个错误。这种发生的概率如下:


image.png

我们当然希望将错误降到最小,即最小化p(mistake)。根据乘积规则


image.png

对最小化p ( x , C k ) 那么需要最小化p ( C k ∣ x )


对于更⼀般的K类的情形,最大化正确率会稍微简单⼀些,即最大化下式


image.png

1.5.2 最小化期望损失(Minimizing the expected loss)


书中举了一个对癌症病人分类的例子,我这里简单阐述一下。分类问题我们都会出现两种错误。一,给没有患癌症的病人错误地诊断为癌症,二、给患了癌症的病人诊断为健康。我们给出如下混淆矩阵:


20210710200740600.png

接着,我们引出损失矩阵(loss matrix),例如癌症这个例子,作者自己定义了一个损失矩阵,如下所示

20210710200746172.png


如上图所示,我们将正常人诊断为癌症的错误损失记为1,而将癌症诊断为正常的错误损失记为1000。常见的损失函数如下所示


(1) 0-1损失函数


image.png


(2) 平方损失函数

image.png

(3) 绝对损失函数

image.png

(4)对数损失函数

image.png

1.5.3 拒绝选项(The reject option)

20210710200809215.png


例如,在我们假想的医疗例⼦中,⼀种合适的做法是,使⽤⾃动化的系统来对那些⼏乎没有疑问的X光片进行分类,然后把不容易分类的X光片留给医学专家。为了达到这个目的,我们引入一个阈值θ \thetaθ拒绝后验概率p ( C k ∣ x )的最大值小于等于θ \thetaθ的那些样本。


1.5.4 推断和决策


接着下面讲了生成式模型(generative models)判别式模型(discriminative models)异常检测(novelty detection)


(a) 生成式模型(generative models)


常见的生成式模型有:


  • 朴素贝叶斯
  • 隐马尔科夫模型


比如对训练集来讲,我们通过训练得到此数据集的分布,在根据决策论来确定新数据的类别。生成式模型就是生成数据分布的模型。也就是说我们需要对输入和输出进行“建模”。


(b) 判别式模型(discriminative models)


常见的判别式模型如下:


kNN

决策树

逻辑回归

SVM


判别式模型我们需要确定p ( C k ∣ x )接着用决策论来对新的输入x 进行分类。


20210710200821784.png


1.5.5 回归问题中的损失函数


在回归问题中, 损失函数的一个通常的选择是平方损失,

image.png

那么期望损失函数可以写成


image.png

一般我们的目标是寻找一个y ( x )来最小化我们的E [ L ] 函数,所以我们用变分法,求解 y ( x ) 的最优解那么有


image.png


利用加和规则和乘积规则,求解 y ( x ) 的最优解


image.png


那么最优解是条件均值y ( x ) = E t [ t ∣ x ]


20210710200831586.png


除此之外,还有一种推导


image.png


我们寻找的函数y ( x ) 只出现在第⼀项中。当y ( x )等于E [ t ∣ x ] 时第⼀项取得最小值,这时第⼀项会被消去,这正是我们前面推导的结果,表明最优的最小平方预测由条件均值给出。第二项是t的分布的方差,在x上取了平均。它表示目标数据内在的变化性,可以被看成噪声。由于它与y ( x ) 无关,因此它表示损失函数的不可减小的最小值。


闵可夫斯基 ( Minkowski ) 损失函数 ( 平方损失函数的一种推广 )


image.png


当q = 2时,他就变成平方损失函数的期望,下图给出了不同q值情况下函数∣ y − t ∣ q关于y − t的图像。当q = 2 时,E [ L p ] 的最小值是条件均值。当q = 1 时,E [ L p ] 的最小值是条件中位数。当q → 0 q的最小值是条件众数。


20210710200838525.png


相关文章
|
6月前
|
机器学习/深度学习 人工智能 算法
300多篇相关研究,复旦、南洋理工最新多模态图像编辑综述论文
【7月更文挑战第11天】复旦、南洋理工联合研究综述了多模态图像编辑,聚焦T2I扩散模型在融合多种输入模式、保持图像真实性和用户友好性方面的挑战与解决方案。论文探讨统一编辑框架,分析算法组件,指出技术进步及未来方向,同时警示伦理和社会影响。[链接:https://arxiv.org/abs/2406.14555]
57 1
|
7月前
|
机器学习/深度学习
PRML第一章读书小结
PRML第一章读书小结
PRML第一章读书小结
|
机器学习/深度学习 存储
本科生学深度学习-史上最容易懂的RNN文章,小白也能看得懂
最近写了一些基础的东西,总是理解性的,没有看到实例,今天就讲一个基础的网络结构RNN,然后写个实例,体验下深度神经网络的牛逼,这次学习下rnn神经网络,虽然看起来好高深,不过不用慌,没有理论,全是大白话,大家都可以懂的。
354 0
本科生学深度学习-史上最容易懂的RNN文章,小白也能看得懂
|
机器学习/深度学习 算法 计算机视觉
北大陈宝权组图灵班本科生:用于图像编辑的自条件生成对抗网络|SIGGRAPH 2022
北大陈宝权组图灵班本科生:用于图像编辑的自条件生成对抗网络|SIGGRAPH 2022
127 0
|
机器学习/深度学习 存储 人工智能
图灵奖得主Geoffrey Hinton:我的五十年深度学习生涯与研究心法
图灵奖得主Geoffrey Hinton:我的五十年深度学习生涯与研究心法
133 0
|
机器学习/深度学习 Python
|
机器学习/深度学习 人工智能 自然语言处理
2019年Reddit机器学习17个高赞项目:AI德扑大师、StyleGAN等上榜
本文是Medium网友整理的2019年Reddit机器学习板块热门高赞项目资源汇总,既有Facebook、英伟达等大厂的作品,也有网友自制的有趣小尝试,共17个项目,按热度高低排序,一起看看吧!
333 0
2019年Reddit机器学习17个高赞项目:AI德扑大师、StyleGAN等上榜
|
机器学习/深度学习 算法 数据安全/隐私保护
精心整理 | 林轩田机器学习资源汇总
精心整理 | 林轩田机器学习资源汇总
200 0
精心整理 | 林轩田机器学习资源汇总