01 EM算法 - 大纲 - 最大似然估计(MLE)、贝叶斯算法估计、最大后验概率估计(MAP)

简介:
EM算法的讲解的内容包括以下几个方面:

1、最大似然估计
2、K-means算法
3、EM算法
4、GMM算法


__EM算法本质__是统计学中的一种求解参数的方法,基于这种方法,我们可以求解出很多模型中的参数。

1、最大似然估计
在__求解线性模型__的过程中,我们用到了__最大似然估计(MLE)__的思想。

EM算法达到的目的和最大似然估计是一样的,只不过EM算法可以帮助我们去计算一些__隐藏变量__的参数。即当极大似然估计无法解决某些问题的时候,我们需要使用EM算法这种__迭代算法__的思路,不断得__逼近__最后的参数解。

EM算法不是具体某一种模型,而是一种求解问题的思路。在统计学中这种算法思想用的特别多。


2、K-means算法
K-means算法__的求解过程本质上就是EM算法的思想,面试中曾经有人问:__K-means算法究竟是如何运用EM算法来实现的? 这样两个算法就通过一个问题来挂上钩了。


3、EM算法
然后讲到如何将EM算法用一种比较通式化的方法来实现求解过程,即但凡我们遇到一个可以用EM算法来解决的问题,我们如何去求解这个问题对应的参数。

就好比极大似然估计中,我们使用联合概率作为似然函数的值,然后求解极大值。当然首先不同的问题会有不同的联合概率,先要把这个联合概率构造出来。


4、GMM算法
最后使用EM算法解决一个问题:有一个模型叫做高斯混合模型(GMM),可以通过EM算法来帮助我们来求解它最后的参数值。


一、最大似然估计(MLE)回顾

__最大似然估计(Maximum Likelihood Estimati) 就是利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值的计算过程。__直白来讲,就是给定了一定的数据,假定知道数据是从某种分布中随机抽取出来的,但是不知道这个分布具体的参数值,即“模型已定,参数未知”,MLE就可以用来估计模型的参数。

MLE的目标是找出一组参数(模型中的参数),使得模型产出观察数据的概率最大。


例子:假定盒子中有黑白两种球,数目未知,黑白球比例也未知,现只知道随机的十次有放回的抽样情况,求各个盒子中抽取出白球的概率?

MLE求解过程:
1、编写似然函数(即联合概率函数) <似然函数:在样本固定的情况下,样本出现的概率与参数θ之间的函数>;
2、对似然函数取对数,并整理;(一般都进行)
3、求导数。
4、解似然方程。

分析: 盒子中只有黑球和白球,假定白球的比例为p,那么黑球的比例为1-p。因为采取的是有放回的随机抽取,那么每次抽取出来的球的颜色服从同一独立分布情况,即每次抽取之间是独立互不影响的。

求解思路

求解盒子1中抽取出白球的概率:

左-求联合概率 中-取对数 右-求极值

求解盒子2中抽取出白球的概率:

左-求联合概率 中-取对数 右-求导并求极值

求解盒子3中抽取出白球的概率:

求解盒子4中抽取出白球的概率:

求解盒子5中抽取出白球的概率:


二、贝叶斯算法估计

贝叶斯算法估计是一种从先验概率和样本分布情况来计算后验概率的一种方式。

贝叶斯算法中的常见概念:
1、P(A)是事件A的先验概率或者边缘概率。
2、P(A|B)是已知B发生后A发生的条件概率,也称为A的后验概率。
3、P(B|A)是已知A发生后B发生的条件概率,也称为B的后验概率。
4、P(B)是事件B的先验概率或者边缘概率。


例子:现在有五个盒子,假定每个盒子中都有黑白两种球,并且黑白球的比例如下;现已知从这五个盒子中的任意一个盒子中有放回的抽取两个球,且均为白球,问这两个球是从哪个盒子中抽取出来的?

1、使用MLE(最大似然估计),结论是从第五个盒子抽取的球:


2、使用贝叶斯算法估计,结论是从第五个盒子抽取的球:假定抽出白球为事件B,从第i个盒子中抽取为事件Ai。

公式进一步分析


思路递进:

__现在不是从五个盒子中任选一个盒子__进行抽取,而是按照一定的概率选择对应的盒子,概率如下。假定抽出白球为事件B,从第i个盒子中抽取为事件Ai。结论是从第四个盒子抽取的球。


三、最大后验概率估计(MAP)

根据上面的例子我们得出了以下的结论:

(最大后验概率估计Maximum a posteriori estimation)MAPMLE 样,都是通过样本估计参数θ的值;

1、在__MLE__中,是使似然函数$color{red}{ P(x|θ)}$最大的时候参数θ的值,MLE中__假设先验概率是一个等值__的;

2、而在__MAP__中,则是求θ使$color{red}{ P(x|θ)P(θ)}$的值最大,这也就是要求θ值不仅仅是让似然函数最大,同时要求θ本身出现的先验概率也得比较大。

可以认为MAP是贝叶斯算法的一种应用:

02 EM算法 - K-means算法回顾、EM概述

相关文章
|
4月前
|
机器学习/深度学习 数据采集 算法
Python实现Naive Bayes贝叶斯分类模型(GaussianNB、MultinomialNB算法)项目实战
Python实现Naive Bayes贝叶斯分类模型(GaussianNB、MultinomialNB算法)项目实战
103 1
|
22天前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于贝叶斯优化CNN-LSTM网络的数据分类识别算法matlab仿真
本项目展示了基于贝叶斯优化(BO)的CNN-LSTM网络在数据分类中的应用。通过MATLAB 2022a实现,优化前后效果对比明显。核心代码附带中文注释和操作视频,涵盖BO、CNN、LSTM理论,特别是BO优化CNN-LSTM网络的batchsize和学习率,显著提升模型性能。
|
27天前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于贝叶斯优化卷积神经网络(Bayes-CNN)的多因子数据分类识别算法matlab仿真
本项目展示了贝叶斯优化在CNN中的应用,包括优化过程、训练与识别效果对比,以及标准CNN的识别结果。使用Matlab2022a开发,提供完整代码及视频教程。贝叶斯优化通过构建代理模型指导超参数优化,显著提升模型性能,适用于复杂数据分类任务。
|
1月前
|
机器学习/深度学习 算法 数据处理
EM算法对人脸数据降维(机器学习作业06)
本文介绍了使用EM算法对人脸数据进行降维的机器学习作业。首先通过加载ORL人脸数据库,然后分别应用SVD_PCA、MLE_PCA及EM_PCA三种方法实现数据降维,并输出降维后的数据形状。此作业展示了不同PCA变种在人脸数据处理中的应用效果。
32 0
|
2月前
|
机器学习/深度学习 数据采集 存储
一文读懂蒙特卡洛算法:从概率模拟到机器学习模型优化的全方位解析
蒙特卡洛方法起源于1945年科学家斯坦尼斯劳·乌拉姆对纸牌游戏中概率问题的思考,与约翰·冯·诺依曼共同奠定了该方法的理论基础。该方法通过模拟大量随机场景来近似复杂问题的解,因命名灵感源自蒙特卡洛赌场。如今,蒙特卡洛方法广泛应用于机器学习领域,尤其在超参数调优、贝叶斯滤波等方面表现出色。通过随机采样超参数空间,蒙特卡洛方法能够高效地找到优质组合,适用于处理高维度、非线性问题。本文通过实例展示了蒙特卡洛方法在估算圆周率π和优化机器学习模型中的应用,并对比了其与网格搜索方法的性能。
299 1
|
4月前
|
人工智能 算法 大数据
算法金 | 推导式、生成器、向量化、map、filter、reduce、itertools,再见 for 循环
这篇内容介绍了编程中避免使用 for 循环的一些方法,特别是针对 Python 语言。它强调了 for 循环在处理大数据或复杂逻辑时可能导致的性能、可读性和复杂度问题。
51 6
算法金 | 推导式、生成器、向量化、map、filter、reduce、itertools,再见 for 循环
|
3月前
|
机器学习/深度学习 算法 数据挖掘
|
3月前
|
算法
基于EM期望最大化算法的GMM模型参数估计matlab仿真
此程序在MATLAB 2022a中实现了基于EM算法的GMM参数估计,用于分析由多个高斯分布组成的混合数据。程序通过迭代优化各高斯组件的权重、均值与协方差,直至收敛,并输出迭代过程的收敛曲线及最终参数估计结果。GMM假设数据由K个高斯分布混合而成,EM算法通过E步计算样本归属概率,M步更新参数,循环迭代直至收敛。
|
4月前
|
机器学习/深度学习 数据采集 算法
Python实现贝叶斯岭回归模型(BayesianRidge算法)并使用K折交叉验证进行模型评估项目实战
Python实现贝叶斯岭回归模型(BayesianRidge算法)并使用K折交叉验证进行模型评估项目实战
130 1
|
4月前
|
机器学习/深度学习 人工智能 分布式计算
算法金 | 最难的来了:超参数网格搜索、贝叶斯优化、遗传算法、模型特异化、Hyperopt、Optuna、多目标优化、异步并行优化
机器学习中的超参数调优是提升模型性能的关键步骤,包括网格搜索、随机搜索、贝叶斯优化和遗传算法等方法。网格搜索通过穷举所有可能的超参数组合找到最优,但计算成本高;随机搜索则在预设范围内随机采样,降低计算成本;贝叶斯优化使用代理模型智能选择超参数,效率高且适应性强;遗传算法模拟生物进化,全局搜索能力强。此外,还有多目标优化、异步并行优化等高级技术,以及Hyperopt、Optuna等优化库来提升调优效率。实践中,应结合模型类型、数据规模和计算资源选择合适的调优策略。
174 0
算法金 | 最难的来了:超参数网格搜索、贝叶斯优化、遗传算法、模型特异化、Hyperopt、Optuna、多目标优化、异步并行优化