机器学习EM算法

简介: 机器学习EM算法

1 初识EM算法

EM算法也称期望最大化(Expectation-Maximum,简称EM)算法。


**它是一个基础算法,是很多机器学习领域算法的基础,**比如隐式马尔科夫算法(HMM)等等。


EM算法是一种迭代优化策略,由于它的计算方法中每一次迭代都分两步,


其中一个为期望步(E步),

另一个为极大步(M步),

所以算法被称为EM算法(Expectation-Maximization Algorithm)。


EM算法受到缺失思想影响,最初是为了解决数据缺失情况下的参数估计问题,其算法基础和收敛有效性等问题在Dempster、Laird和Rubin三人于1977年所做的文章《Maximum likelihood from incomplete data via the EM algorithm》中给出了详细的阐述。其基本思想是:


首先根据己经给出的观测数据,估计出模型参数的值;

然后再依据上一步估计出的参数值估计缺失数据的值,再根据估计出的缺失数据加上之前己经观测到的数据重新再对参数值进行估计;

然后反复迭代,直至最后收敛,迭代结束。

EM算法计算流程:

92065156f25bf0fe1a3a9ff88235f547.jpg



小结


EM算法是一种迭代优化策略,由于它的计算方法中每一次迭代都分两步:

其中一个为期望步(E步)

另一个为极大步(M步)

2 EM算法介绍

想清晰的了解EM算法,我们需要知道一个基础知识:


“极大似然估计”

2.1 极大似然估计

2.1.1 问题描述

假如我们需要调查学校的男生和女生的身高分布 ,我们抽取100个男生和100个女生,将他们按照性别划分为两组。


然后,统计抽样得到100个男生的身高数据和100个女生的身高数据。


如果我们知道他们的身高服从正态分布,但是这个分布的均值μ 和方差δ2 是不知道,这两个参数就是我们需要估计的。


问题:我们知道样本所服从的概率分布模型和一些样本,我们需要求解该模型的参数.


4aed3b26a18dd1b49ad96575bfe2addc.jpg


我们已知的条件有两个:

样本服从的分布模型

随机抽取的样本。

我们需要求解模型的参数。

根据已知条件,通过极大似然估计,求出未知参数。


总的来说:极大似然估计就是用来估计模型参数的统计学方法。


2.1.2 用数学知识解决现实问题

问题数学化:

e368fb6a745b401b165dd5a54e61fb15.jpg

样本集 。

概率密度是:[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Slsbv38b-1665845707351)(https://www.zhihu.com/equation?tex=p(x_{i}|\theta)]) 抽到第i个男生身高的概率。

由于100个样本之间独立同分布,所以同时抽到这100个男生的概率是它们各自概率的乘积,也就是样本集X中各个样本的联合概率,用下式表示:

fe30da41003c4d7dd511493e1aeeb655.jpg


这个概率反映了在概率密度函数的参数是θ时,得到X这组样本的概率。

我们需要找到一个参数θ,使得抽到X这组样本的概率最大,也就是说需要其对应的似然函数L(θ)最大。

满足条件的θ叫做θ的最大似然估计值,记为:

2.1.3 最大似然函数估计值的求解步骤

首先,写出似然函数:dd5a7f2fee9e934ab4b6d8cb04433304.jpg

其次,对似然函数取对数:2d3a25c2edcbb950e580420385c7a981.jpg

然后,对上式求导,令导数为0,得到似然方程。

最后,解似然方程,得到的参数值即为所求。

多数情况下,我们是根据已知条件来推算结果,而极大似然估计是已知结果,寻求使该结果出现的可能性最大的条件,以此作为估计值。


链接:极大似然函数取对数的原因


2.2 EM算法实例描述

我们目前有100个男生和100个女生的身高,但是**我们不知道这200个数据中哪个是男生的身高,哪个是女生的身高,**即抽取得到的每个样本都不知道是从哪个分布中抽取的。


这个时候,对于每个样本,就有两个未知量需要估计:


(1)这个身高数据是来自于男生数据集合还是来自于女生?


(2)男生、女生身高数据集的正态分布的参数分别是多少?


具体问题如下图:

17adf606596f76381d7cfd5438a8b60e.jpg



对于具体的身高问题使用EM算法求解步骤如下:


49f482d62818603077c4bccff62a60b7.jpg


(1)**初始化参数:**先初始化男生身高的正态分布的参数:如均值=1.65,方差=0.15;


(2)**计算分布:**计算每一个人更可能属于男生分布或者女生分布;


(3)重新估计参数:通过分为男生的n个人来重新估计男生身高分布的参数(最大似然估计),女生分布也按照相同的方式估计出来,更新分布。


(4)这时候两个分布的概率也变了,然后重复步骤(1)至(3),直到参数不发生变化为止。


2.3 EM算法流程

输入:


n个样本观察数据 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ch7QUh63-1665845707353)(https://www.zhihu.com/equation?tex=x%3D(x_{1}%2Cx_{2}%2C…x_{n})]) ,未观察到的隐含数据 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-bexdwlGD-1665845707354)(https://www.zhihu.com/equation?tex=z%3D(z_{1}%2Cz_{2}%2C…%2Cz_{n})]) ,

联合分布 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-IVPi0Sk0-1665845707354)(https://www.zhihu.com/equation?tex=p(x%2Cz%3B\theta)]) ,条件分布 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-6njQbdgz-1665845707355)(https://www.zhihu.com/equation?tex=p(z|x%2C\theta)]) ,最大迭代次数 J。

算法步骤:


1)随机初始化模型参数θ的初值 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-8jTLIQcS-1665845707356)(https://www.zhihu.com/equation?tex=\theta_{0})] 。


2)j=1,2,…,J 开始EM算法迭代:


E步:计算联合分布的条件概率期望:

c422f7275df2b4616b7aa62a63db20b4.jpg


M步:极大化 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-zx1ixuDy-1665845707357)(https://www.zhihu.com/equation?tex=l(\theta%2C\theta_{j})]) ,得到 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-H1qXEms1-1665845707358)(https://www.zhihu.com/equation?tex=\theta_{j%2B1})] :


412a6d3102b06f73457eebdbc0d77d92.jpg

如果[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-sbY16Qiv-1665845707360)(https://www.zhihu.com/equation?tex=\theta_{j%2B1})] 已经收敛,则算法结束。否则继续进行E步和M步进行迭代。

**输出:**模型参数θ。


小结


极大似然估计

根据已知条件,通过极大似然估计,求出未知参数;

极大似然估计就是用来估计模型参数的统计学方法。

EM算法基本流程

1) 初始化参数;

2) 计算分布;

3) 重新估计参数;

4) 重复1-3步,直到参数不发生变化为止。

3 EM算法实例

3.1 一个超级简单的案例

假设现在有两枚硬币1和2,,随机抛掷后正面朝上概率分别为P1,P2。为了估计这两个概率,做实验,每次取一枚硬币,连掷5下,记录下结果,如下:

硬币 结果 统计
1 正正反正反 3正-2反
2 反反正正反 2正-3反
1 正反反反反 1正-4反
2 正反反正正 3正-2反
1 反正正反反 2正-3反

可以很容易地估计出P1和P2,如下:


P1 = (3+1+2)/ 15 = 0.4 P2= (2+3)/10 = 0.5


到这里,一切似乎很美好,下面我们加大难度。


3.2 加入隐变量z后的求解

还是上面的问题,现在我们抹去每轮投掷时使用的硬币标记,如下:

硬币 结果 统计
Unknown 正正反正反 3正-2反
Unknown 反反正正反 2正-3反
Unknown 正反反反反 1正-4反
Unknown 正反反正正 3正-2反
Unknown 反正正反反 2正-3反


好了,现在我们的目标没变,还是估计P1和P2,要怎么做呢?


显然,此时我们多了一个隐变量z,可以把它认为是一个5维的向量(z1,z2,z3,z4,z5),代表每次投掷时所使用的硬币,比如z1,就代表第一轮投掷时使用的硬币是1还是2。但是,这个变量z不知道,就无法去估计P1和P2,所以,我们必须先估计出z,然后才能进一步估计P1和P2。


但要估计 z,我们又得知道P1和P2,这样我们才能用最大似然概率法则去估计z,这不是鸡生蛋和蛋生鸡的问题吗,如何破?


答案就是先随机初始化一个P1和P2,用它来估计z,然后基于z,还是按照最大似然概率法则去估计新的P1和P2,如果新的P1和P2和我们初始化的P1和P2一样,请问这说明了什么?(此处思考1分钟)


这说明我们初始化的P1和P2是一个相当靠谱的估计!


就是说,我们初始化的P1和P2,按照最大似然概率就可以估计出z,然后基于z,按照最大似然概率可以反过来估计出P1和P2,当与我们初始化的P1和P2一样时,说明是P1和P2很有可能就是真实的值。这里面包含了两个交互的最大似然估计。


如果新估计出来的P1和P2和我们初始化的值差别很大,怎么办呢?就是继续用新的P1和P2迭代,直至收敛。


这就是下面的EM初级版。


3.2.1 EM初级版

我们不妨这样,先随便给P1和P2赋一个值,比如:


P1 = 0.2

P2 = 0.7

然后,我们看看第一轮抛掷最可能是哪个硬币。


如果是硬币1,得出3正2反的概率为: 0.20.20.20.80.8 = 0.00512

如果是硬币2,得出3正2反的概率为: 0.70.70.70.30.3=0.03087

然后依次求出其他4轮中的相应概率。做成表格如下:

轮数 若是硬币1 若是硬币2
1 0.00512 0.03087
2 0.02048 0.01323
3 0.08192 0.00567
4 0.00512 0.03087
5 0.02048 0.01323


按照最大似然法则:


第1轮中最有可能的是硬币2

第2轮中最有可能的是硬币1

第3轮中最有可能的是硬币1

第4轮中最有可能的是硬币2

第5轮中最有可能的是硬币1

我们就把上面的值作为z的估计值。然后按照最大似然概率法则来估计新的P1和P2。


P1 =(2 + 1 + 2)/ 15 = 0.33

P2=(3 + 3)/ 10 = 0.6

设想我们是全知的神,知道每轮抛掷时的硬币就是如本文第001部分标示的那样,那么,P1和P2的最大似然估计就是0.4和0.5(下文中将这两个值称为P1和P2的真实值)。那么对比下我们初始化的P1和P2和新估计出的P1和P2:

初始化的P1 估计出的P1 真实的P1
0.2 0.33 0.4
初始化的P2 估计出的P2 真实的P2
0.7 0.6 0.5


看到没?我们估计的P1和P2相比于它们的初始值,更接近它们的真实值了!


可以期待,我们继续按照上面的思路,用估计出的P1和P2再来估计z,再用z来估计新的P1和P2,反复迭代下去,就可以最终得到P1 = 0.4,P2=0.5,此时无论怎样迭代,P1和P2的值都会保持0.4和0.5不变,于是乎,我们就找到了P1和P2的最大似然估计。


这里有两个问题:


1、新估计出的P1和P2一定会更接近真实的P1和P2?

答案是:没错,一定会更接近真实的P1和P2,数学可以证明,但这超出了本文的主题,请参阅其他书籍或文章。

2、迭代一定会收敛到真实的P1和P2吗?

答案是:不一定,取决于P1和P2的初始化值,上面我们之所以能收敛到P1和P2,是因为我们幸运地找到了好的初始化值。

3.2.2 EM进阶版

下面,我们思考下,上面的方法还有没有改进的余地?


我们是用最大似然概率法则估计出的z值,然后再用z值按照最大似然概率法则估计新的P1和P2。也就是说,我们使用了一个最可能的z值,而不是所有可能的z值。


如果考虑所有可能的z值,对每一个z值都估计出一个新的P1和P2,将每一个z值概率大小作为权重,将所有新的P1和P2分别加权相加,这样的P1和P2应该会更好一些。


所有的z值有多少个呢?


显然,有 25=32 种,需要我们进行32次估值??

不需要,我们可以用期望来简化运算。

轮数 若是硬币1 若是硬币2
1 0.00512 0.03087
2 0.02048 0.01323
3 0.08192 0.00567
4 0.00512 0.03087
5 0.02048 0.01323

利用上面这个表,我们可以算出每轮抛掷中使用硬币1或者使用硬币2的概率。


比如第1轮,使用硬币1的概率是:


0.00512/(0.00512+0.03087)=0.140.00512/(0.00512+0.03087)=0.14

使用硬币2的概率是1-0.14=0.86


依次可以算出其他4轮的概率,如下:

轮数 z_i=z**i=硬币1 z_i=z**i=硬币2
1 0.14 0.86
2 0.61 0.39
3 0.94 0.06
4 0.14 0.86
5 0.61 0.39

上表中的右两列表示期望值。看第一行,0.86表示,从期望的角度看,**这轮抛掷使用硬币2的概率是0.86。相比于前面的方法,我们按照最大似然概率,直接将第1轮估计为用的硬币2,此时的我们更加谨慎,我们只说,有0.14的概率是硬币1,有0.86的概率是硬币2,不再是非此即彼。**这样我们在估计P1或者P2时,就可以用上全部的数据,而不是部分的数据,显然这样会更好一些。


这一步,我们实际上是估计出了z的概率分布,这步被称作E步。


结合下表:

硬币 结果 统计
Unknown 正正反正反 3正-2反
Unknown 反反正正反 2正-3反
Unknown 正反反反反 1正-4反
Unknown 正反反正正 3正-2反
Unknown 反正正反反 2正-3反

我们按照期望最大似然概率的法则来估计新的P1和P2:


以P1估计为例,第1轮的3正2反相当于


0.14*3=0.42正

0.14*2=0.28反

依次算出其他四轮,列表如下:

轮数 正面 反面
1 0.42 0.28
2 1.22 1.83
3 0.94 3.76
4 0.42 0.28
5 1.22 1.83
总计 4.22 7.98


P1=4.22/(4.22+7.98)=0.35


可以看到,改变了z值的估计方法后,新估计出的P1要更加接近0.4。原因就是我们使用了所有抛掷的数据,而不是之前只使用了部分的数据。


这步中,我们根据E步中求出的z的概率分布,依据最大似然概率法则去估计P1和P2,被称作M步。


小结


EM算法的实现思路:

首先根据己经给出的观测数据,估计出模型参数的值;

然后再依据上一步估计出的参数值估计缺失数据的值,再根据估计出的缺失数据加上之前己经观测到的数据重新再对参数值进行估计;

然后反复迭代,直至最后收敛,迭代结束。



目录
相关文章
|
12天前
|
机器学习/深度学习 数据采集 人工智能
【机器学习算法篇】K-近邻算法
K近邻(KNN)是一种基于“物以类聚”思想的监督学习算法,通过计算样本间距离,选取最近K个邻居投票决定类别。支持多种距离度量,如欧式、曼哈顿、余弦相似度等,适用于分类与回归任务。结合Scikit-learn可高效实现,需合理选择K值并进行数据预处理,常用于鸢尾花分类等经典案例。(238字)
|
3月前
|
算法 数据可视化 数据挖掘
基于EM期望最大化算法的GMM参数估计与三维数据分类系统python源码
本内容展示了基于EM算法的高斯混合模型(GMM)聚类实现,包含完整Python代码、运行效果图及理论解析。程序使用三维数据进行演示,涵盖误差计算、模型参数更新、结果可视化等关键步骤,并附有详细注释与操作视频,适合学习EM算法与GMM模型的原理及应用。
|
5月前
|
机器学习/深度学习 数据采集 人工智能
20分钟掌握机器学习算法指南
在短短20分钟内,从零开始理解主流机器学习算法的工作原理,掌握算法选择策略,并建立对神经网络的直观认识。本文用通俗易懂的语言和生动的比喻,帮助你告别算法选择的困惑,轻松踏入AI的大门。
|
6月前
|
机器学习/深度学习 存储 Kubernetes
【重磅发布】AllData数据中台核心功能:机器学习算法平台
杭州奥零数据科技有限公司成立于2023年,专注于数据中台业务,维护开源项目AllData并提供商业版解决方案。AllData提供数据集成、存储、开发、治理及BI展示等一站式服务,支持AI大模型应用,助力企业高效利用数据价值。
|
7月前
|
机器学习/深度学习 人工智能 自然语言处理
AI训练师入行指南(三):机器学习算法和模型架构选择
从淘金到雕琢,将原始数据炼成智能珠宝!本文带您走进数字珠宝工坊,用算法工具打磨数据金砂。从基础的经典算法到精密的深度学习模型,结合电商、医疗、金融等场景实战,手把手教您选择合适工具,打造价值连城的智能应用。掌握AutoML改装套件与模型蒸馏术,让复杂问题迎刃而解。握紧算法刻刀,为数字世界雕刻文明!
262 6
|
8月前
|
机器学习/深度学习 算法 数据安全/隐私保护
基于机器学习的人脸识别算法matlab仿真,对比GRNN,PNN,DNN以及BP四种网络
本项目展示了人脸识别算法的运行效果(无水印),基于MATLAB2022A开发。核心程序包含详细中文注释及操作视频。理论部分介绍了广义回归神经网络(GRNN)、概率神经网络(PNN)、深度神经网络(DNN)和反向传播(BP)神经网络在人脸识别中的应用,涵盖各算法的结构特点与性能比较。
|
8月前
|
人工智能 编解码 算法
使用 PAI-DSW x Free Prompt Editing图像编辑算法,开发个人AIGC绘图小助理
使用 PAI-DSW x Free Prompt Editing图像编辑算法,开发个人AIGC绘图小助理
163 0
|
8月前
|
机器学习/深度学习 人工智能 自然语言处理
解锁机器学习的新维度:元学习的算法与应用探秘
元学习作为一个重要的研究领域,正逐渐在多个应用领域展现其潜力。通过理解和应用元学习的基本算法,研究者可以更好地解决在样本不足或任务快速变化的情况下的学习问题。随着研究的深入,元学习有望在人工智能的未来发展中发挥更大的作用。
|
16天前
|
数据采集 分布式计算 并行计算
mRMR算法实现特征选择-MATLAB
mRMR算法实现特征选择-MATLAB
76 2
|
29天前
|
传感器 机器学习/深度学习 编解码
MATLAB|主动噪声和振动控制算法——对较大的次级路径变化具有鲁棒性
MATLAB|主动噪声和振动控制算法——对较大的次级路径变化具有鲁棒性
146 3

热门文章

最新文章