Machine Learning-L15-EM算法全解析(上)

本文涉及的产品
云解析 DNS,旗舰版 1个月
全局流量管理 GTM,标准版 1个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
简介: Machine Learning-L15-EM算法全解析

期望极大化(EM,Expectation Maximization)是一种迭代算法,1977年由Dempster等人总结提出,用于含有隐变量(hidden variable)的概率模型参数的极大似然估计或极大后验概率估计。


概率模型有时既含有观测变量(observable variable),又含有隐变量或潜变量(latent variable)。如果概率模型的变量都是观测变量,那么给定数据后,可以直接用极大似然估计或贝叶斯估计;但当模型含有隐变量时(如一个词所属的主题,聚类中的样本列表),难以求得参数的解析解,就需要用到EM算法。


EM算的每次迭代由两步组成:


E步:求期望步(expectation)

M步:求极大(maximization)


1 EM算法的引入


1.1 E.g.1 两硬币模型


(1)一般情况


假设有2枚硬币A,B,正面朝上的概率分别为p1 p2。为了估计正面朝上的概率,每次取一枚硬币,连续抛5次,记录结果如下:


20200407224743369.png

image.png

(2)含有隐变量的情况


若每次使用哪枚硬币抛掷未知,结果如下:


20200407224812330.png

此时相当于增加了隐变量Z = ( z 1 , z 2 , z 3 , z 4 , z 5),其中,zi= 0代表第i 轮使用硬币A抛掷, zi= 1 代表使用硬币B抛掷。


为了估计出p1 p2首先需要估计出Z ,由于p1p2 未知,可先随机初始化 p1 p2,估计出Z ,再利用Z 估计新的p1 p2


方法一:


p1= 0.2 ,p2 = 0.7 ,则在第一轮掷硬币中,


硬币A,3正2反的概率:0.2 ∗ 0.2 ∗ 0.2 ∗ 0.8 ∗ 0.8 = 0.00512

硬币B,3正2反的概率:0.7 ∗ 0.7 ∗ 0.7 ∗ 0.3 ∗ 0.3 = 0.03087


image.png


根据最大似然估计判定得到Z = ( 1 , 0 , 0 , 1 , 0 )硬币A,5正10反;硬币B,6正4反。

p1= 0.33 ,  p2= 0.6 相对于初始值更加接近真实值了。


可按照上述思路,用估计得到的p1p2再来估计Z(E-步),再用Z来估计新的p1p2(M-步),反复迭代下去,直到p1p2的值不再改变。


方法二:


上述方法中,根据每一轮使用A和B的概率,简单判定为非A即B,可不作出判定,而保留使用A和B的概率,即隐变量也是存在分布的。

如第1轮,


使用硬币A的概率:0.00512 / ( 0.00512 + 0.03087 ) = 0.14

使用硬币B的概率:1 − 0.14 = 0.86

依次计算出其他4轮的概率如下:


image.png


此时,完成了对于隐变量Z ZZ的概率分布的估计(E-步),再按照极大似然来估计p1p2M-步)。


如针对硬币A,第1轮3正2反,相当于正面概率为0.14*3=0.42,反面概率为0.14 ∗ 2 = 0.28 ,5轮列表如下:


image.png

此时,p 1 = 4.22 / ( 4.22 + 7.98 ) = 0.35


Do C B , Batzoglou S 在《What is the expectation maximization algorithm?》中提及的类似例子如下:



2020041121412674.png

1.2 E.g.2 三硬币模型


假设有3枚硬币A,B,C,这些硬币正面向上的概率分别为π , p , q 进行如下抛硬币实验:先抛硬币A,根据其结果选择硬币B或C:正面选B,反面选C;然后抛出选择的硬币,出现正面记作1,出现反面记作2。


20200406224927359.png


独立重复n ( n = 10 ) 次试验,观测结果如下:


1101001011


根据观测结果,估计三枚硬币正面向上的概率,即三枚硬币模型参数θ = ( π , p , q )

上述模型可以表示为:


image.png

其中,随机变量x xx是观测变量,表示本次试验观测结果是1或0;随机变量z zz是隐变量,表示未观测到的抛掷硬币A的结果。

注意:随机变量x xx的数据可以观测,随机变量z zz的数据不可观测。


令观测数据X = ( x 1 , x 2 , . . . , x n ) ,未观测数据Z = ( z 1 , z 2 , . . . , z n ) 则观测数据的似然函数:

image.png


求参数θ = ( π , p , q )的极大似然估计:

image.png

上述问题没有解析解,只能通过迭代的方法求解:选取参数的初始值,记作θ 0 = ( π 0 , p 0 , q 0 ) ,不断迭代计算参数的估计值,直至收敛。第j jj次迭代,参数估计值为θ j = ( π j , p j , q j )。其中,第j + 1 次迭代如下


E步:计算模型在参数θ j = ( π j , p j , q j ) 下观测数据y i  来自硬币B的概率:


image.png

M步:计算新的参数估计值:


image.png


假设模型参数θ 0 = ( π 0 , p 0 , q 0 ) = ( 0.5 , 0.5 , 0.5 ),对于x i = 1 与 x i = 0 , i = 1 , 2 , . . . , 10均有μ ( i , 1 ) = 0.5 。

根据迭代,可得到

image.png



image.png

继续迭代得到,

image.png

模型收敛,得到参数θ \thetaθ的极大似然估计:

image.png

π=0.5表示硬币A均匀,p = 0.6 , q = 0.6符合对于数据的直观观察,10次抛硬币中,正面出现了6次。

如果初始值θ 0 = ( 0.4 , 0.6 , 0.7 ) ,迭代后得到模型参数θ ^ = ( 0.4 , 0.537 , 0.643 ) 说明EM算法与初始值的选择有关。

相关文章
|
1月前
|
算法 前端开发 数据处理
小白学python-深入解析一位字符判定算法
小白学python-深入解析一位字符判定算法
48 0
|
1月前
|
存储 算法 Java
解析HashSet的工作原理,揭示Set如何利用哈希算法和equals()方法确保元素唯一性,并通过示例代码展示了其“无重复”特性的具体应用
在Java中,Set接口以其独特的“无重复”特性脱颖而出。本文通过解析HashSet的工作原理,揭示Set如何利用哈希算法和equals()方法确保元素唯一性,并通过示例代码展示了其“无重复”特性的具体应用。
44 3
|
1月前
|
搜索推荐 算法
插入排序算法的平均时间复杂度解析
【10月更文挑战第12天】 插入排序是一种简单直观的排序算法,通过不断将未排序元素插入到已排序部分的合适位置来完成排序。其平均时间复杂度为$O(n^2)$,适用于小规模或部分有序的数据。尽管效率不高,但在特定场景下仍具优势。
|
20天前
|
算法 Linux 定位技术
Linux内核中的进程调度算法解析####
【10月更文挑战第29天】 本文深入剖析了Linux操作系统的心脏——内核中至关重要的组成部分之一,即进程调度机制。不同于传统的摘要概述,我们将通过一段引人入胜的故事线来揭开进程调度算法的神秘面纱,展现其背后的精妙设计与复杂逻辑,让读者仿佛跟随一位虚拟的“进程侦探”,一步步探索Linux如何高效、公平地管理众多进程,确保系统资源的最优分配与利用。 ####
57 4
|
21天前
|
缓存 负载均衡 算法
Linux内核中的进程调度算法解析####
本文深入探讨了Linux操作系统核心组件之一——进程调度器,着重分析了其采用的CFS(完全公平调度器)算法。不同于传统摘要对研究背景、方法、结果和结论的概述,本文摘要将直接揭示CFS算法的核心优势及其在现代多核处理器环境下如何实现高效、公平的资源分配,同时简要提及该算法如何优化系统响应时间和吞吐量,为读者快速构建对Linux进程调度机制的认知框架。 ####
|
1月前
|
机器学习/深度学习 算法 PyTorch
Pytorch-RMSprop算法解析
关注B站【肆十二】,观看更多实战教学视频。本期介绍深度学习中的RMSprop优化算法,通过调整每个参数的学习率来优化模型训练。示例代码使用PyTorch实现,详细解析了RMSprop的参数及其作用。适合初学者了解和实践。
41 1
|
1月前
|
前端开发 算法 JavaScript
无界SaaS模式深度解析:算力算法、链接力、数据确权制度
私域电商的无界SaaS模式涉及后端开发、前端开发、数据库设计、API接口、区块链技术、支付和身份验证系统等多个技术领域。本文通过简化框架和示例代码,指导如何将核心功能转化为技术实现,涵盖用户管理、企业店铺管理、数据流量管理等关键环节。
|
1月前
|
机器学习/深度学习 算法 PyTorch
Pytorch-SGD算法解析
SGD(随机梯度下降)是机器学习中常用的优化算法,特别适用于大数据集和在线学习。与批量梯度下降不同,SGD每次仅使用一个样本来更新模型参数,提高了训练效率。本文介绍了SGD的基本步骤、Python实现及PyTorch中的应用示例。
42 0
|
1月前
|
机器学习/深度学习 传感器 算法
Pytorch-Adam算法解析
肆十二在B站分享深度学习实战教程,本期讲解Adam优化算法。Adam结合了AdaGrad和RMSProp的优点,通过一阶和二阶矩估计,实现自适应学习率,适用于大规模数据和非稳态目标。PyTorch中使用`torch.optim.Adam`轻松配置优化器。
49 0
|
1月前
|
存储 搜索推荐 算法
【排序算法(二)】——冒泡排序、快速排序和归并排序—>深层解析
【排序算法(二)】——冒泡排序、快速排序和归并排序—>深层解析
下一篇
无影云桌面