经验模态分解(Empirical Mode Decomposition ,EMD)特征提取及其原理

简介: 经验模态分解(Empirical Mode Decomposition ,EMD)特征提取及其原理

基于经验模式分解的特征提取

近期看的算法就是EMD的,发现很多Paper用的地方还挺多的,在特征提取方面,来做个以轴承振动信号的故障诊断EMD特征提取的学习总结。


建议可以先看文章后半部分基础归类在看前半部分特征提取。


EMD方法是从一个简单的假设发展而来,即任何信号都是由不同的简单固有振型组成的。每个线性或非线性模式都有相同数目的极值和过零。在连续的零交点之间只有一个极值。每个模式都应该独立于其他模式。这样,每个信号就可以分解为若干个IMF(intrinsic mode functions,固有模态函数),每个IMF必须满足以下定义:


定义1:在整个数据集中,极值数和过零数必须相等或不大于1。

定义2:在任意点上,由局部极大值和局部极小值定义的包络线的均值为零。

与简谐函数相比,IMF表示一个简单的振动模式。


EMD的步骤如下:


找出原始信号x ( t ) x(t)x(t)的所有最大值点和最小值点,并用三次样条函数拟合原始信号的波动包络。


计算波动包络的均值,用u 1 ( t ) u_1(t)u

1


(t)表示,将原始数据序列减去均值得到新的数据序列y 1 ( t ) y_1(t)y

1


(t):


image.png

image.png

image.png

image.png

image.png

image.png

因此,将信号分解得到了n nn个经验模态,并得到了残差r n ( t ) r_n(t)r

n


(t),即残差x ( t ) x(t)x(t)的平均趋势。


image.png

image.png

----图片来自于网络

不同故障的轴承在运行时,振动信号中产生相应的共振频率分量,故障振动信号的能量随频率分布而变化。为了说明这种情况,计算了每个IMF的能量。

image.png

首先,计算n 个  IMFs  n 个 \text { IMFs }n个 IMFs 的总能量:

image.png

  1. 构造以能量为元素的特征向量F:

image.png

  1. 为方便后续神经网络的训练,将能量特征向量归一化如下:

image.png

然后

image.png

以下算是对EMD的一些小知识点总结吧~


简单基础总结

EMD(Empirical Mode Decomposition)作为时频域的处理方法,最显著的特点,就是其克服了基函数无自适应性的问题。


相对于同样是时频域方法的小波分析,小波分析是需要选定某一个小波基的,小波基的选择对整个小波分析的结果影响很大,一旦确定了小波基,在整个分析过程中将无法更换,即使该小波基在全局可能是最佳的,但在某些局部可能并不是,所以小波分析的基函数缺乏适应性。


简单说来,EMD就像一台机器,把一堆混在一起的硬币扔进去,他会自动按照1元、5毛、1毛、5分、1分地分成几份。


内涵模态分量(Intrinsic Mode Functions, IMF)就是原始信号被EMD分解之后得到的各层信号分量。或许和上面文章开头解释的固有模态函数的翻译不同,但其实是一样的~


—此处引用:大佬解释 膜拜

image.png

----图片来自于网络


原始信号:x ( t ) x(t)x(t)


IMF1:信号分量


IMF2:信号分量


IMF3:信号分量,可能会出现EMD端点效应


残差:r n ( t ) r_n(t)r

n


(t)


EMD特点:


自适应地进行信号的主成分分析,主要此处的主成分分析和 PCA 不同,关于PCA,我之前的博客有所提及。


对一段未知信号,而不需要做出预先分析及研究,就能够直接开始分解。这个方法会按照一些固有模式按层次分好,而不需要人为设置或者干预。


关于 EMD的代码,日后研究再更新!


相关文章
|
8月前
|
数据采集 自然语言处理
传统的序列模型CRF原理
传统的序列模型CRF原理
|
机器学习/深度学习 传感器 算法
变分模态分解|Matlab逐次变分模态分解SVMD数据重构
变分模态分解|Matlab逐次变分模态分解SVMD数据重构
|
8月前
|
机器学习/深度学习 人工智能 运维
[ICLR2024]基于对比稀疏扰动技术的时间序列解释框架ContraLSP
《Explaining Time Series via Contrastive and Locally Sparse Perturbations》被机器学习领域顶会ICLR 2024接收。该论文提出了一种创新的基于扰动技术的时间序列解释框架ContraLSP,该框架主要包含一个学习反事实扰动的目标函数和一个平滑条件下稀疏门结构的压缩器。论文在白盒时序预测,黑盒时序分类等仿真数据,和一个真实时序数据集分类任务中进行了实验,ContraLSP在解释性能上超越了SOTA模型,显著提升了时间序列数据解释的质量。
|
8月前
|
机器学习/深度学习 测试技术 TensorFlow
PYTHON用RNN神经网络LSTM优化EMD经验模态分解交易策略分析股票价格MACD
PYTHON用RNN神经网络LSTM优化EMD经验模态分解交易策略分析股票价格MACD
|
机器学习/深度学习 人工智能 算法
斯坦福大学引入FlashFFTConv来优化机器学习中长序列的FFT卷积
斯坦福大学的FlashFFTConv优化了扩展序列的快速傅里叶变换(FFT)卷积。该方法引入Monarch分解,在FLOP和I/O成本之间取得平衡,提高模型质量和效率。并且优于PyTorch和FlashAttention-v2。它可以处理更长的序列,并在人工智能应用程序中打开新的可能性
92 1
|
机器学习/深度学习 编解码 索引
神经网络风格化过程的特征控制
翻译:《Controlling Perceptual Factors in Neural Style Transfer》
|
机器学习/深度学习 传感器 算法
经验模态分解 | Matlab基于时变滤波的经验模态分解TVF-EMD
经验模态分解 | Matlab基于时变滤波的经验模态分解TVF-EMD
|
机器学习/深度学习 编解码 人工智能
深度学习进阶篇[8]:对抗神经网络GAN基本概念简介、纳什均衡、生成器判别器、解码编码器详解以及GAN应用场景
深度学习进阶篇[8]:对抗神经网络GAN基本概念简介、纳什均衡、生成器判别器、解码编码器详解以及GAN应用场景
深度学习进阶篇[8]:对抗神经网络GAN基本概念简介、纳什均衡、生成器判别器、解码编码器详解以及GAN应用场景
|
机器学习/深度学习 存储 人工智能
深度学习进阶篇7:Transformer模型长输入序列、广义注意力、FAVOR+快速注意力、蛋白质序列建模实操。
深度学习进阶篇7:Transformer模型长输入序列、广义注意力、FAVOR+快速注意力、蛋白质序列建模实操。
深度学习进阶篇7:Transformer模型长输入序列、广义注意力、FAVOR+快速注意力、蛋白质序列建模实操。
|
机器学习/深度学习 算法 Python
【CEEMDAN-VMD-GRU】完备集合经验模态分解-变分模态分解-门控循环单元预测研究(Python代码实现)
【CEEMDAN-VMD-GRU】完备集合经验模态分解-变分模态分解-门控循环单元预测研究(Python代码实现)
409 0

热门文章

最新文章