Python用Lstm神经网络、离散小波转换DWT降噪对中压电网电压时间序列预测

简介: Python用Lstm神经网络、离散小波转换DWT降噪对中压电网电压时间序列预测

全文链接:http://tecdat.cn/?p=31149


对于电力公司来说,对局部放电的准确预测可以显著降低人力物力成本。据调查,80%的输电设备损坏是随机发生的,而只有20%由于老化

而损坏案例中又有85%是由于局部放电现象的发生。电厂98%的维护费用于支付维修师的薪资。因此,准确的预测电网的电压变化并预测局部放电现象的发生,可以极大的降低维修师的工作效率并降低维护成本。

相关视频

N37R@Y6VQAF$76D_0ZL[LK9.png

RQSESNK_`FZANIN0Y$J}QC8.png

解决方案

任务 / 目标

根据电力公司提出的要求,利用电压数据对电网电压进行电压预测。

数据源准备

数据源来自电力公司的电网监测系统,他们记录了电网位置( id_measurement ):用于记录电网的地理位置。信号( signal_id ):每个 signal_id 包含 20 毫秒内的 800 000 个电压数据。相( phase ):用于标记设备的相。目标( target ):用于标记设备是否发生局部放电。

L[[)V]K{BFIHH9H7_B0OWCS.png


点击标题查阅往期内容


CP}]01~BKX}U(}]E}XL0I~3.png

分位数回归、GAM样条曲线、指数平滑和SARIMA对电力负荷时间序列预测

左右滑动查看更多

01

JF)W])17(6AK`BPSW$I0`Y2.png

02

1(L@_4I2F4(P5TPMAJKQQ2D.png

03

M0F7U4V$(WT(%MMF3_MOPEP.png

04

V%FU$6B@ZBEGLF)W@K_@5BJ.png



特征转换

对每段id_mesurement的三相电压值求和,正常情况下,在同一时间的三相电压和为零。以用于辅助判断是否发生局部放电。

构造

数据集结构如下

]3$M7EUX5YHX5@_FHP72C$2.png

划分训练集和测试集

因为数据集包含20毫秒内的压力变化,因此以时间顺序将前75%划分为训练集,后25%为测试集。

建模

长短期记忆模型(LSTM)

一种特殊结构的循环神经网络,适用于时间序列数据的预测,建立较大的深度神经网络。

模型优化

数据降噪

电压数据来自现实世界,因此存在许多噪点,利用离散小波转换(DWT)对电压数据进行降噪,使正常电压数据归于平稳,局部放电现象更易被察觉。

1V9EMY@HFO411@NZF__`_)4.png

项目结果

利用Lstm很好的对未来电压值进行了预测,预测准确率达到85.3%。

但是,即使对于Lstm,序列的长度仍然太长了(200-300更佳),若能对数据序列进行压缩,有可能得到更好的预测结果。

关于作者

在此对Yuxuan Xia对本文所作的贡献表示诚挚感谢,他毕业于西北大学,专长深度学习、推荐算法、决策分析。


相关文章
|
2天前
|
机器学习/深度学习 算法 TensorFlow
Python深度学习基于Tensorflow(6)神经网络基础
Python深度学习基于Tensorflow(6)神经网络基础
15 2
Python深度学习基于Tensorflow(6)神经网络基础
|
2天前
|
机器学习/深度学习 自然语言处理 PyTorch
使用Python实现循环神经网络(RNN)的博客教程
使用Python实现循环神经网络(RNN)的博客教程
20 1
|
3天前
|
机器学习/深度学习 PyTorch 算法框架/工具
使用Python实现卷积神经网络(CNN)
使用Python实现卷积神经网络(CNN)的博客教程
23 1
|
5天前
|
机器学习/深度学习 存储 数据可视化
【视频】LSTM模型原理及其进行股票收盘价的时间序列预测讲解|附数据代码2
【视频】LSTM模型原理及其进行股票收盘价的时间序列预测讲解|附数据代码
|
5天前
|
机器学习/深度学习 数据可视化 TensorFlow
【视频】LSTM模型原理及其进行股票收盘价的时间序列预测讲解|附数据代码1
【视频】LSTM模型原理及其进行股票收盘价的时间序列预测讲解|附数据代码
|
5天前
|
机器学习/深度学习 自然语言处理 算法
Python遗传算法GA对长短期记忆LSTM深度学习模型超参数调优分析司机数据|附数据代码
Python遗传算法GA对长短期记忆LSTM深度学习模型超参数调优分析司机数据|附数据代码
|
5天前
|
机器学习/深度学习 算法 数据可视化
基于WOA优化的CNN-LSTM-Attention的时间序列回归预测matlab仿真
该文介绍了使用优化后的深度学习模型(基于CNN、LSTM和Attention机制)进行时间序列预测,对比了优化前后的效果,显示了性能提升。算法在MATLAB2022a中实现,利用WOA(鲸鱼优化算法)调整模型超参数。模型通过CNN提取局部特征,LSTM处理序列依赖,Attention机制关注相关历史信息。核心程序展示了WOA如何迭代优化及预测过程,包括数据归一化、网络结构分析和预测误差可视化。
|
5天前
|
机器学习/深度学习 算法
LSTM时间序列预测中的一个常见错误以及如何修正
在使用LSTM进行时间序列预测时,常见错误是混淆回归和预测问题。LSTM需将时间序列转化为回归问题,通常使用窗口或多步方法。然而,窗口方法中,模型在预测未来值时依赖已知的未来值,导致误差累积。为解决此问题,应采用迭代预测和替换输入值的方法,或者在多步骤方法中选择合适的样本数量和训练大小以保持时间结构。编码器/解码器模型能更好地处理时间数据。
30 1
|
11天前
|
机器学习/深度学习 PyTorch TensorFlow
【Python机器学习专栏】循环神经网络(RNN)与LSTM详解
【4月更文挑战第30天】本文探讨了处理序列数据的关键模型——循环神经网络(RNN)及其优化版长短期记忆网络(LSTM)。RNN利用循环结构处理序列依赖,但遭遇梯度消失/爆炸问题。LSTM通过门控机制解决了这一问题,有效捕捉长距离依赖。在Python中,可使用深度学习框架如PyTorch实现LSTM。示例代码展示了如何定义和初始化一个简单的LSTM网络结构,强调了RNN和LSTM在序列任务中的应用价值。
|
9月前
|
存储 算法 BI
【100天精通python】Day6:python基础_基本数据结构,常用序列类型和运算符
【100天精通python】Day6:python基础_基本数据结构,常用序列类型和运算符
104 0