基于LSTM神经网络的电力负荷预测(Python代码实现)

本文涉及的产品
任务调度 XXL-JOB 版免费试用,400 元额度,开发版规格
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
云原生网关 MSE Higress,422元/月
简介: 基于LSTM神经网络的电力负荷预测(Python代码实现)

💥1 概述

前馈神经网络的输出只依赖当前输入,但是在文本、视频、语音等时序数据中,时序数据长度并不固定,前馈神经网络的输入输出维数不能任意更改,因此难以适应这类型时序数据的处理。短期电力负荷预测的输入与输出均为时间序列,其本质仍是基于先前元素的序列预测问题,为此需要采用与前馈神经网络不同的方法,进行短期电力负荷预测。

循环神经网络具有记忆功能,可提升网络性能。与前馈神经网络相比,循环神经网络具备可同时接受自身信息与其他神经元信息的神经元,更贴合生物神经网络结构,在文本等序列数据分析中有广泛应用。循环神经网络的参数学习随时间反向传播,错误信息前传递学习,建立长时间间隔的状态间依赖,支持序列数据的分析处理。但随着网络层数增多与时间加长,循环神经网络容易因梯度消失或爆炸问题,导致只能学习短距离依赖,无法解决长距离依赖问题。为了解决循环神经网络的长程依赖问题,在循环神经网络上添加门控机制,实现调度信息积累速度控制,这类方法被称之为基于门控的循环神经网络,例如LSTM长短期记忆网络。LSTM是一种基于RNN的改进模型,通过引入门和单元的概念,解决长距离依赖问题,具有比RNN更强的适应性。LSTM网络的单结构如图1所示。每个神经单元内部结构如图2所示。

每个LSTM神经单元都包含遗忘门、输入门和输出门三个门控结构,以控制数据有信息的换地。其中,遗忘门负责丢弃和保留上一个时刻的有效信息在C{C内,输入门将当前时刻有效信息存放在Ct内,输出门决定神经单元输出中C·的信息。


与传统神经网络算法相比,LSTM网络具有更强的自适应学习能力,对复杂样本数据有更好的拟合效果。LSTM网络通过门控结构,有效避免了时间增加所导致的梯度消失的问题,且由于采用了三个输入值与两个输入值的当前时刻记忆单元,因此模型也具有更好的泛化能力。



📚2 运行结果

City AEP, model MLP, epoch 10, train_mse_loss 0.035387418246355606, [150s]
City AEP, model MLP, epoch 20, train_mse_loss 0.032379517520683396, [289s]
City AEP, model MLP, epoch 30, train_mse_loss 0.02896040348687034, [427s]
City AEP, model MLP, epoch 40, train_mse_loss 0.025020044269985046, [567s]
City AEP, model MLP, epoch 50, train_mse_loss 0.020603562772705936, [705s]
City AEP, model MLP, epoch 60, train_mse_loss 0.017132578714602234, [841s]
City AEP, model MLP, epoch 70, train_mse_loss 0.013568510578108438, [2662s]
City AEP, model MLP, epoch 80, train_mse_loss 0.010349302512148151, [2804s]
City AEP, model MLP, epoch 90, train_mse_loss 0.008659378628826875, [2966s]
City AEP, model MLP, epoch 100, train_mse_loss 0.007364045838703928, [3117s]
City AEP, model MLP, epoch 110, train_mse_loss 0.006385179391751687, [3279s]
City AEP, model MLP, epoch 120, train_mse_loss 0.005340989620046879, [3414s]
City AEP, model MLP, epoch 130, train_mse_loss 0.004808902484027372, [3553s]
City AEP, model MLP, epoch 140, train_mse_loss 0.004394962796536477, [3705s]
City AEP, model MLP, epoch 150, train_mse_loss 0.0043113342354722, [3850s]
City AEP, model MLP, epoch 160, train_mse_loss 0.00431272537663471, [4003s]
City AEP, model MLP, epoch 170, train_mse_loss 0.004233362978202817, [4165s]
City AEP, model MLP, epoch 180, train_mse_loss 0.0041272962850559015, [4320s]
City AEP, model MLP, epoch 190, train_mse_loss 0.004165695266514693, [4465s]
City AEP, model MLP, epoch 200, train_mse_loss 0.004172246530314611, [4606s]
City AEP, model MLP, epoch 210, train_mse_loss 0.0043414913436762344, [4760s]
City AEP, model MLP, epoch 220, train_mse_loss 0.00410465720831754, [4895s]
City AEP, model MLP, epoch 230, train_mse_loss 0.00419495751797829, [5028s]
City AEP, model MLP, epoch 240, train_mse_loss 0.004089633657502523, [5168s]
City AEP, model MLP, epoch 250, train_mse_loss 0.0042064220887487345, [5331s]
City AEP, model MLP, epoch 260, train_mse_loss 0.004085837542821748, [5491s]
City AEP, model MLP, epoch 270, train_mse_loss 0.004034197799847933, [5645s]


运行时间比较长。

      for loss_type in ['mse', 'smoothl1loss']:
            args.loss_type = loss_type
            preds = pd.read_csv(args.save_res_dir + 'ele_' + args.loss_type + '_preds_' + args.model_name + '.csv')
            # 绘图
            plt.plot(preds[[args.city_name]].values.flatten()[::args.plot_gap], 'r', label='prediction')
            plt.plot(np.multiply(data_y.flatten()[::args.plot_gap], scalar), 'b', label='real')
            plt.legend(loc='best')
            plt.savefig(save_plot_dir + args.city_name + '_' + args.loss_type + '.jpg')
            # plt.show()
            plt.close()


部分代码:

#一、数据准备
datas = df1.values[:, 2]
print(datas.shape)
#归一化处理,这一步必不可少,不然后面训练数据误差会很大,模型没法用
max_value = np.max(datas)
min_value = np.min(datas)
scalar = max_value - min_value
datas = list(map(lambda x: x / scalar, datas))
#数据集和目标值赋值,dataset为数据,look_back为以几行数据为特征维度数量
def creat_dataset(dataset,look_back):
    data_x = []
    data_y = []
    for i in range(len(dataset)-look_back):
        data_x.append(dataset[i:i+look_back])
        data_y.append(dataset[i+look_back])
    return np.asarray(data_x), np.asarray(data_y) #转为ndarray数据
#以2为特征维度,得到数据集
dataX, dataY = creat_dataset(datas,2)
train_size = int(len(dataX)*0.7)
x_train = dataX[:train_size] #训练数据
y_train = dataY[:train_size] #训练数据目标值
x_train = x_train.reshape(-1, 1, 2) #将训练数据调整成pytorch中lstm算法的输入维度
y_train = y_train.reshape(-1, 1, 1)  #将目标值调整成pytorch中lstm算法的输出维度
 #将ndarray数据转换为张量,因为pytorch用的数据类型是张量
#一、数据准备
datas = df1.values[:, 2]
print(datas.shape)
#归一化处理,这一步必不可少,不然后面训练数据误差会很大,模型没法用
max_value = np.max(datas)
min_value = np.min(datas)
scalar = max_value - min_value
datas = list(map(lambda x: x / scalar, datas))
#数据集和目标值赋值,dataset为数据,look_back为以几行数据为特征维度数量
def creat_dataset(dataset,look_back):
    data_x = []
    data_y = []
    for i in range(len(dataset)-look_back):
        data_x.append(dataset[i:i+look_back])
        data_y.append(dataset[i+look_back])
    return np.asarray(data_x), np.asarray(data_y) #转为ndarray数据
#以2为特征维度,得到数据集
dataX, dataY = creat_dataset(datas,2)
train_size = int(len(dataX)*0.7)
x_train = dataX[:train_size] #训练数据
y_train = dataY[:train_size] #训练数据目标值
x_train = x_train.reshape(-1, 1, 2) #将训练数据调整成pytorch中lstm算法的输入维度
y_train = y_train.reshape(-1, 1, 1)  #将目标值调整成pytorch中lstm算法的输出维度
 #将ndarray数据转换为张量,因为pytorch用的数据类型是张量

🌈3 Python代码及数据

🎉4 参考文献

部分理论来源于网络,如有侵权请联系删除。


[1]刘海峰,王艳如.基于LSTM的短期电力负荷预测算法研究[J].现代信息科技,2021,5(23):40-42+47.DOI:10.19850/j.cnki.2096-4706.2021.23.011.


[2]陈振宇,杨斌,阮文俊,沈杰,吴丽莉.基于LSTM神经网络的短期电能负荷预测[J].电力大数据,2021,24(04):8-15.DOI:10.19317/j.cnki.1008-083x.2021.04.002.

相关实践学习
基于MSE实现微服务的全链路灰度
通过本场景的实验操作,您将了解并实现在线业务的微服务全链路灰度能力。
相关文章
|
2月前
|
机器学习/深度学习 人工智能 算法
猫狗宠物识别系统Python+TensorFlow+人工智能+深度学习+卷积网络算法
宠物识别系统使用Python和TensorFlow搭建卷积神经网络,基于37种常见猫狗数据集训练高精度模型,并保存为h5格式。通过Django框架搭建Web平台,用户上传宠物图片即可识别其名称,提供便捷的宠物识别服务。
346 55
|
3月前
|
数据采集 缓存 定位技术
网络延迟对Python爬虫速度的影响分析
网络延迟对Python爬虫速度的影响分析
|
3月前
|
Python
Python中的异步编程:使用asyncio和aiohttp实现高效网络请求
【10月更文挑战第34天】在Python的世界里,异步编程是提高效率的利器。本文将带你了解如何使用asyncio和aiohttp库来编写高效的网络请求代码。我们将通过一个简单的示例来展示如何利用这些工具来并发地处理多个网络请求,从而提高程序的整体性能。准备好让你的Python代码飞起来吧!
152 2
|
4天前
|
机器学习/深度学习 人工智能 算法
基于Python深度学习的【蘑菇识别】系统~卷积神经网络+TensorFlow+图像识别+人工智能
蘑菇识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建卷积神经网络算法,并收集了9种常见的蘑菇种类数据集【"香菇(Agaricus)", "毒鹅膏菌(Amanita)", "牛肝菌(Boletus)", "网状菌(Cortinarius)", "毒镰孢(Entoloma)", "湿孢菌(Hygrocybe)", "乳菇(Lactarius)", "红菇(Russula)", "松茸(Suillus)"】 再使用通过搭建的算法模型对数据集进行训练得到一个识别精度较高的模型,然后保存为为本地h5格式文件。最后使用Django框架搭建了一个Web网页平台可视化操作界面,
40 11
基于Python深度学习的【蘑菇识别】系统~卷积神经网络+TensorFlow+图像识别+人工智能
|
3月前
|
数据采集 存储 JSON
Python网络爬虫:Scrapy框架的实战应用与技巧分享
【10月更文挑战第27天】本文介绍了Python网络爬虫Scrapy框架的实战应用与技巧。首先讲解了如何创建Scrapy项目、定义爬虫、处理JSON响应、设置User-Agent和代理,以及存储爬取的数据。通过具体示例,帮助读者掌握Scrapy的核心功能和使用方法,提升数据采集效率。
189 6
|
3月前
|
安全 网络安全 数据安全/隐私保护
|
23天前
|
安全 Linux 网络安全
利用Python脚本自动备份网络设备配置
通过本文的介绍,我们了解了如何利用Python脚本自动备份网络设备配置。该脚本使用 `paramiko`库通过SSH连接到设备,获取并保存配置文件。通过定时任务调度,可以实现定期自动备份,确保网络设备配置的安全和可用。希望这些内容能够帮助你在实际工作中实现网络设备的自动化备份。
48 14
|
2月前
|
机器学习/深度学习 人工智能 算法
【宠物识别系统】Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+图像识别
宠物识别系统,本系统使用Python作为主要开发语言,基于TensorFlow搭建卷积神经网络算法,并收集了37种常见的猫狗宠物种类数据集【'阿比西尼亚猫(Abyssinian)', '孟加拉猫(Bengal)', '暹罗猫(Birman)', '孟买猫(Bombay)', '英国短毛猫(British Shorthair)', '埃及猫(Egyptian Mau)', '缅因猫(Maine Coon)', '波斯猫(Persian)', '布偶猫(Ragdoll)', '俄罗斯蓝猫(Russian Blue)', '暹罗猫(Siamese)', '斯芬克斯猫(Sphynx)', '美国斗牛犬
220 29
【宠物识别系统】Python+卷积神经网络算法+深度学习+人工智能+TensorFlow+图像识别
|
2月前
|
机器学习/深度学习 人工智能 算法
深度学习入门:用Python构建你的第一个神经网络
在人工智能的海洋中,深度学习是那艘能够带你远航的船。本文将作为你的航标,引导你搭建第一个神经网络模型,让你领略深度学习的魅力。通过简单直观的语言和实例,我们将一起探索隐藏在数据背后的模式,体验从零开始创造智能系统的快感。准备好了吗?让我们启航吧!
112 3
|
3月前
|
网络安全 Python
Python网络编程小示例:生成CIDR表示的IP地址范围
本文介绍了如何使用Python生成CIDR表示的IP地址范围,通过解析CIDR字符串,将其转换为二进制形式,应用子网掩码,最终生成该CIDR块内所有可用的IP地址列表。示例代码利用了Python的`ipaddress`模块,展示了从指定CIDR表达式中提取所有IP地址的过程。
88 6

热门文章

最新文章