【数据挖掘实战】——电力窃漏电用户自动识别

简介: 【数据挖掘实战】——电力窃漏电用户自动识别

项目代码地址:https://gitee.com/lingxw123/datamining_project.git

项目来源于《数据分析与挖掘实战》


一、背景和挖掘目标


传统的防窃漏电方法主要通过定期巡检、定期校验电表、用户举报窃电等方法来发现窃电或计量装置故障。但这种方法对人的依赖性太强,抓窃查漏的目标不明确。目前,很多供电局主要通过营销稽查人员、用电检查人员和计量工作人员利用计量异常报警功能和电能量数据查询功能开展用户用电情况的在线监控工作,通过采集电量异常、负荷异常、终端报警、主站报警、线损异常等信息,建立数据分析模型,来实时监测窃漏电情况和发现计量装置的故障。根据报警事件发生前后客户计量点有关的电流、电压、负荷数据情况等,构建基于指标加权的用电异常分析模型,实现检查客户是否存在窃电、违章用电及计量装置故障等。


以上防窃漏电的诊断方法,虽然能获得用电异常的某些信息,但由于终端误报或漏报过多,无法达到真正快速精确定位窃漏电嫌疑用户的目的,往往令稽查工作人员无所适从。而且在采用这种方法建模时,模型各输入指标权重的确定需要用专家的知识和经验来判断,具有很大的主观性,存在明显的缺陷,所以实施效果往往不尽如人意。


现有的电力计量自动化系统能够采集到各相电流、电压、功率因数等用电负荷数据以及用电异常等终端报警信息。异常告警信息和用电负荷数据能够反映用户的用电情况,同时稽查工作人员也会通过在线稽查系统和现场稽查来找出窃漏电用户,并录入系统。若能通过这些数据信息提取出窃漏电用户的关键特征,构建窃漏电用户的识别模型,就能自动检查、判断用户是否存在窃漏电行为。

58f0c961ce654eda94d75eba00b6c02f.png

表6-1给出了某企业大用户的用电负荷数据,采集时间间隔为15分钟,即0.25小时,可进一步计算该大用户的用电量。表6-2给出了该企业大用户的终端报警数据,其中与窃漏电相关的报警能较好的识别用户的窃漏电行为。表6-3给出了某企业大用户违约、窃电处理通知书,表中记录了用户的用电类别和窃电时间。


03c6f4aa9c9e4f9685e1d68a0be5fa0d.png


本次数据挖掘建模目标如下。

1)归纳出窃漏电用户的关键特征,构建窃漏电用户的识别模型。

2)利用实时监测数据,调用窃漏电用户识别模型实现实时诊断。

9f84ac94ddb74786aef8c59461733295.png


二、分析方法与过程


1、初步分析


窃漏电用户在电力计量自动化系统的监控大用户中只占一小部分,同时某些大用户也不可能存在窃漏电行为,如银行、税务、学校和工商等非居民类别,故在数据预处理时有必要将这些类别用户剔除。

系统中的用电负荷不能直接体现出用户的窃漏电行为,终端报警存在很多误报和漏报的情况,故需要进行数据探索和预处理,总结窃漏电用户的行为规律,再从数据中提炼出描述窃漏电用户的特征指标。

最后结合历史窃漏电用户信息,整理出识别模型的专家样本数据集,再进一步构建分类模型,实现窃漏电用户的自动识别。


f778636c5b38407ba4144e7bff139e39.png


1)从电力计量自动化系统、营销系统有选择性地抽取部分大用户用电负荷、终端报警及违约窃电处罚信息等原始数据。

2)对样本数据探索分析,剔除不可能存在窃漏电行为行业的用户,即白名单用户,初步审视正常用户和窃漏电用户的用电特征。

3)对样本数据进行预处理,包括数据清洗、缺失值处理和数据变换。

4)构建专家样本集。

5)构建窃漏电用户识别模型。

6)在线监测用户用电负荷及终端报警,调用模型实现实时诊断。


2、数据抽取


与窃漏电相关的原始数据主要有用电负荷数据、终端报警数据、违约窃电处罚信息以及用户档案资料等。

为了尽可能全面覆盖各种窃漏电方式,建模样本要包含不同用电类别的所有窃漏电用户及部分正常用户。窃漏电用户的窃漏电开始时间和结束时间是表征其窃漏电的关键时间节点,在这些时间节点上,用电负荷和终端报警等数据也会有一定的特征变化,故样本数据抽取时务必要包含关键时间节点前后一定范围的数据。

抽取近5年来所有的窃漏电用户有关数据和部分不同用电类别正常用电用户的有关数据。


3、探索分析


窃漏电用户分布分析

61750afab8074f2782fc9eadba5779c4.png

用电量周期性分析99c4918af9f04919a9f6d019bb535a65.png


2fff3318504f494c8dbf54e6533f700c.png


4、数据预处理


数据清洗:从业务以及建模的相关需要方面考虑,筛选出需要的数据


  • 通过数据的探索分析,发现在用电类别中,非居民用电类别不可能存在漏电窃电的现象,需要将非居民用电类别的用电数据过滤掉。
  • 结合本案例的业务,节假日用电量与工作日相比,会明显偏低。为了尽可能达到较好数据效果,过滤节假日的用电数据。


c6af912667cb4e4aa9518df91eaf8906.png


缺失值处理:在原始计量数据,特别是用户电量抽取过程中,发现存在缺失的现象。若将这些值抛弃掉,会严重影响后续分析结果。


cfaaf54f31664528aa4a5020567b16fd.png

拉格朗日插值的代码:


# -*- coding: utf-8 -*-
# 拉格朗日插值代码
import pandas as pd  # 导入数据分析库Pandas
from scipy.interpolate import lagrange  # 导入拉格朗日插值函数
inputfile = '../data/missing_data.xls'  # 输入数据路径,需要使用Excel格式;
outputfile = '../tmp/missing_data_processed.xls'  # 输出数据路径,需要使用Excel格式
data = pd.read_excel(inputfile, header=None)  # 读入数据
# 自定义列向量插值函数
# s为列向量,n为被插值的位置,k为取前后的数据个数,默认为5
def ployinterp_column(s, n, k=5):
    y = s[list(range(n - k, n)) + list(range(n + 1, n + 1 + k))]  # 取数
    y = y[y.notnull()]  # 剔除空值
    return lagrange(y.index, list(y))(n)  # 插值并返回插值结果
# 逐个元素判断是否需要插值
for i in data.columns:
    for j in range(len(data)):
        if (data[i].isnull())[j]:  # 如果为空即插值。
            data[i][j] = ployinterp_column(data[i], j)
data.to_excel(outputfile, header=None, index=False)  # 输出结果


**数据变换:**电量趋势下降指标、线损指标、告警类指标。

9a2346a1c8cc4f52a4bf27e9d05048e5.png


从正常用电到窃漏电特征分析:


对统计当天设定前后5天为统计窗口期,计算这11天内的电量趋势下降情况,首先计算这11天的每天的电量趋势,计算第i天的用电量趋势是考虑前后5天期间的用电量斜率,即:


1a7ce167a73d425086604091877f567f.png


若电量趋势为不断下降的,则认为具有一定的窃电嫌疑,故计算这11天内,当天比前一天用电量趋势为递减的天数,即设有


e46e6bdc3a1b45a094de16f6133bfcae.png


线路的线损率可作为用户线损率的参考值,若用户发生窃漏电,则当天的线损率会下降,但由于用户每天的用电量存在波动,单纯以当天线损率下降了作为窃漏电特征则误差过大,所以考虑前后几天的线损率平均值,判断其增长率是否大于1%,若线损率的增长率大于1%则具有窃漏电的可能性。

对统计当天设定前后5天为统计窗口期,首先分别计算统计当天与前5天之间的线损率平均值 和统计当天与后5天之间的线损率平均值 ,若 比 的增长率大于1%,则认为具有一定的窃电嫌疑,故定义线损指标:

05c87ec4b1154e1787c5a6f3a7487d0a.png

告警类指标:

与窃漏电相关的终端报警主要有电压缺相、电压断相、电流反极性等告警,计算发生与窃漏电相关的终端报警的次数总和,作为告警类指标。


5、构建专家样本


对2009年1月1日至2014年12月31日所有窃漏电用户及部分正常用户的电量、告警及线损数据和该用户在当天是否窃漏电的标识,按窃漏电评价指标进行处理,得到专家样本库。


3870d2b40afb477494bc3a81f687c68e.png


三、构建模型


1、构建窃漏电用户识别模型


对专家样本随机选取20%的作为测试样本,剩下80%的作为训练样本。


LM神经网络建模

由混淆矩阵(训练样本),可以算得分类准确率为(161+58)/(161+58+6+7)=94.4%,正常用户被误判为窃漏电用户占正常用户的7/(161+7)=4.2%,窃漏电用户被误判为正常用户占正常窃漏电用户的6/(6+58)=9.4%。


# -*- coding: utf-8 -*-
# 构建并测试CART决策树模型
import pandas as pd  # 导入数据分析库
from random import shuffle  # 导入随机函数shuffle,用来打算数据
from matplotlib import pyplot as plt
datafile = '../data/model.xls'  # 数据名
data = pd.read_excel(datafile)  # 读取数据,数据的前三列是特征,第四列是标签
data = data.as_matrix()  # 将表格转换为矩阵
shuffle(data)  # 随机打乱数据
p = 0.8  # 设置训练数据比例
train = data[:int(len(data) * p), :]  # 前80%为训练集
test = data[int(len(data) * p):, :]  # 后20%为测试集
# 构建CART决策树模型
from sklearn.tree import DecisionTreeClassifier  # 导入决策树模型
treefile = '../tmp/tree.pkl'  # 模型输出名字
tree = DecisionTreeClassifier()  # 建立决策树模型
tree.fit(train[:, :3], train[:, 3])  # 训练
# 保存模型
from sklearn.externals import joblib
joblib.dump(tree, treefile)
from cm_plot import *  # 导入自行编写的混淆矩阵可视化函数
cm_plot(train[:, 3], tree.predict(train[:, :3])).show()  # 显示混淆矩阵可视化结果
# 注意到Scikit-Learn使用predict方法直接给出预测结果。
from sklearn.metrics import roc_curve  # 导入ROC曲线函数
fpr, tpr, thresholds = roc_curve(test[:, 3], tree.predict_proba(test[:, :3])[:, 1], pos_label=1)
plt.plot(fpr, tpr, linewidth=2, label='ROC of CART', color='green')  # 作出ROC曲线
plt.xlabel('False Positive Rate')  # 坐标轴标签
plt.ylabel('True Positive Rate')  # 坐标轴标签
plt.ylim(0, 1.05)  # 边界范围
plt.xlim(0, 1.05)  # 边界范围
plt.legend(loc=4)  # 图例
plt.show()  # 显示作图结果


e21df36d40124c1e8b71cd60771be18a.png

CART决策树建模

由混淆矩阵(训练样本),分类准确率为(160+56)/(160+56+3+13)=93.1%,正常用户被误判为窃漏电用户占正常用户的13/(13+160)=7.5%,窃漏电用户被误判为正常用户占正常窃漏电用户的3/(3+56)=5.1%。


# -*- coding: utf-8 -*-
import pandas as pd
from random import shuffle
datafile = '../data/model.xls'
data = pd.read_excel(datafile)
data = data.as_matrix()
shuffle(data)
p = 0.8  # 设置训练数据比例
train = data[:int(len(data) * p), :]
test = data[int(len(data) * p):, :]
# 构建LM神经网络模型
from keras.models import Sequential  # 导入神经网络初始化函数
from keras.layers.core import Dense, Activation  # 导入神经网络层函数、激活函数
netfile = '../tmp/net.model'  # 构建的神经网络模型存储路径
net = Sequential()  # 建立神经网络
net.add(Dense(input_dim=3, output_dim=10))  # 添加输入层(3节点)到隐藏层(10节点)的连接
net.add(Activation('relu'))  # 隐藏层使用relu激活函数
net.add(Dense(input_dim=10, output_dim=1))  # 添加隐藏层(10节点)到输出层(1节点)的连接
net.add(Activation('sigmoid'))  # 输出层使用sigmoid激活函数
net.compile(loss='binary_crossentropy', optimizer='adam', class_mode="binary")  # 编译模型,使用adam方法求解
net.fit(train[:, :3], train[:, 3], nb_epoch=1000, batch_size=1)  # 训练模型,循环1000次
net.save_weights(netfile)  # 保存模型
predict_result = net.predict_classes(train[:, :3]).reshape(len(train))  # 预测结果变形
'''这里要提醒的是,keras用predict给出预测概率,predict_classes才是给出预测类别,而且两者的预测结果都是n x 1维数组,而不是通常的 1 x n'''
from cm_plot import *  # 导入自行编写的混淆矩阵可视化函数
cm_plot(train[:, 3], predict_result).show()  # 显示混淆矩阵可视化结果
from sklearn.metrics import roc_curve  # 导入ROC曲线函数
predict_result = net.predict(test[:, :3]).reshape(len(test))
fpr, tpr, thresholds = roc_curve(test[:, 3], predict_result, pos_label=1)
plt.plot(fpr, tpr, linewidth=2, label='ROC of LM')  # 作出ROC曲线
plt.xlabel('False Positive Rate')  # 坐标轴标签
plt.ylabel('True Positive Rate')  # 坐标轴标签
plt.ylim(0, 1.05)  # 边界范围
plt.xlim(0, 1.05)  # 边界范围
plt.legend(loc=4)  # 图例
plt.show()  # 显示作图结果


2bcaf7243aed492b93c3d112d25f7941.png混淆矩阵的函数代码:


def cm_plot(y, yp):
  from sklearn.metrics import confusion_matrix #导入混淆矩阵函数
  cm = confusion_matrix(y, yp) #混淆矩阵
  import matplotlib.pyplot as plt #导入作图库
  plt.matshow(cm, cmap=plt.cm.Greens) #画混淆矩阵图,配色风格使用cm.Greens,更多风格请参考官网。
  plt.colorbar() #颜色标签
  for x in range(len(cm)): #数据标签
    for y in range(len(cm)):
      plt.annotate(cm[x,y], xy=(x, y), horizontalalignment='center', verticalalignment='center')
  plt.ylabel('True label') #坐标轴标签
  plt.xlabel('Predicted label') #坐标轴标签
  return plt

2、模型评价


用测试样本对两个模型进行评价,评价方法采用ROC曲线进行评估。

经过对比发现LM神经网络的ROC曲线比CART决策树的ROC曲线更加靠近单位方形的左上角,LM神经网络ROC曲线下的面积更大,说明LM神经网络模型的分类性能较好,能应用于窃漏电用户识别。


LM神经网络在测试样本下的ROC曲线

1310a4e89ed14218b66ee84e2e5988a6.png


CART决策树在测试样本下的ROC曲线

27069a83551948f0b991f5c92bdbfdac.png

3、进行窃漏电诊断

a19b5c73191349a78c478653e349cc6e.png


拓展思考


目前企业偷漏税现象泛滥,应该加大对企业偷漏税行为的防范工作。如何用数据挖掘的思想,智能的识别企业偷漏税行为,有力的打击企业偷漏税的违法行为。

汽车销售行业,通常是指销售汽车整车的行业。汽车销售行业在税收上存在少开发票金额、少计收入,上牌、按揭 、保险等一条龙服务未入帐反映,不及时确认保修索赔款等多种情况,导致政府损失大量税收。汽车销售企业的部分经营指标能一定程度上评估企业的偷漏税倾向。

目录
相关文章
|
6月前
|
机器学习/深度学习 数据挖掘 Python
【数据挖掘】分类器模型性能评估讲解及iris数据集评估实战(超详细 附源码)
【数据挖掘】分类器模型性能评估讲解及iris数据集评估实战(超详细 附源码)
176 0
|
6月前
|
机器学习/深度学习 算法 数据挖掘
【数据挖掘】SVM原理详解及对iris数据集分类实战(超详细 附源码)
【数据挖掘】SVM原理详解及对iris数据集分类实战(超详细 附源码)
396 1
|
6月前
|
算法 数据挖掘 Python
【数据挖掘】层次聚类DIANA、AGNES算法讲解及实战应用(图文解释 超详细)
【数据挖掘】层次聚类DIANA、AGNES算法讲解及实战应用(图文解释 超详细)
458 0
|
6月前
|
机器学习/深度学习 算法 前端开发
【数据挖掘】袋装、AdaBoost、随机森林算法的讲解及分类实战(超详细 附源码)
【数据挖掘】袋装、AdaBoost、随机森林算法的讲解及分类实战(超详细 附源码)
113 0
|
6月前
|
机器学习/深度学习 算法 数据挖掘
【数据挖掘】决策树归纳中ID3算法讲解及构建决策树实战(图文解释 超详细)
【数据挖掘】决策树归纳中ID3算法讲解及构建决策树实战(图文解释 超详细)
626 0
|
5月前
|
数据采集 数据可视化 数据挖掘
数据挖掘实战:使用Python进行数据分析与可视化
在大数据时代,Python因其强大库支持和易学性成为数据挖掘的首选语言。本文通过一个电商销售数据案例,演示如何使用Python进行数据预处理(如处理缺失值)、分析(如销售额时间趋势)和可视化(如商品类别销售条形图),揭示数据背后的模式。安装`pandas`, `numpy`, `matplotlib`, `seaborn`后,可以按照提供的代码步骤,从读取CSV到数据探索,体验Python在数据分析中的威力。这只是数据科学的入门,更多高级技术等待发掘。【6月更文挑战第14天】
511 11
|
6月前
|
算法 数据可视化 数据挖掘
【数据挖掘】密度聚类DBSCAN讲解及实战应用(图文解释 附源码)
【数据挖掘】密度聚类DBSCAN讲解及实战应用(图文解释 附源码)
577 1
|
5月前
|
数据采集 机器学习/深度学习 数据可视化
数据挖掘实战:Python在金融数据分析中的应用案例
Python在金融数据分析中扮演关键角色,用于预测市场趋势和风险管理。本文通过案例展示了使用Python库(如pandas、numpy、matplotlib等)进行数据获取、清洗、分析和建立预测模型,例如计算苹果公司(AAPL)股票的简单移动平均线,以展示基本流程。此示例为更复杂的金融建模奠定了基础。【6月更文挑战第13天】
1481 3
|
5月前
|
人工智能 分布式计算 算法
数据挖掘实战随笔更新清单
这是一系列技术博客的摘要,涵盖了多个主题。包括Elasticsearch实战经验、Maxcompute中的Geohash转换和GPS处理、Python环境配置与管理(如Jupyter、Miniforge、Miniconda)、批量接口调用、多进程CSV图片下载、Excel到Markdown转换、Scikit-learn的异常检测(OC-SVM)和模型总结、人工智能领域的图像分类和识别、文本挖掘算法以及数仓相关的行转列处理。所有文章都在持续更新和补充中。
48 2
|
6月前
|
数据可视化 搜索推荐 数据挖掘
数据挖掘实战 —— 抖音用户浏览行为数据分析与挖掘(一)
数据挖掘实战 —— 抖音用户浏览行为数据分析与挖掘(一)

热门文章

最新文章