基于工业大数据的生产设备部件故障诊断 附完代码+论文(中)

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,集群版 2核4GB 100GB
推荐场景:
搭建个人博客
云数据库 RDS MySQL,高可用版 2核4GB 50GB
简介: 基于工业大数据的生产设备部件故障诊断 附完代码+论文

2.3.3 SVM 核函数


假如训练样本线性不可分,放到我们最开始的例子里面的意思就是:我们无法用一条直线将所有的样本正确分类为两类。如下面的“异或”问题:


6d803915839e1f40aa032f3dbb03a8c6.jpg


图 6 异或问题




e3aeee81609e5ca46fc27875663dbeb8.jpg

图 7 非线性映射


对于这种情况,我们可以将原始空间的训练样本映射到一个更高维度的特征空间,使得样本在这个特征空间内线性可分[9]。


3c7846234d14c8a83ef7cdecdcf39363.png

44a9b3aee37ee89c3e29a97e5b5a27cf.jpg


表示将 x 映射到高维空间中的特征向量,那么对比前面线性可分的模型表示,同理可以得到相应的高维空间模型为:

9c3be63fddf788a8c0dda27a232a6a6a.jpg


同理可得:

d1d28864b589acc3cfacc5380033e7fc.jpg15d7936e7a00825080a6292061773343.jpg



同样可以得到对偶问题,如下:

5aa1e147ddd0578128de0ea1c7e82964.jpg

a01b788b913e137fceef32984113f986.jpg

bf199fde3681835c015a18070f8f0fda.jpg


映射后的特征空间维数可能会很高,会极大地加大我们训练时间和内存开销,直接计算

05ebb3ef33c07ffe005123955051e5a1.png

f6046df1ff79d22fa4e50e5009b68b14.jpg


不一定可行。为了避开这个不稳定的区域,我们可以假设存在这样一个函数:

c30b5ea9bec6fc77d81c8b785d068e26.jpg


即在高维特征空间中映射向量的内积,与在原始样本空间中通过核函数


3d60be8083ec89f890bec5525d466d4f.png


计算后的结果等效。这就是“核技巧”。上述式子可以改写为:

e6fb8a5a4f1218dc42a044d4f076fecd.jpg


12bdf774902b488693555e21e81e6c04.jpgdffd3d83512aa6d157edfe4d0e1a3ced.jpg


求解之后可以得到:

1849b839399c46f5e9e915d8d9d5c5da.jpg


在线性不可分的情况中,核函数的选择是影响 SVM 模型的性能至关重要的因素。在明确特征映射的形式之前,我们并不知道具体选择哪一种核函数,而且核函数的选择也隐式的定义了特征空间。如果在模型的构建过程中选择了错误的核函数,那么由此建立的支持向量机模型的性能将会下降许多。


下列几种常用的核函数:


表 2-1 常用核函数表达式及其参数说明



image.png

image.png


此外,函数相互组合也可以得到核函数:


如果


80a682ba73c631a0321d029054dd79bb.png

9ed775543438392d7cea4c3b635bfe5f.jpg

b25caace856d38de03a5668760b9c401.png

5e363e3312381309cb25c2cd5f2d53cd.jpg


都是核函数,那么对于任意正数

899fe204580dd349ce49eb1b946fc634.png

e7929a004f398fb123bf4153a69a0644.jpg


其线性组合:

07ca96c2ac9ef1fdde4ac15e81c5327e.jpg


也是一个核函数;


如果


de8f47d4639a6669b2d0cd60bfa52300.jpg


b5bf921a45e25fcc6eda8d351c82032c.png



都是核函数,那么核函数的直积:

a60cdcfa0b35e13f93054aa0165f5705.jpg


也是一个核函数;


如果

f9e9e48a9171783dd9f93738e23c5f92.png


4ca4b7af0a04a2c90a9d9c17cb777bfc.jpg

是一个核函数,那么对于任意函数 g(x):



也是一个核函数。


3 具体方案设计


3.1 数据获取

目前主要的数据获取手段是通过互联网上的共享数据集,当前已经获得的数据集合有两个,其中一个用于初步测试,一个用于最终模型构建:


一个是来自罗马的一家通信科学研究所:Semeion Research Center of Sciences of Communication


该数据主要用于测试模型,数据特性如下:



图 8 钢板数据集属性


第二个数据集来自 GitHub 上一个 Fault Diagnosis 项目的自带的风力涡轮内部齿轮箱数据集。该 GitHub 项目地址为:Gearboxdata/Gear-Box-Fault-Diagnosis-Data-Set


该数据集内的数据分为两类,即正常运行数据和故障/异常状态下的数据。每一类数据下又按照 0-90 的不同载荷百分比,每 10 个百分点负载一个层次分为 10 种运行状态。合共 20 个文件,一共 2021119 条记录,每条记录包括载荷百分比在内一共 5 个属性。


图 9 风力涡轮齿轮箱数据集属性


这些数据虽然是连续的,但是经过一定的修改,比如固定为小数点后一位精度,这样可以很轻易的将其离散化,虽然对于精度有一定的影响,但是为了是的数据更为集中,不会出现一条数据记录就是一个分支的情况,离散化势在必行。而且后期新增了基于信息熵的离散化功能,可以很方便的进行区间划分从而提高预测的准确率。


数据整理我采用的是 C++ 编码来实现的,因为 C++ 对于数据读取有较好的速度支持,而且格式化能力也比较完善。主要的代码如下(GearData.cpp):


for (int i = 0; i < 10; ++i)
{
  file="/Users/zhangzhaobo/Documents/Graduation-Design/Data/BrokenTooth Data/b30hz"+hz[i]+".txt";
  ifstream in(file);
  while(in>>data[0])
  {
    out<<setprecision(2)<<data[0]<<"\t\t";
    for (int i = 1; i < 4; ++i)
    {
      in>>data[i];
      out<<setprecision(2)<<data[i]<<"\t\t";
    }
    out<<endl;
  }
  cout<<file<<" is done!"<<endl;
  in.close();
}

3.2 数据存取


如此大量的数据,采用文本读取这种方式很容易出现错误,所以结合数据库知识,最终选定了 MySQL 数据库作为工业大数据架构的数据存储层。


在安装好 MySQL 之后,建立 Graduation_Design 数据库,在其中建立了 gear 表格作为风力涡轮齿轮箱数据的存储表。表格信息如下:


mysql> show columns from gear;



图 11 齿轮箱数据存储格式


数据的存入与读取都是依赖于 Java 的一个外部包 mysql-connector-java.jar(JDBC),导入至本地项目后可以调用 JDBC 中的内置类,通过实例化一个数据库连接对象进行数据的存取。为了封装驱动,连接,会话等 JDBC 内容,新建了一个 Mysql_Connect 类提供数据库连接(Connect()),会话(getStatement()),断开连接(Dis_Connect())三个数据库常用的功能。


存储的过程中,由于数据量的问题,如果采用单条记录提交一次的方式进行两百万条数据的存储,那么一共需要两个小时,但是采用 JDBC 自带的批处理操作 Batch,可以将这个时间减少一半。具体操作如下:


String INSERT = getInsertQuery(id, Name, line);
statement.addBatch(INSERT);
id++;
count++;
//执行批量执行
if (count>40000) {
  statement.executeBatch();
  count = 0;
}


通过批处理操作,每一次与数据库的交互都能提交四万条数据,可以极大地减少 MySQL 连接,认证等的时间花销,提高存储效率。


而读取数据的时候,由于 Decision Tree 算法与 Support Vector Machine 算法需要的数据结构不同,所以定义了两个数据读取类,分别为:ReadData.java 与 SVMReadData.java,在 ReadData.java 中定义了静态方法 getSelectQuery()提供给所有需要生成查询语句的类调用。


另外每一个数据库读取类都提供了 readTrainData()和 readTestData()两类读取方式,提供给用户有选择的从数据库中读取出指定数量大小的数据记录。


数据读取的时候还需要一个Parameter类进行辅助,在这个类里面可以定义训练集与验证机的比例,训练集或者验证集的大小。每一个Parameter类内部定义了静态变量:训练样本数,测试样本数,以及二者之间的比例三个变量值。三者之间相互调节,并且因为静态变量的特性作用于全局。这样做的好处是不论在项目中定义多少个Parameter实例化对象,只需要在任意处调用调节方法进行修改,就可以直接作用于全局,保证不同方案之间的数据量一致性。


3.3 决策树实现

3.3.1 连续属性值离散化


因为获取的数据为浮点数表示的连续值,如果给每个取值开一个分支显然不可行,就算是将精度降低到0.1,那么五个属性延展开来最后还是会超过上亿种分支的可能,显然这个数量级对于及于决策树的分类问题是很不友好的,所以在进行模型构建之前需要进行数值离散化处理。


离散化常用方法为二分法。给定样本集 D 与连续属性 a,二分法试图找到一个划分点 t 将样本集 D 在属性 a 上分为 a ≤ t 与 a > t。但是这一点对于我们的数据规模和跨度不合适,所以采用一种基于熵的离散化方法[10]。


当频率(或概率)分布具有最大的属性值个数时,熵(或信息)被最大化[11]。当我们单独将某一个属性所有的值与对应的分类结果拿出来做一个单属性样本集X的时候,我们可以自定义若干个区间对属性进行区间分割,然后根据前面的信息熵的计算公式,计算出这个样本集的信息熵H(X)。另外根据凸函数的性质:

acce198eda90d3bd125f19ec774d8e52.jpg


由参考文献中提到的离散化算法(EADC),可以将每个连续属性离散化为若干区间,区间数目由数据本身决定(但是最小区间划分数目为 10 个),之后找到合并两个区间后使得合并前后熵差最小,然后保存划分点,继续合并直到达到最佳平衡为止。是否达到最佳平衡的度量公式为:


c9808e06a4b16d5dd871f9da101696fa.jpg

式中,kmax 表示最大区间数,Hmax(p)表示最大熵值。在实际操作中,对其进行简化,取 40 个划分区间下的对应值。


连续属性离散化之前,决策树的数据精度设置为 1,正确率一直在 30% 左右;离散化后,数据精度设置为 0.1,正确率随着训练数据量增长而增长。训练数据量为 1000 条左右时正确率为 35% 左右,当数据量提升到 20000 条左右时,准确率有 53% 左右,而 SVM 数据因为不需要划分区间,所以正确率的增长与数据量的线性关系并不明显,从 1000 条数据到两万条数据仅仅波动了 1% 的正确率不到。可见决策树的正确率的提高,在初期更加依赖于训练数据量的积累。


整个离散化的过程如下:


从本地数据库读取设备运行记录数据,格式化后以实参形式传入到 EADC 离散化方法中;


在离散化方法中,针对单一的属性,取出其所有的值和分类数据,并且按照属性值进行排序;


排序后根据初始区间数划分区间,并且利用公式(2-2)的熵的计算公式,计算出改属性的初始熵,并且将度量数值 Ck 预设为 0 ;


先遍历整个区间集合,依次尝试合并两个相邻区间,记录每一次使合并前后的熵差,最后选择熵差最小的两个相邻区间进行合并,并且重置划分点,保存合并后的熵值;


根据上面的公式(3-2)提供的度量公式,计算出当前合并和后的度量值 Ck-1 = h;


如果 Ck-1 > Ck ,那么令 k = k - 1,跳回到第(4)步循环进行区间遍历、合并、计算;


如果 Ck-1 < Ck ,保存当前的区间划分,结束区间划分进程;


将最后的区间划分点返回至 EADC 方法调用者,由其对实际数据根据划分点进行离散化处理。


离散化流程图如下:


c74312942cf347ec8b2471ceff68707d.jpg

图 10 连续属性值离散化流程图


3.3.2 样本初始化


决策树的核心算法是 ID3 算法,其他的数据结构,数据处理等都是辅助内容,但是样本初始化在整个体系中也是举足轻重的。


首先定义属性名列表 attribute,也就是四个传感器的位置和负载百分比,然后是在此基础上增加一个分类属性名重新定义一个列表 attributr_Names,作为读取数据库内容时候的列名:


String[] attribute = new String[] {"Sensor1","Sensor2","Sensor3", "Sensor4", "Load"};


String[] attribute_Names = new String[] {"Sensor1","Sensor2","Sensor3","Sensor4","Load", "category"};


当属性列表定义完毕之后,就会进入 Decision Tree 算法的样本读取方法,readSample()。在这个方法中,通过在前面数据库模块定义的 ReadData 类中的 readTrainData()方法读取出数据之后进行样本整合。具体的操作为:


定义一个 Sample 类,内含属性名及其对应的属性值;


对读取出来的二维数组逐行读取,每一行定义为一个 Sample 实例;


按照所有实例的分类,定义与分类数目相同的链表,读取当前样本的分类,并且将当前 Sample 添加到相应的链表上去。如果没有这个分类,就新添加一条链表。


最后返回的数据结构为类别为键,包涵所有此类样本的链表为值的键值对 Map。


样本初始化整体流程如下:


c8b7b0f7e3891b0c8c625e9ac02b6111.jpg

图 12 样本初始化流程图


3.3.3 生成决策树


在样本初始化完毕后,就进入生成决策树的阶段。调用定义的generateDecisionTree()方法,传入样本集和属性列表。就可以得到一颗基于此样本集,用ID3算法构建的故障树了。


//生成决策树


Object decisionTree = generateDecisionTree(samples,attribute);


在这个方法当中,ID3算法担任了求出信息增益最大的属性的责任。整个generateDecisionTree()方法采用递归的方式,不断地向下延伸分支,直到将当前节点归类为叶节点才会停止。 流程解释如下;


(1) 判断是否当前分支的样本数目,如果为空或者分类只有一种,那么将当前样本的类别作为叶节点的分类;


(2) 如果属性用完,或者是同一个属性值对应的样本子集中无法通过数目将此节点归类,那么采用后验分布进行归类;


(3) 如果上述条件都不满足,那么就使用 ID3 算法计算出当前的分支属性,并且读取该分支属性的各个属性值构成分支向下延伸(进入递归),直到遇到上述的条件成为叶节点为止;


(4) 当满足生成叶节点的条件时,则递归止步于当前节点,当前节点作为叶节点返回至其父节点,直至抵达根节点为止。


整体流程如下:

b1f8905f8556e12bf7561e9eaa6182b4.jpg


图13 决策树生成流程示意图


至此,整个决策树就已经训练完毕了。我们从这一系列的操作中得到了一个 Tree 类的实例对象。每一个 Tree 都是由一个根节点和一系列的分支组成,除了叶节点不是 Tree 类型外,其他的子节点都是 Tree 类型。这一点也为我们提供了一个良好的搜索环境。只要检测当前节点是否为 Tree 类型,就可以判定是否已经搜索到了子节点了,这一特性在后面的数据测试中将会用到。


而在上面生成决策树时用到的 ID3 方法,下面进行详细的解释:


传入一个样本集,一个属性列表;


样本集形式为分类与此分类对应的所有样本,注意此处为分类而不是属性值;


对每一个属性值进行信息增益的计算,具体的实现方式为:


读取当前属性值,拿到一个键值对,【所属类别--> 样本集】


解析键值对,分解出 key 和 value,其中 key 为类别,value 为此类别所有的样本


对于 Value 里边读出来的每个样本,分别读取当前属性下的值,然后建立起来当前属性值相同的所有样本的样本集;


建立起了所有属性值对应的样本子集后,再在此样本子集的基础上按照分类的不同进行子集划分,相当于是二次划分样本集;


最终得到的数据结构如下:


a396357aa5fcfc0c8fe097e48c1aa361.jpg

图 14 ID3 信息增益计算的数据结构


根据上面的数据结构,计算每一个属性值的信息熵,然后结合所有的属性值计算出这个属性所对应的信息增益,最后得到信息增益最大的那个属性,即可将此属性的下标,对应的信息增益以及由这个属性所衍生出来的样本集打包成一个数组返回。


至此,ID3 算法执行完毕,返回一个数组供 generateDecisionTree()方法选择下一个分支的属性,并且递归调用自身产生子树分支。

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps&nbsp;
相关文章
|
1月前
|
存储 分布式计算 Hadoop
maxcompute配置问题之加速查询超时配置回退如何解决
MaxCompute配置是指在使用阿里云MaxCompute服务时对项目设置、计算资源、存储空间等进行的各项调整;本合集将提供MaxCompute配置的指南和建议,帮助用户根据数据处理需求优化其MaxCompute环境。
|
5天前
|
分布式计算 DataWorks 大数据
MaxCompute产品使用问题之如何为某个用户授予仅对生产表的SELECT权限
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
18天前
|
SQL 机器学习/深度学习 分布式计算
MaxCompute产品使用合集之sql代码中支持插入jinja语法语句吗
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
18天前
|
存储 分布式计算 DataWorks
MaxCompute产品使用合集之开发创建的表无法提交生产是什么导致的
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
MaxCompute产品使用合集之开发创建的表无法提交生产是什么导致的
|
5天前
|
分布式计算 DataWorks 大数据
MaxCompute操作报错合集之在开发环境代码运行没问题,生产环境运行报错,是什么导致的
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
|
18天前
|
存储 分布式计算 大数据
MaxCompute产品使用合集之怎么将一个Quota的资源优先供给给标准模式的生产库调度使用
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
1月前
|
机器学习/深度学习 运维 算法
大数据基础工程技术团队4篇论文入选ICLR,ICDE,WWW
近日,由阿里云计算平台大数据基础工程技术团队主导的四篇时间序列相关论文分别被国际顶会ICLR2024、ICDE2024和WWW2024接收。
|
1月前
|
SQL 分布式计算 DataWorks
MaxCompute产品使用合集之要查看MaxCompute Studio中的项目中的计算任务代码,我该怎么操作
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
1月前
|
SQL 分布式计算 数据可视化
MaxCompute操作报错合集之在执行MaxCompute的可视化建模任务时,报错:ODPS-1202005错误代码,如何解决
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
|
1月前
|
安全 Java 大数据
基于大数据的旅游系统的设计与实现(论文+源码)_kaic
基于大数据的旅游系统的设计与实现(论文+源码)_kaic