企业数据采集与分析(论文+源码)_kaic

本文涉及的产品
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
日志服务 SLS,月写入数据量 50GB 1个月
简介: 企业数据采集与分析(论文+源码)_kaic

目  录

1 设计任务

1.1项目开发背景与意义

1.1.1 项目开发背景

1.1.2 项目设计意义

1.2 开发环境工具介绍

1.2.1 IDEA开发环境介绍

1.2.2 flume介绍

1.2.3 Sqoop介绍

1.2.4 Spark介绍

1.2.5 VS Code开发工具简介

1.2.6 Hive介绍

1.2.7 HDHS模块介绍

1.2.8 Vue介绍

1.2.9 ECharts介绍

1.2.10 Mysql介绍

1.3开发环境准备

1.3.1 数据采集环境准备

1.3.2 数据清洗环境准备

1.3.3数据可视化环境准备

2 项目需求分析

2.1 可行性分析

2.1.1 端口日志数据采集可行性分析

2.1.2 技术可行性分析

2.2 代码实现功能分析

2.2.1 数据采集功能

2.2.2 数据清洗功能

2.2.3 数据可视化功能

3 数据采集实现

3.1 工业数据监听与采集

3.2 HDFS数据转存到MYSQL

4 数据处理实现

4.1 数据清洗

4.1.1源数据层(ODS)

4.1.2 数据仓库层(DW)

4.2 数据挖掘

4.2.1 特征工程

4.3机器学习

4.3.1 随机森林报警预测

5 数据可视化实现与分析

5.1 设备历史各个状态持续时长柱状图

5.2各设备PM2.5浓度变化折线图

5.3 设备日均产量和所在车间日均产量折线柱状图

5.4 OP170B设备每天各状态时长饼图

5.5 环境湿度变化散点图

5.6 每日各设备产量条形图

6 总结与展望

6.1作品特点

6.2收获与体会

6.3问题与展望

1 设计任务

1.1项目开发背景与意义

1.1.1 项目开发背景

工业互联网是工业全要素、全产业链、全价值链的全面连接,是人、机、物、工厂互联互通的新型工业生产制造服务体系,是互联网从消费领域向生产领域、从虚拟经济向实体经济拓展的核心载体,是建设现代化经济体系、实现高质量发展和塑造全球产业竞争力的关键支撑。加快发展工业互联网产业,不仅是各国顺应产业发展大势,抢占产业未来制高点的战略选择,也是我国推动制造业质量变革、效率变革和动力变革,实现高质量发展的客观要求。

1.1.2 项目设计意义

本项目是利用Flume收集工业日志数据,通过spark对获取的数据进行处理清洗,数据采集的目的在于获取可靠信息,然后在可靠信息的基础上做出恰当的决策。没有所谓“正确的决策”,只有基于当时当地所获取信息的恰当决策。这就需要认真地收集真实有效的数据,并且运用恰当的分析方法从中提炼出可信的信息。在所收集到的工业数据中有空值、重复值、不规范字符等“脏”数据,对其要进行清洗转换处理,才能对这些数据进行使用。在进行机器学习之前我们要对数据进行预处理,留下有效的特征列,若特征列较多且较冗余我们可以对其进行降维,归一化等操作。通过spark内置的机器学习库对其进行操作。最后通过可视化的手段将数字以可视化的形式展示出来。

1.2 开发环境工具介绍

本项目主要是基于IDEA的开发,使用flume实时监听数据,并把监听到的数据存储到hdfs上,通过sqoop将hdfs中的数据转存到mysql中并使用spark整合hive对获取到的数据进行清洗,挖掘以及机器学习,最后将清洗完的数据通过VSCode工具使用vue和echarts进行可视化展示

1.2.1 IDEA开发环境介绍

IDEA是一个专门针对ava的集成开发工具(IDE), 由Java语言编写。所以,需要有JRE运行环境并配置好环境变量。它可以极大地提升我们的开发效率。可以自动编译,检查错误。在公司中,使用的就是IDEA进行开发。 集成开发环境(IDE,Integrated Development Environment )是用于提供程序开发环境的应用程序,一般包括代码编辑器、编译器、调试器和图形用户界面等工具。

1.2.2 flume介绍

Flume 是一个从可以收集例如日志,事件等数据资源,并将这些数量庞大的数据从各项数据资源中集中起来存储的工具/服务,或者数集中机制。flume具有高可用,分布式,配置工具,其设计的原理也是基于将数据流,如日志数据从各种网站服务器上汇集起来存储到HDFS,HBase等集中存储器中

1.2.3 Sqoop介绍

  Sqoop是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql、postgresql...)间进行数据的传递,可以将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。对于某些NoSQL数据库它也提供了连接器。Sqoop,类似于其他ETL工具,使用元数据模型来判断数据类型并在数据从数据源转移到Hadoop时确保类型安全的数据处理。Sqoop专为大数据批量传输设计,能够分割数据集并创建maptask任务来处理每个区块。

1.2.4 Spark介绍

Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是——Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。Spark 是一种与 Hadoop 相似的开源集群计算环境,但是两者之间还存在一些不同之处,这些有用的不同之处使 Spark 在某些工作负载方面表现得更加优越,换句话说,Spark 启用了内存分布数据集,除了能够提供交互式查询外,它还可以优化迭代工作负载。Spark 是在 Scala 语言中实现的,它将 Scala 用作其应用程序框架。

1.2.5 VS Code开发工具简介

VS Code 的全称是 Visual Studio Code,是一款开源的、免费的、跨平台的、高性能的、轻量级的代码编辑器。它在性能、语言支持、开源社区方面,都做得很不错。 微软有两种软件:一种是 VS Code,一种是其他软件。IDE 与 编辑器的对比 IDE 和编辑器是有区别的:IDE(Integrated Development Environment,集成开发环境):对代码有较好的智能提示和相互跳转,同时侧重于工程项目,对项目的开发、调试工作有较好的图像化界面的支持。

1.2.6 Hive介绍

   hive是基于Hadoop的一个数据仓库工具,用来进行数据提取、转化、加载,这是一种可以存储、查询和分析存储在Hadoop中的大规模数据的机制。hive数据仓库工具能将结构化的数据文件映射为一张数据库表,并提供SQL查询功能,能将SQL语句转变成MapReduce任务来执行。Hive的优点是学习成本低,可以通过类似SQL语句实现快速MapReduce统计,使MapReduce变得更加简单,而不必开发专门的MapReduce应用程序。hive十分适合对数据仓库进行统计分析

1.2.7 HDHS模块介绍

Hadoop Distributed File System,简称 HDFS,是一个分布式文件系统。HDFS 有着高容错性(fault-tolerent)的特点,并且设计用来部署在低廉的(low-cost)硬件上。而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS 放宽了(relax)POSIX 的要求(requirements)这样可以实现流的形式访问(streaming access)文件系统中的数据。HDFS 开始是为开源的 apache 项目 nutch 的基础结构而创建,HDFS 是 hadoop 项目的一部分,而 hadoop 又是 lucene 的一部分

1.2.8 Vue介绍

 Vue是一套用于构建用户界面的渐进式的js框架,发布于2014年2月。与其它大型框架不同的是,Vue被设计为可以自底向上逐层应用。Vue的核心库只关注视图层,不仅易于上手,还便于与第三方库( 如: vue-router,vue-resource,vuex)或既有项目整合

1.2.9 ECharts介绍

ECharts是一个使用JavaScript实现的开源可视化库,ECharts具有丰富的可视化类型,提供直观,交互丰富,结合HTML网页设计,可高度个性化定制的数据可视化图表。不仅提供了常规的图型的绘制还支持图与图之间的混搭;多种数据格式无需转换直接使用,使用方法便捷,通过简单的设置encode属性就可以完成从数据到图形的映射,这种方式更符合可视化的直觉,而且多个组件能够共享一份数据;多维数据的支持及丰富的视觉编码手段;针对不同数据提供不同吸引眼球的特效。

1.2.10 Mysql介绍

MySQL 是最流行的数据库之一,是一个免费开源的关系型数据库管理系统,但也不意味着该数据库是完全免费的。MySQL 由瑞典 MySQL AB 公司开发,之后又卖给了Sun公司(一家伟大的,不可复制的,又感到无限惋惜的公司),目前属于 Oracle 公司。MySQL 适合中小型软件,被个人用户以及中小企业青睐。在web应用方面MySQL是最好的RDBMS关系数据管理系统软件之一。

相关实践学习
如何在云端创建MySQL数据库
开始实验后,系统会自动创建一台自建MySQL的 源数据库 ECS 实例和一台 目标数据库 RDS。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助     相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
相关文章
|
数据采集 分布式计算 编译器
利用Pholcus框架提取小红书数据的案例分析
利用Pholcus框架提取小红书数据的案例分析
|
算法 机器学习/深度学习 数据挖掘
带你读《增强型分析:AI驱动的数据分析、 业务决策与案例实践》之三:预测模型的新技术
本书“深入浅出的原理介绍 + 实际使用的案例”的内容安排能够使得数据分析建模人员从算法原理、数据挖掘知识结构、业务应用方法等方面得到提升,帮助数据分析建模人员开阔眼界、优化知识结构、提升实践技能。
|
3月前
|
人工智能 自然语言处理 数据库
从数据洞察到智能决策:合合信息&infiniflow RAG技术的实战案例分享
【9月更文挑战第3天】从数据洞察到智能决策:合合信息&infiniflow RAG技术的实战案例分享
|
存储 数据处理 数据库
TDengine 用户案例合集 | 智能环保项目的时序数据处理难点与优化实践
本篇文章汇总了三个典型的智能环保项目的数据架构升级实践,给有需要的企业参考。
230 1
|
SQL 分布式计算 调度
开源大数据分析实验(1)——简单用户画像分析之采集数据
本场景主要介绍基于海量日志数据进行简单用户画像分析为背景,如何通过使用DataWorks完成数据采集 、加工数据、配置数据质量监控和数据可视化展现等任务。
|
自然语言处理 达摩院 数据格式
带你读《达摩院智能客服知识运营白皮书》——3.2 如何进行知识收集?--基于知识来源收集候选知识
带你读《达摩院智能客服知识运营白皮书》——3.2 如何进行知识收集?--基于知识来源收集候选知识
149 0
|
数据挖掘
一文速览-数据分析基础以及常规流程
一文速览-数据分析基础以及常规流程
126 0
一文速览-数据分析基础以及常规流程
|
监控 SQL Java
案例速览 | 如何为3~12岁孩子提供全方面监控能力?
通过阿里自研的 ARMS 应用实时监控工具,既满足无侵入的接入方式和低损耗的资源占用比例,还提供了全方位的应用监控能力和白屏化的配置使用能力,而且 ARMS 结合众多客户场景和专家经验,提供智能诊断功能。
1043 2
案例速览 | 如何为3~12岁孩子提供全方面监控能力?
|
机器学习/深度学习 算法 NoSQL
伴鱼:借助 Flink 完成机器学习特征系统的升级
Flink 用于机器学习特征工程,解决了特征上线难的问题;以及 SQL + Python UDF 如何用于生产实践。
伴鱼:借助 Flink 完成机器学习特征系统的升级
|
机器学习/深度学习 监控 数据可视化
《构建实时机器学习系统》一3.4 数据分析的三个要点
本节书摘来自华章出版社《构建实时机器学习系统》一 书中的第3章,第3.4节,作者:彭河森 汪涵,更多章节内容可以访问云栖社区“华章计算机”公众号查看。
1161 0