助力工业物联网,工业大数据之ODS层构建:需求分析【八】

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介: 助力工业物联网,工业大数据之ODS层构建:需求分析【八】

01:ODS层构建:需求分析

  • 目标:掌握ODS层构建的实现需求
  • 路径
  • step1:目标
  • step2:问题
  • step3:需求
  • step4:分析
  • 实施
  • 目标:将已经采集同步成功的101张表的数据加载到Hive的ODS层数据表中
  • 问题
  • 难点1:表太多,如何构建每张表?
  • 101张表的数据已经存储在HDFS
  • 建表
  • 方法1:手动开发每一张表建表语句,手动运行
  • 方法2:通过程序自动化建表
  • 拼接建表的SQL语句
create external table 数据库名称.表名
comment '表的注释'
partitioned by
ROW FORMAT SERDE
  'org.apache.hadoop.hive.serde2.avro.AvroSerDe'
STORED AS INPUTFORMAT
  'org.apache.hadoop.hive.ql.io.avro.AvroContainerInputFormat'
OUTPUTFORMAT
  'org.apache.hadoop.hive.ql.io.avro.AvroContainerOutputFormat'
location '这张表在HDFS上的路径'
TBLPROPERTIES ('这张表的Schema文件在HDFS上的路径')
  • 表名、表的注释、表在HDFS上的路径、Schema文件在HDFS上的路径
  • 将SQL语句提交给Hive或者Spark来执行
  • 申明分区
alter table 表名 add partition if not exists partition(key=value)
  • 难点2:如果使用自动建表,如何获取每张表的字段信息?
  • Schema文件:每个Avro格式的数据表都对应一个Schema文件
  • 统一存储在HDFS上
  • 需求:加载Sqoop生成的Avro的Schema文件,实现自动化建表
  • 分析
  • step1:代码中构建一个Hive/SparkSQL的连接
  • step2:创建ODS层数据库
create database if not exists one_make_ods;
  • step3:创建ODS层全量表:44张表
create external table one_make_ods_test.ciss_base_areas
comment '行政地理区域表'
PARTITIONED BY (dt string)
ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.avro.AvroSerDe'
STORED AS INPUTFORMAT 'org.apache.hadoop.hive.ql.io.avro.AvroContainerInputFormat'
OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.avro.AvroContainerOutputFormat'
location '/data/dw/ods/one_make/full_imp/ciss4.ciss_base_areas'
TBLPROPERTIES ('avro.schema.url'='hdfs://bigdata.maynor.cn:9000/data/dw/ods/one_make/avsc/CISS4_CISS_BASE_AREAS.avsc');
  • 读取全量表表名
  • 动态获取表名:循环读取文件
  • 获取表的信息:表的注释
  • Oracle:表的信息
  • 从Oracle中获取表的注释
  • 获取表的文件:HDFS上AVRO文件的地址
/data/dw/ods/one_make/full_imp
  • 获取表的Schema:HDFS上的Avro文件的Schema文件地址
/data/dw/ods/one_make/avsc
  • 拼接建表字符串
  • 方式一:直接相加:简单
str1 = "I "
str2 = "like China"
str3 = str1 + str2
  • 方式二:通过列表拼接:复杂
  • 执行建表SQL语句
  • step4:创建ODS层增量表:57张表
  • 读取增量表表名
  • 动态获取表名:循环读取文件
  • 获取表的信息:表的注释
  • Oracle:表的信息
  • 从Oracle中获取表的注释
  • 获取表的文件:HDFS上AVRO文件的地址
/data/dw/ods/one_make/incr_imp
  • 获取表的Schema:HDFS上的Avro文件的Schema文件地址
/data/dw/ods/one_make/avsc
  • 拼接建表字符串
  • 执行建表SQL语句
  • 小结
  • 掌握ODS层构建的实现需求

02:ODS层构建:创建项目环境

  • 目标实现Pycharm中工程结构的构建
  • 实施
  • 安装Python3.7环境
  • 项目使用的Python3.7的环境代码,所以需要在Windows中安装Python3.7,与原先的Python高版本不冲突,正常安装即可
  • 创建Python工程
  • 安装PyHive、Oracle库
  • step1:在Windows的用户家目录下创建pip.ini文件
  • 例如:C:\Users\Frank\pip\pip.ini
  • 内容:指定pip安装从阿里云下载
[global]
index-url=http://mirrors.aliyun.com/pypi/simple/
[install]
trusted-host=mirrors.aliyun.com
  • step2:将文件添加到Windows的Path环境变量

  • step3:进入项目环境目录
  • 例如我的项目路径是:D:\PythonProject\OneMake_Spark\venv\Scripts

  • 将提供的sasl-0.2.1-cp37-cp37m-win_amd64.whl文件放入Scripts目录下

  • 在CMD中执行以下命令,切换到Scripts目录下
#切换到D盘
D:
#切换到项目环境的Scripts目录下
cd D:\PythonProject\OneMake_Spark\venv\Scripts
  • step4:CMD中依次执行以下安装命令
# 安装sasl包 -> 使用pycharm安装,会存在下载失败情况,因此提前下载好,对应python3.7版本
pip install sasl-0.2.1-cp37-cp37m-win_amd64.whl
# 安装thrift包
pip install thrift
# 安装thrift sasl包One
pip install thrift-sasl
# 安装python操作oracle包
pip install cx-Oracle
# 安装python操作hive包,也可以操作sparksql
pip install pyhive
  • step5:验证安装结果
  • 温馨提示:其实工作中你也可以通过Pycharm直接安装
  • 小结
  • 实现Pycharm中工程结构的构建

03:ODS层构建:代码导入

  • 目标实现Python项目代码的导入及配置
  • 实施
  • Oracle本地驱动目录:将提供的instantclient_12_2目录放入D盘的根目录下
  • PyHive本地连接配置:将提供的CMU目录放入C盘的根目录下

  • auto_create_hive_table包
  • 创建路径包
auto_create_hive_table.cn.maynor.datatohive
  • 在datatohive的init文件中放入如下代码
from auto_create_hive_table.cn.maynor.datatohive import LoadData2DWD
from auto_create_hive_table.cn.maynor.datatohive.CHiveTableFromOracleTable import CHiveTableFromOracleTable
from auto_create_hive_table.cn.maynor.datatohive.CreateHiveTablePartition import CreateHiveTablePartition
  • 其他包的init都放入如下内容
#!/usr/bin/env python
# @desc :
__coding__ = "utf-8"
__author__ = "maynor"
  • 将对应的代码文件放入对应的包或者目录中
  • step1:从提供的代码中复制config、log、resource这三个目录直接粘贴到auto_create_hive_table包下
  • step2:从提供的代码中复制entity、utils、EntranceApp.py这三个直接粘贴到maynor包下
  • step3:从提供的代码中复制fileformat等文件直接粘贴到datatohive包下
  • DW归档目录**:将提供的代码中的dw目录直接粘贴到项目中

  • 小结
  • 实现Python项目代码的导入及配置


相关实践学习
钉钉群中如何接收IoT温控器数据告警通知
本实验主要介绍如何将温控器设备以MQTT协议接入IoT物联网平台,通过云产品流转到函数计算FC,调用钉钉群机器人API,实时推送温湿度消息到钉钉群。
阿里云AIoT物联网开发实战
本课程将由物联网专家带你熟悉阿里云AIoT物联网领域全套云产品,7天轻松搭建基于Arduino的端到端物联网场景应用。 开始学习前,请先开通下方两个云产品,让学习更流畅: IoT物联网平台:https://iot.console.aliyun.com/ LinkWAN物联网络管理平台:https://linkwan.console.aliyun.com/service-open
目录
相关文章
|
2月前
|
存储 大数据 数据处理
PHP 与大数据:构建高效数据处理系统
传统的数据处理系统往往难以应对大规模数据的处理需求,而PHP作为一种常用的服务器端脚本语言,在数据处理方面也有其独特的优势。本文将探讨如何利用PHP构建高效的大数据处理系统,结合实际案例分析其应用场景及优势所在。
51 2
|
2月前
|
数据采集 运维 算法
大数据项目管理:从需求分析到成果交付的全流程指南
【4月更文挑战第9天】本文介绍了大数据项目从需求分析到成果交付的全过程,包括需求收集与梳理、可行性分析、项目规划、数据准备与处理、系统开发与集成,以及成果交付与运维。文中通过实例展示了如何进行数据源接入、数据仓库建设、系统设计、算法开发,同时强调了需求理解、知识转移、系统运维的重要性。此外,还提供了Python和SQL代码片段,以说明具体技术实现。在大数据项目管理中,需结合业务和技术,灵活运用这些方法,确保项目的成功执行和价值实现。
552 1
|
12天前
|
机器学习/深度学习 自然语言处理 监控
金融行业的大数据风控模型:构建安全高效的信用评估体系
金融机构借助大数据风控提升信贷效率,通过数据收集、清洗、特征工程、模型构建与评估来识别风险。关键技术涉及机器学习、深度学习、NLP和实时处理。以下是一个Python风控模型构建的简例,展示了从数据预处理到模型训练、评估的过程,并提及实时监控预警的重要性。该文旨在阐述大数据风控的核心要素和关键技术,并提供基础的代码实现概念。【6月更文挑战第23天】
55 8
|
19天前
|
数据采集 分布式计算 大数据
森马基于MaxCompute+Hologres+DataWorks构建数据中台
本次案例主要分享森马集团面对多年自建的多套数仓产品体系,通过阿里云MaxCompute+Hologres+DataWorks统一数仓平台,保障数据生产稳定性与数据质量,减少ETL链路及计算时间,每年数仓整体费用从300多万降到180万。
|
19天前
|
传感器 机器学习/深度学习 监控
物联网技术在工业自动化中的实时故障诊断与维护
物联网技术在工业自动化中的实时故障诊断与维护
|
2月前
|
传感器 机器学习/深度学习 算法
LabVIEW开发工业物联网状态监测
LabVIEW开发工业物联网状态监测
34 2
|
2月前
|
传感器 人工智能 供应链
工业物联网(IIoT)及其在制造业的应用
【5月更文挑战第31天】工业物联网(IIoT)驱动制造业变革,实现设备预测性维护、生产流程优化、供应链智能化及质量控制。Python示例展示数据获取,但面临数据安全、设备兼容性挑战。IIoT将结合AI、大数据,推动制造业创新与转型,助力企业提升竞争力,为制造业可持续发展注入新动力。
36 0
|
2月前
|
SQL 分布式计算 Hadoop
利用Hive与Hadoop构建大数据仓库:从零到一
【4月更文挑战第7天】本文介绍了如何使用Apache Hive与Hadoop构建大数据仓库。Hadoop的HDFS和YARN提供分布式存储和资源管理,而Hive作为基于Hadoop的数据仓库系统,通过HiveQL简化大数据查询。构建过程包括设置Hadoop集群、安装配置Hive、数据导入与管理、查询分析以及ETL与调度。大数据仓库的应用场景包括海量数据存储、离线分析、数据服务化和数据湖构建,为企业决策和创新提供支持。
230 1
|
2月前
|
SQL 存储 监控
构建端到端的开源现代数据平台
构建端到端的开源现代数据平台
247 4
|
2月前
|
人工智能 DataWorks 数据可视化
心动基于阿里云DataWorks构建游戏行业通用大数据模型
心动游戏在阿里云上构建云原生大数据平台,基于DataWorks构建行业通用大数据模型,如玩家、产品、SDK、事件、发行等,满足各种不同的分析型应用的要求,如AI场景、风控场景、数据分析场景等。