助力工业物联网,工业大数据之ODS层构建:需求分析【八】

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 助力工业物联网,工业大数据之ODS层构建:需求分析【八】

01:ODS层构建:需求分析

  • 目标:掌握ODS层构建的实现需求
  • 路径
  • step1:目标
  • step2:问题
  • step3:需求
  • step4:分析
  • 实施
  • 目标:将已经采集同步成功的101张表的数据加载到Hive的ODS层数据表中
  • 问题
  • 难点1:表太多,如何构建每张表?
  • 101张表的数据已经存储在HDFS
  • 建表
  • 方法1:手动开发每一张表建表语句,手动运行
  • 方法2:通过程序自动化建表
  • 拼接建表的SQL语句
create external table 数据库名称.表名
comment '表的注释'
partitioned by
ROW FORMAT SERDE
  'org.apache.hadoop.hive.serde2.avro.AvroSerDe'
STORED AS INPUTFORMAT
  'org.apache.hadoop.hive.ql.io.avro.AvroContainerInputFormat'
OUTPUTFORMAT
  'org.apache.hadoop.hive.ql.io.avro.AvroContainerOutputFormat'
location '这张表在HDFS上的路径'
TBLPROPERTIES ('这张表的Schema文件在HDFS上的路径')
  • 表名、表的注释、表在HDFS上的路径、Schema文件在HDFS上的路径
  • 将SQL语句提交给Hive或者Spark来执行
  • 申明分区
alter table 表名 add partition if not exists partition(key=value)
  • 难点2:如果使用自动建表,如何获取每张表的字段信息?
  • Schema文件:每个Avro格式的数据表都对应一个Schema文件
  • 统一存储在HDFS上
  • 需求:加载Sqoop生成的Avro的Schema文件,实现自动化建表
  • 分析
  • step1:代码中构建一个Hive/SparkSQL的连接
  • step2:创建ODS层数据库
create database if not exists one_make_ods;
  • step3:创建ODS层全量表:44张表
create external table one_make_ods_test.ciss_base_areas
comment '行政地理区域表'
PARTITIONED BY (dt string)
ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.avro.AvroSerDe'
STORED AS INPUTFORMAT 'org.apache.hadoop.hive.ql.io.avro.AvroContainerInputFormat'
OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.avro.AvroContainerOutputFormat'
location '/data/dw/ods/one_make/full_imp/ciss4.ciss_base_areas'
TBLPROPERTIES ('avro.schema.url'='hdfs://bigdata.maynor.cn:9000/data/dw/ods/one_make/avsc/CISS4_CISS_BASE_AREAS.avsc');
  • 读取全量表表名
  • 动态获取表名:循环读取文件
  • 获取表的信息:表的注释
  • Oracle:表的信息
  • 从Oracle中获取表的注释
  • 获取表的文件:HDFS上AVRO文件的地址
/data/dw/ods/one_make/full_imp
  • 获取表的Schema:HDFS上的Avro文件的Schema文件地址
/data/dw/ods/one_make/avsc
  • 拼接建表字符串
  • 方式一:直接相加:简单
str1 = "I "
str2 = "like China"
str3 = str1 + str2
  • 方式二:通过列表拼接:复杂
  • 执行建表SQL语句
  • step4:创建ODS层增量表:57张表
  • 读取增量表表名
  • 动态获取表名:循环读取文件
  • 获取表的信息:表的注释
  • Oracle:表的信息
  • 从Oracle中获取表的注释
  • 获取表的文件:HDFS上AVRO文件的地址
/data/dw/ods/one_make/incr_imp
  • 获取表的Schema:HDFS上的Avro文件的Schema文件地址
/data/dw/ods/one_make/avsc
  • 拼接建表字符串
  • 执行建表SQL语句
  • 小结
  • 掌握ODS层构建的实现需求

02:ODS层构建:创建项目环境

  • 目标实现Pycharm中工程结构的构建
  • 实施
  • 安装Python3.7环境
  • 项目使用的Python3.7的环境代码,所以需要在Windows中安装Python3.7,与原先的Python高版本不冲突,正常安装即可
  • 创建Python工程
  • 安装PyHive、Oracle库
  • step1:在Windows的用户家目录下创建pip.ini文件
  • 例如:C:\Users\Frank\pip\pip.ini
  • 内容:指定pip安装从阿里云下载
[global]
index-url=http://mirrors.aliyun.com/pypi/simple/
[install]
trusted-host=mirrors.aliyun.com
  • step2:将文件添加到Windows的Path环境变量

  • step3:进入项目环境目录
  • 例如我的项目路径是:D:\PythonProject\OneMake_Spark\venv\Scripts

  • 将提供的sasl-0.2.1-cp37-cp37m-win_amd64.whl文件放入Scripts目录下

  • 在CMD中执行以下命令,切换到Scripts目录下
#切换到D盘
D:
#切换到项目环境的Scripts目录下
cd D:\PythonProject\OneMake_Spark\venv\Scripts
  • step4:CMD中依次执行以下安装命令
# 安装sasl包 -> 使用pycharm安装,会存在下载失败情况,因此提前下载好,对应python3.7版本
pip install sasl-0.2.1-cp37-cp37m-win_amd64.whl
# 安装thrift包
pip install thrift
# 安装thrift sasl包One
pip install thrift-sasl
# 安装python操作oracle包
pip install cx-Oracle
# 安装python操作hive包,也可以操作sparksql
pip install pyhive
  • step5:验证安装结果
  • 温馨提示:其实工作中你也可以通过Pycharm直接安装
  • 小结
  • 实现Pycharm中工程结构的构建

03:ODS层构建:代码导入

  • 目标实现Python项目代码的导入及配置
  • 实施
  • Oracle本地驱动目录:将提供的instantclient_12_2目录放入D盘的根目录下
  • PyHive本地连接配置:将提供的CMU目录放入C盘的根目录下

  • auto_create_hive_table包
  • 创建路径包
auto_create_hive_table.cn.maynor.datatohive
  • 在datatohive的init文件中放入如下代码
from auto_create_hive_table.cn.maynor.datatohive import LoadData2DWD
from auto_create_hive_table.cn.maynor.datatohive.CHiveTableFromOracleTable import CHiveTableFromOracleTable
from auto_create_hive_table.cn.maynor.datatohive.CreateHiveTablePartition import CreateHiveTablePartition
  • 其他包的init都放入如下内容
#!/usr/bin/env python
# @desc :
__coding__ = "utf-8"
__author__ = "maynor"
  • 将对应的代码文件放入对应的包或者目录中
  • step1:从提供的代码中复制config、log、resource这三个目录直接粘贴到auto_create_hive_table包下
  • step2:从提供的代码中复制entity、utils、EntranceApp.py这三个直接粘贴到maynor包下
  • step3:从提供的代码中复制fileformat等文件直接粘贴到datatohive包下
  • DW归档目录**:将提供的代码中的dw目录直接粘贴到项目中

  • 小结
  • 实现Python项目代码的导入及配置


相关实践学习
阿里云AIoT物联网开发实战
本课程将由物联网专家带你熟悉阿里云AIoT物联网领域全套云产品,7天轻松搭建基于Arduino的端到端物联网场景应用。 开始学习前,请先开通下方两个云产品,让学习更流畅: IoT物联网平台:https://iot.console.aliyun.com/ LinkWAN物联网络管理平台:https://linkwan.console.aliyun.com/service-open
目录
相关文章
|
2月前
|
机器学习/深度学习 算法 大数据
构建数据中台,为什么“湖仓一体”成了大厂标配?
在大数据时代,数据湖与数据仓库各具优势,但单一架构难以应对复杂业务需求。湖仓一体通过融合数据湖的灵活性与数据仓的规范性,实现数据分层治理、统一调度,既能承载海量多源数据,又能支撑高效分析决策,成为企业构建数据中台、推动智能化转型的关键路径。
|
5月前
|
SQL 分布式计算 大数据
大数据新视界 --大数据大厂之Hive与大数据融合:构建强大数据仓库实战指南
本文深入介绍 Hive 与大数据融合构建强大数据仓库的实战指南。涵盖 Hive 简介、优势、安装配置、数据处理、性能优化及安全管理等内容,并通过互联网广告和物流行业案例分析,展示其实际应用。具有专业性、可操作性和参考价值。
大数据新视界 --大数据大厂之Hive与大数据融合:构建强大数据仓库实战指南
|
3月前
|
存储 SQL 分布式计算
MaxCompute x 聚水潭:基于近实时数仓解决方案构建统一增全量一体化数据链路
聚水潭作为中国领先的电商SaaS ERP服务商,致力于为88,400+客户提供全链路数字化解决方案。其核心ERP产品助力企业实现数据驱动的智能决策。为应对业务扩展带来的数据处理挑战,聚水潭采用MaxCompute近实时数仓Delta Table方案,有效提升数据新鲜度和计算效率,提效比例超200%,资源消耗显著降低。未来,聚水潭将进一步优化数据链路,结合MaxQA实现实时分析,赋能商家快速响应市场变化。
166 0
|
8月前
|
SQL 存储 HIVE
鹰角基于 Flink + Paimon + Trino 构建湖仓一体化平台实践项目
本文整理自鹰角网络大数据开发工程师朱正军在Flink Forward Asia 2024上的分享,主要涵盖四个方面:鹰角数据平台架构、数据湖选型、湖仓一体建设及未来展望。文章详细介绍了鹰角如何构建基于Paimon的数据湖,解决了Hudi入湖的痛点,并通过Trino引擎和Ranger权限管理实现高效的数据查询与管控。此外,还探讨了湖仓一体平台的落地效果及未来技术发展方向,包括Trino与Paimon的集成增强、StarRocks的应用以及Paimon全面替换Hive的计划。
804 1
鹰角基于 Flink + Paimon + Trino 构建湖仓一体化平台实践项目
|
7月前
|
SQL 存储 HIVE
鹰角基于 Flink + Paimon + Trino 构建湖仓一体化平台实践项目
鹰角基于 Flink + Paimon + Trino 构建湖仓一体化平台实践项目
442 2
|
8月前
|
存储 分布式计算 大数据
基于阿里云大数据平台的实时数据湖构建与数据分析实战
在大数据时代,数据湖作为集中存储和处理海量数据的架构,成为企业数据管理的核心。阿里云提供包括MaxCompute、DataWorks、E-MapReduce等在内的完整大数据平台,支持从数据采集、存储、处理到分析的全流程。本文通过电商平台案例,展示如何基于阿里云构建实时数据湖,实现数据价值挖掘。平台优势包括全托管服务、高扩展性、丰富的生态集成和强大的数据分析工具。
|
7月前
|
传感器 人工智能 物联网
健康监测设备的技术革命:AI+物联网如何让你随时掌握健康数据?
健康监测设备的技术革命:AI+物联网如何让你随时掌握健康数据?
935 19
|
11月前
|
存储 安全 物联网
政府在推动物联网技术标准和规范的统一方面可以发挥哪些作用?
政府在推动物联网技术标准和规范的统一方面可以发挥哪些作用?
361 60
|
11月前
|
安全 物联网 物联网安全
制定统一的物联网技术标准和规范的难点有哪些?
制定统一的物联网技术标准和规范的难点有哪些?
407 58

热门文章

最新文章