助力工业物联网,工业大数据之数仓维度层DWS层构建【十二】

本文涉及的产品
云原生数据仓库AnalyticDB MySQL版,基础版 8ACU 100GB 1个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 助力工业物联网,工业大数据之数仓维度层DWS层构建【十二】

数仓维度层DWS层构建

01:项目回顾

  1. ODS层与DWD层的功能与区别是什么?
  • ODS:原始数据层
  • 存储格式:AVRO
  • 数据内容:基本与原始数据是一致的
  • DWD:明细数据层
  • 存储格式:Orc
  • 数据内容:基于与ODS层是一致的
  1. ODS层的需求是什么?
  • 自动化建库建表
  • 建表
create table one_make_ods.表名
tableproperties(schema文件)
  • 表名
  • 表的注释
  • 表对应的HDFS地址
  • Schema文件的地址
  1. DWD层的需求是什么?
  • 自动化建库建表
  • 建表
create table one_make_dwd.表名(
  字段信息
)
location
  • 表名
  • 表的注释
  • 表对应的HDFS地址
  • 字段信息
  1. 怎么获取表的Schema信息?
  • 表的注释、Schema信息
  • ODS:Oracle中获取表的注释、Schema文件从Sqoop生成的
  • DWD:Oracle中获取表的信息
  • TableMeta:表名,表的注释,列的信息:List
  • ColumnMeta:列名、列的注释、列的类型、长度、精度
  1. 如何使用Python构建Oracle和Hive的连接?
  • Oracle:cx_Oracle
  • conn(host,port,user,passwd,sid)
  • Hive/SparkSQL:pyHive
  • SparkSQL用法
  • 编程方式:python文件 | jar包
  • 流程
  • step1:SparkSession
  • step2:读取数据源
  • step3:处理
  • 注册视图
  • spark.sql(“”)
  • spark-submit
  • 优点:灵活
  • 场景:DSL
  • 提交SQL:ThriftServer
  • 场景:SQL,调度开发
  • 流程
  • JDBC | PyHive | Beeline:代码中开发
  • spark-sql -f xxxx.sql:SQL文件的运行
  1. 如果实现SQL语句的执行?
  • 服务端地址:主机名 + 端口
  • 用户名和密码
  • step2:基于这个连接构建一个游标
  • step3:通过游标来执行SQL语句:execute(String:SQL)
  • step4:释放资源
  1. 集中问题
  • 连接构建不上
  • 映射不对:spark.bigdata.cn:Can not Connect[46.xxx.xxxx.xx,10001]
  • 修改host文件
  • 修改config.txt:node1
  • 服务端问题:spark.bigdata.cn:Can not Connect[192.168.88.100,10001]
  • Spark的TriftServer没有启动
  • 启动完成先用dg或者beeline先测试一下
  • ThriftServer:依赖于MetaStore + YARN
  • 检查YARN:本质就是一个Spark程序:实时程序,不停止的
  • Oracle:cx_Oracle + 本地客户端:D:\instantclient_12_2
  • 安装
  • Python版本:Python 3.7.4
  • 命令sasl

02:项目目标

  1. 回顾维度建模
  • 建模流程:划分主题域和主题
  • 维度设计:构建维度矩阵
  • 维度模型:雪花模型、星型模式
  1. 项目中的建模流程和维度设计
  • 划分了哪些主题域,每个主题域有哪些主题?
  • 每个主题基于哪些维度进行分析?
  1. 维度层构建
  • 时间维度
  • 地区维度
  • 油站维度
  • 服务网点维度
  • 组织机构维度
  • 仓库维度
  • 物流维度

03:维度建模回顾:建模流程

  • 目标掌握维度建模的建模流程
  • 实施
  • step1-需求调研:业务调研和数据调研
  • 了解整个业务实现的过程
  • 收集所有数据使用人员对于数据的需求
  • 整理所有数据来源
  • step2-划分主题域:面向业务将业务划分主题域及主题
  • 用户域、店铺域
  • 商品域、交易域、
  • 客服域、信用风控域、采购分销域
  • step3-构建维度总线矩阵:明确每个业务主题对应的维度关系
  • step4-明确指标统计:明确所有原生指标与衍生指标
  • 原生指标:基于某一业务事件行为下的度量,是业务定义中不可再拆分的指标,如支付总金额
  • 衍生指标:基于原子指标添加了维度:近7天的支付总金额等
  • step5-定义事实与维度规范
  • 命名规范、类型规范、设计规范等
  • step6-代码开发
  • 实现具体的代码开发
  • 只要知道指标的计算方式,基于维度分组计算指标
  • 小结
  • 掌握维度建模的建模流程

04:维度建模回顾:维度设计

  • 目标掌握维度建模中维度的设计
  • 实施
  • 功能:基于组合维度来更加细化我们的指标,来更加精确的发现问题
  • 指标如果不基于组合维度进行分析得到,指标的结果是没有意义的
  • 实现:开发中维度就是指标聚合时的分组字段
  • 特点
  • 数据量小
  • 很少发生变化
  • 采集方式:全量
  • 常见维度
  • 时间维度:年、季度、月、周、天、小时
  • 地区维度:国家、省份、城市
  • 平台维度:网站、APP、小程序、H5
  • 操作系统维度:Windows、Mac OS、Android、Linux、IOS
  • ……
  • 小结
  • 掌握维度建模中维度的设计

05:维度建模回顾:维度模型

  • 目标掌握维度设计的常用模型
  • 路径
  • step1:雪花模型
  • step2:星型模型
  • step3:星座模型
  • 实施
  • 雪花模型
  • 设计:部分维度通过其他维度间接关联事实表
  • 优点:避免数据的冗余
  • 缺点:关联层次比较多,数据大的情况下,底层层层Join,查询数据性能降低

  • 星型模型
  • 设计:所有维度表直接关联事实表
  • 优点:每次查询时候,直接获取对应的数据结果,不用关联其他的维度子表,可以提高性能
  • 缺点:数据冗余度相比雪花模型较高

  • 星座模型
  • 星座模型:基于星型模型的演变,多个事实共同使用一个维度表

  • 小结
  • 掌握维度设计的常用模型


相关实践学习
AnalyticDB MySQL海量数据秒级分析体验
快速上手AnalyticDB MySQL,玩转SQL开发等功能!本教程介绍如何在AnalyticDB MySQL中,一键加载内置数据集,并基于自动生成的查询脚本,运行复杂查询语句,秒级生成查询结果。
阿里云云原生数据仓库AnalyticDB MySQL版 使用教程
云原生数据仓库AnalyticDB MySQL版是一种支持高并发低延时查询的新一代云原生数据仓库,高度兼容MySQL协议以及SQL:92、SQL:99、SQL:2003标准,可以对海量数据进行即时的多维分析透视和业务探索,快速构建企业云上数据仓库。 了解产品 https://www.aliyun.com/product/ApsaraDB/ads
目录
相关文章
|
1月前
|
消息中间件 分布式计算 大数据
大数据-166 Apache Kylin Cube 流式构建 整体流程详细记录
大数据-166 Apache Kylin Cube 流式构建 整体流程详细记录
63 5
|
1月前
|
存储 SQL 分布式计算
大数据-162 Apache Kylin 全量增量Cube的构建 Segment 超详细记录 多图
大数据-162 Apache Kylin 全量增量Cube的构建 Segment 超详细记录 多图
57 3
|
4天前
|
人工智能 监控 物联网
深度探索人工智能与物联网的融合:构建未来智能生态系统###
在当今这个数据驱动的时代,人工智能(AI)与物联网(IoT)的深度融合正引领着一场前所未有的技术革命。本文旨在深入剖析这一融合背后的技术原理、探讨其在不同领域的应用实例及面临的挑战与机遇,为读者描绘一幅关于未来智能生态系统的宏伟蓝图。通过技术创新的视角,我们不仅揭示了AI与IoT结合的强大潜力,也展望了它们如何共同塑造一个更加高效、可持续且互联的世界。 ###
|
13天前
|
传感器 监控 安全
创新无限:物联网技术在智慧城市构建中的前沿探索
【10月更文挑战第29天】在这个信息爆炸的时代,物联网(IoT)技术正重塑我们对城市的认知。智慧城市已从科幻走向现实,物联网通过连接各种设备和传感器,收集、分析数据,提升城市运行效率和居民生活质量。从智慧城管、智能交通、智慧水务到智能电网,物联网的应用正逐步实现城市的智能化、互联化和可持续发展。
33 1
|
14天前
|
存储 人工智能 大数据
物联网、大数据、云计算、人工智能之间的关系
物联网、大数据、云计算、人工智能之间的关系是紧密相连、相互促进的。这四者既有各自独立的技术特征,又能在不同层面上相互融合,共同推动信息技术的发展和应用。
123 0
|
1月前
|
Java 大数据 数据库连接
大数据-163 Apache Kylin 全量增量Cube的构建 手动触发合并 JDBC 操作 Scala
大数据-163 Apache Kylin 全量增量Cube的构建 手动触发合并 JDBC 操作 Scala
29 2
大数据-163 Apache Kylin 全量增量Cube的构建 手动触发合并 JDBC 操作 Scala
|
1月前
|
SQL 分布式计算 NoSQL
大数据-164 Apache Kylin Cube优化 案例1 定义衍生维度与对比 超详细
大数据-164 Apache Kylin Cube优化 案例1 定义衍生维度与对比 超详细
28 1
大数据-164 Apache Kylin Cube优化 案例1 定义衍生维度与对比 超详细
|
17天前
|
机器学习/深度学习 人工智能 物联网
深度学习:物联网大数据洞察中的人工智能
深度学习:物联网大数据洞察中的人工智能
|
17天前
|
分布式计算 大数据 OLAP
AnalyticDB与大数据生态集成:Spark & Flink
【10月更文挑战第25天】在大数据时代,实时数据处理和分析变得越来越重要。AnalyticDB(ADB)是阿里云推出的一款完全托管的实时数据仓库服务,支持PB级数据的实时分析。为了充分发挥AnalyticDB的潜力,将其与大数据处理工具如Apache Spark和Apache Flink集成是非常必要的。本文将从我个人的角度出发,分享如何将AnalyticDB与Spark和Flink集成,构建端到端的大数据处理流水线,实现数据的实时分析和处理。
48 1
|
1月前
|
分布式计算 大数据 Serverless
云栖实录 | 开源大数据全面升级:Native 核心引擎、Serverless 化、湖仓架构引领云上大数据发展
在2024云栖大会开源大数据专场上,阿里云宣布推出实时计算Flink产品的新一代向量化流计算引擎Flash,该引擎100%兼容Apache Flink标准,性能提升5-10倍,助力企业降本增效。此外,EMR Serverless Spark产品启动商业化,提供全托管Serverless服务,性能提升300%,并支持弹性伸缩与按量付费。七猫免费小说也分享了其在云上数据仓库治理的成功实践。其次 Flink Forward Asia 2024 将于11月在上海举行,欢迎报名参加。
178 1
云栖实录 | 开源大数据全面升级:Native 核心引擎、Serverless 化、湖仓架构引领云上大数据发展

热门文章

最新文章