【DBMS 数据库管理系统】数据仓库 数据组织 ( 数据组织级别 | 元数据 | 粒度 | 分割 | 数据组织形式 )(二)

简介: 【DBMS 数据库管理系统】数据仓库 数据组织 ( 数据组织级别 | 元数据 | 粒度 | 分割 | 数据组织形式 )(二)

五、分割


分割 : 将 完整的数据集 分散到 各自的物理单元 中去 , 以便能 分别独立处理 ;


分割结果 : 数据 分割后的 数据单元 , 称为 分片 ;

分割目的 : 提高效率 ;

分割作用 : 分析 相关性 数据集合 , 将 具有相关性 的数据 组织到一起分析 , 提高分析效率 ;


分割标准 :


方便进行如下操作 : 重构 , 索引 , 重组 , 恢复 , 监控 , 扫描 ;

业务领域

日期

地域

多个分割标准组合


"分割" 示例 : 对 保险行业数据 进行分割 ;


总的数据集 : 3 33 年的 车险 , 寿险 , 健康险 , 财产险 , 意外险 数据 ;

分割标准 : 按照 “时间” , 和 “险种” , 进行分割 ;

分片详情 : 分片个数为 3 × 5 = 15 3 \times 5 = 153×5=15 个数据分片 ;

时间 车险 寿险 健康险 财产险 意外险

2020 20202020 年 分片 1 11 分片 2 22 分片 3 33 分片 4 44 分片 5 55

2019 20192019 年 分片 6 66 分片 7 77 分片 8 88 分片 9 99 分片 10 1010

2018 20182018 年 分片 11 1111 分片 12 1212 分片 13 1313 分片 14 1414 分片 15 1515


数据分片使用方式 :


处理单独数据分片 : 如果只分析 2019 20192019 年的车险数据 , 只需要分析 分片 6 66 中的数据即可 , 每个分片的数据都可以独立处理 ;


合并若干数据分片 : 如果分析 2020 20202020 年的健康险 和 意外险 数据 , 那么需要 将 分片 2 22 和 分片 5 55 合并起来 , 进行分析 ;






六、数据仓库组织形式


数据仓库组织形式 :


简单堆积文件

轮转综合文件

简化直接文件

连续文件


简单堆积文件 :


概念 : 将数据库中 提取加工 的数据 , 直接积累存储 ;

操作 : 来一个存放一个 , 按照时间先后顺序存放 , 堆积 ;


轮转综合文件 :


概念 : 将 数据的存储单位 , 分成 若干级别 , 每个级别有有限个指定的数据 ;

数据形式 : 一定时间段的综合数据 , 称为 轮转记录 ;

优点 : 结构简单 , 数据量比 “简单堆积文件” 少 ;

缺点 : 综合数据 , 会损失数据细节 , 越久远的历史数据 , 数据细节损失的越多 ;

操作 : 够一个时间段 , 就将指定长度的数据综合在一起 ; 每次综合都会损失一定的数据细节 ;

示例 : 如果数据积累够 1 天 , 直接综合成一天的数据 ; 如果数据积累够 30 天 , 直接综合成一个月的数据 ; 如果数据积累够 12 个月 , 直接综合成一年的数据 , 小时的数据不超过 24 个 , 天的数据不超过 30 个 , 月的数据 不超过 12 个 ;


简化直接文件 :


概念 : 按照一定时间间隔 , 对数据库采样 ;

快照 : 每隔一定时间 , 做一个数据库快照 , 存储该快照 , 与 “简单堆积文件” 类似 ;

示例 : 周一对数据做一个快照 , 周二在做一个快照 , 每天都做一个数据库快照 , 存储下来 ;

缺点 : 浪费存储空间 ;


连续文件 : 在上述 “简化直接文件” 快照的基础之上 , 进行增量更新 , 只更新对比后的差异数据 ;


概念 : 两个连续简化的直接文件 , 对比两个文件的差异 , 生成连续文件 ;

连续文件 + 新的简单文件 = 新的连续文件


目录
打赏
0
0
0
0
39
分享
相关文章
云栖重磅|从数据到智能:Data+AI驱动的云原生数据库
在9月20日2024云栖大会上,阿里云智能集团副总裁,数据库产品事业部负责人,ACM、CCF、IEEE会士(Fellow)李飞飞发表《从数据到智能:Data+AI驱动的云原生数据库》主题演讲。他表示,数据是生成式AI的核心资产,大模型时代的数据管理系统需具备多模处理和实时分析能力。阿里云瑶池将数据+AI全面融合,构建一站式多模数据管理平台,以数据驱动决策与创新,为用户提供像“搭积木”一样易用、好用、高可用的使用体验。
云栖重磅|从数据到智能:Data+AI驱动的云原生数据库
【YashanDB知识库】python驱动查询gbk字符集崖山数据库CLOB字段,数据被驱动截断
【YashanDB知识库】python驱动查询gbk字符集崖山数据库CLOB字段,数据被驱动截断
有哪些方法可以验证用户输入数据的格式是否符合数据库的要求?
有哪些方法可以验证用户输入数据的格式是否符合数据库的要求?
177 75
【YashanDB 知识库】用 yasldr 配置 Bulkload 模式作单线程迁移 300G 的业务数据到分布式数据库,迁移任务频繁出错
问题描述 详细版本:YashanDB Server Enterprise Edition Release 23.2.4.100 x86_64 6db1237 影响范围: 离线数据迁移场景,影响业务数据入库。 外场将部分 NewCIS 的报表业务放到分布式数据库,验证 SQL 性能水平。 操作系统环境配置: 125G 内存 32C CPU 2T 的 HDD 磁盘 问题出现的步骤/操作: 1、部署崖山分布式数据库 1mm 1cn 3dn 单线启动 yasldr 数据迁移任务,设置 32 线程的 bulk load 模式 2、观察 yasldr.log 是否出现如下错
Hutool创建数据源工厂动态查询不同数据库不同数据表的数据
Hutool创建数据源工厂动态查询不同数据库不同数据表的数据
38 2
flink 向doris 数据库写入数据时出现背压如何排查?
本文介绍了如何确定和解决Flink任务向Doris数据库写入数据时遇到的背压问题。首先通过Flink Web UI和性能指标监控识别背压,然后从Doris数据库性能、网络连接稳定性、Flink任务数据处理逻辑及资源配置等方面排查原因,并通过分析相关日志进一步定位问题。
378 61
|
3月前
|
从建模到运维:联犀如何完美融入时序数据库 TDengine 实现物联网数据流畅管理
本篇文章是“2024,我想和 TDengine 谈谈”征文活动的三等奖作品。文章从一个具体的业务场景出发,分析了企业在面对海量时序数据时的挑战,并提出了利用 TDengine 高效处理和存储数据的方法,帮助企业解决在数据采集、存储、分析等方面的痛点。通过这篇文章,作者不仅展示了自己对数据处理技术的理解,还进一步阐释了时序数据库在行业中的潜力与应用价值,为读者提供了很多实际的操作思路和技术选型的参考。
82 1
招行面试:100万级别数据的Excel,如何秒级导入到数据库?
本文由40岁老架构师尼恩撰写,分享了应对招商银行Java后端面试绝命12题的经验。文章详细介绍了如何通过系统化准备,在面试中展示强大的技术实力。针对百万级数据的Excel导入难题,尼恩推荐使用阿里巴巴开源的EasyExcel框架,并结合高性能分片读取、Disruptor队列缓冲和高并发批量写入的架构方案,实现高效的数据处理。此外,文章还提供了完整的代码示例和配置说明,帮助读者快速掌握相关技能。建议读者参考《尼恩Java面试宝典PDF》进行系统化刷题,提升面试竞争力。关注公众号【技术自由圈】可获取更多技术资源和指导。

热门文章

最新文章