海量数据迁移之分区并行切分

简介: 在海量的数据迁移中,如果某个表特别大,可以考虑对表中的分区进行切分,比如某个表有100g,还有100个分区,那么可以考虑针对这100个分区,那么可以考虑把这100个分区看成100个表进行并行抽取,如果某个分区数据比较多,可能生成5个dump,那么着100个分区,就可能生成105个分区以上。
在海量的数据迁移中,如果某个表特别大,可以考虑对表中的分区进行切分,比如某个表有100g,还有100个分区,那么可以考虑针对这100个分区,那么可以考虑把这100个分区看成100个表进行并行抽取,如果某个分区数据比较多,可能生成5个dump,那么着100个分区,就可能生成105个分区以上。
那么如果有100多个表,那么可能分区都算进来就可能有上千个。如何对这上千个dump进行最快的加载呢。
可以考虑基于分区的并行切分,里面可能还涉及一些算法的知识。

目前生成了如下的数据报告,我们需要基于这个报告来对如下的表/分区进行切分。
REEMENT这个表不是分区表,所以在分区信息的地方填写了默认值'x',在数据加载的时候会进行过滤。
MEMO这个表比较大,对于分区partition(P0_A1000_E3),生成的dunp序号为21,22,23,总共有3个dump。在数据加载的时候就可以先加载21号dump,然后22号dump,23号dump

MEMO partition(P0_A1000_E3) 3 21..23
MEMO partition(P0_A1000_E2) 3 18..20
MEMO partition(P0_A1000_E1) 3 15..17
USR_GRP_MEMBERS x 2 1..3
REEMENT x 2 1..3
MEMO partition(PMAXVALUE_AMAXVALUE_EMAXVALUE) 1 699..700
MEMO partition(P9_A3000_E5) 2 697..698
MEMO partition(P9_A3000_E4) 2 695..696
MEMO partition(P9_A3000_E3) 2 693..694
MEMO partition(P9_A3000_E2) 2 691..692
MEMO partition(P9_A3000_E1) 2 689..690
MEMO partition(P9_A3000_E0) 2 687..688
MEMO partition(P9_A2000_E5) 2 685..686
MEMO partition(P9_A2000_E4) 2 683..684
MEMO partition(P9_A2000_E3) 2 681..682
MEMO partition(P9_A2000_E2) 2 679..680
MEMO partition(P9_A2000_E1) 2 677..678
MEMO partition(P9_A1000_E0) 2 657..658

我们现在就需要基于第三列的信息,对表、分区表进行切分。使得启用的多个并行进程能够最大程度的达到平衡。
我们可以使用如下的脚本来进行表、分区的并行切分。
比如我们考虑启用6个并行的进程,生成的日志类似下面的形式。可以看到切分还是很均匀的。

move INVOICE partition(A11_B6)  to par6_
move INVOICE partition(A11_B4)  to par1_
move INVOICE partition(A11_B2)  to par2_
move INVOICE partition(A11_B10)  to par3_
move INVOICE partition(A10_B8)  to par4_
move INVOICE partition(A10_B6)  to par5_
move INVOICE partition(A10_B4)  to par6_
move INVOICE partition(A10_B2)  to par1_
move INVOICE partition(A10_B10)  to par2_
move RESOURCE partition(A9)  to par3_
move RESOURCE partition(A8)  to par4_
move RESOURCE partition(A7)  to par5_
move RESOURCE partition(A6)  to par6_
move RESOURCE partition(A5)  to par1_
move RESOURCE partition(A4)  to par2_
move RESOURCE partition(A3)  to par3_
move RESOURCE partition(A2)  to par4_
move RESOURCE partition(A1)  to par5_
move RESOURCE partition(A0)  to par6_
213
213
213
213
214
214

脚本如下:

par_file_name=$1
sort -rn -k3 $par_file_name > ${par_file_name}_tmp
mv  ${par_file_name}_tmp  ${par_file_name}

par_no=$2
obj_length=`cat ${par_file_name}|wc -l `
echo $obj_length

for i in {1..$par_no}
do
sed -n ''$i'p' ${par_file_name}> par${i}_${par_file_name}
export par${i}_sum=`cat par${i}_${par_file_name}|awk '{print $3}' | awk '{sum+=$1}END{print sum}'`
#echo `eval echo \\${par${i}_sum}`
done

function getMin
{
param_no=$#

for i in {1..$param_no}
do
export par${i}_=`eval echo \\${${i}}`
done

min_sum=$par1_
min_par=par1_


for i in {2..$param_no};
do
j=`expr $i - 1`
tmp_cur_par=par${i}_
tmp_cur_sum=`eval echo   \\${${tmp_cur_par}}`
if [ $min_sum -le $tmp_cur_sum  ]
then
 min_sum=$min_sum
 min_par=$min_par
else
 min_sum=$tmp_cur_sum
 min_par=$tmp_cur_par
fi
done

echo  $min_par
}

function getSumList
{
for k in {1..$par_no}
do
#export par${k}_sum=`cat par${k}_${par_file_name}|awk '{print $3}' | awk '{sum+=$1}END{print sum}'`
#echo `eval echo \\${par${k}_sum}`

#par_list="$par_list  `eval echo \\${par${k}_sum}`"
#echo $par_list

tmp_sum=`cat par${k}_${par_file_name}|awk '{print $3}' | awk '{sum+=$1}END{print sum}'`
echo $tmp_sum
#tmp_par_list=${tmp_par_list} "" $tmp_sum
done
#echo $tmp_par_list
}

j=`expr $par_no + 1`
for i in {$j..${obj_length}}
do
tmp_obj=`sed -n ''$i'p' ${par_file_name}`

par_list=`getSumList`
tmp_par=`getMin  $par_list`
echo 'move '`sed -n ''$i'p' ${par_file_name}|awk '{print $1 " " $2}'` ' to '$tmp_par
echo $tmp_obj >> ${tmp_par}${par_file_name}
tmp_par=0
done

for i in {1..$par_no}
do
cat par${i}_${par_file_name}|awk '{print $3}' | awk '{sum+=$1}END{print sum}'
done

目录
相关文章
|
3月前
|
分布式计算 监控 大数据
Spark RDD分区和数据分布:优化大数据处理
Spark RDD分区和数据分布:优化大数据处理
|
6月前
|
数据采集 存储 缓存
【如何提高数据采集和分析的性能】如何优化数据查询、数据分区和数据压缩方面的处理
【如何提高数据采集和分析的性能】如何优化数据查询、数据分区和数据压缩方面的处理
|
8月前
|
存储 关系型数据库 MySQL
如何实现基于Flink的高吞吐、精确一致性数据入湖
APS(ADB Pipeline Service)简介:ADB湖仓版在深化自身湖仓能力建设的同时,还推出了APS(ADB Pipeline Service)数据通道组件,为客户提供实时数据流服务实现数据低成本、低延迟入湖入仓。本文以数据源SLS如何通过APS实现高速精确一致性入湖为例,介绍相关的挑战和解决方法。
|
9月前
|
存储 SQL NoSQL
GreenPlum数据分布机制
GreenPlum数据分布机制
100 0
|
存储 索引
67.【clickhouse】ClickHouse从入门到放弃-对于分区、索引、标记和压缩数据的协同总结
【clickhouse】ClickHouse从入门到放弃-对于分区、索引、标记和压缩数据的协同总结
67.【clickhouse】ClickHouse从入门到放弃-对于分区、索引、标记和压缩数据的协同总结
|
存储 NoSQL 分布式数据库
Kudu 架构—tablet 的冗余存储机制 | 学习笔记
快速学习 Kudu 架构—tablet 的冗余存储机制
215 0
Kudu 架构—tablet 的冗余存储机制 | 学习笔记
|
存储 缓存 负载均衡
Hbase的Rowkey设计以及如何进行预分区
今天有人问我Hbase的rowkey设计和预分区的问题,这篇文字就简单介绍一下.,关于Hbase的表的一些基本概念这里就不说了,直接说重点,尽可能说的简单一点,废话就不写了. 1.什么是Rowkey? 我们知道Hbase是一个分布式的、面向列的数据库,它和一般关系型数据库的最大区别是:HBase很适合于存储非结构化的数据,还有就是它基于列的而不是基于行的模式.
Hbase的Rowkey设计以及如何进行预分区
|
存储 缓存 分布式计算
数据湖实操讲解【JindoFS 缓存加速】第十四讲:指定表和分区来预先缓存,查询分析更高效
数据湖 JindoFS+OSS 实操干货 36讲 每周二16点准时直播! 扫文章底部二维码入钉群,线上准时观看~ Github链接: https://github.com/aliyun/alibabacloud-jindofs
数据湖实操讲解【JindoFS 缓存加速】第十四讲:指定表和分区来预先缓存,查询分析更高效
|
算法 数据库
性能优化技巧 - 集群维表
事实表和维表进行关联计算时,需要对维表进行频繁的随机访问,因此维表要尽量放在内存中,才能提高关联计算的性能。如果维表较大,单机内存放不下,就应该考虑用集群方式,将维表分段读入多台机器的内存。下面举例说明集群维表的用法。
839 0