12中方法,彻底搞定数据倾斜!

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 12中方法,彻底搞定数据倾斜!

这是我的第64篇原创

数据倾斜是上帝对某个服务器的过于偏爱。

造成数据倾斜的原因

上帝太过于偏爱某个服务器,因此给他分配了太多的任务,导致数据都倾斜到这台服务器了。

在大数据场景中,无论是MapReduce还是Spark,都会因两阶段之间的shuffle导致各个服务器接受到的数据导致处理量失衡的问题。情况严重,就变成数据倾斜了。

我们之所以创造分布式环境,就是因为我们将一个巨大的任务拆解成若干个小任务,给不同的服务器执行,这样总执行时间就会减小至1/n。理想状态的任务处理情况应该如下图所示:

原本单机环境需要执行100s的任务,由5台服务器共同执行,每台服务器执行20s,最后总时间会远远大于单机环境的执行时间。而且我们还可以通过不断增加服务器,来不断减少总运行时间。但是往往会出现这种情况:

某4台服务器很快就执行完了任务,但是其中有一台服务器的迟迟不能完成,严重的时候甚至会OOM(Out Of Memory)。究其原因,其实如同上面说过的,在分布式处理的不同阶段之间会有一个混洗(shuffle)的过程:

在Map或者Spark的Stage1阶段,由于每个数据块的大小都是一致的(默认128M),所以在这个阶段是不会出现数据倾斜的。但是一旦我们对数据进行Shuffle,比如按照商品品类进行分组之后,在Reduce或Stage2阶段,数据将会出现严重的倾斜:原本每台服务器都只需要处理3条数据,Shuffle之后,其中两台服务器各只需处理1条,而剩余的那台服务器则需要执行8条数据。三台服务器处理的数据量比为7:1:1。数据倾斜至第一台服务器。任务延迟,甚至OOM。

如何解决数据倾斜呢:

三个层面:

1、预判-原始数据预防,保证原始数据不倾斜;

2、躲闪-规避数据倾斜,尽量规避Shuffle;

3、硬刚-处理数据倾斜,无法规避Shuffle,用各种办法优化Shuffle过程。

预判

虽说HDFS的数据都是128M,不会一开始就出现数据倾斜,但是仍然有以下几种情况:

1、数据压缩后,128M文件大小一样,但是数据量不一样;

2、存在不可切分的大文件;

3、流式数据。

这几种情况还是可能会导致程度不一的数据倾斜的。我们需要做一些简单的处理:

1、数据压缩后,128M文件大小一样,但是数据量不一样;

  • 解决办法:压缩前,保证每个文件中的数据量基本一致;

2、存在不可切分的大文件;

  • 解决办法:生成数据时,尽量减少不可切分的文件,尽量按照HDFS的逻辑,存成可切分的文件;或者保证这些大文件中的数据量基本一致,且单机可处理。

3、流式数据;

  • 解决办法:Kafka的partition实现建议使用随机、轮询等方法,尽量使各topic的各partition的数据尽量平衡。

闪避

既然我们知道数据倾斜的主要原因的shuffle导致的,那么我们首要的优化方向就是shuffle,能不用尽量不要用。有以下几种方法我们可以规避:

4、ETL预处理

在面对无法避免的原始数据倾斜(Hive表中key分布不均匀、kafka中某topic的partititoner含有业务属性,天然不均匀等),我们可以通过前置ETL过程,进行预处理。

注意:这个方法只是将成本转嫁,并没有解决问题。适合削峰填谷类的操作,比如我们将数据预处理好,避免凌晨集中计算的时候处理时间过长,影响其他任务。

5、过滤不必要的key

很多数据分析师在单体数据库的时候,就有一个不好的习惯:总喜欢select *。在hive、spark等分布式环境中,就吃苦头了,经常遇到数据倾斜甚至OOM。有经验的数据分析师在写sql的时候,通常会先group by一下,看看数据的分布情况,然后再处理。

咱在分布式环境中也可以做类似的事情,就是采样。

离线环境可以用随机采样,实时环境可以用鱼塘采样。采样能够快速摸清楚各个key的大致分布。扫一眼数据量大的key,如果跟你的计算没啥关系,直接过滤就行。

比如上面举的例子,母婴品类占绝大多数,但是运营的要求是分析3C产品,那你过滤掉母婴产品,一则减少计算量,二则规避了数据倾斜的问题。

6、Reduce join 改为Map join

如果是大小表的join,比如订单表和订单类型、订单状态的join,如果使用reduce join的话,就非常容易在shuflle之后出现数据倾斜。建议的原则:只要一台服务器的内存能吃下这张小表(主要看服务器内存大小,建议2g以内,再大就影响服务器性能了),就建议用map join。这样join完之后,每份数据依然是基本均衡的,而且规避了shuffle导致数据倾斜的问题。

硬刚

上述几步,能做的都做了,还是不行,那就只能硬刚了。这时就只能八仙过海各显神通了。基本的逻辑还是一样的,就是能拆的尽量拆,不能拆的用空间换时间,或者自定义。

7、通用优化:shuffle并行度

spark的shuffle并行度默认值是200,建议根据服务器的情况进行调整。一般是集群cpu总和的2-3倍。当发生数据倾斜的时候,适当增大并行度,可以让任务和数据更均匀的分布在整个集群中。但是这个调优方法有些玄学成分在,因为你不知道他是咋分过去的。

并行度调整有三个方法:

●操作函数内设置

testRDD.groupByKey(200)

●代码中设置“spark.default.parallelism”

conf.set("spark.default.parallelism", 200)

●配置文件中设置“$SPARK_HOME/conf/spark-defaults.conf” 文件

spark.default.parallelism 200

8、拆分超大key

前面说过采样后过滤。如果采样之后发现这个key还是你需要的,无法怎么办?那就把超大数据量的key拆分出来,单独做成一个任务,这样超大数据量的key一个任务,其他中小数据量的key一个任务,两个任务分别做join啊什么的处理,最后把结果合并一下就行了。

为了避免超大数据量的key单独join的时候还是一个key一个任务,可以在key上加上随机数取模的前缀,这样就把数据分成了N份,然后再join。

9、阶段拆分-两阶段聚合

对于聚合类的操作,这种方式可以说是数据倾斜的大杀器。简单来说就是在需要聚合的key前加一个随机数取模的前缀,这样就能得到非常均匀的key,然后按这个加工之后的key进行第一次聚合之后,再对聚合的结果,按照原始key进行二次聚合,这样基本就不可能出现数据倾斜了。示意图如下:

对比之前的例子中,处理母婴的服务器和处理3c、图书的服务器任务量是7:1:1,这个方案的数据就非常均匀了。

10、任务拆分

很多时候数据情况会非常复杂,有null值、有超大数据量的key、还有各种需要过滤的数据,还有各种聚合和join。那这个时候就需要把任务再拆分。一部分用上面的key值过滤,一部分用Map Join,一部分用超大key单独处理。

11、随机前缀

前面说过小表join的时候可以用Map join。但是遇到大表join大表咋办?三个方法:1、大表拆成小表,多次join;2、SortMergeJoin;3、位图法(详见《位图法搞定10亿用户量用户标签处理》)。

那大表+中表,该咋处理?可以考虑用随机前缀+RDD扩容的方法解决join的问题。

如果你将要join的表不大不小,又不适合用上面大大表的处理方法,那就可以用这个通用的join方法。简单来说,就是对A表中需要join的字段加上n以内的随机数前缀,然后再把B表中的数据复制N份,join的字段加上1-N的前缀,然后量表再join,就能解决数据倾斜的问题了。示意如下:

原始数据如下:

不经处理直接join是这样的,part1很明显比part2要多好几倍的数据:

我们对A表和B表进行随机前缀和RDD扩容处理之后:

然后再join,这样每个part的数据就非常均匀了:

这个方法比较坑的是B表这个RDD需要扩容,要复制N份,对内存要求比较高。但是这个方法可以说是通杀Join的数据倾斜问题。

12、自定义partitioner

上面说改spark的并行数也可以改善数据倾斜,但是有点玄学的意思在里面。其根本原因就是不管你怎么调优,计算引擎的分区都是按照固定的方法进行的,根本不会,也没办法考虑数据真实情况。

无论是二阶段聚合解决聚合的问题,还是随机前缀+RDD扩容解决join的问题,都是通用解决办法,而且还麻烦。其实最好的解决办法就是根据现在处理的这份数据,单独写一个适合的partitioner。比如现在是按省份进行汇总数据,如果只是简单的按省份去分(这并没有错),那么数据肯定会倾斜,因为各省的数据天然不一样。我们可以通过历史数据、抽样数据或者一些常识,对数据进行人工分区,让数据按照我们自定义的分区规则比较均匀的分配到不同的task中。

常见的分区方式:

  • 随机分区:每个区域的数据基本均衡,简单易用,偶尔出现倾斜,但是特征同样也会随机打散。
  • 轮询分区:绝对不会倾斜,但是需要提前预知分成若干份,进行轮询。
  • hash散列:可以针对某个特征进行hash散列,保证相同特征的数据在一个区,但是极容易出现数据倾斜。
  • 范围分区:需要排序,临近的数据会被分在同一个区,可以控制分区数据均匀。
相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
7月前
|
SQL 分布式计算 HIVE
Spark数据倾斜问题分析和解决
Spark数据倾斜问题分析和解决
96 0
|
分布式计算 负载均衡
MapReduce中数据倾斜的产生和解决办法详解
MapReduce中数据倾斜的产生和解决办法详解
MapReduce中数据倾斜的产生和解决办法详解
|
1月前
|
存储 数据采集 监控
如何解决取模算法中数据倾斜的问题?
【10月更文挑战第25天】在实际应用中,需要根据具体的数据特点、系统架构和业务需求,选择合适的方法或方法组合来优化取模算法的数据分片效果。
|
5月前
|
SQL 数据处理
云架构数据倾斜问题之数据倾斜如何解决
云架构数据倾斜问题之数据倾斜如何解决
|
5月前
|
人工智能 分布式计算 数据处理
数据倾斜问题之数据倾斜的定义如何解决
数据倾斜问题之数据倾斜的定义如何解决
91 0
|
5月前
|
分布式计算 Hadoop 数据挖掘
|
5月前
|
分布式计算 Hadoop
Hadoop使用Combiner缓解数据倾斜
【7月更文挑战第6天】
53 1
|
5月前
|
SQL
数据倾斜问题之处理特殊值/空值导致的数据倾斜如何解决
数据倾斜问题之处理特殊值/空值导致的数据倾斜如何解决
50 0
|
7月前
|
SQL HIVE
如何解决数据倾斜
如何解决数据倾斜
107 4
|
7月前
|
缓存 分布式计算 负载均衡
如何在MapReduce中处理数据倾斜问题?
如何在MapReduce中处理数据倾斜问题?
192 0

热门文章

最新文章