【大数据优化】(二)MapReduce 优化方法

简介: 【大数据优化】(二)MapReduce 优化方法

MapReduce跑的慢的原因(☆☆☆☆☆)


一、Mapreduce 程序效率的瓶颈在于两点:


1) 计算机性能


CPU、内存、磁盘健康、网络


2) I/O 操作优化


(1) 数据倾斜

(2) map 和reduce 数设置不合理

(3) reduce 等待过久

(4) 小文件过多

(5) 大量的不可分块的超大文件

(6) spill 次数过多

(7) merge 次数过多等。


二、MapReduce优化方法(☆☆☆☆☆)


1)数据输入:


(1)合并小文件:在执行mr 任务前将小文件进行合并,大量的小文件会产生大量的map 任务,增

大map 任务装载次数,而任务的装载比较耗时,从而导致mr 运行较慢。

(2)采用ConbinFileInputFormat 来作为输入,解决输入端大量小文件场景。


2)map 阶段


(1)减少spill 次数:通过调整io.sort.mb 及sort.spill.percent 参数值,增大触发spill 的内存上限,

减少spill 次数,从而减少磁盘IO。

(2)减少merge 次数:通过调整io.sort.factor 参数,增大merge 的文件数目,减少merge 的次数,

从而缩短mr 处理时间。

(3)在map 之后先进行combine 处理,减少I/O。


3)reduce 阶段


(1)合理设置map 和reduce 数:两个都不能设置太少,也不能设置太多。太少,会导致task 等

待,延长处理时间;太多,会导致map、reduce 任务间竞争资源,造成处理超时等错误。

(2)设置map、reduce 共存:调整slowstart.completedmaps 参数,使map 运行到一定程度后,reduce

也开始运行,减少reduce 的等待时间。

(3)规避使用reduce,因为Reduce 在用于连接数据集的时候将会产生大量的网络消耗。

(4)合理设置reduc 端的buffer,默认情况下,数据达到一个阈值的时候,buffer 中的数据就会写入磁盘,然后reduce 会从磁盘中获得所有的数据。也就是说,buffer 和educe 是没有直接关联的,中间多个一个写磁盘->读磁盘的过程,既然有这个弊端,那么就可以通过参数来配置,使得buffer 中的一部分数据可以直接输送到reduce,从而减少IO 开销:mapred.job.reduce.input.buffer.percent,默认为0.0。当值大于0 的时候,会保留指定比例的内存读buffer 中的数据直接拿给reduce 使用。这样一来,设置buffer 需要内存,读取数据需要内存,reduce 计算也要内存,所以要根据作业的运行情况进行调整。


4)IO 传输


(1)采用数据压缩的方式,减少网络IO 的的时间。安装Snappy 和LZOP 压缩编码器。

(2)使用SequenceFile 二进制文件


5)数据倾斜问题


(1)数据倾斜现象

数据频率倾斜——某一个区域的数据量要远远大于其他区域。数据大小倾斜——部分记录的大小远远大于平均值。

(2)如何收集倾斜数据

在reduce 方法中加入记录map 输出键的详细情况的功能。

public static final String MAX_VALUES = "skew.maxvalues";
private int maxValueThreshold;
@Override
public void configure(JobConf job) {
maxValueThreshold = job.getInt(MAX_VALUES, 100);
}
@Override
public void reduce(Text key, Iterator<Text> values, OutputCollector<Text, Text> output, Reporter reporter) throws IOException {
  int i = 0;
  while (values.hasNext()) {
  values.next();
  i++;
  }
  if (++i > maxValueThreshold) {
  log.info("Received " + i + " values for key " + key);
  }
}


(3)减少数据倾斜的方法


方法1:抽样和范围分区

      可以通过对原始数据进行抽样得到的结果集来预设分区边界值。


方法2:自定义分区

      另一个抽样和范围分区的替代方案是基于输出键的背景知识进行自定义分区。例如,如果map 输出键的单词来源于一本书。其中大部分必然是省略词(stopword)。那么就可以将自定义分区将这部分省略词发送给固定的一部分reduce 实例。而将其他的都发送给剩余的reduce 实例。


方法3:Combine

      使用Combine 可以大量地减小数据频率倾斜和数据大小倾斜。在可能的情况下,

combine 的目的就是聚合并精简数据。


6) 常用的调优参数


(1) 资源相关参数

      (a) 以下参数是在用户自己的mr 应用程序中配置就可以生效(mapred-default.xml)


20200106194304782.png


      (b)应该在yarn 启动之前就配置在服务器的配置文件中才能生效(yarn-default.xml)


20200106194443323.png


      (c)shuffle 性能优化的关键参数,应在yarn 启动之前就配置好(mapred-default.xml)


20200106194509249.png


(2) 容错相关参数(mapreduce 性能优化)


20200106194540138.png

相关实践学习
简单用户画像分析
本场景主要介绍基于海量日志数据进行简单用户画像分析为背景,如何通过使用DataWorks完成数据采集 、加工数据、配置数据质量监控和数据可视化展现等任务。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps&nbsp;
目录
相关文章
|
2月前
|
数据采集 监控 算法
利用大数据和API优化电商决策:商品性能分析实践
在数据驱动的电子商务时代,大数据分析已成为企业提升运营效率、增强市场竞争力的关键工具。通过精确收集和分析商品性能数据,企业能够洞察市场趋势,实现库存优化,提升顾客满意度,并显著增加销售额。本文将探讨如何通过API收集商品数据,并将这些数据转化为对电商平台有价值的洞察。
|
3月前
|
机器学习/深度学习 数据采集 算法
大数据分析技术与方法探究
在当今信息化时代,数据量的增长速度远快于人类的处理能力。因此,如何高效地利用大数据,成为了企业和机构关注的焦点。本文将从大数据分析的技术和方法两个方面进行探究,为各行业提供更好的数据应用方向。
|
3月前
|
机器学习/深度学习 人工智能 自然语言处理
大数据分析的技术和方法:从深度学习到机器学习
大数据时代的到来,让数据分析成为了企业和组织中不可或缺的一环。如何高效地处理庞大的数据集并且从中发现潜在的价值是每个数据分析师都需要掌握的技能。本文将介绍大数据分析的技术和方法,包括深度学习、机器学习、数据挖掘等方面的应用,以及如何通过这些技术和方法来解决实际问题。
52 2
|
4月前
|
存储 分布式计算 负载均衡
【大数据技术Hadoop+Spark】MapReduce概要、思想、编程模型组件、工作原理详解(超详细)
【大数据技术Hadoop+Spark】MapReduce概要、思想、编程模型组件、工作原理详解(超详细)
59 0
|
2天前
|
SQL 分布式计算 资源调度
一文解析 ODPS SQL 任务优化方法原理
本文重点尝试从ODPS SQL的逻辑执行计划和Logview中的执行计划出发,分析日常数据研发过程中各种优化方法背后的原理,覆盖了部分调优方法的分析,从知道怎么优化,到为什么这样优化,以及还能怎样优化。
|
12天前
|
机器学习/深度学习 分布式计算 监控
面经:MapReduce编程模型与优化策略详解
【4月更文挑战第10天】本文是关于MapReduce在大数据处理中的关键作用的博客摘要。作者分享了面试经验,强调了MapReduce的基本原理、Hadoop API、优化策略和应用场景。MapReduce包含Map和Reduce两个主要阶段,Map阶段处理输入数据生成中间键值对,Reduce阶段进行聚合计算。面试重点包括理解MapReduce工作流程、使用Hadoop API编写Map/Reduce函数、选择优化策略(如分区、Combiner和序列化)以及应用场景,如日志分析和机器学习。
19 2
|
2月前
|
大数据 Java 编译器
关于 Python 在 for 循环里处理大数据的一些推荐方法
关于 Python 在 for 循环里处理大数据的一些推荐方法
41 0
|
3月前
|
缓存 Java 大数据
CDH大数据环境参数优化指南
CDH大数据环境参数优化指南
|
3月前
|
算法 数据可视化 大数据
大数据分析的技术和方法——探究现代数据处理的未来方向
在当今信息化时代,海量数据已经成为企业和组织的重要资源。大数据分析技术的出现为数据处理提供了更高效、更准确的解决方案。本文将深入探讨大数据分析技术和方法,分析其优势和应用场景,以及未来发展方向。
|
3月前
|
存储 数据采集 机器学习/深度学习
大数据分析:挖掘数据价值的技术和方法
在数字化时代,大数据已经成为企业和科研机构的重要资源之一。然而,对于海量的数据如何进行分析和挖掘却是一个巨大的挑战。本文将介绍大数据分析的基本概念、技术和方法,帮助读者了解如何利用现代技术和工具,挖掘数据中蕴藏的价值。
111 0