大数据Hadoop集群运行程序

本文涉及的产品
云防火墙,500元 1000GB
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 大数据Hadoop集群运行程序

1 运行自带的MapReduce程序

下面我们在Hadoop集群上运行一个MapReduce程序,以帮助读者对分布式计算有个基本印象。


在安装Hadoop时,系统给用户提供了一些MapReduce示例程序,其中有一个典型的用于计算圆周率的Java程序包,现在运行该程序。


该jar包文件的位置和文件名是“~/hadoop-3.1.0/share/Hadoop/mapreduce/hadoop- mapreduce-examples-3.1.0.jar”,我们在终端输入hadoop jar ~/hadoop-3.1.0/share/hadoop/ mapreduce/hadoop-mapreduce-examples-3.1.0.jar pi 10 10。按下Enter键后即可开始运行。其中pi是类名,后面跟了两个10,它们是运行参数,第一个10表示Map次数,第二个10表示随机生成点的次数(与计算原理有关)。


11e65c7148c14f6ca5a09b3f3efaf68e.png


如果在程序运行过程中出现如图4-42所示的输出信息,则表明程序在正常运行,系统处于良好状态。

b8ff059bc02d4020812df983c56818b8.png


值得指出的是,运行Hadoop的MapReduce程序是验证Hadoop系统是否正常启动的最后一个环节。实际上,即使通过“jps”命令和Web界面监测验证了系统已经成功启动,并且能够查看到状态信息,也不一定意味着系统可以正常工作。例如,如果防火墙没有关闭,MapReduce程序运行就不会成功。


2 常见错误

经常有用户不能正常运行上述MapReduce程序,所遇到的错误提示也各不相同,主要有以下这些情况:


第一,Linux防火墙没有关闭,用户看到系统抛出“no route to host”或“There are 0 datanode(s) running and no node(s) are excluded in this operation.”异常信息。特别是在后一种异常情况下,我们虽然使用“jps”命令可以查看到Master和Slave上的NameNode、DataNode等进程都存在,但是如果使用“http://master:9870/”查看Hadoop状态,就会发现没有活动的DataNode,这就是无法正常运行MapReduce程序的原因。要消除上述异常,就必须关闭Linux防火墙,而且所有节点的防火墙都要关闭,然后重新启动Hadoop即可。关于关闭防火墙的具体办法,请参见第3章中有关内容。

java.net.NoRouteToHostException: No route to hostjava.net.NoRouteToHostException: No route to host

e9baf071932c4ea38f5a89501f95663a.png

第二,系统不稳定。当系统由于某种原因处于一种不稳定状态时,也可以导致程序运行失败,一般可以简单地重新运行一下命令即可。


第三,系统处于安全模式,这时系统会给出提示“system is in safe mode”。这时,我们只要执行如下命令:hadoop dfsadmin -safemode leave


即可关闭安全模式。离开安全模式后,就可以正常运行程序了。


第四,mapred-site.xml配置不合适。在Hadoop中运行应用程序时,出现了“running beyond virtual memory”错误,提示信息是“Container [pid=6629,containerID=container_ 1532136350867_0001_01_000026] is running 541133312B beyond the ‘VIRTUAL’ memory limit. Current usage: 291.8 MB of 1 GB physical memory used; 2.6 GB of 2.1 GB virtual memory used. Killing container”。显然,这表明Slave上运行的Container试图使用过多的内存,而被NodeManager 杀(kill)掉了。解决办法是调整mapred-site.xml配置,例如,可以将下面这些配置代码加入mapred-site.xml文件中:

<property>
  <name>mapreduce.map.memory.mb</name>
  <value>2048</value>
</property>
<property>
  <name>mapreduce.map.java.opts</name>
  <value>-Xmx1024M</value>
</property>
<property>
  <name>mapreduce.reduce.memory.mb</name>
  <value>4096</value>
</property>
<property>
  <name>mapreduce.reduce.java.opts</name>
  <value>-Xmx2560M</value>
</property>


上述代码中的value需要根据自己计算机内存大小及应用情况决定。


上述几种异常有时候可以重叠在一起出现,这时候就需要逐个解决问题。


Hadoop是一种开源系统,且处于不断进化中,出现各类问题是很正常的。从某种意义上讲,开发和应用Hadoop大数据应用系统,就是一个不断面对各种问题、需要持续努力和耐心去应对的过程。


相关实践学习
基于MaxCompute的热门话题分析
Apsara Clouder大数据专项技能认证配套课程:基于MaxCompute的热门话题分析
目录
相关文章
|
7月前
|
存储 分布式计算 Hadoop
从“笨重大象”到“敏捷火花”:Hadoop与Spark的大数据技术进化之路
从“笨重大象”到“敏捷火花”:Hadoop与Spark的大数据技术进化之路
295 79
|
5月前
|
分布式计算 Hadoop Java
CentOS中构建高可用Hadoop 3集群
这个过程像是在一个未知的森林中探索。但当你抵达终点,看到那个熟悉的Hadoop管理界面时,所有的艰辛都会化为乌有。仔细观察,尽全力,这就是构建高可用Hadoop 3集群的挑战之旅。
190 21
|
10月前
|
存储 分布式计算 大数据
Flume+Hadoop:打造你的大数据处理流水线
本文介绍了如何使用Apache Flume采集日志数据并上传至Hadoop分布式文件系统(HDFS)。Flume是一个高可用、可靠的分布式系统,适用于大规模日志数据的采集和传输。文章详细描述了Flume的安装、配置及启动过程,并通过具体示例展示了如何将本地日志数据实时传输到HDFS中。同时,还提供了验证步骤,确保数据成功上传。最后,补充说明了使用文件模式作为channel以避免数据丢失的方法。
420 4
|
11月前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第27天】在大数据时代,数据湖技术凭借其灵活性和成本效益成为企业存储和分析大规模异构数据的首选。Hadoop和Spark作为数据湖技术的核心组件,通过HDFS存储数据和Spark进行高效计算,实现了数据处理的优化。本文探讨了Hadoop与Spark的最佳实践,包括数据存储、处理、安全和可视化等方面,展示了它们在实际应用中的协同效应。
460 2
|
11月前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第26天】本文详细探讨了Hadoop与Spark在大数据处理中的协同作用,通过具体案例展示了两者的最佳实践。Hadoop的HDFS和MapReduce负责数据存储和预处理,确保高可靠性和容错性;Spark则凭借其高性能和丰富的API,进行深度分析和机器学习,实现高效的批处理和实时处理。
403 1
|
12月前
|
分布式计算 Hadoop 大数据
大数据体系知识学习(一):PySpark和Hadoop环境的搭建与测试
这篇文章是关于大数据体系知识学习的,主要介绍了Apache Spark的基本概念、特点、组件,以及如何安装配置Java、PySpark和Hadoop环境。文章还提供了详细的安装步骤和测试代码,帮助读者搭建和测试大数据环境。
346 1
|
10天前
|
机器学习/深度学习 传感器 分布式计算
数据才是真救命的:聊聊如何用大数据提升灾难预警的精准度
数据才是真救命的:聊聊如何用大数据提升灾难预警的精准度
76 14
|
2月前
|
机器学习/深度学习 运维 监控
运维不怕事多,就怕没数据——用大数据喂饱你的运维策略
运维不怕事多,就怕没数据——用大数据喂饱你的运维策略
82 0
|
3月前
|
数据采集 分布式计算 DataWorks
ODPS在某公共数据项目上的实践
本项目基于公共数据定义及ODPS与DataWorks技术,构建一体化智能化数据平台,涵盖数据目录、归集、治理、共享与开放六大目标。通过十大子系统实现全流程管理,强化数据安全与流通,提升业务效率与决策能力,助力数字化改革。
97 4
|
11天前
|
传感器 人工智能 监控
数据下田,庄稼不“瞎种”——聊聊大数据如何帮农业提效
数据下田,庄稼不“瞎种”——聊聊大数据如何帮农业提效
80 14