Hadoop集群中hosts文件配置问题

简介: <p>最近一直在做hadoop的应用,但是无奈于并行加速比一直不理想,两台机器运行的时间和一台机器运行的时间差不多,老师还一直要这个数据,并行计算比至少应该为1.5,这样的并行程序才有意义。</p> <p>加了个qq群,发现了问题所在,再说我解决方法之前,先说一下我hadoop集群的配置:</p> <p>2台笔记本,其中1台为lenovo z460,CPU为Core i3,主机名为:l

最近一直在做hadoop的应用,但是无奈于并行加速比一直不理想,两台机器运行的时间和一台机器运行的时间差不多,老师还一直要这个数据,并行计算比至少应该为1.5,这样的并行程序才有意义。

加了个qq群,发现了问题所在,再说我解决方法之前,先说一下我hadoop集群的配置:

2台笔记本,其中1台为lenovo z460,CPU为Core i3,主机名为:liujiacai-Ideapad-Z460;另一台是Acer  Aspire 4743 CPU为奔腾P6200,主机名为:liujiacai-Aspire-4743。

系统都装的是ubuntu13.04。

我直接用网线把两台机器连起来,手动指定IP,其中Lenovo的机器的ip为 202.194.124.24,Acer的机器ip为202.194.124.75,子网掩码都是255.255.255.128,网关202.194.124.126(其实这个网关应该不起作用,因为我不连外网)。

我先按照全分布式配置方式搭建好环境,然后开始运行hadoop程序,问题就是并行加速度差不多为1,后来在QQ群问了一个,发现是我在配置conf/slave文件时只指定了一个ip(这里为202.194.124.75,202.194.124.24配在了conf/master文件里面了),然后我忽略了一个问题:只有机器上运行datanode进程才能运行job,namenode根本不会作为mapper和reduer来运行job(其实都是最基本的概念,我都没注意发火)。

现在我把202.194.124.24也加入到conf/slave文件中,这样hadoop集群中就可以真正运行了,但是运行到一半reduce停止不允许了,打开http://localhost:50030,发现又报错了,看了日志是liujiacai-Aspire-4743主机名找不到,后来上网查,发现需要把集群中所有集群中的主机名与ip配置到hosts文件中。

每台机器必须都配置,然后一些博客上还说把127.0.0.1 localhost 注释掉,说要不然会报错的,我没去掉也没遇到那个错误,这个就不管了,有可能是版本的问题吧。改为hosts文件后运行程序还是报错,是什么127.0.1.1的问题,又google了一下,说是ubuntu把的127.0.1.1 作为本机的回路测试地址,我机器上有这么一行

127.0.1.1 liujiacai-Ideapad-Z460

这样的话当hadoop机器中看到liujiacai-Ideapad-Z460主机名是就直接对于到127.0.1.1机器了,而不是机器在集群中的ip了(我这里是202.194.124.24)把127.0.1.1这一行也注销掉就可以了。这样所以的配置文件就算是改好了。但是~~~~~~~~

运行到一半就报错了,说是202.194.124.75连接不上了,我很郁闷 ,然后在202.194.124.24上ping 202.194.124.75,竟然ping不通了,在开启hadoop程序是还是ping通的,把网线拔一下再插上就又能ping通了,而且机器中两个datanode也都能运行job了,我还怀疑是网线口松了吧,但是看看电脑网线口也还有灯亮,换了一根网线还是出现相同的问题,我都让整吐了,现在就是守在电脑旁边看它运行,发现运行慢了就把网线拔下来再插上~~~~~~抓狂抓狂~~~~~~~

功夫不负苦心人,这样得到的加速比是1.8了,但是这网线问题到底是什么问题我还不清楚,估计不是什么网络不好这么一类回答就能搪塞过去的,这点记下了回来探讨吧。


PS:在配置ssh免密码登陆时,有时安装一般方式操作后还是不能行,还是需要密码,我也按照网上说的把文件的权限改成什么700、600之类的,但是都是不起作用鄙视,不知道神马情况~~~~~(我当时出现这种情况用的是ubuntu12.10)

还好在ubuntu13.04中没出现这种情况,ssh免登陆正常,再次感谢无私奉献的ubuntu团队。







目录
相关文章
|
3月前
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
201 6
|
3月前
|
分布式计算 Hadoop Shell
Hadoop-35 HBase 集群配置和启动 3节点云服务器 集群效果测试 Shell测试
Hadoop-35 HBase 集群配置和启动 3节点云服务器 集群效果测试 Shell测试
92 4
|
3月前
|
SQL 分布式计算 Hadoop
Hadoop-37 HBase集群 JavaAPI 操作3台云服务器 POM 实现增删改查调用操作 列族信息 扫描全表
Hadoop-37 HBase集群 JavaAPI 操作3台云服务器 POM 实现增删改查调用操作 列族信息 扫描全表
40 3
|
3月前
|
分布式计算 Hadoop Shell
Hadoop-36 HBase 3节点云服务器集群 HBase Shell 增删改查 全程多图详细 列族 row key value filter
Hadoop-36 HBase 3节点云服务器集群 HBase Shell 增删改查 全程多图详细 列族 row key value filter
64 3
|
3月前
|
SQL 分布式计算 Hadoop
Hadoop-34 HBase 安装部署 单节点配置 hbase-env hbase-site 超详细图文 附带配置文件
Hadoop-34 HBase 安装部署 单节点配置 hbase-env hbase-site 超详细图文 附带配置文件
113 2
|
3月前
|
分布式计算 Java Hadoop
Hadoop-30 ZooKeeper集群 JavaAPI 客户端 POM Java操作ZK 监听节点 监听数据变化 创建节点 删除节点
Hadoop-30 ZooKeeper集群 JavaAPI 客户端 POM Java操作ZK 监听节点 监听数据变化 创建节点 删除节点
76 1
|
3月前
|
分布式计算 监控 Hadoop
Hadoop-29 ZooKeeper集群 Watcher机制 工作原理 与 ZK基本命令 测试集群效果 3台公网云服务器
Hadoop-29 ZooKeeper集群 Watcher机制 工作原理 与 ZK基本命令 测试集群效果 3台公网云服务器
52 1
|
3月前
|
分布式计算 资源调度 Hadoop
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
88 2
|
12天前
|
存储 分布式计算 大数据
Flume+Hadoop:打造你的大数据处理流水线
本文介绍了如何使用Apache Flume采集日志数据并上传至Hadoop分布式文件系统(HDFS)。Flume是一个高可用、可靠的分布式系统,适用于大规模日志数据的采集和传输。文章详细描述了Flume的安装、配置及启动过程,并通过具体示例展示了如何将本地日志数据实时传输到HDFS中。同时,还提供了验证步骤,确保数据成功上传。最后,补充说明了使用文件模式作为channel以避免数据丢失的方法。
46 4
|
2月前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第27天】在大数据时代,数据湖技术凭借其灵活性和成本效益成为企业存储和分析大规模异构数据的首选。Hadoop和Spark作为数据湖技术的核心组件,通过HDFS存储数据和Spark进行高效计算,实现了数据处理的优化。本文探讨了Hadoop与Spark的最佳实践,包括数据存储、处理、安全和可视化等方面,展示了它们在实际应用中的协同效应。
125 2