Hadoop集群搭建

简介: 3. 两台虚拟机使用相同的网卡,需要重新安装网卡通过 ifconfig查看,虚拟机使用相同的网卡eth0,所以需要卸载,在vmware设置中移除[网络适配器],然后再点添加一个新的[网络适配器],再通过ifconfig查看 ,已经变成eth1了,再通过curl www.baidu.com 命令就能上网了

配置虚拟机CentOS


  1. 修改IP
cd /etc/sysconfig/network-scripts
sudo vim ifcfg-eth0
  1. 重启服务
sudo /etc/init.d/network restart
  1. 两台虚拟机使用相同的网卡,需要重新安装网卡

通过 ifconfig查看,虚拟机使用相同的网卡eth0,所以需要卸载,在vmware设置中移除[网络适配器],然后再点添加一个新的[网络适配器],再通过ifconfig查看 ,已经变成eth1了,再通过curl www.baidu.com 命令就能上网了

Hadoop


  1. 上传hadoop-1.2.1-bin.tar.gz 到服务器/usr/local/上,并解压tar -xvzf hadoop-1.2.1-bin.tar.gz
  2. 创建tmp

在 /usr/local/hadoop-1.2.1 目录下创建tmp目录,用于保存使用过程中产生的临时文件

  1. conf 目录下修改masters、slaves文件

在masters文件中添加一行 master

root@ubuntu238:/usr/local/hadoop-1.2.1/conf# cat masters
master

在slaves文件中添加两行 slave1 slave2

root@ubuntu238:/usr/local/hadoop-1.2.1/conf# cat slaves
slave1
slave2
  1. 修改core-site.xml文件
<configuration>
  <property>
    <name>hadoop.tmp.dir</name>
    <value>/usr/local/hadoop-1.2.1/tmp</value>
  </property>
  <property>
    <name>fs.default.name</name>
    <value>hdfs://master:9000</value>
  </property>
</configuration>
  1. 修改mapred-site.xml
<configuration>
  <property>
    <name>mapred.job.tracker</name>
    <value>http://master:9001</value>
  </property>
</configuration>
  1. 修改hdfs-site.xml文件,配置数据在hdfs中存储的副本数,默认是3
<configuration>
  <property>
    <name>dfs.replication</name>
    <value>3</value>
  </property>
</configuration>
  1. 修改hadoop-env.sh文件,添加环境变量
export JAVA_HOME=/usr/local/java
  1. 配置Hosts
192.168.111.38 master
192.168.111.39 slave1
192.168.111.40 slave2
  1. 修改hostname
Ubuntu
vim /etc/hostname
CentOS
vim /etc/sysconfig/network
hostname xxx  #临时设定hostname为xxx
  1. 将hadoop配置后的文件复制到两台slave节点上
scp  -rp  hadoop-1.2.1  192.168.111.xx:/usr/local/
hosts文件和hostname分别配置
  1. 查看防火墙状态及关闭
service iptables status或iptables -L
/etc/init.d/iptables stop
  1. 设置selinux,网络传输过程中,防火墙和selinux都可能会导致意想不到的问题。 通过setenforce 0设置,设置完之后执行getenforce,结果应该为permissive。
  2. ssh互信
对每台机器执行
ssh-keygen
cd ~/.ssh/ #进入这个目录下可以看到公钥和私钥文件。
cat id_rsa.pub >authorized_keys
将slave1和slave2中的公钥拷贝到master节点的authorized_keys中,然后将master节点的authorized_keys拷贝到slave1和slave2节点的~/.ssh/目录下
  1. 格式化namenode:在bin目录下执行./hadoop namenode -format
  2. 启动集群:./start-all.sh
  3. jps命令验证进程
  4. 验证hdfs是否可以用
./hadoopfs -ls /   #查看当前hdfs下有啥
./hadoopfs -put /etc/passwd  /  #往集群中上传passwd文件
./hadoop fs-cat /passwd           #读hadoop中的passwd文件
  1. 配置环境变量
vim  ~/.bashrc
export JAVA_HOME=/usr/local/java
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib
export HADOOP_HOME=/usr/local/hadoop-1.2.1export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin


相关文章
|
22天前
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
103 6
|
22天前
|
分布式计算 Hadoop Shell
Hadoop-35 HBase 集群配置和启动 3节点云服务器 集群效果测试 Shell测试
Hadoop-35 HBase 集群配置和启动 3节点云服务器 集群效果测试 Shell测试
51 4
|
22天前
|
SQL 分布式计算 Hadoop
Hadoop-37 HBase集群 JavaAPI 操作3台云服务器 POM 实现增删改查调用操作 列族信息 扫描全表
Hadoop-37 HBase集群 JavaAPI 操作3台云服务器 POM 实现增删改查调用操作 列族信息 扫描全表
27 3
|
22天前
|
分布式计算 Hadoop Shell
Hadoop-36 HBase 3节点云服务器集群 HBase Shell 增删改查 全程多图详细 列族 row key value filter
Hadoop-36 HBase 3节点云服务器集群 HBase Shell 增删改查 全程多图详细 列族 row key value filter
50 3
|
23天前
|
SQL 存储 分布式计算
Hadoop-16-Hive HiveServer2 HS2 允许客户端远程执行HiveHQL HCatalog 集群规划 实机配置运行
Hadoop-16-Hive HiveServer2 HS2 允许客户端远程执行HiveHQL HCatalog 集群规划 实机配置运行
37 3
|
23天前
|
SQL 分布式计算 Hadoop
Hadoop-12-Hive 基本介绍 下载安装配置 MariaDB安装 3台云服务Hadoop集群 架构图 对比SQL HQL
Hadoop-12-Hive 基本介绍 下载安装配置 MariaDB安装 3台云服务Hadoop集群 架构图 对比SQL HQL
42 3
|
23天前
|
分布式计算 资源调度 Hadoop
Hadoop-10-HDFS集群 Java实现MapReduce WordCount计算 Hadoop序列化 编写Mapper和Reducer和Driver 附带POM 详细代码 图文等内容
Hadoop-10-HDFS集群 Java实现MapReduce WordCount计算 Hadoop序列化 编写Mapper和Reducer和Driver 附带POM 详细代码 图文等内容
76 3
|
23天前
Hadoop-09-HDFS集群 JavaClient 代码上手实战!详细附代码 安装依赖 上传下载文件 扫描列表 PUT GET 进度条显示(二)
Hadoop-09-HDFS集群 JavaClient 代码上手实战!详细附代码 安装依赖 上传下载文件 扫描列表 PUT GET 进度条显示(二)
36 3
|
23天前
|
SQL 分布式计算 Hadoop
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
38 2
|
23天前
|
SQL 存储 数据管理
Hadoop-15-Hive 元数据管理与存储 Metadata 内嵌模式 本地模式 远程模式 集群规划配置 启动服务 3节点云服务器实测
Hadoop-15-Hive 元数据管理与存储 Metadata 内嵌模式 本地模式 远程模式 集群规划配置 启动服务 3节点云服务器实测
47 2

相关实验场景

更多