CDH 搭建_ Hadoop _ HDFS _从节点和总结|学习笔记

简介: 快速学习 CDH 搭建_ Hadoop _ HDFS _从节点和总结

开发者学堂课程【2020版大数据实战项目之 DMP 广告系统(第二阶段) CDH 搭建_ Hadoop _ HDFS _从节点和总结】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址:https://developer.aliyun.com/learning/course/677/detail/11772


CDH 搭建_ Hadoop _ HDFS _从节点和总结


一、配置 HDFS 从节点

配置 HDFS 。主节点已经配置完成,接下来,配置从节点,而从节点和主节点最大的区别就是从节点只启动 DataNode 而主节点只启动 Namenode 。如果是这样的话,那么配置文件中主节点里有的从节点里也要有,所以,会直接将文件复制到从节点当中。接下来的配置文件,在从节点当中都需要进行相应的配置。在主节点当中,输入 cd /etc/hadoop/ , ls 查看,只需要把 conf.itcast 目录复制到 cdh 02和03当中。 输入 scp  conf.itcast root@cdh 02: /etc/hadoop/ 目录下。等待复制,需要在 scp 后加 -r 。

image.png

复制完成后,复制到 cdh 03 中进行具体配置。在 cdh 02当中 cd /etc/hadoop 文件中,查看 conf.itcast 没有问题。接下来就要进行一系列的操作,进入笔记当中,直接复制下面的内容。

#关联新的目录和 conf

alternatives --install /etc/hadoop/conf hadoop-conf /etc/hadoop/conf.itcast  50

#设置指向

alternatives -- set hadoop-conf /etc/ hadoop/ conf.itcast

#显式当前指向

alternatives --display hadoop-conf

粘贴,这时候设置的就是 alternative 先装载并指定优先级;接着设置指向;其次显示当前的指向是 conf.itcast 没有问题。接下来,在  cdh 02上做完这件事,到 cdh 03上再去做一遍,如果不能粘贴,就需要再复制一遍。粘贴完成后, cdh 03上也指向了 conf.itcast 。回到 cdh 02上想继续进行操作。下一步应该就是配置文件,完成以后进行相应的目录创建。回到笔记当中,拷贝目录的创建,复制下面的内容。

mkdir -p /var/lib/hadoop-hdfs/cache/hdfs/dfs/name

mkdir -p /var/lib/hadoop- hdfs/cache/hdfs/dfs/data

大家再装的时候也可以按照这种方式来装,即不用想太多,直接拷贝命令;在任何一个目录执行,它都是没有问题的。在 cdh 02中执行之后进入到cdh 03上,粘贴,执行目录的创建。接下来再切回笔记当中,目录创建完成后就可以指定相应的权限。复制下面的内容。

chown -R hdfs:hdfs /var/lib/hadoop-hdfs/cache/hdfs/dfs/name

chown -R hdfs:hdfs /var/lib/hadoop-hdfs/cache/hdfs/dfs/data

chmod 700/var/lib/hadoop-hdfs/cache/hdfs/dfs/name

chmod 700 /var/lib/hadoop-hdfs/cache/hdfs/dfs/data

在 cdh 02 和03上都制定相应的权限。在 cdh 02上所有的配置已经做完。接下来,格式化 namenode 。需要注意的是 Namenode 只能格式化一次。接下来,输入 service hadoop-hdfs-datanode start 启动。在 cdh 03上只启动 service hadoop-hdfs-datanode start 。在启动过程当中没有报错,说明启动是可以完整进行的。输入 jps 查看,当前是有两个服务, QuorumPeerMain 是 Zookeeper ; DataNode 是 HDFS 。在主节点上,输入 jps 查看,它里面运行多个服务, Namenode 、 QuorumPeerMain 和 SecondaryNameNode 这时 HDFS 的配置和启动就已经完成。对于 cdh 版本的安装,其实是很明显的套路,比如,文件夹的组织在笔记当中存在。首先,配置文件在/etc/xxx/conf 中,日志在/var/log/xxx 中,数据在/var/lib/xxx ,这就是 cdh版本管理的一些特性。默认配置一些环境上的配置在 /etc/ defalt/xxx 对应的文件。一般情况下 cdh 提供的是服务的形式来启动,比如要启动 service 就使用 hadoop-hdfs-xxx start 的相应服务。 这就是 cdh 大家会发现它的管理还是相对比较标准的。如果觉得再重启虚拟机时记不住要去启动哪些服务?在笔记的最后为大家提供了一个表格,它列举了所有要启动的服务,大家可以根据需要来启动对应的服务。如下表。

 

服务

命令

httpd

service httpd start

Zookeeper

service zookeeper-server start

hdfs-namenode

service hadoop-hdfs-namenode start

hdfs-datanode

service hadoop-hdfs-datanode start

hdfs -secondarynamenode

service hadoop-hdfs -secondarynamenode start

yarn - resourcemanage r

service hadoop-yarn- resourcemanager start

mapreduce-historyserver

service hadoop- mapreduce-historyserver start

yarn-nodemanager

service hadoop-yarn-nodemanager start

hive -metastore

service hive-metastore start

hive-server2

service hive-server2 start

kudu - master

service kudu -master start

kudu-tserver

service kudu -tserver start

impala-state-store

service impala-state-store start

impala-catalog

service impala-catalog start

impala-server

service impala-server start

hue

service hue start

希望大家可以了解大致的配置方式,课下按照笔记的指示进行相应的安装即可。

 

相关文章
|
2月前
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
191 6
|
2月前
|
SQL 分布式计算 关系型数据库
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
106 0
|
2月前
|
SQL 分布式计算 关系型数据库
Hadoop-23 Sqoop 数据MySQL到HDFS(部分) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-23 Sqoop 数据MySQL到HDFS(部分) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
51 0
|
2月前
|
SQL 分布式计算 关系型数据库
Hadoop-22 Sqoop 数据MySQL到HDFS(全量) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-22 Sqoop 数据MySQL到HDFS(全量) SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
59 0
|
2月前
|
分布式计算 资源调度 Hadoop
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
82 2
|
5天前
|
存储 分布式计算 大数据
Flume+Hadoop:打造你的大数据处理流水线
本文介绍了如何使用Apache Flume采集日志数据并上传至Hadoop分布式文件系统(HDFS)。Flume是一个高可用、可靠的分布式系统,适用于大规模日志数据的采集和传输。文章详细描述了Flume的安装、配置及启动过程,并通过具体示例展示了如何将本地日志数据实时传输到HDFS中。同时,还提供了验证步骤,确保数据成功上传。最后,补充说明了使用文件模式作为channel以避免数据丢失的方法。
31 4
|
1月前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第27天】在大数据时代,数据湖技术凭借其灵活性和成本效益成为企业存储和分析大规模异构数据的首选。Hadoop和Spark作为数据湖技术的核心组件,通过HDFS存储数据和Spark进行高效计算,实现了数据处理的优化。本文探讨了Hadoop与Spark的最佳实践,包括数据存储、处理、安全和可视化等方面,展示了它们在实际应用中的协同效应。
115 2
|
1月前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第26天】本文详细探讨了Hadoop与Spark在大数据处理中的协同作用,通过具体案例展示了两者的最佳实践。Hadoop的HDFS和MapReduce负责数据存储和预处理,确保高可靠性和容错性;Spark则凭借其高性能和丰富的API,进行深度分析和机器学习,实现高效的批处理和实时处理。
83 1
|
2月前
|
分布式计算 Hadoop 大数据
大数据体系知识学习(一):PySpark和Hadoop环境的搭建与测试
这篇文章是关于大数据体系知识学习的,主要介绍了Apache Spark的基本概念、特点、组件,以及如何安装配置Java、PySpark和Hadoop环境。文章还提供了详细的安装步骤和测试代码,帮助读者搭建和测试大数据环境。
80 1
|
2月前
|
存储 分布式计算 资源调度
大数据-04-Hadoop集群 集群群起 NameNode/DataNode启动 3台公网云 ResourceManager Yarn HDFS 集群启动 UI可视化查看 YarnUI(一)
大数据-04-Hadoop集群 集群群起 NameNode/DataNode启动 3台公网云 ResourceManager Yarn HDFS 集群启动 UI可视化查看 YarnUI(一)
87 5

热门文章

最新文章

相关实验场景

更多