大数据||HDFS HA配置详解

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
日志服务 SLS,月写入数据量 50GB 1个月
简介: 根据HA架构图,规划HA的分布式集群服务器HA集群规划配置参考图根据官方文档配置HA部分说明Architecture在典型的ha集群中,两台独立的机器被配置为namenode。

根据HA架构图,规划HA的分布式集群服务器

HA集群规划


配置参考图

根据官方文档配置HA

部分说明

  • Architecture
    在典型的ha集群中,两台独立的机器被配置为namenode。在任何时间点,一个namenodes处于活动状态,另一个处于备用状态。活动NameNode负责集群中的所有客户端操作,而备用服务器只是充当从服务器,保持足够的状态,以便在必要时提供快速故障转移。备用节点与活动节点保持状态同步,两个节点都与一组称为“日志节点”(Jns)的独立守护进程通信。当任何名称空间修改由活动节点执行时,它会将修改的记录持久地记录到这些jn中的大多数。备用节点能够从JNS读取编辑,并不断监视它们对e的更改。
  • Hardware resources
    要部署HA集群,您应该准备以下内容:NameNode计算机—运行主动和备用Namenodes的计算机应具有彼此等效的硬件,以及与非HA群集使用的硬件相当的硬件。日志节点计算机-运行日志节点的计算机。日志节点守护程序相对较轻,因此这些守护程序可以合理地配置在具有其他Hadoop后台进程的计算机上,例如NameNODES、JobTracker或纱线资源Manager。注意:必须至少有3个日志节点守护程序,因为编辑日志修改必须写入到大多数JNS。这将允许系统容忍单个机器的故障。您还可以运行3个以上的日志节点,但为了实际增加系统可以承受的故障数,您应该运行奇数的JNS,(即,3、5、7等)。请注意,在使用N个日志节点运行时,系统可以容忍最多(n-1)/2故障,并继续正常运行。请注意,在HA集群中,备用NameNode还执行命名空间状态的检查点,因此不必在HA集群中运行辅助NameNode、检查点节点或BackupNode。事实上,这样做将是错误。这也允许一个正在重新配置非HA启用HDFS集群的人启用高可用性,以便重新使用以前专用于辅助NameNode的硬件。
  • 配置概述
    与联邦配置类似,HA配置是向后兼容的,允许现有的单个NameNode配置不受更改地工作。新配置的设计使得集群中的所有节点都可以具有相同的配置,而无需根据节点的类型将不同的配置文件部署到不同的计算机上。
    与HDFFederation一样,HA集群重用名称服务ID来标识单个HDFS实例,该实例实际上可能由多个HARNameNodes组成。此外,HA还添加了一个名为NameNodeID的新抽象。集群中的每个不同的NameNode都有一个不同的NameNode ID来区分它。为了支持所有NameNode的单个配置文件,相关的配置参数都以名称服务ID和NameNode ID作为后缀。

备份hadoop中的配置文件和数据(131,132,133)

HA配置

  • hdsf-site.xml

dfs.nameservices - the logical name for this new nameservice
Note: If you are also using HDFS Federation, this configuration setting should also include the list of other nameservices, HA or otherwise, as a comma-separated list.

  • 配置nameservices
    <property>
    <name>dfs.nameservices</name>
    <value>ns1</value>
    </property>

  • 配置namenodes
    <property>
    <name>dfs.ha.namenodes.ns1</name>
    <value>nn1,nn2</value>
    </property>

  • 配置namenode
    <property>
    <name>dfs.namenode.rpc-address.ns1.nn1</name>
    <value>hadoop-senior.beifeng.com:8020</value>
    </property>
    <property>
    <name>dfs.namenode.rpc-address.ns1.nn2</name>
    <value>hadoop-senior02.beifeng.com:8020</value>
    </property>

  • 配置访问地址namenode.http-address
    <property>
    <name>dfs.namenode.http-address.ns1.nn1</name>
    <value>hadoop-senior.beifeng.com:50070</value>
    </property>
    <property>
    <name>dfs.namenode.http-address.ns1.nn2</name>
    <value>hadoop-senior02.beifeng.com:50070</value>
    </property>

  • 共享日志目录配置
    <property>
    <name>dfs.namenode.shared.edits.dir</name>
    <value>qjournal://hadoop-senior.beifeng.com:8485;hadoop-senior02.beifeng.com:8485;hadoop-senior03.beifeng.com:8485/ns1</value>
    </property>

  • 配置代理
    <property>
    <name>dfs.client.failover.proxy.provider.mycluster</name>
    <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
    </property>

  • nodeName ssh fencing 可以实现131和132上的nameNode可以无密码登入。131->132登入。也可以132->131登入
    <property>
    <name>dfs.ha.fencing.methods</name>
    <value>sshfence</value>
    </property>
    <property>
    <name>dfs.ha.fencing.ssh.private-key-files</name>
    <value>/root/.ssh/id_rsa</value>
    </property>

  • 配置 journalnode 的edits日志存放的目录
    <property>
    <name>dfs.journalnode.edits.dir</name>
    <value>/opt/app/hadoop-2.5.0/data/dfs/jn</value>
    </property>

core-site.xml配置

  • 配置默认的HDFS
    <property>
    <name>fs.defaultFS</name>
    <value>hdfs://ns1</value>
    </property>

  • hadoop数据存储目录
    <property>
    <name>hadoop.tmp.dir</name>
    <value>/opt/app/hadoop-2.5.0/data/tmp</value>
    </property>

  • 垃圾回收时间
    <property>
    <name>fs.trash.interval</name>
    <value>420</value>
    </property>

主节点(131)向其他子节点(132,133)同步修改的配置文件

命令:scp -r /opt/app/hadoop-2.5.0/etc/hadoop/core-site.xml /opt/app/hadoop-2.5.0/etc/hadoop/hdfs-site.xml /opt/app/hadoop-2.5.0/etc/hadoop/slaves root@hadoop-senior02.beifeng.com:/opt/app/hadoop-2.5.0/etc/hadoop/

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps&nbsp;
目录
相关文章
|
1月前
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
149 6
|
1月前
|
消息中间件 分布式计算 关系型数据库
大数据-140 - ClickHouse 集群 表引擎详解5 - MergeTree CollapsingMergeTree 与其他数据源 HDFS MySQL
大数据-140 - ClickHouse 集群 表引擎详解5 - MergeTree CollapsingMergeTree 与其他数据源 HDFS MySQL
45 0
|
1月前
|
分布式计算 资源调度 大数据
大数据-110 Flink 安装部署 下载解压配置 Standalone模式启动 打包依赖(一)
大数据-110 Flink 安装部署 下载解压配置 Standalone模式启动 打包依赖(一)
52 0
|
1月前
|
分布式计算 资源调度 大数据
大数据-110 Flink 安装部署 下载解压配置 Standalone模式启动 打包依赖(二)
大数据-110 Flink 安装部署 下载解压配置 Standalone模式启动 打包依赖(二)
69 0
|
1月前
|
消息中间件 监控 Ubuntu
大数据-54 Kafka 安装配置 环境变量配置 启动服务 Ubuntu配置 ZooKeeper
大数据-54 Kafka 安装配置 环境变量配置 启动服务 Ubuntu配置 ZooKeeper
76 3
大数据-54 Kafka 安装配置 环境变量配置 启动服务 Ubuntu配置 ZooKeeper
|
1月前
|
存储 分布式计算 druid
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(一)
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(一)
39 1
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(一)
|
1月前
|
运维 监控 数据可视化
大数据-171 Elasticsearch ES-Head 与 Kibana 配置 使用 测试
大数据-171 Elasticsearch ES-Head 与 Kibana 配置 使用 测试
63 1
|
1月前
|
消息中间件 分布式计算 druid
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(二)
大数据-152 Apache Druid 集群模式 配置启动【下篇】 超详细!(二)
41 2
|
1月前
|
消息中间件 分布式计算 Java
大数据-73 Kafka 高级特性 稳定性-事务 相关配置 事务操作Java 幂等性 仅一次发送
大数据-73 Kafka 高级特性 稳定性-事务 相关配置 事务操作Java 幂等性 仅一次发送
31 2
|
1月前
|
存储 消息中间件 druid
大数据-151 Apache Druid 集群模式 配置启动【上篇】 超详细!
大数据-151 Apache Druid 集群模式 配置启动【上篇】 超详细!
80 1