CDH5部署三部曲之三:问题总结

简介: 启动CDH5之后,部分组件未能启动成功,将所有修复过程汇总再次,期待能给您一些参考

欢迎访问我的GitHub

这里分类和汇总了欣宸的全部原创(含配套源码): https://github.com/zq2599/blog_demos
  • 本文是《CDH5部署三部曲》的终篇,前面两章完成了CDH5集群的部署和启动,本章将实战中遇到的问题做个总结,如果碰巧您也遇到过这些问题,希望本文能给您一些参考;

系列文章链接

  1. 《CDH5部署三部曲之一:准备工作》
  2. 《CDH5部署三部曲之二:部署和设置》
  3. 《CDH5部署三部曲之三:问题总结》

启动集群服务报错

  • 首次启动集群服务报错,如下图:

在这里插入图片描述

  • 上述错误一般是对应节点的/usr/java/default目录下没有JDK所致,假设已将JDK部署在/usr/lib/jvm/jdk1.8.0_191,那么只需执行以下命令建立软链接即可:
mkdir /usr/java &&ln -s /usr/lib/jvm/jdk1.8.0_191 /usr/java/default
  • 点击页面上的重试按钮;

NFS Gateway启动失败

  • 发现NFS Gateway服务有问题,检查日志:

在这里插入图片描述

  • 日志如下,在worker1节点上,portmap和rpcbind这两个服务不存在导致的:
No portmap or rpcbind service is running on this host. Please start portmap or rpcbind service before attempting to start the NFS Gateway role on this host.
  • 于是安装所需服务:
yum install -y nfs-utils rpcbind
  • 启动服务:
systemctl start rpcbind
  • 再次启动:

在这里插入图片描述

  • 等待HDFS服务重启完成后,如下图,可见NFS Gateway问题已经消失:

在这里插入图片描述

HDFS副本不足的块

  • 问题如下图绿框所示:

在这里插入图片描述

  • 目前只有一个datanode,可以增加一个,如下图,进入HDFS的实例页面,点击"添加角色实例":

在这里插入图片描述

  • 点击下图红框位置,增加一个DataNode:

在这里插入图片描述

  • 如下图,确保worker1和worker2都选上:

在这里插入图片描述

  • 勾选后,点击红框2中的按钮,在下拉菜单中点击“启动”:

在这里插入图片描述

  • 现在有了两个DataNode,所以副本数可以设置为2,如下图红框所示,按照顺序找出参数进行设置,记得点击右下角的"保存更改"按钮:

在这里插入图片描述

  • 上述设置完成后,新写入hdfs的文件副本数为2,如果要将之前已经写入的文件的副本数也调整为2,请SSH登录worker1节点,执行以下命令切换到hdfs账号:
su - hdfs
  • 以hdfs账号的身份执行以下命令,即可完成副本数设置:
hadoop fs -setrep -R 2 /
  • 返回管理页面,可见HDFS的状态变成了健康:

在这里插入图片描述

Hive报错

  • 如下图红框所示,Hive启动失败,日志中提示Version information not found in metastore

在这里插入图片描述

  • 从上图可见Hive服务在worker2上,于是SSH登录worker2,将/usr/share/java目录下的mysql-connector-java.jar文件复制到这个目录下:/opt/cloudera/parcels/CDH-5.7.6-1.cdh5.7.6.p0.6/lib/hive/lib/
  • 在Hive的配置页面,搜索"hive.metastore.schema.verification",如下图,确保红框3中的复选框取消勾选:

在这里插入图片描述

  • 修改配置datanucleus.autoCreateSchema,如下图,确保红框3中的复选框被选中:

在这里插入图片描述

  • 重启完成后,Hive状态为健康:

在这里插入图片描述

spark-shell执行失败

  • 在worker1或者worker2上执行spark-shell命令进入spark控制台时,会产生内存相关的错误,需要调整YARM相关的内存参数:

在这里插入图片描述

  • 在YARN的配置页面,调整yarn.scheduler.maximum-allocation-mbyarn.nodemanager.resource.memory-mb这两个参数的值,原有的值都是1G,现在都改成2G,如下图:

在这里插入图片描述

  • 重启YARN;
  • 重启Spark;
  • 执行spark-shell命令之前,先执行命令su - hdfs切换到hdfs账号;
  • 这次终于成功进入spark-shell交互模式:

在这里插入图片描述

Hue启动失败

  • Hue启动失败如下图:

在这里插入图片描述

  • 上述失败是由于文件夹、文件、httpd服务没有准备好导致的,执行以下命令修复此问题:
mkdir /var/log/hue-httpd/
chown hue:hue /var/log/hue-httpd/
cd /var/log/hue-httpd/
touch error_log
chown hue:hue /var/log/hue-httpd/error_log

yum install -y httpd mod_ssl cyrus-sasl-plain  cyrus-sasl-devel  cyrus-sasl-gssapi
  • 在网页上重启Hue服务,稍后可见服务已经正常:

在这里插入图片描述

  • 以上就是本次实战过程中遇到的所有问题和解决方法,至此《CDH5部署三部曲》全部完成,如果您正在部署CDH,希望此系列文章能给您一些参考。

欢迎关注阿里云开发者社区博客:程序员欣宸

学习路上,你不孤单,欣宸原创一路相伴...
相关文章
|
9月前
|
开发工具 git Perl
|
7月前
|
关系型数据库 MySQL Linux
Linux环境下LNMP架构实战案例
Linux环境下LNMP架构实战案例
|
9月前
|
Kubernetes 持续交付 开发工具
|
前端开发 JavaScript 测试技术
《小团队web技术搭建》(七)自动化部署方式(CI/CD)(二)
《小团队web技术搭建》(七)自动化部署方式(CI/CD)(二)
300 1
|
运维 jenkins 应用服务中间件
《小团队web技术搭建》(六)自动化部署方式(CI/CD)(一)
《小团队web技术搭建》(六)自动化部署方式(CI/CD)(一)
243 1
|
jenkins Java 应用服务中间件
【CI/CD技术专题】「Jenkins实战系列」总结归纳Jenkins的安装使用和配置流程介绍
【CI/CD技术专题】「Jenkins实战系列」总结归纳Jenkins的安装使用和配置流程介绍
310 0
【CI/CD技术专题】「Jenkins实战系列」总结归纳Jenkins的安装使用和配置流程介绍
|
安全 Java jenkins
(走过路过,不要错过)【CI/CD技术专题】「Jenkins实战系列」(1)全流程介绍Jenkins环境搭建+基础部署配置(Windows->Linux)
(走过路过,不要错过)【CI/CD技术专题】「Jenkins实战系列」(1)全流程介绍Jenkins环境搭建+基础部署配置(Windows->Linux)
251 0
(走过路过,不要错过)【CI/CD技术专题】「Jenkins实战系列」(1)全流程介绍Jenkins环境搭建+基础部署配置(Windows->Linux)
|
Kubernetes API 数据安全/隐私保护
[kustz] 从零开始写一个 k8s 应用发布工具(含源码和过程)
你有没有想过, 如果要在 kubernetes 集群中 **发布** 一个最基本的 **无状态服务**, 并 **提供** 给用户访问, 最少需要配置几个 `K8S Config API` ? 自己写一个, 提升自己。
181 0
[kustz] 从零开始写一个 k8s 应用发布工具(含源码和过程)
|
存储 Kubernetes API
Argo CD 【2】动手实践
Argo CD 【2】动手实践
Argo CD 【2】动手实践
|
SQL 缓存 关系型数据库
CDH5部署三部曲之二:部署和设置
本文是《CDH5部署三部曲》的第二篇,前文将集群所有机器做了必要的设置,今天一起来完成CDH的部署、启动、设置等操作
112 0
CDH5部署三部曲之二:部署和设置