CDH+Kylin三部曲之二:部署和设置

简介: 上一篇文章完成了所有准备工作,现在可以来部署和启动Kylin了

欢迎访问我的GitHub

这里分类和汇总了欣宸的全部原创(含配套源码): https://github.com/zq2599/blog_demos

执行ansible脚本部署CDH和Kylin(ansible电脑)

  • 进入ansible电脑的~/playbooks目录,经过上一篇的准备工作,该目录下应该是下图这些内容:

在这里插入图片描述

  • 检查ansible远程操作CDH服务器是否正常,执行命令ansible deskmini -a "free -m",正常情况下显示CDH服务器的内存信息,如下图:

在这里插入图片描述

  • 执行命令开始部署:ansible-playbook cm6-cdh5-kylin264-single-install.yml
  • 整个部署过程涉及在线安装、传输大文件等耗时的操作,请耐心等待(半小时左右),如果部署期间出错退出(例如网络问题),只需重复执行上述命令即可,ansible保证了操作的幂等性;
  • 部署成功如下图所示:

在这里插入图片描述

重启CDH服务器

  • 由于修改了selinux和swap的设置,需要重启操作系统才能生效,因此请重启CDH服务器;

执行ansible脚本启动CDH服务(ansible电脑)

  • 等待CDH服务器重启成功;
  • 登录ansible电脑,进入~/playbooks目录;
  • 执行初始化数据库和启动CDH的脚本:ansible-playbook cdh-single-start.yml
  • 启动完成输出如下信息:

在这里插入图片描述

  • ssh登录CDH服务器,执行此命令观察CDH服务的启动情况:tail -f /var/log/cloudera-scm-server/cloudera-scm-server.log,看到下图红框中的内容时,表示启动完成,可以用浏览器登录了:

在这里插入图片描述

设置(浏览器操作)

  • 现在CDH服务已经启动了,可以通过浏览器来操作:
  • 浏览器访问:http://192.168.50.134:7180 ,如下图,账号密码都是admin

在这里插入图片描述

  • 一路next,在选择版本页面选择60天体验版:

在这里插入图片描述

  • 选择主机页面可见CDH服务器(deskmini):

在这里插入图片描述

  • 在选择CDH版本的页面,请选择下图红框中的5.16.2-1:

在这里插入图片描述

  • 进入安装Parcel的页面,由于提前上传了离线parcle包,因此下载进度瞬间变成百分之百,此时请等待分配、解压、激活的完成:

在这里插入图片描述

  • 接下来有一些推荐操作,这里选择如下图红框,即可跳过:

在这里插入图片描述

  • 接下来是选择服务的页面,我选择了自定义服务,然后选择了HBase、HDFS、Hive、Hue、Oozie、Spark、YARN、Zookeeper这八项,可以满足运行Kylin的需要:

在这里插入图片描述

  • 在选择主机的页面,都选择CDH服务器:

在这里插入图片描述

  • 接下来是数据库设置的页面,您填写的内容必须与下图保持一致,即主机名为localhost,Hive的数据库、用户、密码都是hive,Activity Monitor的数据库、用户、密码都是amon,Reports Manager的数据库、用户、密码都是rman,Oozie Server的数据库、用户、密码都是oozie,Hue的数据库、用户、密码都是hue,这些内容在ansible脚本中已经固定了,此处的填写必须保持一致:

在这里插入图片描述

  • 在设置参数的页面,请按照您的硬盘实际情况设置,我这里/home目录下空间充足,因此存储位置都改为/home目录下:

在这里插入图片描述

  • 等待服务启动:

在这里插入图片描述

  • 各服务启动完成:

在这里插入图片描述

HDFS设置

  • 如下图红框所示,HDFS服务存在问题:

在这里插入图片描述

  • 点击上图中红色感叹号可见问题详情,如下图,是常见的副本问题:

在这里插入图片描述

  • 操作如下图,在HDFS的参数设置页面,将dfs.replication的值设置为1(只有一个数据节点):

在这里插入图片描述

  • 经过上述设置,副本数已经调整为1,但是已有文件的副本数还没有同步,需要重新做设置,SSH登录到CDH服务器上;
  • 执行命令su - hdfs切换到hdfs账号,再执行以下命令即可完成副本数设置:
hadoop fs -setrep -R 1 /
  • 回到网页,重启HDFS服务,如下图:

在这里插入图片描述

  • 重启后HDFS服务正常:

在这里插入图片描述

YARN设置

  • 默认的YARN参数是非常保守的,需要做一些设置才能顺利执行Spark任务:
  • 进入YARN管理页;
  • 如下图所示,检查参数yarn.nodemanager.resource.cpu-vcores的值,该值必须大于1,否则提交Spark任务后YARN不分配资源执行任务,(如果您的CDH服务器是虚拟机,当CPU只有单核时,则此参数就会被设置为1,解决办法是先提升虚拟机CPU核数,再来修改此参数):

在这里插入图片描述

  • yarn.scheduler.minimum-allocation-mb:单个容器可申请的最小内存,我这里设置为1G
  • yarn.scheduler.maximum-allocation-mb:单个容器可申请的最大内存,我这里设置为8G
  • yarn.nodemanager.resource.memory-mb:节点最大可用内存,我这里设置为8G
  • 上述三个参数的值,是基于我的CDH服务器有32G内存的背景,请您按照自己硬件资源自行调整;
  • 设置完毕后重启YARN服务,操作如下图所示:

在这里插入图片描述

Spark设置(CDH服务器)

  • 需要在Spark环境准备一个目录以及相关的jar,否则Kylin启动会报错(提示spark not found, set SPARK_HOME, or run bin/download-spark.sh),以root身份SSH登录CDH服务器,执行以下命令:
mkdir $SPARK_HOME/jars \
&& cp $SPARK_HOME/assembly/lib/*.jar $SPARK_HOME/jars/ \
&& chmod -R 777 $SPARK_HOME/jars

启动Kylin(CDH服务器)

  • SSH登录CDH服务器,执行su - hdfs切换到hdfs账号;
  • 按照官方推荐,先执行检查环境的命令:$KYLIN_HOME/bin/check-env.sh
  • 检查通过的话控制台输出如下:

在这里插入图片描述

  • 启动Kylin:$KYLIN_HOME/bin/kylin.sh start
  • 控制台输出以下内容说明启动Kylin成功:

在这里插入图片描述

登录Kylin

  • 浏览器访问:http://192.168.50.134:7070/kylin,如下图,账号ADMIN,密码KYLIN(账号和密码都是大写):

在这里插入图片描述

  • 登录成功,可以使用了:

在这里插入图片描述

  • 至此,CDH和Kylin的部署、设置、启动都已完成,Kylin已经可用了,在下一篇文章中,我们就在此环境运行Kylin的官方demo,体验Kylin;

欢迎关注阿里云开发者社区博客:程序员欣宸

学习路上,你不孤单,欣宸原创一路相伴...
相关文章
|
4月前
|
Web App开发 前端开发 Java
Apache Zeppelin系列教程第二篇——整体架构
Apache Zeppelin系列教程第二篇——整体架构
122 0
|
消息中间件 SQL 运维
【大数据开发运维解决方案】hadoop+kylin安装及官方cube/steam cube案例文档
对于hadoop+kylin的安装过程在上一篇文章已经详细的写了, 请读者先看完上一篇文章再看本本篇文章,本文主要大致介绍kylin官官方提供的常规批量cube创建和kafka+kylin流式构建cube(steam cube)的操作过程,具体详细过程请看官方文档。
【大数据开发运维解决方案】hadoop+kylin安装及官方cube/steam cube案例文档
|
SQL 分布式计算 资源调度
CDH+Kylin三部曲之一:准备工作
本文是《CDH+Kylin三部曲》的第一篇,主要是为后面的安装和启动做好准备工作
176 6
CDH+Kylin三部曲之一:准备工作
|
SQL 资源调度 分布式计算
CDH+Kylin三部曲之三:Kylin官方demo
本文是《CDH+Kylin三部曲》系列的终篇,一起来实践kylin官方的demo
103 2
CDH+Kylin三部曲之三:Kylin官方demo
|
分布式计算 Hadoop Java
Hadoop快速入门——第二章、分布式集群(第二节、Hadoop分布式模式搭建)(1)
Hadoop快速入门——第二章、分布式集群(第二节、Hadoop分布式模式搭建)
97 1
Hadoop快速入门——第二章、分布式集群(第二节、Hadoop分布式模式搭建)(1)
|
分布式计算 Hadoop 网络安全
Hadoop快速入门——第二章、分布式集群(第二节、Hadoop分布式模式搭建)(2)
Hadoop快速入门——第二章、分布式集群(第二节、Hadoop分布式模式搭建)
99 1
Hadoop快速入门——第二章、分布式集群(第二节、Hadoop分布式模式搭建)(2)
|
存储 资源调度 程序员
Flink on Yarn三部曲之二:部署和设置
本文是《Flink on Yarn三部曲》系列的第二篇,前面已经为部署做好了准备,现在可以一起来部署和启动Yarn环境了
256 0
Flink on Yarn三部曲之二:部署和设置
|
SQL 缓存 关系型数据库
CDH5部署三部曲之二:部署和设置
本文是《CDH5部署三部曲》的第二篇,前文将集群所有机器做了必要的设置,今天一起来完成CDH的部署、启动、设置等操作
129 0
CDH5部署三部曲之二:部署和设置
|
分布式计算 Ubuntu Hadoop
大数据基础系列 4:伪分布式 Hadoop 在 Ubuntu 上的安装流程完整步骤及易错点分析
大数据基础系列 4:伪分布式 Hadoop 在 Ubuntu 上的安装流程完整步骤及易错点分析
241 0
大数据基础系列 4:伪分布式 Hadoop 在 Ubuntu 上的安装流程完整步骤及易错点分析
|
分布式计算 Hadoop
Hadoop快速入门——第二章、分布式集群(第四节、搭建开发环境)(1)
Hadoop快速入门——第二章、分布式集群(第四节、搭建开发环境)
88 0
Hadoop快速入门——第二章、分布式集群(第四节、搭建开发环境)(1)