通过ambari安装hadoop集群(二)

简介: 本文图文结合简介如何通过ambari安装hadoop集群。

开始安装,输入主机名字,然后选择私钥。

cadc31384dffc1e820919ee415b35ffb7460b3c5

668b08529258bcbf98fa694a9e8a187819b0030a

注意java_home那里需要改为/usr/jdk64/jdk1.6.0_31,然后点击确认,它会出一个警告提示,别管他就行。

0117a211fe54c1004efec4fba5d13764502c2bb5

等待安装完毕之后,就会出现成功的提示,下面出现黄字的,查看一下warning,除了有mysql账户的问题之外,别的都要处理掉,否则安装过程会出问题的。搞定了,要再检查一遍!

bcef39bd5919e6a595eff27c95c3f904f10ddbb5

关闭它,然后进入下一步。

d55540c9216c1c863b5fce70f39e6bca80302ae5

全选吧,都要,然后进入下一步,哈哈!

7f5a9012f1813be945cc9d0c512ee702ef8b2450

因为是小集群,所以我就随便弄了,实际上不能这么搞的,然后点下一步。

在HDFS这一页的高级设置里面,找到这个参数,我设置为2,也可以设置成1,但是不能大于前面设置的datanode的数量,比如我只有两个datanode,我就不能设置为2分,否则会出错的。

7892632c1ef99c647c31c0b3dc36cd5bd63403e5

把这个安全认证也禁用了,否则用api访问的时候会说没权限的。

746746818ea65d2262c4c98aaf8521ccfeb0fc58

在HIVE页签

fa06622a2f4bed8f02d6d61fd1c08d8df1fcb133

点击下一步,下一步,进入安装过程的等待界面,如下:

519d7d37b114e57d26e49c85c135f1f9488f1f74

成功安装的界面,之后在主界面查看如下,全是绿的,行情一片大好啊!

1996b83ed59364be8865f436f4f5f84cfa1279a2

注意:ambari-server和ambari-agent不会开机启动,ambari-server是通过ambari-agent来控制每一台机器的,每次重启都需要手动开启。

没关系,很简单!在每一台机器上执行一下这句命令就可以啦!

chkconfig --add ambari-agent
目录
相关文章
|
4月前
|
分布式计算 Kubernetes Hadoop
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
大数据-82 Spark 集群模式启动、集群架构、集群管理器 Spark的HelloWorld + Hadoop + HDFS
240 6
|
4月前
|
分布式计算 Hadoop Shell
Hadoop-35 HBase 集群配置和启动 3节点云服务器 集群效果测试 Shell测试
Hadoop-35 HBase 集群配置和启动 3节点云服务器 集群效果测试 Shell测试
114 4
|
4月前
|
SQL 分布式计算 Hadoop
Hadoop-37 HBase集群 JavaAPI 操作3台云服务器 POM 实现增删改查调用操作 列族信息 扫描全表
Hadoop-37 HBase集群 JavaAPI 操作3台云服务器 POM 实现增删改查调用操作 列族信息 扫描全表
54 3
|
4月前
|
分布式计算 Hadoop Shell
Hadoop-36 HBase 3节点云服务器集群 HBase Shell 增删改查 全程多图详细 列族 row key value filter
Hadoop-36 HBase 3节点云服务器集群 HBase Shell 增删改查 全程多图详细 列族 row key value filter
78 3
|
4月前
|
分布式计算 Java Hadoop
Hadoop-30 ZooKeeper集群 JavaAPI 客户端 POM Java操作ZK 监听节点 监听数据变化 创建节点 删除节点
Hadoop-30 ZooKeeper集群 JavaAPI 客户端 POM Java操作ZK 监听节点 监听数据变化 创建节点 删除节点
103 1
|
4月前
|
分布式计算 资源调度 Hadoop
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
大数据-80 Spark 简要概述 系统架构 部署模式 与Hadoop MapReduce对比
110 2
|
2月前
|
存储 分布式计算 大数据
Flume+Hadoop:打造你的大数据处理流水线
本文介绍了如何使用Apache Flume采集日志数据并上传至Hadoop分布式文件系统(HDFS)。Flume是一个高可用、可靠的分布式系统,适用于大规模日志数据的采集和传输。文章详细描述了Flume的安装、配置及启动过程,并通过具体示例展示了如何将本地日志数据实时传输到HDFS中。同时,还提供了验证步骤,确保数据成功上传。最后,补充说明了使用文件模式作为channel以避免数据丢失的方法。
85 4
|
3月前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第27天】在大数据时代,数据湖技术凭借其灵活性和成本效益成为企业存储和分析大规模异构数据的首选。Hadoop和Spark作为数据湖技术的核心组件,通过HDFS存储数据和Spark进行高效计算,实现了数据处理的优化。本文探讨了Hadoop与Spark的最佳实践,包括数据存储、处理、安全和可视化等方面,展示了它们在实际应用中的协同效应。
175 2
|
3月前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第26天】本文详细探讨了Hadoop与Spark在大数据处理中的协同作用,通过具体案例展示了两者的最佳实践。Hadoop的HDFS和MapReduce负责数据存储和预处理,确保高可靠性和容错性;Spark则凭借其高性能和丰富的API,进行深度分析和机器学习,实现高效的批处理和实时处理。
171 1
|
4月前
|
分布式计算 Hadoop 大数据
大数据体系知识学习(一):PySpark和Hadoop环境的搭建与测试
这篇文章是关于大数据体系知识学习的,主要介绍了Apache Spark的基本概念、特点、组件,以及如何安装配置Java、PySpark和Hadoop环境。文章还提供了详细的安装步骤和测试代码,帮助读者搭建和测试大数据环境。
118 1

相关实验场景

更多