HADOOP VM三台虚拟机配置hadoop分布式

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
注册配置 MSE Nacos/ZooKeeper,182元/月
任务调度 XXL-JOB 版免费试用,400 元额度,开发版规格
简介: HADOOP VM三台虚拟机配置hadoop分布式

1、为aboutyun用户添加管理员权限:

1)创建aboutyun用户和配置密码:

创建用户:useradd aboutyun
设置密码:passwd aboutyun

2)修改sudoers只读权限:

chmod u+w sudoers
vi  /etc/sudoers

4d7e50b6221e72728aa1d4c94845e38.png

3)切换用户:su - aboutyun

4)需要ifconfig命令:yum install net-tools.x86_64

5)同步互联网时间:

yum install -y ntpdate;
ntpdate time.windows.com
ntpdate cn.pool.ntp.org

修改hosts文件,做IP->用户名映射

Chmod u+w /etc/hosts修改只读权限

添加:

192.168.0.10 master
192.168.0.20 worker1
192.168.0.30 worker2

2、SSH免密配置:

ssh-keygen -t rsa

1)免密节点统一添加到指定文件:

cat id_rsa.pub >> authorized_keys

2)将authorized_keys设置成可执行文件:

chmod u+x authorized_keys

3)将免密文件传输到其它节点:

scp authorized_keys aboutyun@worker1:~/.ssh/

3、JDK安装配置:

1)解压缩jdk包:tar  -zxvf  jdkxxx

2)编辑:vi  /etc/profile文件,添加Java路径:

#Java_Path
JAVA_HOME=/usr/data/jdk1.8.0_111
PATH=$PATH:$HOME/bin:$JAVA_HOME/bin:$JAVA_HOME/lib:
export PATH

3)重新启动文件生效:

source /etc/profile

4)测试JDK安装是否OK:java -version

4、HADOOP安装配置

1)解压缩文件参考jdk:

2)配置环境变量:

vi /etc/profile
HADOOP_HOME=/usr/data/hadoop-2.7.4
PATH=$PATH:$HOME/bin:$JAVA_HOME/bin:$HADOOP_HOME/bin:
export PATH

3)配置文件:

(1)Hadoop-env.sh:

增加:export JAVA_HOME=/usr/data/jdk1.8.0_111

(2)

core-site.xml 
               fs.defaultFS
               hdfs://master:9000
               hadoop.tmp.dir
               /usr/data/logs/hadoop/tmp

(3)

)hdfs-site.xml
               dfs.replication
               3
               dfs.namenode.name.dir
               /usr/data/logs/hadoop/tmp/dfs/name
               dfs.datanode.data.dir
               /usr/data/logs/hadoop/tmp/dfs/data

(4)

mapred-site.xml
               mapreduce.framework.name
               yarn

(5)

yarn-site.xml
               yarn.resourcemanager.hostname
               master
               yarn.nodemanager.aux-services
               mapreduce_shuffle

(6)

yarn-env.sh
export JAVA_HOME=/usr/data/jdk1.8.0_111

(7)检查安装配置:

hadoop version

(8)格式化:

hadoop namenode -format

(9)启动:

./start-all.sh 一次性启动
./start-dfs.sh 分别启动
./start-yarn.sh

(10)检查启动是否成功:

jps     master和slave

65ece24121a22055e88a8114857ba92.png

5、SCALA安装配置

1)解压缩文件参考JDK:

2)配置环境变量:

vi /etc/profile
SCALA_HOME=/usr/data/scala-2.11.8
PATH=$PATH:$HOME/bin:$SCALA_HOME/bin:
export PATH

3)检查安装配置:

scala -version

6、ZOOKEEPER安装配置

1)解压缩文件参考JDK:

2)配置环境变量:

vi /etc/profile
ZOOKEEPER_HOME=/usr/data/zookeeper-3.4.9
PATH=$PATH:$HOME/bin:$ZOOKEEPER_HOME:/bin:
export PATH

3)zoo.cfg配置:

mv zoo_sample.cfg zoo.cfg

添加以下参数:注释原相同路径

#数据存储路径

dataDir=/usr/data/logs/zookeeper/zk_data

#日志存储路径

dataLogDir=/usr/data/logs/zookeeper/logs_data
server.1=master:2888:3888
server.2=worker1:2888:3888
server.3=worker2:2888:3888

4)分别在zk_data文件夹下面添加文件:

master:
echo “1” > /usr/data/logs/zookeeper/zk_data/myid
worker1:
echo “2” > /usr/data/logs/zookeeper/zk_data/myid
worker2:
echo “3” > /usr/data/logs/zookeeper/zk_data/myid
启动:./zkServer.sh star

5)检查是否正常:

./zkServer.sh status

d98d6f955ab676b0f3a2dab64f5b1a9.png

7、FLUME安装配置

1)解压缩文件参考JDK:

2)配置环境变量:

vi /etc/profile
FLUME_HOME=/usr/data/flume-1.9.0
PATH=$PATH:$HOME/bin:$FLUME_HOME/bin:
export PATH

3)检查安装配置:

flume-ng version

8、KAFKA安装配置

1)解压缩文件参考JDK:

2)配置环境变量:

vi /etc/profile
KAFKA_HOME=/usr/data/kafka_2.11-2.1.1
PATH=$PATH:$HOME/bin:$KAFKA_HOME/bin:
export PATH

3)server.properties---注释原相同路径

broker.id=0
log.dirs=/usr/data/logs/kafka/logs_data
zookeeper.connect=master:2181,worker1:2181,worker2:2181

4)启动KAFKA:加&后台运行

./kafka-server-start.sh ../config/server.properties

5)创建topic:

./kafka-topics.sh --create --zookeeper master:2181,worker1:2181,worker2:2181 --replication-factor 1 --partitions 1 --topic test

8ae813bc07af1e0dc4d2670f9bb142f.png


6)查询创建topic:

./kafka-topics.sh --list   --zookeeper master:2181,worker1:2181,worker2:2181

4e4cfee62f8c1d6cab9eae322c1d93a.png

7)生产者:

./kafka-console-producer.sh   --broker-list master:9092,worker1:9092,worker2:9092 --topic test

af2db262a54c085bf979a68f673ec78.png

8)消费者:从刚开始读取数据加--from-beginning

./kafka-console-consumer.sh   --bootstrap-server master:9092,worker1:9092,worker2:9092 --topic test

65f96dcf38479c39f3b2da98de37c73.png9)验证消费是否成功:

./kafka-run-class.sh   kafka.tools.GetOffsetShell --broker-list   master:9092,worker1:9092,worker2:9092 --topic test --time -1

1be7284b3e93b8655b249b694612800.png

9、FLUME和KAFKA整合:

1)flume输出到控制台

文件名:flume_project.conf

a1.sources = r1
a1.sinks = k1
a1.channels = c1
a1.sources.r1.type = exec
a1.sources.r1.command = tail -F /usr/data/logs/flume/access.log
a1.sources.r1.shell = /bin/bash -c
a1.channels.c1.type = memory
a1.sinks.k1.type = logger
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1
启动:flume-ng agent --conf conf --conf-file /usr/data/logs/flume/flume_project.conf --name a1 -Dflume.root.logger=WARN,console

2)对接到kafka中

文件名:kafka_project.conf

a1.sources = r1
a1.sinks = k1
a1.channels = c1
a1.sources.r1.type = exec
a1.sources.r1.command = tail -F /usr/data/logs/flume/access.log
a1.sources.r1.shell = /bin/bash -c
a1.channels.c1.type = memory
a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink
a1.sinks.k1.kafka.topic = test
a1.sinks.k1.kafka.bootstrap.servers = master:9092,worker1:9092,worker2:9092
a1.sinks.k1.kafka.flumeBatchSize = 20
a1.sinks.k1.kafka.producer.acks = 1
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1
启动:flume-ng agent --conf conf --conf-file /usr/data/logs/flume/kafka_project.conf --name a1 -Dflume.root.logger=WARN,console
控制台输出:./kafka-console-consumer.sh --bootstrap-server master:2181,worker1:2181,worker2:2181 --topic test --from-beginning

10、MYSQL安装配置:

1)解压缩文件参考JDK:

把文件改名为mysql放到/usr/local/路径下

2)配置环境变量:

vi /etc/profile
MYSQL_HOME=/usr/data/mysql-5.7.24
PATH=$PATH:$HOME/bin:$MYSQL_HOME/bin:
export PATH

3)创建mysql用户组和用户

创建用户组:groupadd mysql

创建用户放到用户组下面:useradd  -r -g mysql mysql

4)Mysql下面创建data目录,并修改mysql权限

mkdir data
Chown -R mysql:mysql

5)初始化安装--会生成随机密码:

bin/mysqld --initialize --user=mysql --basedir=/usr/local/mysql/ --datadir=/usr/local/mysql/data --lc_messages_dir=/usr/local/mysql/share --lc_messages=en_US

1ca121d90cb7d04967d747c30ff7b67.png

如报错:

error while loading shared libraries: libaio.so.1: cannot open shared object

5a355c6b8aa820e0423cad53e5813bb.png

请安装:

yum install -y libaio

6)配置/etc/my.conf文件--修改参数路径,没有文件的需要自己手动创建

6ecf6300cbaf7e2e1f4367ec2b9a60a.png

7)安全模式启动:

./mysqld_safe --user=mysql &

8)加入开机启动项:

(1)cd ../support-files
(2)cp mysql.server /etc/init.d/mysql
(3)chmod +x /etc/init.d/mysql
(4)chkconfig --add mysql

9)启动服务:

systemctl start mysql.service

10)登录mysql--密码在初始化时生成:

mysql -uroot -p

11)修改密码:

SET Password=PASSWORD('123');
flush privileges;

12)授权:

grant all privileges on *.* to'root' @'%' identified by '123';
flush privileges;
验证:
Show databases;

715b1667278db734f7df37f96c04648.png

11、HIVE安装配置:

1)解压缩文件参考JDK:

2)配置环境变量:

vi /etc/profile
HIVE_HOME=/usr/data/hive-2.2.0
PATH=$PATH:$HOME/bin:$HIVE_HOME/bin:
export PATH

3)hive-env.sh配置

4)hive-site.xml配置

mv hive-default.xml.template hive-site.xml
       javax.jdo.option.ConnectionURL
       jdbc:mysql://master:3306/metastore?createDatabaseIfNotExist=true
       JDBC connect string for a JDBC metastore
       javax.jdo.option.ConnectionDriverName
       com.mysql.jdbc.Driver
       Driver class name for a JDBC metastore
       javax.jdo.option.ConnectionUserName
       root
       username to use against metastore database
       javax.jdo.option.ConnectionPassword
       123
       password to use against metastore database
       hive.metastore.schema.verification
       false
       hive.cli.print.header
       true
       Whether to print the names of the columns in query output.
       hive.cli.print.current.db
       true
       Whether to include the current database in the Hive prompt.

5)hive-log4j2.properties配置

mv hive-log4j2.properties.template hive-log4j2.properties
property.hive.log.dir = /usr/data/logs/hive/${user.name}
appender.DRFA.filePattern =  /usr/data/logs/hive/${hive.log.file}.%d{yyyy-MM-dd}

2d271cf1c2541d2e9edd83dddd4220d.png

6)将mysql-connector-java-5.1.37-bin.jar拷贝到hive/lib下面

7)元数据库的初始化  

schematool -dbType mysql -initSchema

c4fbb455f775772bb84b7e24660de2e.png

12、FLINK安装配置:

1)解压缩文件参考JDK:

2)配置环境变量:

vi /etc/profile
HIVE_HOME=/usr/data/hive-2.2.0
PATH=$PATH:$HOME/bin:$HIVE_HOME/bin:
export PATH

3)slaves配置:


7cf73fb3676377dea610cef1fa7eade.png

4)启动./start-cluster.sh

d06393709c181b0f1e8283fad2595ba.png

相关文章
|
23天前
|
机器学习/深度学习 监控 算法
分布式光伏储能系统的优化配置方法(Matlab代码实现)
分布式光伏储能系统的优化配置方法(Matlab代码实现)
|
6月前
|
安全 网络安全 数据库
YashanDB分布式节点间SSL连接配置
本文介绍YashanDB分布式节点间SSL连接配置方法,确保通信安全。需统一为整个集群配置SSL,使用相同根证书签名的服务器证书,否则可能导致连接失败或数据库无法启动。文章详细说明了使用OpenSSL生成根证书、服务器私钥、证书及DH文件的步骤,并指导如何将证书分发至各节点。最后,通过配置数据库参数(如`din_ssl_enable`)并重启集群完成设置。注意,证书过期需重新生成以保障安全性。
|
2月前
|
存储 Ubuntu Linux
使用VM虚拟机安装最新版Ubuntu系统
重启后开机进入登录界面 输入前面设置的密码进入系统 成功启动Ubuntu系统
|
6月前
|
域名解析 API PHP
VM虚拟机全版本网盘+免费本地网络穿透端口映射实时同步动态家庭IP教程
本文介绍了如何通过网络穿透技术让公网直接访问家庭电脑,充分发挥本地硬件性能。相比第三方服务受限于转发带宽,此方法利用自家宽带实现更高效率。文章详细讲解了端口映射教程,包括不同网络环境(仅光猫、光猫+路由器)下的设置步骤,并提供实时同步动态IP的两种方案:自建服务器或使用三方API接口。最后附上VM虚拟机全版本下载链接,便于用户在穿透后将服务运行于虚拟环境中,提升安全性与适用性。
|
7月前
|
存储 网络协议 网络安全
Hyper-V Win10虚拟机配置常见问题
在配置Hyper-V Win10虚拟机时,用户常面临网络连接、虚拟交换机配置、资源分配及其他问题。例如,虚拟机无法获取IP地址可能源于DHCP服务异常,需检查并启动该服务;外部虚拟交换机配置错误则需确保物理网络适配器正确连接。此外,内存不足或虚拟硬盘性能瓶颈也会影响运行效果。通过合理调整资源配置、优化设置及遵循最佳实践,可有效解决这些问题。
|
8月前
|
存储 编解码 虚拟化
【2025最新】VMware Workstation Pro 虚拟机配置与安装VMware Tools 感受它的强大~
VMware Tools 是 VMware 虚拟机中自带的一种增强工具,能够显著提升虚拟机的性能和用户体验。它提供了优化的显卡驱动程序、文件共享与拖放功能、时间同步以及跨虚拟机和宿主机的复制粘贴功能。安装 VMware Tools 可以让虚拟机在 VMware 平台上运行得更加高效,并且对于老旧系统(如 Win98、Win2000、WinXP)也能提供必要的驱动支持。每个虚拟机都需要独立安装与其操作系统版本相匹配的 VMware Tools,以确保最佳兼容性和性能表现。
753 6
【2025最新】VMware Workstation Pro 虚拟机配置与安装VMware Tools 感受它的强大~
|
7月前
|
安全 网络协议 网络安全
当虚拟机出现网络连接问题时,应该先检查Hyper-V的网卡连接配置
当虚拟机出现网络连接问题时,应首先检查Hyper-V的网卡配置。具体步骤包括:确认虚拟机运行状态、检查虚拟交换机类型和物理网卡连接、确保虚拟机网络适配器正确连接到虚拟交换机,并验证网络配置(IP地址等)。常见问题如虚拟交换机配置错误、网络适配器未连接或防火墙阻止连接,可通过重新配置或调整设置解决。必要时重启虚拟机和宿主机,查看事件日志或联系技术支持以进一步排查问题。
|
7月前
|
监控 安全 网络协议
Hyper V上网实战:多虚拟机网络环境配置
在Hyper-V环境中配置多虚拟机网络以实现上网功能,需完成以下步骤:1. 确认Hyper-V安装与物理网络连接正常;2. 配置虚拟交换机(外部、内部或专用)以支持不同网络需求;3. 设置虚拟机网络适配器并关联对应虚拟交换机;4. 验证虚拟机网络连接状态;5. 根据场景需求优化多虚拟机网络环境。此外,还需注意网络隔离、性能监控及数据备份等事项,确保网络安全稳定运行。
|
7月前
|
虚拟化 网络虚拟化 Windows
导入虚拟机到Hyper-V环境时,理解并配置网络适配器设置是确保网络通信的关键
在Hyper-V环境中,正确配置虚拟机的网络适配器是确保其网络通信的关键。需先启用Hyper-V功能并创建虚拟交换机。接着,在Hyper-V管理器中选择目标虚拟机,添加或配置网络适配器,选择合适的虚拟交换机(外部、内部或私有),并根据需求配置VLAN、MAC地址等选项。最后,启动虚拟机并验证网络连接,确保其能正常访问外部网络、与主机及其他虚拟机通信。常见问题包括无法访问外部网络或获取IP地址,需检查虚拟交换机和适配器设置。

热门文章

最新文章

相关实验场景

更多