Hadoop运行模式(一)、本地运行模式(官方WordCount)、完全分布式运行模式(开发重点)、scp安全拷贝、rsync 远程同步工具、xsync集群分发脚本、同步环境变量配置(root所有着)

简介: Hadoop运行模式(一)、本地运行模式(官方WordCount)、完全分布式运行模式(开发重点)、scp安全拷贝、rsync 远程同步工具、xsync集群分发脚本、同步环境变量配置(root所有着)

3.Hadoop运行模式

Hadoop官方网站:http://hadoop.apache.org/
Hadoop运行模式包括:本地模式、伪分布式模式以及完全分布式模式。

本地模式:单机运行,只是用来演示一下官方案例。生产环境不用。
伪分布式模式:也是单机运行,但是具备Hadoop集群的所有功能,一台服务器模拟一个分布式的环境。个别缺钱的公司用来测试,生产环境不用。
完全分布式模式:多台服务器组成分布式环境。生产环境使用。

在这里插入图片描述

3.1本地运行模式(官方WordCount)

3.1.1创建在hadoop-3.1.3文件下面创建一个testinput文件夹

  • [summer@hadoop102 hadoop-3.1.3]$ mkdir testinput

在这里插入图片描述

3.1.2在testinput文件下创建一个word.txt文件

在这里插入图片描述

3.1.3编辑word.txt文件

wo wo
zui zui
shuai shuai

在这里插入图片描述

3.1.4回到Hadoop目录/opt/module/hadoop-3.1.3

在这里插入图片描述

3.1.5执行程序

  • [summer@hadoop102 hadoop-3.1.3]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount testinput/ testoutput

输入输出路径必须有,输出路径得需要不存在

3.1.6查看结果

在这里插入图片描述

  • [summer@hadoop102 testoutput]$ cat part-r-00000

shuai 2
wo 2
zui 2

3.2完全分布式运行模式(开发重点)

分析:

1)准备3台客户机(关闭防火墙、静态IP、主机名称)
2)安装JDK
3)配置环境变量
4)安装Hadoop
5)配置环境变量
6)配置集群
7)单点启动
8)配置ssh
9)群起并测试集群

3.2.1虚拟机准备

看我之前写的博客
模板虚拟机环境准备http://t.csdn.cn/oACCG
克隆虚拟机http://t.csdn.cn/3VXn2

3.2.2编写集群分发脚本xsync

3.2.2.1scp(secure copy)安全拷贝

3.2.2.1.1scp定义

scp可以实现服务器与服务器之间的数据拷贝。(from server1 to server2)

3.2.2.1.2基本语法
scp    -r        $pdir/$fname             $user@$host:$pdir/$fname
命令   递归       要拷贝的文件路径/名称       目的地用户@主机:目的地路径/名称
3.2.2.1.3实操
3.2.2.1.3.1前提:在hadoop102、hadoop103、hadoop104都已经创建好的/opt/module、/opt/software两个目录,并且已经把这两个目录修改为summer:summer

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

如果有哪一台虚拟机没有将目录修改为summer:summer,或者没有创建好/opt/module、/opt/software两个目录看我之前的博客http://t.csdn.cn/EOONM
1.1.6
在这里插入图片描述

3.2.2.1.3.2在hadoop102上,将hadoop102中/opt/module/jdk1.8.0_212目录拷贝到hadoop103上
  • [summer@hadoop102 module]$ scp -r jdk1.8.0_212/ summer@hadoop103:/opt/module/

在这里插入图片描述
在这里插入图片描述
然后就等待拷贝成功

在这里插入图片描述

看到hadoop103已经有了jdk了,说明从hadoop102向hadoop103拷贝成功了

3.2.2.1.3.3在hadoop103上,将hadoop102中/opt/module/hadoop-3.1.3目录拷贝到hadoop103上
  • [summer@hadoop103 module]$ scp -r summer@hadoop102:/opt/module/hadoop-3.1.3 ./

在这里插入图片描述

在这里插入图片描述
然后就等待拷贝成功

在这里插入图片描述

看到hadoop103已经有了hadoop了,说明hadoop103从hadoop102中的hadoop拿过来了

3.2.2.1.3.4在hadoop103上操作,将hadoop102中/opt/module目录下所有目录拷贝到hadoop104上
  • [summer@hadoop103 module]$ scp -r summer@hadoop102:/opt/module/* summer@hadoop104:/opt/module/

在这里插入图片描述
在这里插入图片描述
然后就等待拷贝成功

在这里插入图片描述

看到hadoop104已经有了jdk和hadoop了,说明在hadoop102中从hadoop102中的jdk和hadoop拷贝到了hadoop104中了

3.2.2.2rsync远程同步工具

rsync主要用于备份和镜像。具有速度快、避免复制相同内容和支持符号链接的优点。
rsync和scp区别:用rsync做文件的复制要比scp的速度快,rsync只对差异文件做更新。scp是把所有文件都复制过去。

3.2.2.2.1基本语法
rsync -av    $pdir/$fname $user@$host:$pdir/$fname
命令  选项参数 要拷贝的文件路径/名称 目的地用户@主机:目的地路径/名称

选项参数说明

选项 功能
-a 归档拷贝
-v 显示复制过程
3.2.2.2.2实操
3.2.2.2.2.1删除hadoop103中/opt/module/hadoop-3.1.3/testinput和testoutput
  • [summer@hadoop103 hadoop-3.1.3]$ rm -rf testinput/
  • [summer@hadoop103 hadoop-3.1.3]$ rm -rf testoutput/

在这里插入图片描述

3.2.2.2.2.2同步hadoop102中的/opt/module/hadoop-3.1.3到hadoop103
  • [summer@hadoop102 module]$ rsync -av hadoop-3.1.3/ summer@hadoop103:/opt/module/hadoop-3.1.3/

在这里插入图片描述

在这里插入图片描述
然后就等待成功,这个比scp要快

在这里插入图片描述

3.2.2.3xsync集群分发脚本

3.2.2.3.1需求:循环复制文件到所有节点的相同目录下
3.2.2.3.2需求分析
3.2.2.3.2.1xsync命令原始拷贝

xsync -av /opt/module summer@hadoop103:/opt/

3.2.2.3.2.2期望脚本

xsync要同步的文件名称

3.2.2.3.2.3期望脚本在任何路径都能使用(脚本放在声明了全局环境变量的路径)

[summer@hadoop102 ~]$ echo $PATH
/usr/local/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/opt/module/hadoop-3.1.3/bin:/opt/module/hadoop-3.1.3/sbin:/opt/module/jdk1.8.0_212/bin:/home/summer/.local/bin: /home/summer/bin

在这里插入图片描述

3.2.2.3.3脚本实现
3.2.2.3.3.1在/home/summer/bin目录下创建xsync文件

[summer@hadoop102 ~]$ mkdir bin
[summer@hadoop102 ~]$ cd bin
[summer@hadoop102 bin]$ vim xsync

在这里插入图片描述

xsync文件内容为:
在这里插入图片描述

#!/bin/bash

#1. 判断参数个数
if [ $# -lt 1 ]
then
   echo Not Enough Arguement!
   exit;
fi

#2. 遍历集群所有机器
for host in hadoop102 hadoop103 hadoop104
do
    echo ====================  $host  ====================
    #3. 遍历所有目录,挨个发送

    for file in $@
    do
        #4. 判断文件是否存在
        if [ -e $file ]
            then
                #5. 获取父目录
                pdir=$(cd -P $(dirname $file); pwd)

                #6. 获取当前文件的名称
                fname=$(basename $file)
                ssh $host "mkdir -p $pdir"
                rsync -av $pdir/$fname $host:$pdir
            else
                echo $file does not exists!
        fi
    done
done
3.2.2.3.3.2修改脚本xsync具有执行权限
  • [summer@hadoop102 bin]$ chmod 777 xsync

在这里插入图片描述

3.2.2.3.3.3测试脚本
  • [summer@hadoop102 bin]$ xsync /home/summer/bin

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

3.2.2.3.3.4将脚本复制到/bin中,以便全局调用
  • [summer@hadoop102 bin]$ sudo cp xsync /bin/
3.2.2.3.3.5同步环境变量配置(root所有者)
  • [summer@hadoop102 ~]$ sudo ./bin/xsync /etc/profile.d/my_env_hadoop-3.1.3.sh
  • [summer@hadoop102 ~]$ sudo ./bin/xsync /etc/profile.d/my_env_jdk_1.8.0_212.sh

注意:如果用了sudo,那么xsync一定要给它的路径补全
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

让环境变量生效

  • [summer@hadoop103 ~]$ source /etc/profile
  • [summer@hadoop104 ~]$ source /etc/profile
相关文章
|
14天前
|
存储 分布式计算 Hadoop
Spark和Hadoop都是大数据处理领域的重要工具
【6月更文挑战第17天】Spark和Hadoop都是大数据处理领域的重要工具
118 59
|
14天前
|
存储 分布式计算 Hadoop
Hadoop是一个强大的分布式系统基础架构
【6月更文挑战第17天】Hadoop是一个强大的分布式系统基础架构
115 53
|
1天前
|
存储 NoSQL Java
探索Java分布式锁:在高并发环境下的同步访问实现与优化
【6月更文挑战第30天】Java分布式锁在高并发下确保数据一致性,通过Redis的SETNX、ZooKeeper的临时节点、数据库操作等方式实现。优化策略包括锁超时重试、续期、公平性及性能提升,关键在于平衡同步与效率,适应大规模分布式系统的需求。
13 1
|
11天前
|
人工智能 NoSQL 关系型数据库
主从模式(Master-Slave Architecture)在传统的计算机科学中指的是一种分布式系统架构
主从模式(Master-Slave Architecture)在传统的计算机科学中指的是一种分布式系统架构
31 5
|
10天前
|
分布式计算 资源调度 Hadoop
分布式系统详解--架构(Hadoop-克隆服务器)
分布式系统详解--架构(Hadoop-克隆服务器)
19 1
|
10天前
|
XML 分布式计算 Hadoop
分布式系统详解--框架(Hadoop-单机版搭建)
分布式系统详解--框架(Hadoop-单机版搭建)
32 0
分布式系统详解--框架(Hadoop-单机版搭建)
|
13天前
|
存储 数据采集 canal
直连同步与分布式同步相比,有哪些差异?
【6月更文挑战第18天】直连同步与分布式同步相比,有哪些差异?
23 3
|
18天前
|
存储 分布式计算 安全
|
20天前
|
分布式计算 负载均衡 并行计算
Python 分布式计算框架 PP (Parallel Python):集群模式下的实践探索
该文介绍了使用Parallel Python (PP) 在两台物理机上构建分布式计算集群的经验。PP是一个轻量级框架,旨在简化Python代码在多处理器系统和集群中的并行执行。文中通过设置子节点的IP、端口和密钥启动PP服务器,并在主节点创建PP实例进行负载均衡。实验使用官方的质数和计算示例,显示PP在集群模式下能有效利用多台机器的多核CPU,实现计算效率的显著提升。未来,作者计划进一步研究PP在更复杂任务和大规模集群中的应用潜力。
|
27天前
|
存储 分布式计算 Hadoop
使用Apache Hadoop进行分布式计算的技术详解
【6月更文挑战第4天】Apache Hadoop是一个分布式系统框架,应对大数据处理需求。它包括HDFS(分布式文件系统)和MapReduce编程模型。Hadoop架构由HDFS、YARN(资源管理器)、MapReduce及通用库组成。通过环境搭建、编写MapReduce程序,可实现分布式计算。例如,WordCount程序用于统计单词频率。优化HDFS和MapReduce性能,结合Hadoop生态系统工具,能提升整体效率。随着技术发展,Hadoop在大数据领域将持续发挥关键作用。

热门文章

最新文章