HDFS基础配置

简介: HADOOP-3.1.0-----HDFS基础配置 执行步骤:(1)配置集群(2)启动、测试集群增、删、查(3)执行wordcount案例 一、配置集群   1.在 hadoop-env.sh配置文件添加 jdk绝对路径  export JAVA_HOME=/opt/module/jdk1.8.0_181     配置文件位置:/opt/module/hadoop-3.1.0/etc/hadoop/ ,hadoop安装路径下,后文不再叙述。

HADOOP-3.1.0-----HDFS基础配置

执行步骤:(1)配置集群(2)启动、测试集群增、删、查(3)执行wordcount案例

一、配置集群

  1.在 hadoop-env.sh配置文件添加 jdk绝对路径  export JAVA_HOME=/opt/module/jdk1.8.0_181

    配置文件位置:/opt/module/hadoop-3.1.0/etc/hadoop/ ,hadoop安装路径下,后文不再叙述。

  2.配置 core-site.xml

    <!-- 指定HDFS中NameNode的地址-->
    <property>
    <name>fs.defaultFS</name>
    <value>hdfs://localhost:9000</value>
    </property>

    <!-- 指定hadoop运行时产生文件的存储目录-->
    <property>
    <name>hadoop.tmp.dir</name>
    <value>/opt/module/hadoop-2.7.2/data/tmp</value>
    </property>

   3.配置hdfs.site.xml

    <!-- 指定HDFS副本的数量-->
    <property>
    <name>dfs.replication</name>
    <value>1</value>
    </property>

   4.配置ssh免密登录  

    https://www.cnblogs.com/jin-nuo/p/9430066.html

 二、启动集群

    1.格式化NameNode(第一次启动时格式化,以后就不要总格式化,频繁格式化会造成namenode_id和datanode_id不一致)

      bin/hdfs namenode -format

    2.启动NameNode和DataNode

      hdfs --daemon start namenode

      hdfs --daemon start datanode

    3.jps+回车  查看是否启动

     web端查看HDFS文件系统http://ip:9870/

      3.0之前版本端口:50070

三、测试案例

    1.在hdfs文件系统上创建一个input文件夹
     hdfs dfs -mkdir -p /user/atguigu/input

    2.将测试文件内容上传到文件系统上

      hdfs dfs -put wcinput/wc.input /user/atguigu/input/

    3.查看上传的文件是否正确
      hdfs dfs -ls /user/atguigu/input/
      hdfs dfs -cat /user/atguigu/ input/wc.input

      4.运行mapreduce程序
      hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /user/atguigu/input/ /user/atguigu/output

    5.查看输出结果
      hdfs dfs -cat /user/atguigu/output/*

    6.将测试文件内容下载到本地
      hadoop fs -get /user/atguigu/ output/part-r-00000 ./wcoutput/
    7.删除输出结果
      hdfs dfs -rm -r /user/atguigu/output

 

相关文章
|
1月前
|
XML 分布式计算 资源调度
大数据-02-Hadoop集群 XML配置 超详细 core-site.xml hdfs-site.xml 3节点云服务器 2C4G HDFS Yarn MapRedece(一)
大数据-02-Hadoop集群 XML配置 超详细 core-site.xml hdfs-site.xml 3节点云服务器 2C4G HDFS Yarn MapRedece(一)
157 5
|
1月前
|
XML 资源调度 网络协议
大数据-02-Hadoop集群 XML配置 超详细 core-site.xml hdfs-site.xml 3节点云服务器 2C4G HDFS Yarn MapRedece(二)
大数据-02-Hadoop集群 XML配置 超详细 core-site.xml hdfs-site.xml 3节点云服务器 2C4G HDFS Yarn MapRedece(二)
104 4
|
1月前
|
分布式计算 资源调度 Hadoop
大数据-01-基础环境搭建 超详细 Hadoop Java 环境变量 3节点云服务器 2C4G XML 集群配置 HDFS Yarn MapRedece
大数据-01-基础环境搭建 超详细 Hadoop Java 环境变量 3节点云服务器 2C4G XML 集群配置 HDFS Yarn MapRedece
79 4
|
5月前
|
消息中间件 SQL Kafka
实时计算 Flink版产品使用问题之独立集群与hdfs集群不在一起,何配置checkpoint目录为hdfs
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
存储 分布式计算 资源调度
Hadoop运行模式(三)、群起集群、配置workers、启动集群、启动HDFS、拼接、Web端查看HDFS的NameNode、Web端查看YARN的ResourceManager
Hadoop运行模式(三)、群起集群、配置workers、启动集群、启动HDFS、拼接、Web端查看HDFS的NameNode、Web端查看YARN的ResourceManager
Hadoop运行模式(三)、群起集群、配置workers、启动集群、启动HDFS、拼接、Web端查看HDFS的NameNode、Web端查看YARN的ResourceManager
|
机器学习/深度学习 移动开发 分布式计算
配置 HDFS-配置 core-site-hdfs-size 以及 env.sh 等配置文件|学习笔记
快速学习配置 HDFS-配置 core-site-hdfs-size 以及 env.sh 等配置文件
|
存储 分布式计算 Hadoop
Hadoop配置手册2: 测试Hdfs和WordCount测试
Hadoop配置手册2: 测试Hdfs和WordCount测试
146 0
|
分布式计算 资源调度 Hadoop
Hadoop运行模式(二)、SSH无密登录配置、生成公钥和私钥、集群配置、集群部署规划、默认配置文件、核心配置文件、HDFS配置文件、YARN配置文件、MapReduce配置文件、在集群上分发配置好的
ssh文件夹下(~/.ssh)的文件功能解释、ssh连接时出现Host key verification failed的解决方法、免密登录原理、将公钥拷贝到要免密登录的目标机器上、NameNode和SecondaryNameNode不要安装在同一台服务器、ResourceManager也很消耗内存,不要和NameNode、SecondaryNameNode配置在同一台机器上、Hadoop配置文件分两类:默认配置文件和自定义配置文件,只有用户想修改某一默认配置值时,才需要修改自定义配置文件,更改相应属性值、.
545 1
Hadoop运行模式(二)、SSH无密登录配置、生成公钥和私钥、集群配置、集群部署规划、默认配置文件、核心配置文件、HDFS配置文件、YARN配置文件、MapReduce配置文件、在集群上分发配置好的
|
机器学习/深度学习 分布式计算 资源调度
配置 HDFS-启动 HDFS 测试|学习笔记
快速学习配置 HDFS-启动 HDFS 测试
配置 HDFS-启动 HDFS 测试|学习笔记
|
分布式计算 安全 Hadoop
配置 HDFS-配置 https 证书以及 ssl 配置文件|学习笔记
快速学习配置 HDFS-配置 https 证书以及 ssl 配置文件
配置 HDFS-配置 https 证书以及 ssl 配置文件|学习笔记

相关实验场景

更多
下一篇
无影云桌面