大数据技术基础实验四:HDFS实验——读写HDFS文件

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 大数据技术基础实验四,学习使用Eclipse和HDFS进行读写文件操作。

一、前言

在前面的实验中我们进行了HDFS的部署,并设置了一键启动HDFS操作,本期实验我们将使用HDFS开发环境进行HDFS写、读的编写,以及程序的运行,了解HDFS读写文件的调用流程,理解HDFS读写文件的原理。

好啦废话不多说,我们开始今天的实验操作。

二、实验目的

  1. 会在Linux环境下编写读写HDFS文件的代码
  2. .会使用jar命令打包代码
  3. 会在master服务器上运行HDFS读写程序
  4. 会在Windows上安装Eclipse Hadoop插件
  5. 会在Eclipse环境编写读写HDFS文件的代码
  6. 会使用Eclipse打包代码
  7. 会使用Xftp工具将实验电脑上的文件上传至master服务器

三、实验原理

1、Java Classpath

Classpath设置的目的是告诉Java执行环境,在哪些目录下可以找到所要执行的Java程序所需要的类或者包。

Java执行环境本身就是一个平台,执行于这个平台上的程序是已编译完成的Java程序(文件后缀为.class)。如果将Java执行环境比喻为操作系统,如果设置Path变量是为了让操作系统找到指定的工具程序(以Windows来说就是找到.exe文件),则设置Classpath的目的就是让Java执行环境找到指定的Java程序(也就是.class文件)。

我们来设置一下Classpath:

在设置中打开环境变量,然后点击新建

image-20220916104942896.png

每一路径中间必须以英文;作为分隔。

image-20220916185231989.png

2、Eclipse Hadoop插件下载

我们通过在Eclipse上下载Hadoop插件来开发Hadoop相关程序

首先去到Github下载地址下载hadoop2x-eclipse-plugin,因为我们学校的虚拟机集群环境是hadoop2.7,所以就只需要下载2x版本插件。

如果进不去Github,可以留下你们的邮箱我单独发给你们。

image-20220916114129272.png

安装插件在后面具体实验步骤的时候再来说明。

四、实验步骤

1、配置master服务器classpath

在终端输入如下命令:

vi /etc/profile

进入文件进行编辑,在该文件的最后加上如下信息:

JAVA_HOME=/usr/local/jdk1.7.0_79/
exportHADOOP_HOME=/usr/cstor/hadoop
exportJRE_HOME=/usr/local/jdk1.7.0_79//jre
exportPATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
exportCLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$HADOOP_HOME/share/hadoop/common/*:$HADOOP_HOME/share/hadoop/common/lib/*
exportPATH=$PATH:$HADOOP_HOME/bin
exportHADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
exportHADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib:$HADOOP_HOME/lib/native"

image-20220916225210447.png

添加成功之后保存文件,然后再执行如下命令,让刚才设置的环境变量生效:

source /etc/profile

2、在master服务器编写HDFS写程序

在终端执行如下命令,然后编写HDFS写文件程序:

vi WriteFile.java

在文件内写入如下java程序代码然后保存退出。

importorg.apache.hadoop.conf.Configuration;
importorg.apache.hadoop.fs.FSDataOutputStream;
importorg.apache.hadoop.fs.FileSystem;
importorg.apache.hadoop.fs.Path;
publicclassWriteFile {
publicstaticvoidmain(String[] args)throwsException{
Configurationconf=newConfiguration();
FileSystemhdfs=FileSystem.get(conf);
Pathdfs=newPath("/weather.txt");
FSDataOutputStreamoutputStream=hdfs.create(dfs);
outputStream.writeUTF("nj 20161009 23\n");
outputStream.close();
}
}

image-20220916230356055.png

3、编译并打包HDFS写程序

使用javac编译刚刚编写的java代码,并使用jar命令打包为hdpAction.jar。

编译代码:

javac WriteFile.java

打包代码:

jar -cvf hdpAction.jar WriteFile.class

image-20220916230723090.png

4、 执行HDFS写程序

在master虚拟机上使用如下命令执行hdpAction.jar:

hadoop jar ~/hdpAction.jar WriteFile

然后输入如下命令查看是否生成weather.txt文件:

hadoop fs -ls /

image-20220916231127848.png

可以看出已经生成成功,我们来查看一下文件内容是否正确:

hadoop fs -cat /weather.txt

image-20220916231250371.png

OK,结果是对的,我们继续下一步。

5、在master服务器编写HDFS读程序

直接在终端执行如下命令进行编写HDFS读文件程序操作:

vi ReadFile.java

然后填入如下java程序:

importjava.io.IOException;
importorg.apache.hadoop.conf.Configuration;
importorg.apache.hadoop.fs.FSDataInputStream;
importorg.apache.hadoop.fs.FileSystem;
importorg.apache.hadoop.fs.Path;
publicclassReadFile {
publicstaticvoidmain(String[] args) throwsIOException {
Configurationconf=newConfiguration();
PathinFile=newPath("/weather.txt");
FileSystemhdfs=FileSystem.get(conf);
FSDataInputStreaminputStream=hdfs.open(inFile);
System.out.println("myfile: "+inputStream.readUTF());
inputStream.close();
  }
}

image-20220916231534739.png

6、编译并打包HDFS读程序

再次使用刚刚的javac命令编译刚编写的java代码:

javac ReadFile.java

然后再次使用jar命令打包为hdpAction.jar:

jar -cvf hdpAction.jar ReadFile.class

image-20220916231838249.png

7、 执行HDFS读程序

再次在master虚拟机上使用hadoop.jar命令执行hdpAction.jar,查看程序运行结果:

hadoop jar ~/hdpAction.jar ReadFile

image-20220916232038129.png

8、安装与配置Eclipse Hadoop插件

现在我们开始之前的插件安装步骤,将我们在Github上面下载的jar包放在Eclipse下载路径的插件包下面,如图:

image-20220920162014551.png

然后我们需要在本地配置Hadoop环境,用于加载hadoop目录中的jar包,我们需要下载这个文件:

image-20220916232447424.png

可以去官网下载,我是在学校大数据平台上面直接下载的,比较方便。

然后解压该文件到自己指定的路径。

然后我们需要验证是否可以用Eclipse新建Hadoop项目,打开Eclipse软件,按照如下操作选择:

image-20220916233252688.png

点击之后查看是否有Map/Reduce Project的选项。

image-20220916233853092.png

这里如果没有出现这个选项的话,需要去eclipse安装路径下的configuration文件中把org.eclipse.update删除,这是因为在 org.eclipse.update 文件夹下记录了插件的历史更新情况,它只记忆了以前的插件更新情况,而你新安装的插件它并不记录,之后再重启Eclipse就会出现这个选项了。

第一次新建Map/Reduce Project项目时需要指定hadoop解压后的位置:

image-20220916234642301.png

image-20220916234843869.png

9、使用Eclipse开发并打包HDFS写文件程序

紧接着上面输入项目名:WriteHDFS,创建一个Map/Reduce项目。

然后新建WriteFile类并填入如下java代码:

importorg.apache.hadoop.conf.Configuration;
importorg.apache.hadoop.fs.FSDataOutputStream;
importorg.apache.hadoop.fs.FileSystem;
importorg.apache.hadoop.fs.Path;
publicclassWriteFile {
publicstaticvoidmain(String[] args)throwsException{
Configurationconf=newConfiguration();
FileSystemhdfs=FileSystem.get(conf);
Pathdfs=newPath("/weather.txt");
FSDataOutputStreamoutputStream=hdfs.create(dfs);
outputStream.writeUTF("nj 20161009 23\n");
outputStream.close();
}
}

如果你出现报错的话,就需要进行导包操作并且配置设置文件,在项目目录下面创建jar或者lib文件夹,添加如下两个包,如果你找不到的话我可以发给你们,留下邮箱就行:

image-20220920162829178.png

然后在Eclipse左侧导航栏里右击该项目,选择导出,然后选择java,选择JAR 文件:

image-20220916235411034.png

然后填写导出文件的路径和文件名,自定义:

image-20220916235735069.png

然后点击下一步,再点击下一步,然后配置程序主类,这里必须要选择主类,我被这里坑了好久一直报错,学校大数据平台实验指导书和实验视频错了,必须要选择主类,不然后面上传到服务器就会一直报错。

image-20220920162137379.png

image-20220920162350311.png

然后选择完成就打包完成。

10、上传HDFS写文件程序jar包并执行

我们使用Xftp工具将刚刚生成的jar包上传至master服务器上:

image-20220920163048658.png

然后在master服务器上使用如下命令执行hdpAction.jar:

hadoop jar ~/hdpAction.jar WriteFile

然后查看是否生成了weather.txt文件:

hadoop fs -ls /

image-20220920163438977.png

如果已经生成,然后再查看文件内容是否正确:

hadoop fs -act /weather.txt

image-20220920163518310.png

11、使用Eclipse开发并打包HDFS读文件程序

这里建项目的方法和前面的一样,我就不再详细的描述了。

新建项目名为ReadHDFS,然后再新建ReadFile类并编写如下代码:

importjava.io.IOException;
importorg.apache.hadoop.conf.Configuration;
importorg.apache.hadoop.fs.FSDataInputStream;
importorg.apache.hadoop.fs.FileSystem;
importorg.apache.hadoop.fs.Path;
publicclassReadFile {
publicstaticvoidmain(String[] args) throwsIOException {
Configurationconf=newConfiguration();
PathinFile=newPath("/weather.txt");
FileSystemhdfs=FileSystem.get(conf);
FSDataInputStreaminputStream=hdfs.open(inFile);
System.out.println("myfile: "+inputStream.readUTF());
inputStream.close();
  }
}

然后和前面一样进行导包操作,再次强调要选择主类!

12、上传HDFS读文件程序jar包并执行

然后再次使用Xftp工具将包上传至master服务器上,并在master服务器上使用hadoop jar命令执行上传的包,查看程序运行结果:

image-20220920164249776.png

五、补充一点

学校大数据平台实验视频说,因为大数据集群是使用的jdk1.7版本,必须要使用相同版本才行,如果你是jdk1.8版本,也不用重新配置1.7版本,只需要在Eclipse切换执行环境就行,具体操作如下:

右击项目然后依次选择选项:

image-20220920164846879.png

然后将你们一开始的这个库移除,再点击添加库,这里我已经切换好了:

image-20220920165233362.png

然后选择JRE系统库,点击下一步:

image-20220920165305273.png

然后选择要切换的库版本,最后点击完成即可:

image-20220920165404575.png

六、最后我想说

本期的实验到这里就结束了,因为中间出现了各种报错,所以这个实验做了很久,最后在不断摸索中终于是完成了。

通过本次实验我深刻明白了大数据环境的各种配置是真的麻烦,各种烦人的要求,哈哈哈,真的是太绝了,你们做大数据实验的时候一定要注意细节,仔细一点,不然很容易踩各种坑。

大概就说这么多了,一定要多去实战,不然你们都不知道会收获多少经验(坑),如果你们在实验过程中遇见了什么问题,欢迎大家来提问,我们一起讨论学习交流。

最后,后续我仍会继续更新有关大数据的实验,虽然过程比较辛苦,但收获满满。

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
1月前
|
分布式计算 DataWorks Java
DataWorks操作报错合集之在使用MaxCompute的Java SDK创建函数时,出现找不到文件资源的情况,是BUG吗
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
38 0
|
18天前
|
SQL 分布式计算 DataWorks
DataWorks产品使用合集之如何将CSV文件从阿里云OSS同步到ODPS表,并且使用列作为表分区
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
DataWorks产品使用合集之如何将CSV文件从阿里云OSS同步到ODPS表,并且使用列作为表分区
|
5天前
|
SQL 分布式计算 大数据
MaxCompute产品使用问题之如果oss文件过大,如何在不调整oss源文件大小的情况下优化查询sql
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
16天前
|
Java 大数据 API
【大数据】HDFS、HBase操作教程(含指令和JAVA API)
【大数据】HDFS、HBase操作教程(含指令和JAVA API)
56 0
【大数据】HDFS、HBase操作教程(含指令和JAVA API)
|
16天前
|
存储 分布式计算 大数据
【大数据】分布式文件系统HDFS
【大数据】分布式文件系统HDFS
36 0
【大数据】分布式文件系统HDFS
|
18天前
|
SQL 分布式计算 大数据
MaxCompute产品使用合集之是否可以对OSS文件进行谓词下推
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
1天前
|
存储 缓存 安全
程序技术好文:深刻理解HDFS工作机制
程序技术好文:深刻理解HDFS工作机制
|
1月前
|
分布式计算 Java Hadoop
HDFS 集群读写压测
在虚拟机中配置集群时,需设置每台服务器网络为百兆,以模拟实际网络环境。使用Hadoop的`TestDFSIO`进行HDFS性能测试,包括写入和读取数据。写测试中,创建11个128MB文件,平均写入速度为3.86 MB/sec,总处理数据量1408 MB,测试时间137.46秒。资源分配合理,传输速度超过单台服务器理论最大值12.5M/s,说明网络资源已充分利用。读测试主要依赖硬盘传输速率,速度快。测试完成后使用`TestDFSIO -clean`删除测试数据。
|
16天前
|
存储 NoSQL 大数据
【大数据】LSM树,专为海量数据读写而生的数据结构
【大数据】LSM树,专为海量数据读写而生的数据结构
21 0
|
17天前
|
分布式计算 DataWorks 数据管理
DataWorks操作报错合集之无法运行ddltsk-ddltsk更新表失败,报错:源群集元文件不存在odps-0110061,如何解决
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。