HDFS javaAPI编程

简介: HDFS javaAPI编程

继续执行下一个测试文件(在test45文件夹下面新建一个hello.txt文件并写入数据)

 

1. package hdfsapi;
2. 
3. import java.io.BufferedWriter;
4. import java.io.IOException;
5. import java.io.OutputStreamWriter;
6. import java.net.URI;
7. 
8. import org.apache.hadoop.conf.Configuration;
9. import org.apache.hadoop.fs.FSDataOutputStream;
10. import org.apache.hadoop.fs.FileSystem;
11. import org.apache.hadoop.fs.Path;
12. 
13. public class E6_CreateAPI {
14. 
15.   public static void main(String[] args) throws IOException, InterruptedException {
16.     // TODO Auto-generated method stub
17.     Configuration conf =new Configuration();
18.     //conf.set("fs.defaultFS", "hdfs://master:8020");
19.     //FileSystem fs = FileSystem.get(conf);
20.     FileSystem fs = FileSystem.get(URI.create("hdfs://Hadoop102:8020"), conf, "simon");
21.     FSDataOutputStream fin = fs.create(new Path("/home/test45/hello.txt"));
22.     BufferedWriter bw = new BufferedWriter(new OutputStreamWriter(fin));
23.     bw.write("Hello World!");
24.     bw.newLine();
25.     bw.write("I am a student\nBigData-class3\nmy name is xie gen feng\nmy NO 45");
26.     bw.close();
27.     fin.close();
28.     fs.close();
29.     System.out.println("创建成功并入写入数据!");
30.   }
31. 
32. }

执行成功!查看网页端:

 

数据写入成功

 

将文件打包

 

将打好的jar包上传到Linux

 

删除web端文件验证Linux执行文件

 

执行后

 

Web端

 

打包其他同样的java测试文件

继续验证文本追加

 

1. package hdfsapi;
2. 
3. import java.io.BufferedWriter;
4. import java.io.IOException;
5. import java.io.OutputStreamWriter;
6. import java.net.URI;
7. 
8. import org.apache.hadoop.conf.Configuration;
9. import org.apache.hadoop.fs.FSDataOutputStream;
10. import org.apache.hadoop.fs.FileSystem;
11. import org.apache.hadoop.fs.Path;
12. 
13. public class E8_AppendAPI {
14.   public static void main(String[] args) throws IOException, InterruptedException {
15.     // TODO Auto-generated method stub
16.     Configuration conf =new Configuration();
17.     conf.set("fs.defaultFS", "hdfs://Hadoop102:8020");
18.     conf.set("dfs.support.append", "true");
19.     conf.set("dfs.client.block.write.replace-datanode-on-failure.policy", "NEVER");
20.     //FileSystem fs = FileSystem.get(conf);
21.     FileSystem fs = FileSystem.get(URI.create("hdfs://Hadoop102:8020"), conf, "simon");
22.     FSDataOutputStream fout = fs.append(new Path("/home/test45/hello.txt"));
23.     BufferedWriter bw = new BufferedWriter(new OutputStreamWriter(fout));
24.     bw.write("\nHi");
25.     bw.newLine();
26.     bw.write("This is my homework\nfinish soon!");   
27.     bw.close();
28.     fout.close();
29.     fs.close();
30.     System.out.println("文本追加成功!");
31.   }
32. }

Linux执行jar包

 

Web端验证数据是否写入成功!

理解HDFS Java API编程原理,同时掌握HDFS的命令,也掌握Elipse远程调试Hadoop程序的方法,使用了HDFS基本的API调用方法,使用eclipse编写java程序操作hdfs并将java文件打成jar包放在Linux上面使用Hadoop命令执行文件


相关文章
|
10天前
|
分布式计算 Hadoop 测试技术
Hadoop【基础知识 05】【HDFS的JavaAPI】(集成及测试)
【4月更文挑战第5天】Hadoop【基础知识 05】【HDFS的JavaAPI】(集成及测试)
38 8
|
9月前
|
分布式计算 安全 Java
云计算与大数据实验四 HDFS编程
云计算与大数据实验四 HDFS编程
74 0
|
9月前
|
存储 大数据 API
大数据数据存储的分布式文件系统的HDFS的基本使用的对应的API编程接口
在 Hdfs 中,使用命令行接口可以方便地对数据进行操作。
76 0
|
分布式计算 Java Hadoop
hadoop HDFS javaAPI编程
hadoop HDFS javaAPI编程
hadoop HDFS javaAPI编程
|
分布式计算 Java Hadoop
HDFS Java API编程
HDFS Java API编程
HDFS Java API编程
|
分布式计算 Hadoop Java
hadoop之操作window下HDFS API编程(8)
hadoop之操作window下HDFS API编程(8)
242 0
hadoop之操作window下HDFS API编程(8)
|
分布式计算 Java Hadoop
【大数据计算】(一) HDFS操作方法和基础编程
1. HDFS操作常用Shell命令 1.1 查看命令使用方法
504 0
【大数据计算】(一) HDFS操作方法和基础编程
|
分布式计算 Hadoop Python
Hadoop编程调用HDFS(PYTHON)
1.运行环境 开发工具:PyCharm Python 版本:3.5 Hadoop环境: Cloudera QuickStart 2.GITHUB地址 https://github.com/nbfujx/hadoop-learn-demo/tree/master/python-hadoop-hdfs .
919 0
|
分布式计算 Java Hadoop
Hadoop编程调用HDFS(JAVA)
1.运行环境 开发工具:intellij idea JDK版本:1.8 项目管理工具:Maven 4.0.0 Hadoop环境: Cloudera QuickStart 2.GITHUB地址 https://github.
1113 0