开发者社区> 问答> 正文

HDFS的API操作读取某个目录下的所有文件怎么做?

HDFS的API操作读取某个目录下的所有文件怎么做?

展开
收起
游客y244y7ln2rlpa 2021-12-07 06:35:29 1123 0
1 条回答
写回答
取消 提交回答
  • 读取某个目录下的所有文件:通过“FileStatus.getPath()”方法可以查看指定目录下的所有文件。

    具体代码如下:``` package HDFS.learnself;

    import java.io.IOException; import java.net.URI; import java.net.URISyntaxException; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileStatus; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path;

    public class CatFiles { public static void main(String[] args) throws IOException, InterruptedException, URISyntaxException {

    //1.加载hdfs的配置文件 Configuration conf=new Configuration();

    //2.获取hdfs的操作对象 FileSystem fs=FileSystem.get(new URI("hdfs://hdp01:9000"), conf, "hdp02");

    //3.创建要读取的文件路径 Path listf=new Path("/tmp");

    //4.创建FileStatus对象,调用listStatus方法 FileStatus stats[]=fs.listStatus(listf); for(int i=0;i<stats.length;i++){ System.out.println(stats[i].getPath().toString()); } fs.close(); System.out.println("该目录下的文件查找完毕!"); } }

    2021-12-07 06:36:26
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Spring Boot2.0实战Redis分布式缓存 立即下载
CUDA MATH API 立即下载
API PLAYBOOK 立即下载