通过Thrift访问HDFS分布式文件系统的性能瓶颈分析

简介: 引言   Hadoop提供的HDFS布式文件存储系统,提供了基于thrift的客户端访问支持,但是因为Thrift自身的访问特点,在高并发的访问情况下,thrift自身结构可能将会成为HDFS文件存储系统的一个性能瓶颈。

引言

  Hadoop提供的HDFS布式文件存储系统,提供了基于thrift的客户端访问支持,但是因为Thrift自身的访问特点,在高并发的访问情况下,thrift自身结构可能将会成为HDFS文件存储系统的一个性能瓶颈。我们先来看一下一不使用Thrfit方式访问HDFS文件系统的业务流程。

一、HDFS文件读取流程

  

流程说明:

  1. 使用HDFS提供的客户端开发库Client,向远程的Namenode发起RPC请求;
  2. Namenode会视情况返回文件的部分或者全部block列表,对于每个block,Namenode都会返回有该block拷贝的DataNode地址;
  3. 客户端开发库Client会选取离客户端最接近的DataNode来读取block;如果客户端本身就是DataNode,那么将从本地直接获取数据.
  4. 读取完当前block的数据后,关闭与当前的DataNode连接,并为读取下一个block寻找最佳的DataNode;
  5. 当读完列表的block后,且文件读取还没有结束,客户端开发库会继续向Namenode获取下一批的block列表。
  6. 读取完一个block都会进行checksum验证,如果读取datanode时出现错误,客户端会通知Namenode,然后再从下一个拥有该block拷贝的datanode继续读。

二、HDFS文件写入流程

流程说明:

  1. 使用HDFS提供的客户端开发库Client,向远程的Namenode发起RPC请求;
  2. Namenode会检查要创建的文件是否已经存在,创建者是否有权限进行操作,成功则会为文件创建一个记录,否则会让客户端抛出异常;
  3. 当 客户端开始写入文件的时候,开发库会将文件切分成多个packets,并在内部以数据队列"data queue"的形式管理这些packets,并向Namenode申请新的blocks,获取用来存储replicas的合适的datanodes列表, 列表的大小根据在Namenode中对replication的设置而定。
  4. 开始以pipeline(管道)的形式将packet写入所 有的replicas中。开发库把packet以流的方式写入第一个datanode,该datanode把该packet存储之后,再将其传递给在此 pipeline中的下一个datanode,直到最后一个datanode,这种写数据的方式呈流水线的形式。
  5. 最后一个datanode成功存储之后会返回一个ack packet,在pipeline里传递至客户端,在客户端的开发库内部维护着"ack queue",成功收到datanode返回的ack packet后会从"ack queue"移除相应的packet。
  6. 如 果传输过程中,有某个datanode出现了故障,那么当前的pipeline会被关闭,出现故障的datanode会从当前的pipeline中移除, 剩余的block会继续剩下的datanode中继续以pipeline的形式传输,同时Namenode会分配一个新的datanode,保持 replicas设定的数量。

三、关键词

  HDFSClient通过文件IO操作最终实现是通过直接访问DataNode进行。

四、Thrift的访问流程:猜测版

  

流程说明:

1.ThriftClient客户端将操作命令传给ThriftServer。

2.ThriftServer调用HDFSClient接口API实现HDFS读写操作,操作流程如和三所示。

五、疑问

  与DataNode发生数据交换的到底是ThriftServer还是ThriftClient,如果是ThriftServer,那么多个ThriftClient并行访问时,ThriftServer必将成为HDFS访问的性能瓶颈;如果是ThriftClient直接访问DataNode,那么理论依据何在呢?

六、示例程序

  下面是一个基于Thrift实现的HDFS客户端程序,实现了文件的访问和创建和读取

  1 // HdfsDemo.cpp : Defines the entry point for the console application.
  2 //
  3 
  4 #include "stdafx.h"
  5 #include <iostream>
  6 #include <string>
  7 #include <boost/lexical_cast.hpp>
  8 #include <protocol/TBinaryProtocol.h>
  9 #include <transport/TSocket.h>
 10 #include <transport/TTransportUtils.h>
 11 #include "ThriftHadoopFileSystem.h"
 12 
 13 #ifndef _WIN32_WINNT
 14 #define _WIN32_WINNT 0x0500
 15 #endif 
 16 using namespace std;
 17 using namespace apache::thrift;
 18 using namespace apache::thrift::protocol;
 19 using namespace apache::thrift::transport;
 20 
 21 int _tmain(int argc, _TCHAR* argv[])
 22 {
 23     if (argc < 3) 
 24     {
 25         std::cerr << "Invalid arguments!\n" << "Usage: DemoClient host port" << std::endl;
 26         //return -1;
 27     }
 28     boost::shared_ptr<TTransport> socket(new TSocket("192.168.230.133", 55952));//boost::lexical_cast<int>(argv[2])));
 29     boost::shared_ptr<TTransport> transport(new TBufferedTransport(socket));
 30     boost::shared_ptr<TProtocol> protocol(new TBinaryProtocol(transport));
 31     ThriftHadoopFileSystemClient client(protocol);
 32     try 
 33     {
 34         transport->open();
 35         Pathname path;
 36         //01_create directory
 37         path.__set_pathname("/user/hadoop");
 38         if(client.exists(path) == true)
 39         {
 40             printf("path is exists.\r\n");
 41         }
 42         else
 43         {
 44             printf("path is not exists.");
 45             //return 0;
 46         }
 47         //02_put file
 48         Pathname filepath;
 49         filepath.__set_pathname("/user/hadoop/in/test1.txt");
 50         /*
 51         FILE* localfile = fopen("E:\\project\\Hadoop\\HdfsDemo\\Debug\\hello.txt","rb");
 52         if (localfile == NULL)
 53         {
 54             transport->close();
 55             return 0;
 56         }
 57         ThriftHandle hdl;
 58         client.create(hdl,filepath);
 59         while (true)
 60         {
 61             char data[1024];
 62             memset(data,0x00,sizeof(data));
 63             size_t Num = fread(data,1,1024,localfile);
 64             if (Num <= 0)
 65             {
 66                 break;
 67             }
 68             client.write(hdl,data);
 69         }
 70         fclose(localfile);
 71         client.close(hdl);
 72         */
 73         //03_get file
 74         /*
 75         ThriftHandle hd2;
 76         FileStatus stat1;
 77         client.open(hd2,filepath);
 78         client.stat(stat1,filepath);
 79         int index = 0;
 80         while(true)
 81         {
 82             string data;
 83             if (stat1.length <= index)
 84             {
 85                 break;
 86             }
 87             client.read(data,hd2,index,1024);
 88 
 89             index += data.length();
 90             printf("==%s\r\n",data.c_str());
 91         }
 92         client.close(hd2);
 93         */
 94 
 95         //04_list files
 96         std::vector<FileStatus> vFileStatus;
 97         client.listStatus(vFileStatus,path);
 98         for (int i=0;i<vFileStatus.size();i++)
 99         {
100             printf("i=%d file=%s\r\n",i,vFileStatus[i].path.c_str());
101         }
102         transport->close();
103     } catch (const TException &tx) {
104     std::cerr << "ERROR: " << tx.what() << std::endl;
105     }
106     getchar();
107     return 0;
108 }

 七、源码分析

  1.文件创建:

 1     /**
 2       * Create a file and open it for writing, delete file if it exists
 3       */
 4     public ThriftHandle createFile(Pathname path, 
 5                                    short mode,
 6                                    boolean  overwrite,
 7                                    int bufferSize,
 8                                    short replication,
 9                                    long blockSize) throws ThriftIOException {
10       try {
11         now = now();
12         HadoopThriftHandler.LOG.debug("create: " + path +
13                                      " permission: " + mode +
14                                      " overwrite: " + overwrite +
15                                      " bufferSize: " + bufferSize +
16                                      " replication: " + replication +
17                                      " blockSize: " + blockSize);
18         FSDataOutputStream out = fs.create(new Path(path.pathname), 
19                                            new FsPermission(mode),
20                                            overwrite,
21                                            bufferSize,
22                                            replication,
23                                            blockSize,
24                                            null); // progress
25         long id = insert(out);
26         ThriftHandle obj = new ThriftHandle(id);
27         HadoopThriftHandler.LOG.debug("created: " + path + " id: " + id);
28         return obj;
29       } catch (IOException e) {
30         throw new ThriftIOException(e.getMessage());
31       }
32     }

  ThriftHandle的两端到底是谁呢?是ThriftClient和DataNode?还是ThriftServer与DataNode?

  2.文件写入

 1     public boolean write(ThriftHandle tout, String data) throws ThriftIOException {
 2       try {
 3         now = now();
 4         HadoopThriftHandler.LOG.debug("write: " + tout.id);
 5         FSDataOutputStream out = (FSDataOutputStream)lookup(tout.id);
 6         byte[] tmp = data.getBytes("UTF-8");
 7         out.write(tmp, 0, tmp.length);
 8         HadoopThriftHandler.LOG.debug("wrote: " + tout.id);
 9         return true;
10       } catch (IOException e) {
11         throw new ThriftIOException(e.getMessage());
12       }
13     }

  写入时依赖的还是ThriftHandle?  

  3.文件读取

 1     /**
 2      * read from a file
 3      */
 4     public String read(ThriftHandle tout, long offset,
 5                        int length) throws ThriftIOException {
 6       try {
 7         now = now();
 8         HadoopThriftHandler.LOG.debug("read: " + tout.id +
 9                                      " offset: " + offset +
10                                      " length: " + length);
11         FSDataInputStream in = (FSDataInputStream)lookup(tout.id);
12         if (in.getPos() != offset) {
13           in.seek(offset);
14         }
15         byte[] tmp = new byte[length];
16         int numbytes = in.read(offset, tmp, 0, length);
17         HadoopThriftHandler.LOG.debug("read done: " + tout.id);
18         return new String(tmp, 0, numbytes, "UTF-8");
19       } catch (IOException e) {
20         throw new ThriftIOException(e.getMessage());
21       }
22     }

 八、遗留问题

  ThriftHandle可以看做是Socket连接句柄,但是他的两端到底是谁呢?如果是ThriftClient代表的客户端则一切OK,那么我该如何证明呢?存疑待考!

 


作者:张子良
出处:http://www.cnblogs.com/hadoopdev
本文版权归作者所有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。

相关文章
|
15天前
|
存储 分布式计算 Hadoop
【Hadoop】HDFS 读写流程
【4月更文挑战第9天】【Hadoop】HDFS 读写流程
|
8月前
|
存储 分布式计算 安全
分布式文件系统(HDFS产生背景及定义 HDFS优缺点 HDFS体系架构 HDFS文件块大小)
分布式文件系统(HDFS产生背景及定义 HDFS优缺点 HDFS体系架构 HDFS文件块大小)
158 0
|
5月前
|
存储 机器学习/深度学习 分布式计算
HDFS教程(03)- HDFS高可用与容错
HDFS教程(03)- HDFS高可用与容错
157 0
|
存储 分布式计算 安全
HDFS分布式文件系统架构原理详解
HDFS(Hadoop Distributed File System)是Hadoop核心组成之一,是分布式计算中数据存储管理的基础,被设计成适合运行在通用硬件上的分布式文件系统。HDFS架构中有两类节点,一类是NameNode,又叫“元数据节点”,另一类是DataNode,又叫“数据节点”,分别执行Master和Worker的具体任务。HDFS是一个(Master/Slave)体系结构,“一次写入,多次读取”。HDFS的设计思想:分而治之—将大文件、大批量文件分布式存放在大量独立的机器上。
HDFS分布式文件系统架构原理详解
|
存储 机器学习/深度学习 分布式计算
Hadoop(HDFS)概述、HDFS产生背景、HDFS定义、HDFS优缺点、HDFS组成架构、HDFS文件块大小(面试重点)
Hadoop(HDFS)概述、HDFS产生背景、HDFS定义、HDFS优缺点、HDFS组成架构、HDFS文件块大小(面试重点)
Hadoop(HDFS)概述、HDFS产生背景、HDFS定义、HDFS优缺点、HDFS组成架构、HDFS文件块大小(面试重点)
|
存储 数据采集 分布式计算
HDFS原理
HDFS原理
178 0
HDFS原理
|
存储 文件存储
HDFS读写流程简介
HDFS 是一个能够面向大规模数据使用的,可进行扩展的文件存储与传递系统。是一种允许文件通过网络在多台主机上分享的文件系统,可让多机器上的多用户分享文件和 存储空间。让实际上是通过网络来访问文件的动作,由程序与用户看来,就像是访问本地的磁盘一般。即使系统中有某些节点脱机,整体来说系统仍然可以持续运作 而不会有数据损失。
180 0
HDFS读写流程简介
|
存储 分布式计算 Hadoop
Hadoop : hdfs的核心工作原理
Hadoop : hdfs的核心工作原理
200 0
Hadoop : hdfs的核心工作原理
|
存储 分布式计算 Hadoop
Hadoop基础-06-HDFS数据读写
Hadoop基础-06-HDFS数据读写 11
113 0
Hadoop基础-06-HDFS数据读写
|
存储
Hadoop-HDFS读写流程
Hadoop-HDFS读写流程
172 0
Hadoop-HDFS读写流程

相关实验场景

更多