技术心得记录:分布式文件系统KFS基础知识介绍

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介: 技术心得记录:分布式文件系统KFS基础知识介绍

Kosmos distributed file system,简称KFS,是一个类GFS的分布式文件系统,被设计用于分布式的结构化存储。下面将对KFS的体系结构进行简单介绍,最后给出一个使用KFS C++ API的示例。


1. //代码效果参考:http://hnjlyzjd.com/xl/wz_25044.html

KFS体系结构

KFS和GFS的整体结构类似,图中所示为GFS的体系结构图(来自于Sanjay Ghemawat, Howard Gobioff, and Shun-Tak Leung的论文“The Google File System”):


KFS系统由三部分组成,分别是metaserver(相当于GFS master)、chunkserver(相当于GFS chunkserver)和client library(相当于GFS client):


metaserver:元数据服务器,使用B+树存储分布式文件系统的全局文件系统命名空间,一个KFS中仅有一个metaserver;


chunkserver: 一个大文件被切分成许多固定大小的文件块block,文件块block被以chunk的方式存储在独立的chunkserver上,每个 chunkserver上可能存不同文件的block,一个block会被存在不同的chunkserver上(默认为3份);在一个KFS中,有一系列 的chunkserver,chunkserver将chunk存储在底层的文件系统(如Linux的XFS、EXT2);


client library:提供文件系统访问的API,使应用可以通过接口操纵KFS;在将实际的应用和KFS集成起来时,需要在应用中包含KFS的客户端库文件。


下面以KFS client端对某一文件的访问为例,说明KFS的工作流程。假设//代码效果参考:http://hnjlyzjd.com/hw/wz_25042.html

该文件名为/kfs/testdata,分为以下几步完成:

client端以该路径名/kfs/testdata为参数,向metaserver发出请求;


metaserver将该文件对应的文件属性信息返回到client端;


client端将文件名和对应的文件偏移(file name, chunk index)为关键字发送给metaserver;


metaserver对所管理的各chunkserver进行分析,将拥有该偏移块的(chunk handle, chunk locations)返回给client端;


client端以(chunk handle, byte range)为关键字,向相应的chunkserver发送数据读写请求;


chunkserver返回对应数据区段的chunk data给client端;


client端得到chunk data。


2. KFS API调用


KFS 支持的客户端包括有C++、Java和Python,以C++为例,KFS客户端API调用的一般过程如下:首先,调用 getKfsClientFactory()->SetDefaultClient(serverHost, port)方法,获取一个KfsClient类型的指针;然后,通过这个KfsClient类型的指针,调用所需的文件系统的函数(如创建目录、删除目 录、创建文件、删除文件、获取文件信息等)。


下面给出一个示例,通过调用KFS的C++ API,得到文件的stat信息(该代码不能直接运行):


1 usingnamespace KFS;


2 usingnamespace KFS::tools;


3 KfsFileStat statInfo;


4 KfsClientPtr kfsClient = getKfsClientFactory()->SetDefaultClient(serverHost, port);


5 if (!kfsClient) {


6 cout ["failed to initialize kfs client!"[ endl;


7 exit(0);


8 }


9 if (verboseLogging) {


10 KFS::MsgLogger::SetLevel(log4cpp::Priority::DEBUG);


11 } else {


12 KFS::MsgLogger::SetLevel(log4cpp::Priority::WARN);


13 }


14 if (kfsClient->Stat(kfsPath, statInfo) <0) {


15 cout ["KFS path: "[ kfsPath [" is non-existent!"[ endl;


16 exit(-1);


17 }


有关其他文件系统访问接口的调用方法与上述示例类似,具体可参考kfs目录下examples子目录中的C++ example代码以及Java example代码。


分布式文件系统KFS源码编译与安装过程


Kosmos distributed file system (KFS)是一个专门为数据密集型应用(搜索引擎,数据挖掘等)而设计的存储系统,类似于Google的GFS和Hadoop的HDFS分布式文件系统。 KFS使用C++实现,支持的客户端包括C++,Java和Python。


以前曾在开源KFS基础上做过开发,这里介绍一下如何进行KFS的源码编译与安装过程(以kfs-0.5为例)。


1.安装依赖软件


为了编译和运行KFS文件系统,需要安装以下软件包:


Boost (1.34或以上)


cmake (2.4.6或以上)


log4cpp (1.0或以上)


gcc version (4.1或以上)


xfs devel RPMs on Linux


下面介绍的是手动安装以上软件包的过程,这里假设你已经下载完成软件包压缩文件。


1、安装gcc


1 tar zxvf gcc-4.1.2.tar.gz


2 mkdir/usr/local/gcc-4.1.2


3 cd gcc-4.1.2


4 ./configure --prefix=/usr/local/gcc-4.1.2 --enable-threads=posix --disable-checking --enable--long-long --host=i386-redhat-linux--with-system-zlib --enable-languages=c,c++,java


5 make


6 make install


备注:以上过程将gcc安装在/usr/local/gcc-4.1.2目录下,支持C/C++和JAVA语言,其它选项参见gcc提供的帮助说明。


2、安装log4cpp


1 tar xvzf log4cpp-1.0.tar.gz


2 cd log4cpp-1.0


3 ./configure


4 make


5 make install


3、安装xfs


1 tar xvzf xfsprogs-3.0.1.tar.gz


2 cd xfsprogs-3.0.1


3 ./configure


4 make


5 make install


6 make install-dev


4、安装cmake


1 tar xvzf cmake-2.6.4.tar.gz


2 cd cmake-2.6.4


3 ./bootstrap


4 make


5 make install


5、安装boost


1 tar xvzf boost_1_39_0.tar.gz


2 cd boost_1_39_0


3 ./bootstrap.sh


4 ./bjam -sTOOLS=gcc --without-python install


2.编译和安装KFS


首先,到sourceforge下载kfs-0.5.tar.gz(点击下载),这里假设下载后目录为用户根目录。


然后,解压KFS软件包,这里假设解压后KFS所在目录:~/kfs-0.5,编译源码所在目录:~/kfs-0.5/build。


为了完整编译KFS,需要有以下三部分:


编译C++部分,生成MetaServer/ChunkServer,各种API操作的tools,C++客户端;


编译Java部分,生成kfs.jar,即Java客户端,以通过Java JNI调用本地的C++方法;


编译Python扩展模块,生成Python客户端。


2.1 编译C++部分


1 tar xvzf kfs-0.5.tar.gz


2 cd kfs-0.5


3 mkdir build


4 cd build


5 cmake -D CMAKE_BUILD_TYPE=RelWithDebInfo ~/kfs-0.5


6 gmake


7 gmake install


编译之后,二进制文件将被安装在以下目录:


可执行文件:~/kfs-0.5/build/bin


库文件:~/kfs-0.5/build/lib


备注:编译KFS过程中,带上了debug调试信息。


2.2 编译Java部分


1 cd ~/kfs-0.5


2 ant jar


编译之后,生成的文件为:


Java class文件:~/kfs-0.5/build/classes


Java Jar包:~/kfs-0.5/build/kfs-0.5.jar


最后,将生成的Jar包添加到CLASSPATH环境变量中:


1 export CLASSPATH=${CLASSPATH}:~/kfs-0.5/build/kfs-0.5.jar


2.3 编译Python扩展模块


为了编译Python扩展模块,首先需要进行步骤2.1,生成KFS客户端库文件,这里库文件所在目录是:~/kfs-0.5/。


编译Python扩展模块的步骤:


1 cd to ~/kfs-0.5/src/cc/access


2 Edit kfs_setup.py and setup the include path. Specifically, kfsext = Extension('kfs', include_dirs 【'kfs/src/cc/', '


'】)


3 python kfs_setup.py ~/kfs-0.5/build/lib/ build


编译之后,生成共享链接库kfs.so,进行安装:


1 python kfs_setup.py ~/kfs-0.5/build/lib/ install


如果要安装到一个指定的目录下(如~/kfs-0.5/build/lib),需要设置home选项:


1 python kfs_setup.py ~/kfs-0.5/build/lib install --home=~/kfs-0.5/build/lib


同时,需要更新PYTHONPATH和LD_LIBRARY_PATH环境变量:


1 export PYTHONPATH=${PYTHONPATH}:~/kfs-0.5/build/lib/lib64/python


2 export LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:~/kfs-0.5/build/lib


3.启动KFS服务进程


1、 MetaServer


1 cd ~/kfs-0.5/build/src/cc/meta


2 cp ~/kfs-0.5/conf/MetaServer.prp ./


3 ./metaserver MetaServer.prp


备注:这里需要提前创建MetaServer.prp中指定的和logDir和cpDir目录:./kfslog和./kfscp。


2、ChunkServer


1 cd~/kfs-0.5/build/src/cc/chunk


2 cp ~/kfs-0.5/conf/ChunkServer.prp ./


3 ./chunkserver ChunkServer.prp


3、KfsClient


1 cd ~/kfs-0.5/build/src/cc/tools


2 ./kfsshell –s -p


3 ./cptokfs –s -p


-d -k


4 ./cpfromkfs –s -p


-d -k


备注:~/kfs-0.5/build/src/cc/tools目录下有各种API操作工具,如kfsshell、cptokfs、cpfromkfs等,这里没有一一列举。


4.查看和关闭KFS服务进程


1、查看进程


1 ps –aux | grep metaserver


2 ps –aux | grep chunkserver


3 ps –aux | grep kfsshell


2、关闭进程


1 kill -9


5.参考资料


分布式文件系统KFS源码阅读与分析(一):MetaServer元数据组织结构


KFS文件系统的MetaServer元数据管理采用的是B+树方式,下面将结合其源码,对KFS MetaServer中元数据的组织形式及有关实现细节进行分析。


1. 相关源码文件


KFS MetaServer元数据管理的代码所在目录为kfs-【version】/src/cc/meta,其中,相关的源码文件有:


(1)meta/base.h:KFS元数据metadata中各节点的基础类,包括的类:类Key、类MetaNode,它们分别代表B+树种存储的数据、所有B+树节点的公共基础信息。


(2)meta/meta.h和meta/meta.cc:封装了metadata的基本数据定义,包括:类Meta、类MetaDentry、类MetaFattr和类MetaChunkInfo,它们分别代表文件系统中的目录项、文件或目录的属性项、对于一个文件偏移(file offset)的Chunk信息。


(3)meta/kfstree.h和meta/kfstree.cc:封装了对B+树中内部节点Node的各种操作及Tree的基本操作(与文件系统无关,B+树底层的实现),如插入节点、删除节点等。


(4)meta/kfsops.cc:封装了使用B+树存储KFS文件系统,实现的相关基本操作,如创建文件、删除文件、创建目录、删除目录等(作为Tree的实现)。


(5)meta/request.h和meta/request.cc:封装了对ChunkServer或KfsClient发出的meta data请求的处理,通过Tree metatree执行相应的操作,实现对KFS文件系统各种基本操作的调用。


2. 为什么选用B+树


KFS的文件系统采用的是B+树,那么为什么选用B+树而不是B-树呢?这里做一个简单的分析:


2.1 B-树


B-树的定义:


B-树是一种平衡多路查找树,一棵m阶的B-树,或者是一颗空树,或者是满足下列特征的m叉树:


(1)树中每个节点至多有m棵字数;


(2)若根节点不是叶子结点,则至少有2棵子树;


(3)除根之外的所有非终端结点,则至少有【m/2】棵子树;


(4)所有的非终端结点中包含下列信息数据:(n, p0, k1, p1, k2, p2, ..., kn, pn),


其中:ki为关键字,且ki

(5)所有叶子结点均在同一层。


B-树的检索:


从根结点开始,对结点内的有序关键字序列进行二分查找,如果命中,则直接结束查找过程;否则,进入查询关键字所属范围的儿子结点进行查找。重复以上过程,直到所对应的儿子指针为空,或已经是叶子结点。


B-树的特性:


(1)关键字集合分布在整颗树中;


(2)任何一个关键字出现且只出现在一个结点中;


(3)搜索有可能在非叶子结点结束;


(4)其搜索性能等价于在关键字全集内做一次二分查找;


(5)自动层次控制。


2.2 B+树


B+树的定义:


B+树也是一种平衡多路查找树,它是应文件系统所需而出的一种B-树的变型树。一颗B+树满足以下条件:


(1)每个非终端结点至多有m颗子树;


(2)除根结点外,其他每个非终端结点至少有【(m+1)/2】颗子树;


(3)根结点至少有2颗子树;


(4)有n棵子树的结点中含有n个关键字;


(5)所有的叶子结点中包含了全部关键字的信息,及指向含这些关键字记录的指针,且叶子结点本身依关键字的大小自小而大顺序链接;


(6)所有的非终端结点可以看成是索引部分,仅包含其各个子结点中的最大关键字及指向子结点的指针。


通常来说,B+树上有两个头指针,一个指向根结点,一个指向关键字最小的叶子结点。


B+树的检索:


B+树的检索方式分为两种:


(1)一种是从指向关键字最小的叶子结点的头指针开始,进行顺序查找;


(2)一种是从指向根结点的头指针开始,进行随机查找:与B-树基本相同,等价于在关键字全集做一次二分查找,区别是B+树只有达到叶子结点才命中(B-树可以在非叶子结点命中)。


B+树的特性:


(1)所有关键字都出现在叶子结点的链表中(稠密索引),且链表中的关键字恰好是有序的;


(2)检索时只有在叶子结点命中,不可能在非叶子结点命中;


(3)非叶子结点相当于是叶子结点的索引(稀疏索引),叶子结点相当于是存储(关键字)数据的数据层;


(4)更适合文件索引系统。


2.3 B+树与B-树的比较


通过对B-树和B+树的定义及特性的了解,对两者进行比较:


(1)占用空间大小方面:


B-树的非叶子节点中含有大量的关键字信息,占用的空间相对比较大;


B+树中只有叶子节点中才有关键字信息,非叶子节点并没有指向关键字具体信息的指针,占用的空间相对比较小。


(2)检索路径长短方面:


由于B+树的所有关键字都分布在叶子节点上,其他非叶子节点都是索引部分,因此树阶数(即树高)要比B-大,检索时要经过的路径就多,运算时间相对长一些;


由于B-树的关键字分布到各个节点上,相对于B+树中完全分布到叶子节点上来说,分散分布的阶数自然要小,因此B-树的树阶数要比B+小,查找要经过的路径相对比较少,运算时间相对短一些。


对于文件系统的设计来说,最关键的瓶颈在于磁盘IO操作,如果占用的磁盘空间少的话,IO操作耗时自然就少。而真正检索内存中的数据结构(如B+树、B-树)的过程中,运算时间相对于磁盘IO操作来说要小的多,即内存的检索时间不是主要的瓶颈之处。


因此,虽然对于同阶的B-树和B+树,B+树的树高和平均检索长度均大于B-树 ,但实际上,检索过程中,最耗时的操作是磁盘IO操作,而B-树占用的空间相对较大,IO操作时劣势明显。由于B+树的非叶子结点无记录信息,只有索引,同样大小磁盘空间就可以存放更多的索引信息,检索访盘次数反而少,速度也就比B-树快。


2.4 选择B+树


B+树比B-树更适合实际应用中操作系统的文件索引和数据库索引,原因在于:


(1)磁盘读写代价低:即使B-树的运算时间相对于B+树来说较短,但由于磁盘IO操作方面的劣势,导致其总体上效率不如B+树。


(2)查询效率更稳定:B+树中任何关键字的查找都必须经历从根结点到叶子结点,因此所有关键字查询的路径长度相同,每一个数据的查询效率相当。


3. 元数据组织结构


在KFS文件系统MetaServer元数据的实现中,有图示几种类型的B+树节点:


(1)MetaNode: 所有叶节点和内部节点的公共基础类,其中记录了不同树节点的类型信息。


(2)Node:表示内部节点,其中记录了树种内部节点的各种操作。


(3)Meta: 表示叶节点,而具体来说,不同的叶节点有:


MetaDentry: 文件目录项(Directory entry),实现从文件名到文件id的映射。


MetaFattr: 文件或目录属性,相当于KFS中的一个inode节点。


MetaChunkInfo: 对于一个文件偏移(file offset)的Chunk信息。


3.1 MetaNode


成员变量:


MetaType type; //节点类型值


int flagbits; //标志位


构造函数:


MetaNode(MetaType t) //初始化type=t, flagbits=0


MetaNode(MetaType t, int f) //初始化type=t, flagbits=f


3.2 Node


成员变量:


int count; //孩子节点个数


Key childKey【NKEY】; //孩子的key


MetaNode childNode【NKEY】; //孩子节点


Node next; //下一个相邻节点


构造函数:


Node(int f) //初始化MetaNode中的节点类型type=KFS_INTERNAL,flagbits=f


3.3 Meta


成员变量:


fid_t fid; //文件fid


构造函数:


Meta(MetaType t, fid_t id) //初始化MetaNode中的节点类型信息type=t,及自身的fid=id


3.4 MetaDentry


成员变量:


fid_t dir; //父目录的fid


string name; //目录项的名称


fid_t fid; //目录项的文件id


构造函数:


MetaDentry(fid_t parent, string fname, fid_t myID)


举例说明:通过Dentry结构实现/root/1.txt的查找过程:


(1) 获取”/”的fid=2


dir=2, name=“/”, fid=2


(2) 获取”root”的fid=8


dir=2, name=“root”, fid=8


dir=2, name=“usr”, fid=6


(3) 获取”1.txt”的fid=12


dir=8, name=”1.txt”, fid=12


dir=8, name=”2.txt”, fid=13


dir=8, name=”3.txt”, fid=14


由以上查找过程可知,/root/1.txt的fid为12。


3.5 MetaFattr


成员变量:


FileType type; //类型(文件或目录)


int16_t numReplicas; //一个文件要求的备份数


struct timeval mtime; //修改时间


struct timeval ctime; //属性变更时间


struct timeval crtime; //创建时间


longlong chunkcount; //chunk数目


off_t filesize; //文件大小


构造函数:


MetaFattr(FileType t, fid_t id, int16_t n)


MetaFattr(FileType t, fid_t id, struct timeval mt, struct timeval ct, struct timeval crt, longlong c, int16_t n)


3.6 MetaChunkInfo


成员变量:


chunkOff_t offset; //chunk在文件中的偏移


chunkId_t chunkId; //chunk的标识符id


seq_t chunkVersion; //chunk的版本号


分布式文件系统KFS源码阅读与分析(二):MetaServer元数据持久化


KFS文件系统的MetaServer元数据的持久化采用的是checkpoint + log方式,下面将结合其源码,对KFS MetaServer中元数据的持久化机制及其实现细节进行分析。


1. 相关源码文件


KFS MetaServer元数据持久化所涉及的代码所在目录为kfs-【version】/src/cc/meta,其中,KFS元数据持久化的相关源码如下:


(1)meta/statup.cc: 负责KFS的启动,在启动过程中处理checkpoint和log。


(2)meta/checkpoint.cc: 负责metadata的checkpointing操作。


(3)meta/restore.cc: 从已保存的checkpoint重新构建metatree(以B+树的方式组织)。


(4)meta/logger.cc: 为metadata的更新做日志记录操作。


(5)meta/replay.cc: 在checkpoint恢复之后,重做log日志文件中的所有操作。


(6)meta/kfstree.h: 构建一个新的metatree,即初始化根目录为”/”。


2. checkpoint和log机制


Log(日志)通常是系统或者软件对已完成的某种处理操作的记录,以便将来用作系统恢复,一般来说是文本格式。Checkpoint(检查点)机制是将内存中被修改的数据块与磁盘上的数据文件进行同步的一种数据持久化方式。


在KFS的元数据持久化中,之所有采用checkpoint + log的方式,本人觉得主要出于以下考虑:


(1)通过记录必要的Checkpoint(检查点),保证将文件系统元数据按照序列化的要求,永久持久化存储到磁盘上,从而保证内存和硬盘上的数据的同步与一致;当下次系统恢复时,直接按照反序列化的要求进行还原,快速重新构建KFS的元数据metatree树。


(2)通过checkpoint(检查点)和log(日志)相结合,缩短KFS系统的启动恢复时间。在系统恢复时,首先将系统恢复到最近一次的checkpoint状态(即重新构建B+树),然后,只需将最近一次checkpoint之后的log中的操作进行redo即可,而不是所有log中的所有操作进行redo,从而有效缩短系统恢复时间。


3. 元数据的持久化


在KFS中,log操作是由logger.cc自动完成的,默认为每隔10分钟做一次log(写切换);checkpoint操作是由checkpoint.cc实现,但是是通过logcompactor_main.cc的离线操作手动完成的,其main函数的工作过程如下:


加载log和checkpoint文件的目录;


恢复最近一次的checkpoint文件;


重做最近一次checkpoint之后的所有logs;


将metatree中所有叶节点写入新的checkpoint文件中。


4. 元数据加载过程


KFS文件系统停止时,MetaServer的元数据被持久化存储到物理磁盘上(checkpoint文件和log文件);当KFS下次启动时,这些持久化后的数据会被KFS MetaServer启动程序所加载,相关方法的调用关系如图中所示:


其中,


(1)KFS启动后,将日志目录logdir和checkpoint目录cpdir等信息,传给KFS::kfs_startup()函数,该函数中首先会调用KFS::logger_setup_paths()设置KFS的日志目录;


(2)然后,KFS::kfs_startup()函数会继续调用KFS::checkpointer_setup_paths()设置KFS的checkpoint目录;


(3)接下来,KFS::kfs_startup()函数会继续调用KFS::setup_initial_tree()函数,初始化MetaServer的B+树metatree,分为以下两种情况:


(4.1)如果存在最近的checkpoint文件,则调用Restorer::rebuild()函数,根据加载checkpoint文件,初始化后构建metatree树;


(4.2)否则,则调用KFS::metatree.new_tree()函数,初始化一个新的metatree树,只包含根目录”/”,并设置与其相关联的"."和".."链接项;


(5)完成之后,回到KFS::kfs_startup()函数中,调用Replay::playAllLogs()函数,重做最近一次checkpointing之后的所有日志中的操作;


(6)在KFS::kfs_startup()函数中,调用KFS::logger_init()函数,启动记录日志,设置日志轮转的间隔时间;


(7)在KFS::kfs_startup()函数中,调用KFS::checkpointer_init()函数,初始化checkpoint。


至此,完成了KFS文件系统中持久化后的元数据的恢复过程。


分布式文件系统KFS的MetaServer和Client采用服务器/客户端模型,MetaServer和Client之间的通讯是通过RPC机制来实现的。这里介绍下KFS中MetaServer端的RPC实现机制。


1. RPC相关类


下图所示为MetaServer端的RPC相关实现类:


1、NetDispatch


(1)启动MetaServer端的epoll主循环;


(2)通过调用gNetDispatch.Start(gClientPort, gChunkServerPort),在指定的端口监听来自Client和ChunkServer的RPC请求:


启动ClientManager的接收者acceptor;


启动ChunkServerFactory的接收者acceptor。


2、NetManager


(1)通过epoll机制,维护一组NetConnection对象;当NetConnection状态发生变化时,调用其中的KfsCallbackObj的回调函数;


(2)同时实现了一个定时器机制。


3、NetConnection


(1)将KfsCallbackObj和TcpSocket关联起来,代表来自客户端的一个连接;


(2)当TCP连接的状态发生变化时,KfsCallbackObj的回调函数将会被调用执行。


4、Acceptor


(1)从Client/ChunkServer接收新的连接,然后创建一个新的NetConnection与这个新连接关联起来。NetConnection中含有相关的ClientSM/ChunkServer KfsCallbackObj,而ClientSM/ChunkServer KfsCallbackObj通过IAcceptorOwner的CreateKfsCallbackObj()方法被创建;


(2)继承于KfsCallbackObj,回调函数是Acceptor::RecvConnection:


一个Acceptor含有一个相关的NetConnection;


一个Acceptor含有一个成员变量mAcceptorOwner指向ClientManager或ChunkServerFactory。


5、IAcceptorOwner


(1)维护一个Acceptor,并提供CreateKfsCallbackObj()接口创建KfsCallbackObj。


6、ClientManager


(1)继承于IAcceptorOwner;


(2)含有一个Acceptor,用于接收新的连接;


(3)含有CreateKfsCallbackObj()方法,用于返回一个ClientSM KfsCallbackObj与Client的连接请求关联起来。


7、ChunkServerFactory


(1)继承于IAcceptorOwner;


(2)含有一个Acceptor,用于接收新的连接;


(3)含有CreateKfsCallbackObj()方法,用于返回一个ChunkServer KfsCallbackObj与ChunkServer的连接请求关联起来。


8、ClientSM


(1)继承于KfsCallbackObj,回调函数是HandleRequest();


(2)用于与一个Client连接建立关系,处理Client发起的请求。


9、ChunkServer


(1)继承于KfsCallbackObj,回调函数是HandleHello();


(2)用于与一个ChunkServer连接建立关系,处理ChunkServer发起的hello消息。


10、KfsCallbackObj


(1)调用SetHandler()设置回调函数,当外部事件发生时,调用HandleEvent()进行回调处理。


2. 请求处理过程


下图所示为MetaServer端的RPC请求处理过程的时序图:


KFS启动时,将RPC的各种请求操作映射到不同的处理函数上:kfs_startup (startup.cc) > initialize_request_handlers (request.cc) > setup_handlers (request.cc)。


更进一步来分析一下,以KfsClient与MetaServer之间的RPC为例,KfsClient与MetaServer建立RPC连接后,ClientSM作为KfsClient与MetaServer之间RPC请求的代理,ClientSM负责接收并转发来自KfsClient的各种不同Request信息,处理后负责向KfsClient写Response信息,RPC请求的处理过程如下图所示(以MetaLookup为例,图中详细展示了相关的类及方法的调用关系):


分布式文件系统KFS源码阅读与分析(四):RPC实现机制(KfsClient端)


上一篇博客介绍了KFS中RPC实现机制MetaServer端的实现,下面接着介绍一下KfsClient端的实现框架。


KfsClient是为应用程序暴露的接口类,它是在应用程序代码和KFS Servers(MetaServer和Chunkserver)之间起着桥梁的作用,对于一个MetaServer,只能有一个KfsClient。KfsClientFactory单态工厂类负责为不同的MetaServer创建KfsClient。


KfsClientImpl是KfsClient的实现类,负责实际地与MetaServer的RPC请求的交互,如目录操作(cd、mkdir、rmdir、readdir等),文件操作(create、remove、rename等)。


FileTableEntry缓存已打开的文件/目录的句柄,包括当前的文件偏移(FilePosition对象),文件属性信息、chunk属性的集合(ChunkAttr对象)、chunk的缓存(ChunkBuffer对象),打开模式等。


FilePosition记录文件指针的位置,包括两个方面:文件的offset偏移被转换为一个chunk号及在chunk内的偏移量。为了提高性能,客户端对读写进行了缓存,存储的是当前chunk中的数据,这是通过PendingChunkRead来实现的,而缓存的是对应的FileTableEntry中的ChunkBuffer。


ChunkAttr包含chunk server的位置,chunk id,大小,版本号等基本属性信息。


ChunkBuffer是为了加速小的读写操作而设置的buffer,从当前chunk缓存一块数据。


PendingChunkRead用于chunk的预读操作:向chunk server发起读请求;从chunk server接收数据;通过重置与chunk server的连接,取消读请求。


下图概括地展示了这些类之间的关系:


(1)KfsClient中包含了一个代理类KfsClientImpl;


(2)KfsClientImpl中维护了一个FileTableEntry的集合,记录所有已打开的文件/目录的句柄;


(3)FileTableEntry中通过ChunkAttr缓存chunk属性信息(如chunk位置),通过FilePosition缓存当前chunk信息,通过ChunkBuffer对当前chunk进行buffer操作;


(4)ChunkAttr记录chunk server位置和chunk id等属性信息;


(5)FilePosition通过PendingChunkRead进行预读操作。

相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
相关文章
|
13天前
|
存储 缓存 负载均衡
从零到一:分布式缓存技术初探
分布式缓存通过将数据存储在多个节点上,利用负载均衡算法提高访问速度、降低数据库负载并增强系统可用性。常见产品有Redis、Memcached等。其优势包括性能扩展、高可用性、负载均衡和容错性,适用于页面缓存、应用对象缓存、状态缓存、并行处理、事件处理及极限事务处理等多种场景。
36 1
|
17天前
|
分布式计算 大数据 数据处理
技术评测:MaxCompute MaxFrame——阿里云自研分布式计算框架的Python编程接口
随着大数据和人工智能技术的发展,数据处理的需求日益增长。阿里云推出的MaxCompute MaxFrame(简称“MaxFrame”)是一个专为Python开发者设计的分布式计算框架,它不仅支持Python编程接口,还能直接利用MaxCompute的云原生大数据计算资源和服务。本文将通过一系列最佳实践测评,探讨MaxFrame在分布式Pandas处理以及大语言模型数据处理场景中的表现,并分析其在实际工作中的应用潜力。
53 2
|
2月前
|
监控 算法 网络协议
|
2月前
|
供应链 算法 安全
深度解析区块链技术的分布式共识机制
深度解析区块链技术的分布式共识机制
62 0
|
3月前
|
人工智能 文字识别 Java
SpringCloud+Python 混合微服务,如何打造AI分布式业务应用的技术底层?
尼恩,一位拥有20年架构经验的老架构师,通过其深厚的架构功力,成功指导了一位9年经验的网易工程师转型为大模型架构师,薪资逆涨50%,年薪近80W。尼恩的指导不仅帮助这位工程师在一年内成为大模型架构师,还让他管理起了10人团队,产品成功应用于多家大中型企业。尼恩因此决定编写《LLM大模型学习圣经》系列,帮助更多人掌握大模型架构,实现职业跃迁。该系列包括《从0到1吃透Transformer技术底座》、《从0到1精通RAG架构》等,旨在系统化、体系化地讲解大模型技术,助力读者实现“offer直提”。此外,尼恩还分享了多个技术圣经,如《NIO圣经》、《Docker圣经》等,帮助读者深入理解核心技术。
SpringCloud+Python 混合微服务,如何打造AI分布式业务应用的技术底层?
因为一个问题、我新学了一门技术 ElasticSearch 分布式搜索
这篇文章讲述了作者因为一个检索问题而学习了ElasticSearch技术,并分享了排查和解决ElasticSearch检索结果与页面展示不符的过程。
因为一个问题、我新学了一门技术 ElasticSearch 分布式搜索
|
4月前
|
人工智能 Kubernetes Cloud Native
深度对话 解锁阿里云分布式云原生技术落地新姿势
深度对话 解锁阿里云分布式云原生技术落地新姿势
深度对话 解锁阿里云分布式云原生技术落地新姿势
|
5月前
|
存储 缓存 负载均衡
【PolarDB-X 技术揭秘】Lizard B+tree:揭秘分布式数据库索引优化的终极奥秘!
【8月更文挑战第25天】PolarDB-X是阿里云的一款分布式数据库产品,其核心组件Lizard B+tree针对分布式环境优化,解决了传统B+tree面临的数据分片与跨节点查询等问题。Lizard B+tree通过一致性哈希实现数据分片,确保分布式一致性;智能分区实现了负载均衡;高效的搜索算法与缓存机制降低了查询延迟;副本机制确保了系统的高可用性。此外,PolarDB-X通过自适应分支因子、缓存优化、异步写入、数据压缩和智能分片等策略进一步提升了Lizard B+tree的性能,使其能够在分布式环境下提供高性能的索引服务。这些优化不仅提高了查询速度,还确保了系统的稳定性和可靠性。
107 5
|
5月前
|
C# UED 定位技术
WPF控件大全:初学者必读,掌握控件使用技巧,让你的应用程序更上一层楼!
【8月更文挑战第31天】在WPF应用程序开发中,控件是实现用户界面交互的关键元素。WPF提供了丰富的控件库,包括基础控件(如`Button`、`TextBox`)、布局控件(如`StackPanel`、`Grid`)、数据绑定控件(如`ListBox`、`DataGrid`)等。本文将介绍这些控件的基本分类及使用技巧,并通过示例代码展示如何在项目中应用。合理选择控件并利用布局控件和数据绑定功能,可以提升用户体验和程序性能。
103 0
|
5月前
|
存储 负载均衡 中间件
构建可扩展的分布式数据库:技术策略与实践
【8月更文挑战第3天】构建可扩展的分布式数据库是一个复杂而具有挑战性的任务。通过采用数据分片、复制与一致性模型、分布式事务管理和负载均衡与自动扩展等关键技术策略,并合理设计节点、架构模式和网络拓扑等关键组件,可以构建出高可用性、高性能和可扩展的分布式数据库系统。然而,在实际应用中还需要注意解决数据一致性、故障恢复与容错性以及分布式事务的复杂性等挑战。随着技术的不断发展和创新,相信分布式数据库系统将在未来发挥更加重要的作用。