分布式文件系统FastDFS看这一篇就够了(文件上传下载、单机部署及集群部署)(一)

简介: 分布式文件系统FastDFS看这一篇就够了(文件上传下载、单机部署及集群部署)

一、FastDFS是什么?


1.1.简介


FastDFS是基于互联网应用的开源分布式文件系统,主要用于大中型网站存储资源文件,如图片、文档、音频、视频等。FastDFS采用类似GFS的架构,用纯C语言实现,支持Linux、FreeBSD、AIX等UNIX 系统。用户端只能通过专有API对文件进行存取访问,不支持POSIX接口方式。准确地讲,GFS以及 FastDFS、mogileFS、HDFS、TFS等类GFS系统都不是系统级的分布式文件系统,而是应用级的分布式文件存储服务


FastDFS简介


1.2.结构组成(Client、Tracker server和Storage server)

99abe3824cba4af7bebbf194f41739e3.png


Tracker server


Tracker server类似于GFS中的Master或TFS中的Name server,但与他们很不同的一点是,Tracker server的主要作用是负载均衡和调度,而不负责文件索引和映射。Tracker server在内存中记录分组和Storage server的状态等信息,不记录文件索引信息,其占用的内存量也很少。Tracker server可以只有一个,也可以有多个组成Tracker cluster,这样的好处是可以提高对用户的响应能力和增加容灾性,此时各Tracker server相互对等,冗余备份,由应用端来轮流选择进行访问。


Storage server


Storage server完成文件管理的所有功能:存储、同步和提供存取接口,文件和metadata都存储在其上。Storage server类似于GFS中的Chunk server或TFS中的Data server,通常一个Storage server即一台机器,Storage server可以动态新增和删除。FastDFS的存储部分即Storage cluster,分为多个Volume,每个Volume中包括多个Storage server。同一Volume内的各Storage server之间是对等的,存储的内容相同,起冗余容错的作用。文件上传、下载、删除等操作可在Volume内任意一台 Storage server上进行。一个Volume的存储容量取决于该Volume内最小的Storage server的容量,因此Volume内各Storage server的软硬件配置最好是一致的。采用这种分Volume的存储方式的好处是灵活、可控性较强。比如上传文件时,可以由客户端直接指定上传到哪个Volume。当某个Volume的访问压力较大时,可以在该Volume内增加Storage server来扩充服务能力(纵向扩容)。当系统总容量不足时,可以增加Volume来扩充存储容量(横向扩容)。


Storage server直接利用OS的文件系统存储文件。FastDFS不会对文件进行分块存储,客户端上传的文件和Storage server上的文件一一对应。


关于Storage server的同步,不同Volume的Storage server之间不会相互通信,同Volume内的Storage server之间会相互连接进行文件同步。文件同步采用push方式,接受更新操作的文件称为源文件,其所在server称为源服务器,其它文件称为备份文件,其它server称为目标服务器。当文件更新操作发生时,源服务器向目标服务器发起同步,对所有备份文件进行更新。当有新Storage server加入本Volume时,由已有的一台 Storage server将其上的所有文件同步给该新增服务器。具体的同步实现在Storage server中由专门线程根据binlog进行,binlog记录了文件上传、删除等更新操作。为了最大程度地避免相互影响以及出于系统简洁性考虑,Storage server对同Volume内除自己以外的每台服务器都会启动一个线程来负责文件同步。


这种异步的同步方式带来了一致性问题,当源文件尚未来得及将所有备份文件同步更新时,访问这些备份文件将引发错误。文件的访问主要分为更新和下载两种情况:FastDFS规定更新操作只能对源文件进行,从而避免了同时对不同的备份文件进行更新导致的冲突;文件下载时,Tracker server记录了各Storage server中各文件的同步情况,会向Client提供同步后的文件所在的Storage server。


1.3.FastDFS下载安装教程


分布式文件系统FastDFS安装教程


1.4.目录结构


tracker server目录及文件结构:


${base_path}


|__data


| |__storage_groups.dat:存储分组信息


| |__storage_servers.dat:存储服务器列表


|__logs


|__trackerd.log:tracker server日志文件


数据文件storage_groups.dat和storage_servers.dat中的记录之间以换行符(\n)分隔,字段之间以西文逗号(,)分隔。


storage_groups.dat中的字段依次为:


(1) group_name:组名


(2) storage_port:storage server端口号


storage_servers.dat中记录storage server相关信息,字段依次为:


(1) group_name:所属组名


(2) ip_addr:ip地址


(3) status:状态


(4) sync_src_ip_addr:向该storage server同步已有数据文件的源服务器


(5) sync_until_timestamp:同步已有数据文件的截至时间(UNIX时间戳)


(6) stat.total_upload_count:上传文件次数


(7) stat.success_upload_count:成功上传文件次数


(8) stat.total_set_meta_count:更改meta data次数


(9) stat.success_set_meta_count:成功更改meta data次数


(10) stat.total_delete_count:删除文件次数


(11) stat.success_delete_count:成功删除文件次数


(12) stat.total_download_count:下载文件次数


(13) stat.success_download_count:成功下载文件次数


(14) stat.total_get_meta_count:获取meta data次数


(15) stat.success_get_meta_count:成功获取meta data次数


(16) stat.last_source_update:最近一次源头更新时间(更新操作来自客户端)


(17) stat.last_sync_update:最近一次同步更新时间(更新操作来自其他storage server的同步)


storage server目录及文件结构:


KaTeX parse error: Expected group after '_' at position 18: …ase_path} |_̲_data | …{ip_addr}_${port}.mark:存放向目标服务器同步的完成情况


| |

| |__一级目录:256个存放数据文件的目录,目录名为十六进制字符,如:00, 1F

| |__二级目录:256个存放数据文件的目录,目录名为十六进制字符,如:0A, CF

|__logs

|__storaged.log:storage server日志文件


.data_init_flag文件格式为ini配置文件方式,各个参数如下:


#storage_join_time:本storage server创建时间;


#sync_old_done:本storage server是否已完成同步的标志(源服务器向本服务器同步已有数据);


#sync_src_server:向本服务器同步已有数据的源服务器IP地址,没有则为空;


#sync_until_timestamp:同步已有数据文件截至时间(UNIX时间戳);


storage_stat.dat文件格式为ini配置文件方式,各个参数如下:


#total_upload_count:上传文件次数


#success_upload_count:成功上传文件次数


#total_set_meta_count:更改meta data次数


#success_set_meta_count:成功更改meta data次数


#total_delete_count:删除文件次数


#success_delete_count:成功删除文件次数


#total_download_count:下载文件次数


#success_download_count:成功下载文件次数


#total_get_meta_count:获取meta data次数


#success_get_meta_count:成功获取meta data次数


#last_source_update:最近一次源头更新时间(更新操作来自客户端)


#last_sync_update:最近一次同步更新时间(更新操作来自其他storage server)


binlog.index中只有一个数据项:当前binlog的文件索引号


binlog.###,###为索引号对应的3位十进制字符,不足三位,前面补0。索引号基于0,最大为999。一个binlog文件最大为1GB。记录之间以换行符(\n)分隔,字段之间以西文空格分隔。字段依次为:


(1)timestamp:更新发生时间(Unix时间戳)


(2)op_type:操作类型,一个字符


(3)filename:操作(更新)的文件名,包括相对路径,如:

5A/3D/FE_93_SJZ7pAAAO_BXYD.S


KaTeX parse error: Expected group after '_' at position 10: {ip_addr}_̲{port}.mark:ip_addr为同步的目标服务器IP地址,port为本组storage server端口。例如:


10.0.0.1_23000.mark。文件格式为ini配置文件方式,各个参数如下:


#binlog_index:已处理(同步)到的binlog索引号


#binlog_offset:已处理(同步)到的binlog文件偏移量(字节数)


#need_sync_old:同步已有数据文件标记,0表示没有数据文件需要同步


#sync_old_done:同步已有数据文件是否完成标记,0表示未完成,1表示已完成

#until_timestamp:同步已有数据截至时间点(UNIX时间戳)


#scan_row_count:已扫描的binlog记录


#sync_row_count:已同步的binlog记录数


数据文件名由系统自动生成,包括三部分:当前时间(Unix时间戳)、文件大小(字节数)和随机数。文件名长度为16字节。文件按照PJW Hash算法hash到65536(256*256,默认配置下)个目录中分散存储。


二、FastDFS文件上传下载


2.1.上传下载流程


d6f2f89f239c44798d86a219100a9cd0.png

1.Client通过Tracker server查找可用的Storage server。


2.Tracker server向Client返回一台可用的Storage server的IP地址和端口号。


3.Client直接通过Tracker server返回的IP地址和端口与其中一台Storage server建立连接并进行文件上传。


4.上传完成,Storage server返回Client一个文件ID,文件上传结束。


a45eefb044064acbb3687a929b0a1318.png

1.Client通过Tracker server查找要下载文件所在的的Storage server。


2.Tracker server向Client返回包含指定文件的某个Storage server的IP地址和端口号。


3.Client直接通过Tracker server返回的IP地址和端口与其中一台Storage server建立连接并指定要下载文件。


4.下载文件成功。


2.2.上传下载实现


2.2.1.配置依赖:因为我们使用的maven来管理工程,所以,我们需要去配pom文件

<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"    
    xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">    
    <modelVersion>4.0.0</modelVersion>     
    <groupId>com.leech</groupId>    
    <artifactId>fastdfs-demo</artifactId>    
    <version>0.0.1-SNAPSHOT</version>    
    <packaging>jar</packaging>     
    <name>fastdfs-demo</name>    
    <url>http://maven.apache.org</url>     
    <properties>      
        <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>    
    </properties>     
    <dependencies>      
        <dependency>        
            <groupId>junit</groupId>        
            <artifactId>junit</artifactId>        
            <version>4.11</version>        
            <scope>test</scope>      
        </dependency>           
        <dependency>        
            <groupId>org.csource</groupId>        
            <artifactId>fastdfs-client-java</artifactId>        
            <version>1.25</version>      
        </dependency>           
        <dependency>          
            <groupId>commons-io</groupId>          
            <artifactId>commons-io</artifactId>          
            <version>2.4</version>      
            </dependency>         
        </dependencies>  
    </project>  


2.2.2.新建fdfs_client.conf文件,在我们的itoo中,我们建立在(src/main/resources底下)


connect_timeout = 2


network_timeout = 30


charset = UTF-8


http.tracker_http_port = 80


#没什么用


http.anti_steal_token = no


http.secret_key = FastDFS1234567890


tracker_server = 192.168.17.112:22122


#tracker_server = 192.168.0.119:22122


2.2.3.实现文件上传

   public void save(HttpServletRequest request,HttpServletResponse response){          
    String videoName=request.getParameter("videoName");  
    String videoType=request.getParameter("videoType");  
    String videoDesc=request.getParameter("videoDesc");  
    String videoPath=request.getParameter("videoPath");  
    String picturePath=request.getParameter("picturePath");  
    SimpleDateFormat formatter = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");  
    Date uploadTime=null;  
    try {  
        uploadTime = formatter.parse(formatter.format(new Date()));  
    } catch (ParseException e) {  
        // TODO Auto-generated catch block  
        e.printStackTrace();  
    }  
    JacksonJsonUntil jackJsonUtil =new JacksonJsonUntil ();  
    String dataBaseName = "itoo_video";  
    Video video=new Video();  
    video.setUserName("why");  
    video.setUserID("why");       
    video.setVideoName(videoName);  
    video.setVideoPath(videoPath);  
    video.setVideoType(videoType);  
    video.setVideoDesc(videoDesc);    
    video.setDataBaseName(dataBaseName);  
    video.setPicturePath(picturePath);  
    video.setUploadTime(uploadTime);  
    uploadFileService.save(video);        
       jackJsonUtil.beanToJson(response,video);  
}  
/* 
 * 上传文件 
 */  
@RequestMapping(value={"/upload"})  
@ResponseBody  
public void upload( MultipartFile file, HttpServletRequest request,HttpServletResponse response){         
    String ext_Name = file.getOriginalFilename().split("\\.")[1];  
    String videoName=file.getOriginalFilename().split("\\.")[0];  
       byte[] bytes = null;  
    try {  
        bytes = file.getBytes();  
    } catch (IOException e) {  
        e.printStackTrace();  
    }  
    String videoPath=uploadFile(bytes,ext_Name);  
    JacksonJsonUntil jackJsonUtil =new JacksonJsonUntil ();  
    Video video=new Video();  
    video.setVideoPath(videoPath);  
    video.setVideoName(videoName);        
    jackJsonUtil.beanToJson(response,video);  
}   
public String uploadFile(byte[] byteFile, String ext_file) {  
    // 拼接服务区的文件路径  
    StringBuffer sbPath = new StringBuffer();  
    sbPath.append("http://192.168.22.252");  
    try {  
        // 初始化文件资源  
        ClientGlobal  
                .init("C:\\Users\\alsr\\Desktop\\ITOO-5.0\\itoo-video-Test\\dmsd-itoo-video-parent\\dmsd-itoo-video-web\\src\\main\\resources\\fdfs_client.conf");  
        // 链接FastDFS服务器,创建tracker和Stroage  
        TrackerClient trackerClient = new TrackerClient();  
        TrackerServer trackerServer = trackerClient.getConnection();  
        StorageServer storageServer = null;  
        StorageClient storageClient = new StorageClient(trackerServer,  
                storageServer);  
        //利用字节流上传文件  
        String[] strings = storageClient.upload_file(byteFile, ext_file, null);  
        for (String string : strings) {  
            sbPath.append("/" + string);  
            System.out.println(string);  
        }  
        // 全路径  
        System.out.println(sbPath);  
    } catch (IOException | MyException e) {  
        e.printStackTrace();  
    }  
    return sbPath.toString();  
}  


只要我们能正常接收到一个json类型的字符串(url地址),就证明我们已经上传成功了,如果不信,可以直接用浏览器去验证一下,看看能不能得到文件展示。


2.2.4.FastDFS实现文件下载

public void testDownload() {          
        try {               
            ClientGlobal.init(conf_filename);               
            TrackerClient tracker = new TrackerClient();               
            TrackerServer trackerServer = tracker.getConnection();              
            StorageServer storageServer = null;               
            StorageClient storageClient = new StorageClient(trackerServer, storageServer);               
            byte[] b = storageClient.download_file("group1", "M00/00/00/wKgRcFV_08OAK_KCAAAA5fm_sy874.conf");               
            System.out.println(b);               
            IOUtils.write(b, new FileOutputStream("D:/"+UUID.randomUUID().toString()+".conf"));          
            }   
        catch (Exception e) {               
            e.printStackTrace();           
        }       
    }         


2.2.5.FastDFS获取将上传文件信息

public void testGetFileInfo(){           
        try {               
            ClientGlobal.init(conf_filename);               
            TrackerClient tracker = new TrackerClient();               
            TrackerServer trackerServer = tracker.getConnection();               
            StorageServer storageServer = null;               
            StorageClient storageClient = new StorageClient(trackerServer, storageServer);               
            FileInfo fi = storageClient.get_file_info("group1", "M00/00/00/wKgRcFV_08OAK_KCAAAA5fm_sy874.conf");               
            System.out.println(fi.getSourceIpAddr());             System.out.println(fi.getFileSize());               
            System.out.println(fi.getCreateTimestamp());             System.out.println(fi.getCrc32());           
            }     
        catch (Exception e) {               
            e.printStackTrace();           
            }       
        }         


2.2.6.FastDFS获取文件名称

public void testGetFileMate(){           
        try {              
            ClientGlobal.init(conf_filename);               
            TrackerClient tracker = new TrackerClient();               
            TrackerServer trackerServer = tracker.getConnection();               
            StorageServer storageServer = null;               
            StorageClient storageClient = new StorageClient(trackerServer,                       
            storageServer);               
            NameValuePair nvps [] = storageClient.get_metadata("group1","M00/00/00/wKgRcFV_08OAK_KCAAAA5fm_sy874.conf");               
            for(NameValuePair nvp : nvps){                   
                System.out.println(nvp.getName() + ":" + nvp.getValue());              
                }           
            } catch (Exception e) {               
              e.printStackTrace();           
            }       
    }    

2.2.7.FastDFS实现删除文件

public void testDelete(){           
try {               
    ClientGlobal.init(conf_filename);               
    TrackerClient tracker = new TrackerClient();               
    TrackerServer trackerServer = tracker.getConnection();               
    StorageServer storageServer = null;               
    StorageClient storageClient = new StorageClient(trackerServer,storageServer);               
    int i = storageClient.delete_file("group1","M00/00/00/wKgRcFV_08OAK_KCAAAA5fm_sy874.conf");               
    System.out.println( i==0 ? "删除成功" : "删除失败:"+i);           
    } catch (Exception e) {               
      e.printStackTrace();           
    }       
}  

2.2.8.FastDFS查询文件

//查询文件
@Test
public void testQueryFile() throws IOException, MyException {
  ClientGlobal.initByProperties("config/fastdfs‐client.properties");
  TrackerClient tracker = new TrackerClient();
  TrackerServer trackerServer = tracker.getConnection();
  StorageServer storageServer = null;
  StorageClient storageClient = new StorageClient(trackerServer,storageServer);
  FileInfo fileInfo = storageClient.query_file_info("group1","M00/00/01/wKhlQFrKBSOAW5AWAALcAg10vf4862.png");
  System.out.println(fileInfo);
}


目录
相关文章
|
5月前
|
关系型数据库 分布式数据库 数据库
|
8月前
|
人工智能 安全 Java
智慧工地源码,Java语言开发,微服务架构,支持分布式和集群部署,多端覆盖
智慧工地是“互联网+建筑工地”的创新模式,基于物联网、移动互联网、BIM、大数据、人工智能等技术,实现对施工现场人员、设备、材料、安全等环节的智能化管理。其解决方案涵盖数据大屏、移动APP和PC管理端,采用高性能Java微服务架构,支持分布式与集群部署,结合Redis、消息队列等技术确保系统稳定高效。通过大数据驱动决策、物联网实时监测预警及AI智能视频监控,消除数据孤岛,提升项目可控性与安全性。智慧工地提供专家级远程管理服务,助力施工质量和安全管理升级,同时依托可扩展平台、多端应用和丰富设备接口,满足多样化需求,推动建筑行业数字化转型。
280 5
|
7月前
|
监控 Linux 应用服务中间件
Linux多节点多硬盘部署MinIO:分布式MinIO集群部署指南搭建高可用架构实践
通过以上步骤,已成功基于已有的 MinIO 服务,扩展为一个 MinIO 集群。该集群具有高可用性和容错性,适合生产环境使用。如果有任何问题,请检查日志或参考MinIO 官方文档。作者联系方式vx:2743642415。
2254 57
|
8月前
|
SQL 数据可视化 网络安全
YashanDB分布式可视化部署
本文介绍YashanDB的分布式部署流程,涵盖服务端安装、数据库基本信息与服务器配置、节点信息设置、建库参数调整、环境变量配置及安装结果检查等步骤。通过可视化Web界面操作,详细说明了各环节配置方法和注意事项,确保用户顺利完成数据库集群的搭建与初始化设置。适用于需要分布式数据库部署的场景,提供全面的操作指导。
YashanDB分布式可视化部署
|
9月前
|
运维 Kubernetes Java
Koupleless 助力「人力家」实现分布式研发集中式部署,又快又省!
本文由仁励家网络科技(杭州)有限公司架构师赵云兴、葛志刚撰写,探讨了公司在优化HR SaaS解决方案时遇到的系统资源浪费和运维成本高的问题。通过引入Koupleless框架,成功将模块体积从500M缩减至5M以下,部署时间从6分钟缩短至3分钟,并大幅节省服务器资源。文章详细介绍了Koupleless的部署方案及优化措施,感谢Koupleless团队的专业支持,使人力家实现了多应用合并部署,降低了运维成本。
Koupleless 助力「人力家」实现分布式研发集中式部署,又快又省!
|
9月前
|
运维 Kubernetes Java
Koupleless 助力「人力家」实现分布式研发集中式部署,又快又省!
通过引入Koupleless框架,解决了多应用部署中资源浪费和运维成本高的问题,实现了模块瘦身、快速部署及流量控制优化,大幅降低了服务器资源占用和发布耗时,提升了系统稳定性和运维效率。最终,人力家成功实现了多应用的轻量集中部署,显著减少了运维成本。
 Koupleless 助力「人力家」实现分布式研发集中式部署,又快又省!
|
4月前
|
存储 负载均衡 NoSQL
【赵渝强老师】Redis Cluster分布式集群
Redis Cluster是Redis的分布式存储解决方案,通过哈希槽(slot)实现数据分片,支持水平扩展,具备高可用性和负载均衡能力,适用于大规模数据场景。
348 2
|
4月前
|
存储 缓存 NoSQL
【📕分布式锁通关指南 12】源码剖析redisson如何利用Redis数据结构实现Semaphore和CountDownLatch
本文解析 Redisson 如何通过 Redis 实现分布式信号量(RSemaphore)与倒数闩(RCountDownLatch),利用 Lua 脚本与原子操作保障分布式环境下的同步控制,帮助开发者更好地理解其原理与应用。
282 6
|
5月前
|
存储 缓存 NoSQL
Redis核心数据结构与分布式锁实现详解
Redis 是高性能键值数据库,支持多种数据结构,如字符串、列表、集合、哈希、有序集合等,广泛用于缓存、消息队列和实时数据处理。本文详解其核心数据结构及分布式锁实现,帮助开发者提升系统性能与并发控制能力。
|
9月前
|
数据采集 存储 数据可视化
分布式爬虫框架Scrapy-Redis实战指南
本文介绍如何使用Scrapy-Redis构建分布式爬虫系统,采集携程平台上热门城市的酒店价格与评价信息。通过代理IP、Cookie和User-Agent设置规避反爬策略,实现高效数据抓取。结合价格动态趋势分析,助力酒店业优化市场策略、提升服务质量。技术架构涵盖Scrapy-Redis核心调度、代理中间件及数据解析存储,提供完整的技术路线图与代码示例。
896 0
分布式爬虫框架Scrapy-Redis实战指南

热门文章

最新文章