分布式文件系统FastDFS看这一篇就够了(文件上传下载、单机部署及集群部署)(三)

简介: 分布式文件系统FastDFS看这一篇就够了(文件上传下载、单机部署及集群部署)

四、FastDFS集群部署(实现高可用(HA))


d74db793d82e43c5b9ee0145b5f65428.png

4.1.准备


1.服务器规划:


跟踪服务器1【主机】(Tracker Server):192.100.139.121


跟踪服务器2【备机】(Tracker Server):192.100.139.122


存储服务器1(Storage Server):192.100.139.121


存储服务器2(Storage Server):192.100.139.123


存储服务器3(Storage Server):192.100.139.124


操作系统:CentOS7


用户:root


数据存储目录:


image.png


2.安装包


FastDFS_v5.08.tar.gz:FastDFS源码


libfastcommon-master.zip:(从 FastDFS 和 FastDHT 中提取出来的公共 C 函数库)


fastdfs-nginx-module-master.zip:storage节点http服务nginx模块


nginx-1.10.0.tar.gz:Nginx安装包


ngx_cache_purge-2.3.tar.gz:图片缓存清除Nginx模块(集群环境会用到)


下载完成后,将压缩包解压到/usr/local/src目录下


4.2.所有tracker和storage节点都执行如下操作


1、安装所需的依赖包


yum install make cmake gcc gcc-c++


2、安装libfatscommon

cd /usr/local/src
#安装unzip 命令: yum install -y unzip zip
unzip libfastcommon-master.zip   
cd libfastcommon-master
编译、安装
./make.sh
./make.sh install

3、安装FastDFS

cd /usr/local/src
tar -xzvf FastDFS_v5.08.tar.gz
cd FastDFS
./make.sh
./make.sh install


采用默认安装方式,相应的文件与目录检查如下:


1> 服务脚本:

/etc/init.d/fdfs_storaged
/etc/init.d/fdfs_trackerd

2> 配置文件(示例配置文件):

ll /etc/fdfs/
-rw-r--r-- 1 root root  1461 1月   4 14:34 client.conf.sample
-rw-r--r-- 1 root root  7927 1月   4 14:34 storage.conf.sample
-rw-r--r-- 1 root root  7200 1月   4 14:34 tracker.conf.sample

3> 命令行工具(/usr/bin目录下)

ll /usr/bin/fdfs_*
-rwxr-xr-x    1 root root     260584 1月   4 14:34 fdfs_appender_test
-rwxr-xr-x    1 root root     260281 1月   4 14:34 fdfs_appender_test1
-rwxr-xr-x    1 root root     250625 1月   4 14:34 fdfs_append_file
-rwxr-xr-x    1 root root     250045 1月   4 14:34 fdfs_crc32
-rwxr-xr-x    1 root root     250708 1月   4 14:34 fdfs_delete_file
-rwxr-xr-x    1 root root     251515 1月   4 14:34 fdfs_download_file
-rwxr-xr-x    1 root root     251273 1月   4 14:34 fdfs_file_info
-rwxr-xr-x    1 root root     266401 1月   4 14:34 fdfs_monitor
-rwxr-xr-x    1 root root     873233 1月   4 14:34 fdfs_storaged
-rwxr-xr-x    1 root root     266952 1月   4 14:34 fdfs_test
-rwxr-xr-x    1 root root     266153 1月   4 14:34 fdfs_test1
-rwxr-xr-x    1 root root     371336 1月   4 14:34 fdfs_trackerd
-rwxr-xr-x    1 root root     251651 1月   4 14:34 fdfs_upload_appender
-rwxr-xr-x    1 root root     252781 1月   4 14:34 fdfs_upload_file

4.3.配置tracker服务器


1、复制tracker样例配置文件,并重命名


cp /etc/fdfs/tracker.conf.sample /etc/fdfs/tracker.conf


2、修改tracker配置文件


vim /etc/fdfs/tracker.conf


修改的内容如下:

disabled=false              # 启用配置文件
port=22122                  # tracker服务器端口(默认22122)
base_path=/fastdfs/tracker  # 存储日志和数据的根目录
store_group=group1

其它参数保留默认配置, 具体配置解释可参考官方文档说明:FastDFS配置文件详解


3、创建base_path指定的目录

mkdir -p /fastdfs/tracker

4、防火墙中打开tracker服务器端口( 默认为 22122)


vi /etc/sysconfig/iptables


附加:若/etc/sysconfig 目录下没有iptables文件可随便写一条iptables命令配置个防火墙规则:如:


iptables -P OUTPUT ACCEPT


然后用命令:service iptables save 进行保存,默认就保存到 /etc/sysconfig/iptables 文件里。这时既有了这个文件。防火墙也可以启动了。接下来要写策略,也可以直接写在/etc/sysconfig/iptables 里了。


添加如下端口行:

-A INPUT -m state --state NEW -m tcp -p tcp --dport 22122 -j ACCEPT

重启防火墙


service iptables restart


5、启动tracker服务器


/etc/init.d/fdfs_trackerd start


初次启动,会在/fastdfs/tracker目录下生成logs、data两个目录。


drwxr-xr-x 2 root root 4096 1月   4 15:00 data
drwxr-xr-x 2 root root 4096 1月   4 14:38 logs


检查FastDFS Tracker Server是否启动成功:


ps -ef | grep fdfs_trackerd


4.4.配置storage服务器


1、复制storage样例配置文件,并重命名


cp /etc/fdfs/storage.conf.sample /etc/fdfs/storage.conf


2、编辑配置文件


vi /etc/fdfs/storage.conf


修改的内容如下:

disabled=false                      # 启用配置文件
port=23000                          # storage服务端口
base_path=/fastdfs/storage          # 数据和日志文件存储根目录
store_path0=/fastdfs/storage        # 第一个存储目录
tracker_server=192.100.139.121:22122  # tracker服务器IP和端口
tracker_server=192.100.139.122:22122  #tracker服务器IP2和端口[Microsof1] 
http.server_port=8888               # http访问文件的端口

其它参数保留默认配置, 具体配置解释可参考官方文档说明:FastDFS配置文件详解


3、创建基础数据目录


mkdir -p /fastdfs/storage


4、防火墙中打开storage服务器端口( 默认为 23000)


vi /etc/sysconfig/iptables


#添加如下端口行:


-A INPUT -m state --state NEW -m tcp -p tcp --dport 23000 -j ACCEPT


重启防火墙


service iptables restart


注:集群环境下


追踪+存储节点操作步骤一、步骤二、步骤三


存储节点只做存储则只操作步骤三


5、启动storage服务器


/etc/init.d/fdfs_storaged start


初次启动,会在/fastdfs/storage目录下生成logs、data两个目录。


drwxr-xr-x 259 root root 4096 Mar 31 06:22 data
drwxr-xr-x   2 root root 4096 Mar 31 06:22 logs


检查FastDFS Tracker Server是否启动成功:

[root@gyl-test-t9 ~]# ps -ef | grep fdfs_storaged
root      1336     1  3 06:22 ?        00:00:01 /usr/bin/fdfs_storaged /etc/fdfs/storage.conf
root      1347   369  0 06:23 pts/0    00:00:00 grep fdfs_storaged

4.5.文件上传测试(ip01)


1、修改Tracker服务器客户端配置文件

cp /etc/fdfs/client.conf.sample /etc/fdfs/client.conf
vim /etc/fdfs/client.conf

修改以下配置,其它保持默认

base_path=/fastdfs/tracker
tracker_server=192.100.139.121:22122  # tracker服务器IP和端口
tracker_server=192.100.139.122:22122  #tracker服务器IP2和端口 

2、执行文件上传命令


#/usr/local/src/test.png 是需要上传文件路径
/usr/bin/fdfs_upload_file /etc/fdfs/client.conf /usr/local/src/test.png


返回文件ID号:group1/M00/00/00/tlxkwlhttsGAU2ZXAAC07quU0oE095.png

(能返回以上文件ID,说明文件已经上传成功)


也可以

/usr/bin/fdfs_test /etc/fdfs/client.conf upload client.conf

514e52c3c7a74d8db87e33e272aeb657.png


4.6.在所有storage节点安装fastdfs-nginx-module


1、fastdfs-nginx-module 作用说明


FastDFS 通过 Tracker 服务器,将文件放在 Storage 服务器存储,但是同组存储服务器之间需要进入文件复制,有同步延迟的问题。假设 Tracker 服务器将文件上传到了 ip01,上传成功后文件 ID 已经返回给客户端。此时 FastDFS 存储集群机制会将这个文件同步到同组存储 ip02,在文件还没有复制完成的情况下,客户端如果用这个文件 ID 在 ip02 上取文件,就会出现文件无法访问的错误。而 fastdfs-nginx-module 可以重定向文件连接到源服务器取文件,避免客户端由于复制延迟导致的文件无法访问错误。(解压后的 fastdfs-nginx-module 在 nginx 安装时使用)


2、解压 fastdfs-nginx-module_v1.16.tar.gz


cd /usr/local/src


tar -xzvf fastdfs-nginx-module_v1.16.tar.gz


3、修改 fastdfs-nginx-module 的 config 配置文件

cd fastdfs-nginx-module/src
vim config
CORE_INCS="$CORE_INCS /usr/local/include/fastdfs /usr/local/include/fastcommon/" 
修改为:
CORE_INCS="$CORE_INCS /usr/include/fastdfs /usr/include/fastcommon/"

4、安装编译 Nginx 所需的依赖包


yum install gcc gcc-c++ make automake autoconf libtool pcre* zlib openssl openssl-devel


5、编译安装 Nginx (添加 fastdfs-nginx-module 模块)

cd /usr/local/src/
tar -zxvf nginx-1.10.0.tar.gz
tar –zxvf ngx_cache_purge_2.3.tar.gz
cd nginx-1.10.0
./configure --prefix=/opt/nginx --add-module=/usr/local/src/fastdfs-nginx-module/src --add-module=/usr/local/src/ngx_cache_purge-2.3
make && make install


7、复制 fastdfs-nginx-module 源码中的配置文件到/etc/fdfs 目录,并修改

cp /usr/local/src/fastdfs-nginx-module/src/mod_fastdfs.conf      /etc/fdfs/
vi /etc/fdfs/mod_fastdfs.conf

修改以下配置:

connect_timeout=10
base_path=/tmp  
tracker_server=192.100.139.121:22122  # tracker服务器IP和端口
tracker_server=192.100.139.122:22122  #tracker服务器IP2和端口
url_have_group_name=true   #url中包含group名称 
#在最后添加 [group1] 
group_name=group1 
storage_server_port=23000 
store_path_count=1 
store_path0=/fastdfs/storage
————————————————
版权声明:本文为CSDN博主「白大锅」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/weixin_45735355/article/details/120363282


8、复制 FastDFS 的部分配置文件到/etc/fdfs 目录


cd /usr/local/src/FastDFS/conf
cp http.conf mime.types /etc/fdfs/


9、在/fastdfs/storage 文件存储目录下创建软连接,将其链接到实际存放数据的目录


ln -s /fastdfs/storage/data/ /fastdfs/storage/data/M00


10、配置 Nginx

user nobody;
worker_processes 1;
events {
    worker_connections 1024;
}
http {
    include mime.types;
    default_type application/octet-stream;
    sendfile on;
    keepalive_timeout 65;
    server {
        listen 8888;
        server_name 192.100.139.121;
        location ~/group1/M00 {
            ngx_fastdfs_module;
        }
        error_page 500 502 503 504 /50x.html;
        location = /50x.html {
            root html;
        }
    }
 upstream storage_server_group1{                                                                                              
                 server 192.100.139.121:8888 weight=10;                                                                              
                 server 192.100.139.123:8888 weight=10;                                                                               
                 server 192.100.139.124:8888 weight=10;                                                                              
        }
}

说明:


A、8888 端口值是要与/etc/fdfs/storage.conf 中的 http.server_port=8888 相对应, 因为 http.server_port 默认为 8888,如果想改成 80,则要对应修改过来。


B、Storage 对应有多个 group 的情况下,访问路径带 group 名,

如/group1/M00/00/00/xxx, 对应的 Nginx 配置为:

    location ~/group([0-9])/M00 {
         ngx_fastdfs_module;
  }


C、如查下载时如发现老报 404,将 nginx.conf 第一行 user nobody 修改为 user root 后重新启动。


11、防火墙中打开 Nginx 的 8888 端口

vi /etc/sysconfig/iptables
 添加:
-A INPUT -m state --state NEW -m tcp -p tcp --dport 8888 -j ACCEPT
#重启防火墙
service iptables restart 
启动nginx : /opt/nginx/sbin/nginx
(重启 Nginx 的命令为:/opt/nginx/sbin/nginx -s reload)

4.7.验证:通过浏览器访问测试时上传的文件


切换追踪服务器IP同样可以访问

http://192.100.139.121:8888/group1/M00/00/00/CmSKtFj13gyAen4oAAH0yXi-HW8296.png
http://192.100.139.122:8888/group1/M00/00/00/CmSKtFj13gyAen4oAAH0yXi-HW8296.png

4.8.Java API 客户端配置


1、前往GitHub下载Java_client代码。Java_client


2.在你的项目src/java/resources 下加入文件 fastdfs_client.conf


注意修改tracker服务器Ip地址:

connect_timeout = 2
network_timeout = 30
charset = ISO8859-1
http.tracker_http_port = 8888
http.anti_steal_token = no
tracker_server=192.100.139.121:22122
tracker_server=192.100.139.122:22122 
default_group_name=group1

五、总结


1.同组之间的storage服务器的端口必须一致(23000)


2.一台服务器上可以有多个组(group),但是不能有同组的多个storage服务。


3.如果有使用nginx,则可以不用安装libevent插件,libevent是作为fdfs的http服务的依赖插件,且在5.x之后的版本已经移除这个模块。


4.启动storage server时,一直处于僵死状态.启动storage server,storage将连接tracker server,如果连不上,将一直重试。直到连接成功,启动才算真正完成!如果集群中有2台tracker server,而其中一台tracker没有启动,可能会导致storage server一直处于僵死状态



目录
相关文章
|
2月前
|
Java 测试技术 Linux
jmeter-分布式部署之负载机的设置
jmeter-分布式部署之负载机的设置
52 1
|
25天前
|
Docker 容器 关系型数据库
【PolarDB-X从入门到精通】 第四讲:PolarDB分布式版安装部署(源码编译部署)
本期课程将于4月11日19:00开始直播,内容包括源码编译基础知识和实践操作,课程目标是使学员掌握源码编译部署技能,为未来发展奠定基础,期待大家在课程中取得丰富的学习成果!
【PolarDB-X从入门到精通】 第四讲:PolarDB分布式版安装部署(源码编译部署)
|
9天前
使用JWT的服务分布式部署之后报错:JWT Check Failure:
使用JWT的服务分布式部署之后报错:JWT Check Failure:
20 1
|
9天前
|
SQL 调度 数据库
Docker部署Xxl-Job分布式任务调度中心(超详细)
Docker部署Xxl-Job分布式任务调度中心(超详细)
|
10天前
|
存储 分布式计算 Hadoop
基于Hadoop分布式数据库HBase1.0部署及使用
基于Hadoop分布式数据库HBase1.0部署及使用
|
25天前
|
存储 分布式数据库
GaussDB分布式与单机模式的比较
【4月更文挑战第7天】GaussDB分布式与单机模式的比较
1618 5
|
7天前
|
NoSQL Java 关系型数据库
【Redis系列笔记】分布式锁
分布式锁:满足分布式系统或集群模式下多进程可见并且互斥的锁。 分布式锁的核心思想就是让大家都使用同一把锁,只要大家使用的是同一把锁,那么我们就能锁住线程,不让线程进行,让程序串行执行,这就是分布式锁的核心思路
29 2
|
2天前
|
监控 NoSQL 算法
探秘Redis分布式锁:实战与注意事项
本文介绍了Redis分区容错中的分布式锁概念,包括利用Watch实现乐观锁和使用setnx防止库存超卖。乐观锁通过Watch命令监控键值变化,在事务中执行修改,若键值被改变则事务失败。Java代码示例展示了具体实现。setnx命令用于库存操作,确保无超卖,通过设置锁并检查库存来更新。文章还讨论了分布式锁存在的问题,如客户端阻塞、时钟漂移和单点故障,并提出了RedLock算法来提高可靠性。Redisson作为生产环境的分布式锁实现,提供了可重入锁、读写锁等高级功能。最后,文章对比了Redis、Zookeeper和etcd的分布式锁特性。
28 16
探秘Redis分布式锁:实战与注意事项
|
4天前
|
NoSQL Java 大数据
介绍redis分布式锁
分布式锁是解决多进程在分布式环境中争夺资源的问题,与本地锁相似但适用于不同进程。以Redis为例,通过`setIfAbsent`实现占锁,加锁同时设置过期时间避免死锁。然而,获取锁与设置过期时间非原子性可能导致并发问题,解决方案是使用`setIfAbsent`的超时参数。此外,释放锁前需验证归属,防止误删他人锁,可借助Lua脚本确保原子性。实际应用中还有锁续期、重试机制等复杂问题,现成解决方案如RedisLockRegistry和Redisson。
|
4天前
|
缓存 NoSQL Java
【亮剑】如何使用注解来实现 Redis 分布式锁的功能?
【4月更文挑战第30天】分布式锁是保证多服务实例同步的关键机制,常用于互斥访问共享资源、控制访问顺序和系统保护。基于 Redis 的分布式锁利用 SETNX 或 SET 命令实现,并考虑自动过期、可重入及原子性以确保可靠性。在 Java Spring Boot 中,可通过 `@EnableCaching`、`@Cacheable` 和 `@CacheEvict` 注解轻松实现 Redis 分布式锁功能。