分布式文件系统FastDFS看这一篇就够了(文件上传下载、单机部署及集群部署)(三)

本文涉及的产品
云防火墙,500元 1000GB
简介: 分布式文件系统FastDFS看这一篇就够了(文件上传下载、单机部署及集群部署)

四、FastDFS集群部署(实现高可用(HA))


d74db793d82e43c5b9ee0145b5f65428.png

4.1.准备


1.服务器规划:


跟踪服务器1【主机】(Tracker Server):192.100.139.121


跟踪服务器2【备机】(Tracker Server):192.100.139.122


存储服务器1(Storage Server):192.100.139.121


存储服务器2(Storage Server):192.100.139.123


存储服务器3(Storage Server):192.100.139.124


操作系统:CentOS7


用户:root


数据存储目录:


image.png


2.安装包


FastDFS_v5.08.tar.gz:FastDFS源码


libfastcommon-master.zip:(从 FastDFS 和 FastDHT 中提取出来的公共 C 函数库)


fastdfs-nginx-module-master.zip:storage节点http服务nginx模块


nginx-1.10.0.tar.gz:Nginx安装包


ngx_cache_purge-2.3.tar.gz:图片缓存清除Nginx模块(集群环境会用到)


下载完成后,将压缩包解压到/usr/local/src目录下


4.2.所有tracker和storage节点都执行如下操作


1、安装所需的依赖包


yum install make cmake gcc gcc-c++


2、安装libfatscommon

cd /usr/local/src
#安装unzip 命令: yum install -y unzip zip
unzip libfastcommon-master.zip   
cd libfastcommon-master
编译、安装
./make.sh
./make.sh install

3、安装FastDFS

cd /usr/local/src
tar -xzvf FastDFS_v5.08.tar.gz
cd FastDFS
./make.sh
./make.sh install


采用默认安装方式,相应的文件与目录检查如下:


1> 服务脚本:

/etc/init.d/fdfs_storaged
/etc/init.d/fdfs_trackerd

2> 配置文件(示例配置文件):

ll /etc/fdfs/
-rw-r--r-- 1 root root  1461 1月   4 14:34 client.conf.sample
-rw-r--r-- 1 root root  7927 1月   4 14:34 storage.conf.sample
-rw-r--r-- 1 root root  7200 1月   4 14:34 tracker.conf.sample

3> 命令行工具(/usr/bin目录下)

ll /usr/bin/fdfs_*
-rwxr-xr-x    1 root root     260584 1月   4 14:34 fdfs_appender_test
-rwxr-xr-x    1 root root     260281 1月   4 14:34 fdfs_appender_test1
-rwxr-xr-x    1 root root     250625 1月   4 14:34 fdfs_append_file
-rwxr-xr-x    1 root root     250045 1月   4 14:34 fdfs_crc32
-rwxr-xr-x    1 root root     250708 1月   4 14:34 fdfs_delete_file
-rwxr-xr-x    1 root root     251515 1月   4 14:34 fdfs_download_file
-rwxr-xr-x    1 root root     251273 1月   4 14:34 fdfs_file_info
-rwxr-xr-x    1 root root     266401 1月   4 14:34 fdfs_monitor
-rwxr-xr-x    1 root root     873233 1月   4 14:34 fdfs_storaged
-rwxr-xr-x    1 root root     266952 1月   4 14:34 fdfs_test
-rwxr-xr-x    1 root root     266153 1月   4 14:34 fdfs_test1
-rwxr-xr-x    1 root root     371336 1月   4 14:34 fdfs_trackerd
-rwxr-xr-x    1 root root     251651 1月   4 14:34 fdfs_upload_appender
-rwxr-xr-x    1 root root     252781 1月   4 14:34 fdfs_upload_file

4.3.配置tracker服务器


1、复制tracker样例配置文件,并重命名


cp /etc/fdfs/tracker.conf.sample /etc/fdfs/tracker.conf


2、修改tracker配置文件


vim /etc/fdfs/tracker.conf


修改的内容如下:

disabled=false              # 启用配置文件
port=22122                  # tracker服务器端口(默认22122)
base_path=/fastdfs/tracker  # 存储日志和数据的根目录
store_group=group1

其它参数保留默认配置, 具体配置解释可参考官方文档说明:FastDFS配置文件详解


3、创建base_path指定的目录

mkdir -p /fastdfs/tracker

4、防火墙中打开tracker服务器端口( 默认为 22122)


vi /etc/sysconfig/iptables


附加:若/etc/sysconfig 目录下没有iptables文件可随便写一条iptables命令配置个防火墙规则:如:


iptables -P OUTPUT ACCEPT


然后用命令:service iptables save 进行保存,默认就保存到 /etc/sysconfig/iptables 文件里。这时既有了这个文件。防火墙也可以启动了。接下来要写策略,也可以直接写在/etc/sysconfig/iptables 里了。


添加如下端口行:

-A INPUT -m state --state NEW -m tcp -p tcp --dport 22122 -j ACCEPT

重启防火墙


service iptables restart


5、启动tracker服务器


/etc/init.d/fdfs_trackerd start


初次启动,会在/fastdfs/tracker目录下生成logs、data两个目录。


drwxr-xr-x 2 root root 4096 1月   4 15:00 data
drwxr-xr-x 2 root root 4096 1月   4 14:38 logs


检查FastDFS Tracker Server是否启动成功:


ps -ef | grep fdfs_trackerd


4.4.配置storage服务器


1、复制storage样例配置文件,并重命名


cp /etc/fdfs/storage.conf.sample /etc/fdfs/storage.conf


2、编辑配置文件


vi /etc/fdfs/storage.conf


修改的内容如下:

disabled=false                      # 启用配置文件
port=23000                          # storage服务端口
base_path=/fastdfs/storage          # 数据和日志文件存储根目录
store_path0=/fastdfs/storage        # 第一个存储目录
tracker_server=192.100.139.121:22122  # tracker服务器IP和端口
tracker_server=192.100.139.122:22122  #tracker服务器IP2和端口[Microsof1] 
http.server_port=8888               # http访问文件的端口

其它参数保留默认配置, 具体配置解释可参考官方文档说明:FastDFS配置文件详解


3、创建基础数据目录


mkdir -p /fastdfs/storage


4、防火墙中打开storage服务器端口( 默认为 23000)


vi /etc/sysconfig/iptables


#添加如下端口行:


-A INPUT -m state --state NEW -m tcp -p tcp --dport 23000 -j ACCEPT


重启防火墙


service iptables restart


注:集群环境下


追踪+存储节点操作步骤一、步骤二、步骤三


存储节点只做存储则只操作步骤三


5、启动storage服务器


/etc/init.d/fdfs_storaged start


初次启动,会在/fastdfs/storage目录下生成logs、data两个目录。


drwxr-xr-x 259 root root 4096 Mar 31 06:22 data
drwxr-xr-x   2 root root 4096 Mar 31 06:22 logs


检查FastDFS Tracker Server是否启动成功:

[root@gyl-test-t9 ~]# ps -ef | grep fdfs_storaged
root      1336     1  3 06:22 ?        00:00:01 /usr/bin/fdfs_storaged /etc/fdfs/storage.conf
root      1347   369  0 06:23 pts/0    00:00:00 grep fdfs_storaged

4.5.文件上传测试(ip01)


1、修改Tracker服务器客户端配置文件

cp /etc/fdfs/client.conf.sample /etc/fdfs/client.conf
vim /etc/fdfs/client.conf

修改以下配置,其它保持默认

base_path=/fastdfs/tracker
tracker_server=192.100.139.121:22122  # tracker服务器IP和端口
tracker_server=192.100.139.122:22122  #tracker服务器IP2和端口 

2、执行文件上传命令


#/usr/local/src/test.png 是需要上传文件路径
/usr/bin/fdfs_upload_file /etc/fdfs/client.conf /usr/local/src/test.png


返回文件ID号:group1/M00/00/00/tlxkwlhttsGAU2ZXAAC07quU0oE095.png

(能返回以上文件ID,说明文件已经上传成功)


也可以

/usr/bin/fdfs_test /etc/fdfs/client.conf upload client.conf

514e52c3c7a74d8db87e33e272aeb657.png


4.6.在所有storage节点安装fastdfs-nginx-module


1、fastdfs-nginx-module 作用说明


FastDFS 通过 Tracker 服务器,将文件放在 Storage 服务器存储,但是同组存储服务器之间需要进入文件复制,有同步延迟的问题。假设 Tracker 服务器将文件上传到了 ip01,上传成功后文件 ID 已经返回给客户端。此时 FastDFS 存储集群机制会将这个文件同步到同组存储 ip02,在文件还没有复制完成的情况下,客户端如果用这个文件 ID 在 ip02 上取文件,就会出现文件无法访问的错误。而 fastdfs-nginx-module 可以重定向文件连接到源服务器取文件,避免客户端由于复制延迟导致的文件无法访问错误。(解压后的 fastdfs-nginx-module 在 nginx 安装时使用)


2、解压 fastdfs-nginx-module_v1.16.tar.gz


cd /usr/local/src


tar -xzvf fastdfs-nginx-module_v1.16.tar.gz


3、修改 fastdfs-nginx-module 的 config 配置文件

cd fastdfs-nginx-module/src
vim config
CORE_INCS="$CORE_INCS /usr/local/include/fastdfs /usr/local/include/fastcommon/" 
修改为:
CORE_INCS="$CORE_INCS /usr/include/fastdfs /usr/include/fastcommon/"

4、安装编译 Nginx 所需的依赖包


yum install gcc gcc-c++ make automake autoconf libtool pcre* zlib openssl openssl-devel


5、编译安装 Nginx (添加 fastdfs-nginx-module 模块)

cd /usr/local/src/
tar -zxvf nginx-1.10.0.tar.gz
tar –zxvf ngx_cache_purge_2.3.tar.gz
cd nginx-1.10.0
./configure --prefix=/opt/nginx --add-module=/usr/local/src/fastdfs-nginx-module/src --add-module=/usr/local/src/ngx_cache_purge-2.3
make && make install


7、复制 fastdfs-nginx-module 源码中的配置文件到/etc/fdfs 目录,并修改

cp /usr/local/src/fastdfs-nginx-module/src/mod_fastdfs.conf      /etc/fdfs/
vi /etc/fdfs/mod_fastdfs.conf

修改以下配置:

connect_timeout=10
base_path=/tmp  
tracker_server=192.100.139.121:22122  # tracker服务器IP和端口
tracker_server=192.100.139.122:22122  #tracker服务器IP2和端口
url_have_group_name=true   #url中包含group名称 
#在最后添加 [group1] 
group_name=group1 
storage_server_port=23000 
store_path_count=1 
store_path0=/fastdfs/storage
————————————————
版权声明:本文为CSDN博主「白大锅」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/weixin_45735355/article/details/120363282


8、复制 FastDFS 的部分配置文件到/etc/fdfs 目录


cd /usr/local/src/FastDFS/conf
cp http.conf mime.types /etc/fdfs/


9、在/fastdfs/storage 文件存储目录下创建软连接,将其链接到实际存放数据的目录


ln -s /fastdfs/storage/data/ /fastdfs/storage/data/M00


10、配置 Nginx

user nobody;
worker_processes 1;
events {
    worker_connections 1024;
}
http {
    include mime.types;
    default_type application/octet-stream;
    sendfile on;
    keepalive_timeout 65;
    server {
        listen 8888;
        server_name 192.100.139.121;
        location ~/group1/M00 {
            ngx_fastdfs_module;
        }
        error_page 500 502 503 504 /50x.html;
        location = /50x.html {
            root html;
        }
    }
 upstream storage_server_group1{                                                                                              
                 server 192.100.139.121:8888 weight=10;                                                                              
                 server 192.100.139.123:8888 weight=10;                                                                               
                 server 192.100.139.124:8888 weight=10;                                                                              
        }
}

说明:


A、8888 端口值是要与/etc/fdfs/storage.conf 中的 http.server_port=8888 相对应, 因为 http.server_port 默认为 8888,如果想改成 80,则要对应修改过来。


B、Storage 对应有多个 group 的情况下,访问路径带 group 名,

如/group1/M00/00/00/xxx, 对应的 Nginx 配置为:

    location ~/group([0-9])/M00 {
         ngx_fastdfs_module;
  }


C、如查下载时如发现老报 404,将 nginx.conf 第一行 user nobody 修改为 user root 后重新启动。


11、防火墙中打开 Nginx 的 8888 端口

vi /etc/sysconfig/iptables
 添加:
-A INPUT -m state --state NEW -m tcp -p tcp --dport 8888 -j ACCEPT
#重启防火墙
service iptables restart 
启动nginx : /opt/nginx/sbin/nginx
(重启 Nginx 的命令为:/opt/nginx/sbin/nginx -s reload)

4.7.验证:通过浏览器访问测试时上传的文件


切换追踪服务器IP同样可以访问

http://192.100.139.121:8888/group1/M00/00/00/CmSKtFj13gyAen4oAAH0yXi-HW8296.png
http://192.100.139.122:8888/group1/M00/00/00/CmSKtFj13gyAen4oAAH0yXi-HW8296.png

4.8.Java API 客户端配置


1、前往GitHub下载Java_client代码。Java_client


2.在你的项目src/java/resources 下加入文件 fastdfs_client.conf


注意修改tracker服务器Ip地址:

connect_timeout = 2
network_timeout = 30
charset = ISO8859-1
http.tracker_http_port = 8888
http.anti_steal_token = no
tracker_server=192.100.139.121:22122
tracker_server=192.100.139.122:22122 
default_group_name=group1

五、总结


1.同组之间的storage服务器的端口必须一致(23000)


2.一台服务器上可以有多个组(group),但是不能有同组的多个storage服务。


3.如果有使用nginx,则可以不用安装libevent插件,libevent是作为fdfs的http服务的依赖插件,且在5.x之后的版本已经移除这个模块。


4.启动storage server时,一直处于僵死状态.启动storage server,storage将连接tracker server,如果连不上,将一直重试。直到连接成功,启动才算真正完成!如果集群中有2台tracker server,而其中一台tracker没有启动,可能会导致storage server一直处于僵死状态



目录
相关文章
|
1月前
|
分布式计算 Hadoop 网络安全
Hadoop-08-HDFS集群 基础知识 命令行上机实操 hadoop fs 分布式文件系统 读写原理 读流程与写流程 基本语法上传下载拷贝移动文件
Hadoop-08-HDFS集群 基础知识 命令行上机实操 hadoop fs 分布式文件系统 读写原理 读流程与写流程 基本语法上传下载拷贝移动文件
30 1
|
1月前
|
存储 机器学习/深度学习 缓存
Hadoop-07-HDFS集群 基础知识 分布式文件系统 读写原理 读流程与写流程 基本语法上传下载拷贝移动文件
Hadoop-07-HDFS集群 基础知识 分布式文件系统 读写原理 读流程与写流程 基本语法上传下载拷贝移动文件
44 1
|
1月前
|
分布式计算 资源调度 Hadoop
Hadoop-05-Hadoop集群 集群WordCount 超详细 真正的分布式计算 上传HDFS MapReduce计算 YRAN查看任务 上传计算下载查看
Hadoop-05-Hadoop集群 集群WordCount 超详细 真正的分布式计算 上传HDFS MapReduce计算 YRAN查看任务 上传计算下载查看
47 1
|
2月前
|
存储
cephFS高可用分布式文件系统部署指南
关于如何部署高可用的cephFS分布式文件系统,包括集群的搭建、验证高可用性以及实现两主一从架构的详细指南。
76 9
|
3月前
|
存储 分布式计算 算法
探索Hadoop的三种运行模式:单机模式、伪分布式模式和完全分布式模式
在配置Hadoop集群之前,了解这三种模式的特点、适用场景和配置差异是非常重要的。这有助于用户根据个人需求和资源情况,选择最适合自己的Hadoop运行模式。在最初的学习和开发阶段,单机模式和伪分布式模式能为用户提供便利和成本效益。进而,当用户要处理大规模数据集时,完全分布式模式将是理想的选择。
181 2
|
2月前
|
分布式计算 资源调度 Hadoop
在YARN集群上运行部署MapReduce分布式计算框架
主要介绍了如何在YARN集群上配置和运行MapReduce分布式计算框架,包括准备数据、运行MapReduce任务、查看任务日志,并启动HistoryServer服务以便于日志查看。
61 0
|
3月前
|
Java Nacos Docker
"揭秘!Docker部署Seata遇上Nacos,注册成功却报错?这些坑你不得不防!一网打尽解决秘籍,让你的分布式事务稳如老狗!"
【8月更文挑战第15天】在微服务架构中,Nacos搭配Seata确保数据一致性时,Docker部署Seata后可能出现客户端连接错误,如“can not connect to services-server”。此问题多由网络配置不当、配置文件错误或版本不兼容引起。解决策略包括:调整Docker网络设置确保可达性;检查并修正`file.conf`和`registry.conf`中的Nacos地址和端口;验证Seata与Nacos版本兼容性;修改配置后重启服务;参考官方文档和最佳实践进行配置。通过这些步骤,能有效排除故障,保障服务稳定运行。
264 0
|
3月前
|
存储 运维 安全
多云网络部署存在挑战,F5分布式云应用简化方案解读
多云网络部署存在挑战,F5分布式云应用简化方案解读
50 0
|
1月前
|
NoSQL Java Redis
太惨痛: Redis 分布式锁 5个大坑,又大又深, 如何才能 避开 ?
Redis分布式锁在高并发场景下是重要的技术手段,但其实现过程中常遇到五大深坑:**原子性问题**、**连接耗尽问题**、**锁过期问题**、**锁失效问题**以及**锁分段问题**。这些问题不仅影响系统的稳定性和性能,还可能导致数据不一致。尼恩在实际项目中总结了这些坑,并提供了详细的解决方案,包括使用Lua脚本保证原子性、设置合理的锁过期时间和使用看门狗机制、以及通过锁分段提升性能。这些经验和技巧对面试和实际开发都有很大帮助,值得深入学习和实践。
太惨痛: Redis 分布式锁 5个大坑,又大又深, 如何才能 避开 ?
|
3月前
|
NoSQL Redis
基于Redis的高可用分布式锁——RedLock
这篇文章介绍了基于Redis的高可用分布式锁RedLock的概念、工作流程、获取和释放锁的方法,以及RedLock相比单机锁在高可用性上的优势,同时指出了其在某些特殊场景下的不足,并提到了ZooKeeper作为另一种实现分布式锁的方案。
110 2
基于Redis的高可用分布式锁——RedLock

热门文章

最新文章