分布式文件系统FastDFS看这一篇就够了(文件上传下载、单机部署及集群部署)(二)

本文涉及的产品
云防火墙,500元 1000GB
简介: 分布式文件系统FastDFS看这一篇就够了(文件上传下载、单机部署及集群部署)

三、FastDFS+Nginx(单点部署)事例


3.1.服务器规划


跟踪服务器(Tracker Server):ip01


存储服务器(Storage Server):ip02


操作系统:CentOS7


用户:root


数据存储目录:/fastdfs/tracker


安装包:


FastDFS_v5.08.tar.gz:FastDFS源码


libfastcommon-master.zip:(从 FastDFS 和 FastDHT 中提取出来的公共 C 函数库)

fastdfs-nginx-module-master.zip:storage节点http服务nginx模块


nginx-1.10.0.tar.gz:Nginx安装包


ngx_cache_purge-2.3.tar.gz:图片缓存清除Nginx模块(集群环境会用到)


下载完成后,将压缩包解压到/usr/local/src目录下


3.2.所有tracker和storage节点都执行如下操作


1、安装所需的依赖包

yum install make cmake gcc gcc-c++

2、安装libfatscommon

cd /usr/local/src
#安装unzip 命令: yum install -y unzip zip
unzip libfastcommon-master.zip    
cd libfastcommon-master
#编译、安装
./make.sh
./make.sh install

3、安装FastDFS

cd /usr/local/src
tar -xzvf FastDFS_v5.08.tar.gz
cd FastDFS
./make.sh
./make.sh install

采用默认安装方式,相应的文件与目录如下:


1> 服务脚本:

/etc/init.d/fdfs_storaged
/etc/init.d/fdfs_trackerd

2> 配置文件(示例配置文件):

 ll /etc/fdfs/
-rw-r--r-- 1 root root  1461 1月   4 14:34 client.conf.sample
-rw-r--r-- 1 root root  7927 1月   4 14:34 storage.conf.sample
-rw-r--r-- 1 root root  7200 1月   4 14:34 tracker.conf.sample

3> 命令行工具(/usr/bin目录下)

-rwxr-xr-x    1 root root     260584 1月   4 14:34 fdfs_appender_test
-rwxr-xr-x    1 root root     260281 1月   4 14:34 fdfs_appender_test1
-rwxr-xr-x    1 root root     250625 1月   4 14:34 fdfs_append_file
-rwxr-xr-x    1 root root     250045 1月   4 14:34 fdfs_crc32
-rwxr-xr-x    1 root root     250708 1月   4 14:34 fdfs_delete_file
-rwxr-xr-x    1 root root     251515 1月   4 14:34 fdfs_download_file
-rwxr-xr-x    1 root root     251273 1月   4 14:34 fdfs_file_info
-rwxr-xr-x    1 root root     266401 1月   4 14:34 fdfs_monitor
-rwxr-xr-x    1 root root     873233 1月   4 14:34 fdfs_storaged
-rwxr-xr-x    1 root root     266952 1月   4 14:34 fdfs_test
-rwxr-xr-x    1 root root     266153 1月   4 14:34 fdfs_test1
-rwxr-xr-x    1 root root     371336 1月   4 14:34 fdfs_trackerd
-rwxr-xr-x    1 root root     251651 1月   4 14:34 fdfs_upload_appender
-rwxr-xr-x    1 root root     252781 1月   4 14:34 fdfs_upload_file

3.3.配置tracker服务器


1> 复制tracker样例配置文件,并重命名

 cp /etc/fdfs/tracker.conf.sample /etc/fdfs/tracker.conf

2> 修改tracker配置文件

vim /etc/fdfs/tracker.conf

修改的内容如下:

disabled=false              # 启用配置文件
port=22122                  # tracker服务器端口(默认22122)
base_path=/fastdfs/tracker  # 存储日志和数据的根目录

其它参数保留默认配置, 具体配置解释可参考官方文档说明:FastDFS配置文件详解


3> 创建base_path指定的目录

mkdir -p /fastdfs/tracker

4> 防火墙中打开tracker服务器端口( 默认为 22122)

vi /etc/sysconfig/iptables 


附加:若/etc/sysconfig 目录下没有iptables文件可随便写一条iptables命令配置个防火墙规则:如:

iptables -P OUTPUT ACCEPT


然后用命令:service iptables save 进行保存,默认就保存到 /etc/sysconfig/iptables 文件里。这时既有了这个文件。防火墙也可以启动了。接下来要写策略,也可以直接写在/etc/sysconfig/iptables 里了。


添加如下端口行:

-A INPUT -m state --state NEW -m tcp -p tcp --dport 22122 -j ACCEPT 

重启防火墙

service iptables restart

5> 启动tracker服务器

 /etc/init.d/fdfs_trackerd start

初次启动,会在/fastdfs/tracker目录下生成logs、data两个目录。

drwxr-xr-x 2 root root 4096 1月   4 15:00 data
drwxr-xr-x 2 root root 4096 1月   4 14:38 logs


检查FastDFS Tracker Server是否启动成功:

ps -ef | grep fdfs_trackerd

b25bc84bf05741689141f0342b75f42d.png

3.4.配置storage服务器


1> 复制storage样例配置文件,并重命名


cp /etc/fdfs/storage.conf.sample /etc/fdfs/storage.conf


2> 编辑配置文件


vi /etc/fdfs/storage.conf


修改的内容如下:

disabled=false                      # 启用配置文件
port=23000                          # storage服务端口
base_path=/fastdfs/storage          # 数据和日志文件存储根目录
store_path0=/fastdfs/storage        # 第一个存储目录
tracker_server=ip01:22122  # tracker服务器IP和端口
http.server_port=8888               # http访问文件的端口


其它参数保留默认配置, 具体配置解释可参考官方文档说明:FastDFS配置文件详解


3> 创建基础数据目录


mkdir -p /fastdfs/storage


4> 防火墙中打开storage服务器端口( 默认为 23000)


vi /etc/sysconfig/iptables


#添加如下端口行:


-A INPUT -m state --state NEW -m tcp -p tcp --dport 23000 -j ACCEPT


重启防火墙


service iptables restart


5> 启动storage服务器


/etc/init.d/fdfs_storaged start


初次启动,会在/fastdfs/storage目录下生成logs、data两个目录。


drwxr-xr-x 259 root root 4096 Mar 31 06:22 data
drwxr-xr-x   2 root root 4096 Mar 31 06:22 logs


检查FastDFS Tracker Server是否启动成功:

[root@gyl-test-t9 ~]# ps -ef | grep fdfs_storaged
root      1336     1  3 06:22 ?        00:00:01 /usr/bin/fdfs_storaged /etc/fdfs/storage.conf
root      1347   369  0 06:23 pts/0    00:00:00 grep fdfs_storaged

3.5.文件上传测试(ip01)


1> 修改Tracker服务器客户端配置文件

cp /etc/fdfs/client.conf.sample /etc/fdfs/client.conf
vim /etc/fdfs/client.conf

修改以下配置,其它保持默认


base_path=/fastdfs/tracker
tracker_server=ip01:22122


2> 执行文件上传命令


#/usr/local/src/test.png 是需要上传文件路径
/usr/bin/fdfs_upload_file /etc/fdfs/client.conf /usr/local/src/test.png


返回文件ID号:group1/M00/00/00/tlxkwlhttsGAU2ZXAAC07quU0oE095.png


(能返回以上文件ID,说明文件已经上传成功)


3.6.在所有storage节点安装fastdfs-nginx-module


1>fastdfs-nginx-module作用:


FastDFS 通过 Tracker 服务器,将文件放在 Storage 服务器存储,但是同组存储服务器之间需要进入 文件复制,有同步延迟的问题。假设 Tracker 服务器将文件上传到了 ip01,上传成功后文件 ID 已经返回给客户端。此时 FastDFS 存储集群机制会将这个文件同步到同组存储 ip02,在文件还 没有复制完成的情况下,客户端如果用这个文件 ID 在 ip02 上取文件,就会出现文件无法访问的 错误。而 fastdfs-nginx-module 可以重定向文件连接到源服务器取文件,避免客户端由于复制延迟导致的 文件无法访问错误。(解压后的 fastdfs-nginx-module 在 nginx 安装时使用)


2> 解压 fastdfs-nginx-module_v1.16.tar.gz


cd /usr/local/src
tar -xzvf fastdfs-nginx-module_v1.16.tar.gz


3> 修改 fastdfs-nginx-module 的 config 配置文件

cd fastdfs-nginx-module/src
vi config
CORE_INCS="$CORE_INCS /usr/local/include/fastdfs /usr/local/include/fastcommon/" 
修改为:
CORE_INCS="$CORE_INCS /usr/include/fastdfs /usr/include/fastcommon/"


4>上传当前的稳定版本 Nginx(nginx-1.10.0.tar.gz)到/usr/local/src 目录


5>安装编译 Nginx 所需的依赖包


yum install gcc gcc-c++ make automake autoconf libtool pcre* zlib openssl openssl-devel


6>编译安装 Nginx (添加 fastdfs-nginx-module 模块)

cd /usr/local/src/
tar -zxvf nginx-1.10.0.tar.gz
cd nginx-1.10.0
./configure --add-module=/usr/local/src/fastdfs-nginx-module/src <br>make && make install


比对 nginx下Makefile


default:        build
clean:
        rm -rf Makefile objs
build:
        $(MAKE) -f objs/Makefile
install:
        $(MAKE) -f objs/Makefile install
modules:
        $(MAKE) -f objs/Makefile modules
upgrade:
        /usr/local/nginx/sbin/nginx -t
        kill -USR2 'cat /usr/local/nginx/logs/nginx.pid'
        sleep 1
        test -f /usr/local/nginx/logs/nginx.pid.oldbin
        kill -QUIT 'cat /usr/local/nginx/logs/nginx.pid.oldbin'

7>复制 fastdfs-nginx-module 源码中的配置文件到/etc/fdfs 目录,并修改

cp /usr/local/src/fastdfs-nginx-module/src/mod_fastdfs.conf /etc/fdfs/
vi /etc/fdfs/mod_fastdfs.conf

8>修改以下配置:

   connect_timeout=10
     base_path=/tmp
     tracker_server=ip01:22122
     storage_server_port=23000
     group_name=group1
     url_have_group_name = true
     store_path0=/fastdfs/storage

9> 复制 FastDFS 的部分配置文件到/etc/fdfs 目录


cd /usr/local/src/FastDFS/conf<br>
cp http.conf mime.types /etc/fdfs/


10> 在/fastdfs/storage 文件存储目录下创建软连接,将其链接到实际存放数据的目录


ln -s /fastdfs/storage/data/ /fastdfs/storage/data/M00


11>配置 Nginx

user nobody;
worker_processes 1;
events {
    worker_connections 1024;
}
http {
    include mime.types;
    default_type application/octet-stream;
    sendfile on;
    keepalive_timeout 65;
    server {
        listen 8888;
        server_name localhost;
        location ~/group([0-9])/M00 {
            ngx_fastdfs_module;
        }
        error_page 500 502 503 504 /50x.html;
        location = /50x.html {
            root html;
        }
    }
}


A、8888 端口值是要与/etc/fdfs/storage.conf 中的 http.server_port=8888 相对应, 因为 http.server_port 默认为 8888,如果想改成 80,则要对应修改过来。


B、Storage 对应有多个 group 的情况下,访问路径带 group 名,如

**/group1/M00/00/00/xxx**, 对应的 Nginx 配置为:


     location ~/group([0-9])/M00 {
         ngx_fastdfs_module;
  }


C、如查下载时如发现老报 404,将 nginx.conf 第一行 user nobody 修改为 user root 后重新启动。


12> 防火墙中打开 Nginx 的 8888 端口

vi /etc/sysconfig/iptables
添加:
-A INPUT -m state --state NEW -m tcp -p tcp --dport 8888 -j ACCEPT
#重启防火墙
service iptables restart

启动 Nginx

/usr/local/nginx/sbin/nginx<br>(重启 Nginx 的命令为:/usr/local/nginx/sbin/nginx -s reload)

13>通过浏览器访问测试时上传的文件

http://ip:port/group1/M00/00/00/tlxkwlhttsGAU2ZXAAC07quU0oE095.png 
or 
http://ip/group1/M00/00/00/tlxkwlhttsGAU2ZXAAC07quU0oE095.png
目录
相关文章
|
1月前
|
分布式计算 Hadoop 网络安全
Hadoop-08-HDFS集群 基础知识 命令行上机实操 hadoop fs 分布式文件系统 读写原理 读流程与写流程 基本语法上传下载拷贝移动文件
Hadoop-08-HDFS集群 基础知识 命令行上机实操 hadoop fs 分布式文件系统 读写原理 读流程与写流程 基本语法上传下载拷贝移动文件
30 1
|
1月前
|
存储 机器学习/深度学习 缓存
Hadoop-07-HDFS集群 基础知识 分布式文件系统 读写原理 读流程与写流程 基本语法上传下载拷贝移动文件
Hadoop-07-HDFS集群 基础知识 分布式文件系统 读写原理 读流程与写流程 基本语法上传下载拷贝移动文件
45 1
|
1月前
|
分布式计算 资源调度 Hadoop
Hadoop-05-Hadoop集群 集群WordCount 超详细 真正的分布式计算 上传HDFS MapReduce计算 YRAN查看任务 上传计算下载查看
Hadoop-05-Hadoop集群 集群WordCount 超详细 真正的分布式计算 上传HDFS MapReduce计算 YRAN查看任务 上传计算下载查看
47 1
|
2月前
|
存储
cephFS高可用分布式文件系统部署指南
关于如何部署高可用的cephFS分布式文件系统,包括集群的搭建、验证高可用性以及实现两主一从架构的详细指南。
78 9
|
3月前
|
存储 分布式计算 算法
探索Hadoop的三种运行模式:单机模式、伪分布式模式和完全分布式模式
在配置Hadoop集群之前,了解这三种模式的特点、适用场景和配置差异是非常重要的。这有助于用户根据个人需求和资源情况,选择最适合自己的Hadoop运行模式。在最初的学习和开发阶段,单机模式和伪分布式模式能为用户提供便利和成本效益。进而,当用户要处理大规模数据集时,完全分布式模式将是理想的选择。
184 2
|
2月前
|
分布式计算 资源调度 Hadoop
在YARN集群上运行部署MapReduce分布式计算框架
主要介绍了如何在YARN集群上配置和运行MapReduce分布式计算框架,包括准备数据、运行MapReduce任务、查看任务日志,并启动HistoryServer服务以便于日志查看。
63 0
|
3月前
|
Java Nacos Docker
"揭秘!Docker部署Seata遇上Nacos,注册成功却报错?这些坑你不得不防!一网打尽解决秘籍,让你的分布式事务稳如老狗!"
【8月更文挑战第15天】在微服务架构中,Nacos搭配Seata确保数据一致性时,Docker部署Seata后可能出现客户端连接错误,如“can not connect to services-server”。此问题多由网络配置不当、配置文件错误或版本不兼容引起。解决策略包括:调整Docker网络设置确保可达性;检查并修正`file.conf`和`registry.conf`中的Nacos地址和端口;验证Seata与Nacos版本兼容性;修改配置后重启服务;参考官方文档和最佳实践进行配置。通过这些步骤,能有效排除故障,保障服务稳定运行。
268 0
|
3月前
|
存储 运维 安全
多云网络部署存在挑战,F5分布式云应用简化方案解读
多云网络部署存在挑战,F5分布式云应用简化方案解读
50 0
|
5月前
|
存储 搜索推荐 Java
微服务SpringCloud ES分布式全文搜索引擎简介 下载安装及简单操作入门
微服务SpringCloud ES分布式全文搜索引擎简介 下载安装及简单操作入门
77 2
|
5月前
|
XML 分布式计算 Hadoop
分布式系统详解--框架(Hadoop-单机版搭建)
分布式系统详解--框架(Hadoop-单机版搭建)
71 0
分布式系统详解--框架(Hadoop-单机版搭建)

热门文章

最新文章