Dubbo分布式架构实战--FastDFS分布式文件系统的安装与使用(单节点)

本文涉及的产品
云防火墙,500元 1000GB
简介:

跟踪服务器:192.168.4.121 (edu-dfs-tracker-01)

存储服务器:192.168.4.125 (edu-dfs-storage-01)

环境:CentOS 6.6

用户:root                                                   

数据目录:/fastdfs   注:数据目录按你的数据盘挂载路径而定

安装包:

FastDFS v5.05

libfastcommon-master.zip(是从FastDFS和FastDHT中提取出来的公共C函数库)

fastdfs-nginx-module_v1.16.tar.gz

nginx-1.6.2.tar.gz

fastdfs_client_java._v1.25.tar.gz


源码地址:https://github.com/happyfish100/

下载地址:http://sourceforge.net/projects/fastdfs/files/

官方论坛:http://bbs.chinaunix.net/forum-240-1.html

 

 

一、所有跟踪服务器和存储服务器均执行如下操作


1、编译和安装所需的依赖包:

yum install make cmake gcc gcc-c++

 

2、安装libfastcommon:

(1)上传或下载libfastcommon-master.zip到/usr/local/src目录

(2)解压

cd /usr/local/src/

unzip libfastcommon-master.zip

cd libfastcommon-master

face/XAAxZGWWhfHxMEyYhQC5zQ54KDxjamFb.png                                             


(3) 编译、安装

./make.sh

./make.sh install

libfastcommon默认安装到了

/usr/lib64/libfastcommon.so

/usr/lib64/libfdfsclient.so


(4)因为FastDFS主程序设置的lib目录是/usr/local/lib,所以需要创建软链接.

ln -s /usr/lib64/libfastcommon.so /usr/local/lib/libfastcommon.so

ln -s /usr/lib64/libfastcommon.so /usr/lib/libfastcommon.so

ln -s /usr/lib64/libfdfsclient.so /usr/local/lib/libfdfsclient.so

# ln -s /usr/lib64/libfdfsclient.so /usr/lib/libfdfsclient.so

 

3、安装FastDFS

(1)上传或下载FastDFS源码包(FastDFS_v5.05.tar.gz)到 /usr/local/src 目录

(2)解压

cd /usr/local/src/

tar -zxvf FastDFS_v5.05.tar.gz

cd FastDFS

face/5YpGBd7TrkKeCbesktrQicknsJ6hnHBi.png


(3)编译、安装(编译前要确保已经成功安装了libfastcommon)

./make.sh

./make.sh install

 

采用默认安装的方式安装,安装后的相应文件与目录:

A、服务脚本在:

/etc/init.d/fdfs_storaged

/etc/init.d/fdfs_tracker

     B、配置文件在(样例配置文件):

          /etc/fdfs/client.conf.sample

/etc/fdfs/storage.conf.sample

/etc/fdfs/tracker.conf.sample

     C、命令工具在/usr/bin/目录下的:

fdfs_appender_test

fdfs_appender_test1

fdfs_append_file

fdfs_crc32

fdfs_delete_file

fdfs_download_file

fdfs_file_info

fdfs_monitor

fdfs_storaged

fdfs_test

fdfs_test1

fdfs_trackerd

fdfs_upload_appender

fdfs_upload_file

stop.sh

restart.sh

 

(4)因为FastDFS服务脚本设置的bin目录是/usr/local/bin,但实际命令安装在/usr/bin,可以进入

/user/bin目录使用以下命令查看fdfs的相关命令:

   # cd /usr/bin/

   # ls | grep fdfs

face/JB4HFtzPi2jSW4f7CYwGKXnJ3ifhk8KG.png

因此需要修改FastDFS服务脚本中相应的命令路径,也就是把/etc/init.d/fdfs_storaged

/etc/init.d/fdfs_tracker两个脚本中的/usr/local/bin修改成/usr/bin

vi fdfs_trackerd

使用查找替换命令进统一修改:%s+/usr/local/bin+/usr/bin

vi fdfs_storaged

使用查找替换命令进统一修改:%s+/usr/local/bin+/usr/bin

 

二、配置FastDFS跟踪器(192.168.4.121)

1、  复制FastDFS跟踪器样例配置文件,并重命名:

cd /etc/fdfs/

face/JXSYAcdBwxH4cwwGnPasiBrt8mEDGXnp.png

cp tracker.conf.sample tracker.conf

 

2、  编辑跟踪器配置文件:

vi /etc/fdfs/tracker.conf

修改的内容如下:

disabled=false

port=22122

base_path=/fastdfs/tracker

其它参数保留默认配置,具体配置解释请参考官方文档说明:

http://bbs.chinaunix.net/thread-1941456-1-1.html 

 

3、  创建基础数据目录(参考基础目录base_path配置):

mkdir -p /fastdfs/tracker

 

4、  防火墙中打开跟踪器端口(默认为22122):

vi /etc/sysconfig/iptables

添加如下端口行:

-A INPUT -m state --state NEW -m tcp -p tcp --dport 22122 -j ACCEPT

重启防火墙:

service iptables restart

 

5、  启动Tracker:

/etc/init.d/fdfs_trackerd start

初次成功启动,会在/fastdfs/tracker目录下创建data、logs两个目录

查看FastDFS Tracker是否已成功启动:

ps -ef | grep fdfs

face/psXP36j7wYdXtcfp7cF7fwhxyeJ6f74r.png

 

6、  关闭Tracker:

/etc/init.d/fdfs_trackerd stop

 

7、  设置FastDFS跟踪器开机启动:

vi /etc/rc.d/rc.local

添加以下内容:

## FastDFS Tracker

/etc/init.d/fdfs_trackerd start

 

三、配置FastDFS存储(192.168.4.125)

1、  复制FastDFS存储器样例配置文件,并重命名:

cd /etc/fdfs/

face/8c5hXTX4i66yZpHdBwThhsTaWfTDmcsB.png

cp storage.conf.sample storage.conf

 

2、  编辑存储器样例配置文件:

vi /etc/fdfs/storage.conf

修改的内容如下:

disabled=false

port=23000

base_path=/fastdfs/storage

store_path0=/fastdfs/storage

tracker_server=192.168.4.121:22122

http.server_port=8888

其它参数保留默认配置,具体配置解释请参考官方文档说明:

http://bbs.chinaunix.net/thread-1941456-1-1.html 

 

3、  创建基础数据目录(参考基础目录base_path配置):

mkdir -p /fastdfs/storage

 

4、  防火墙中打开存储器端口(默认为23000):

vi /etc/sysconfig/iptables

添加如下端口行:

-A INPUT -m state --state NEW -m tcp -p tcp --dport 23000 -j ACCEPT

重启防火墙:

service iptables restart

 

5、  启动Storage:

/etc/init.d/fdfs_storaged start

初次成功启动,会在/fastdfs/storage目录下创建data、logs两个目录

查看FastDFS Storage是否已成功启动

ps -ef | grep fdfs

face/JzFDGznKMK5b2emtrBKjfFJBmxMyaRwn.png

 

6、  关闭Storage:

/etc/init.d/fdfs_storaged stop

 

7、  设置FastDFS存储器开机启动:

vi /etc/rc.d/rc.local

添加:

## FastDFS Storage

/etc/init.d/fdfs_storaged start

 

四、文件上传测试(192.168.4.121)


1、修改Tracker服务器中的客户端配置文件:

     # cp /etc/fdfs/client.conf.sample /etc/fdfs/client.conf

     # vi /etc/fdfs/client.conf

     base_path=/fastdfs/tracker

tracker_server=192.168.4.121:22122

 

2、执行如下文件上传命令:

     # /usr/bin/fdfs_upload_file /etc/fdfs/client.conf /usr/local/src/FastDFS_v5.05.tar.gz

     返回ID号:group1/M00/00/00/wKgEfVUYNYeAb7XFAAVFOL7FJU4.tar.gz

     (能返回以上文件ID,说明文件上传成功)

 

五、在每个存储节点上安装nginx

1、fastdfs-nginx-module作用说明

FastDFS通过Tracker服务器,将文件放在Storage服务器存储,但是同组存储服务器之间需要进入文件复制,有同步延迟的问题。假设Tracker服务器将文件上传到了192.168.4.125,上传成功后文件ID已经返回给客户端。此时FastDFS存储集群机制会将这个文件同步到同组存储192.168.4.126,在文件还没有复制完成的情况下,客户端如果用这个文件ID在192.168.4.126上取文件,就会出现文件无法访问的错误。而fastdfs-nginx-module可以重定向文件连接到源服务器取文件,避免客户端由于复制延迟导致的文件无法访问错误。(解压后的fastdfs-nginx-module在nginx安装时使用)

 

2、上传fastdfs-nginx-module_v1.16.tar.gz到/usr/local/src

 

3、解压

cd /usr/local/src/

tar -zxvf fastdfs-nginx-module_v1.16.tar.gz

 

4、修改fastdfs-nginx-module的config配置文件

cd fastdfs-nginx-module/src

     # vi config

CORE_INCS="$CORE_INCS /usr/local/include/fastdfs /usr/local/include/fastcommon/"

修改为:

CORE_INCS="$CORE_INCS /usr/include/fastdfs /usr/include/fastcommon/"

     (注意:这个路径修改是很重要的,不然在nginx编译的时候会报错的

 

5、上传当前的稳定版本Nginx(nginx-1.6.2.tar.gz)到/usr/local/src目录

 

6、安装编译Nginx所需的依赖包

     # yum install gcc gcc-c++ make automake autoconf libtool pcre* zlib openssl openssl-devel

 

7、编译安装Nginx(添加fastdfs-nginx-module模块)

     # cd /usr/local/src/

     tar -zxvf nginx-1.6.2.tar.gz

# cd nginx-1.6.2

./configure --add-module=/usr/local/src/fastdfs-nginx-module/src

     # make && make install

 

8、复制fastdfs-nginx-module源码中的配置文件到/etc/fdfs目录,并修改

cp /usr/local/src/fastdfs-nginx-module/src/mod_fastdfs.conf /etc/fdfs/

     # vi /etc/fdfs/mod_fastdfs.conf

     修改以下配置:

connect_timeout=10

base_path=/tmp

tracker_server=192.168.4.121:22122

     storage_server_port=23000

     group_name=group1

     url_have_group_name = true

store_path0=/fastdfs/storage

 

9、复制FastDFS的部分配置文件到/etc/fdfs目录

     # cd /usr/local/src/FastDFS/conf

cp http.conf mime.types /etc/fdfs/

 

10、在/fastdfs/storage文件存储目录下创建软连接,将其链接到实际存放数据的目录

     # ln -s /fastdfs/storage/data/ /fastdfs/storage/data/M00

 

11、配置Nginx

简洁版nginx配置样例:

user  root;

worker_processes  1;

events {

    worker_connections  1024;

}

http {

    include       mime.types;

    default_type  application/octet-stream;

    sendfile        on;

    keepalive_timeout  65;

    server {

        listen       8888;

        server_name  localhost;

        location ~/group([0-9])/M00 {

            #alias /fastdfs/storage/data;

            ngx_fastdfs_module;

        }

        error_page   500 502 503 504  /50x.html;

        location = /50x.html {

            root   html;

        }

    }

}

注意、说明

A、8888端口值是要与/etc/fdfs/storage.conf中的http.server_port=8888 相对应,

因为http.server_port默认为8888,如果想改成80,则要对应修改过来。

B、Storage对应有多个group的情况下,访问路径带group名,如/group1/M00/00/00/xxx,

对应的Nginx配置为:

location ~/group([0-9])/M00 {

          ngx_fastdfs_module;

}

C、如查下载时如发现老报404,将nginx.conf第一行user nobody修改为user root后重新启动。

 

12、防火墙中打开Nginx的8888端口

     # vi /etc/sysconfig/iptables

     添加:

     -A INPUT -m state --state NEW -m tcp -p tcp --dport 8888 -j ACCEPT

     # service iptables restart

 

13、启动Nginx

     # /usr/local/nginx/sbin/nginx

     ngx_http_fastdfs_set pid=xxx

     (重启Nginx的命令为:/usr/local/nginx/sbin/nginx -s reload

 

14、通过浏览器访问测试时上传的文件基于Dubbo的分布式系统架构实战

     http://192.168.4.125:8888/group1/M00/00/00/wKgEfVUYNYeAb7XFAAVFOL7FJU4.tar.gz

 

六、FastDFS的使用的Demo样例讲解与演示:


具体内容请参考样例代码和视频教程

 

 

注意:千万不要使用kill -9命令强杀FastDFS进程,否则可能会导致binlog数据丢失。

目录
相关文章
|
6天前
|
数据管理 API 调度
鸿蒙HarmonyOS应用开发 | 探索 HarmonyOS Next-从开发到实战掌握 HarmonyOS Next 的分布式能力
HarmonyOS Next 是华为新一代操作系统,专注于分布式技术的深度应用与生态融合。本文通过技术特点、应用场景及实战案例,全面解析其核心技术架构与开发流程。重点介绍分布式软总线2.0、数据管理、任务调度等升级特性,并提供基于 ArkTS 的原生开发支持。通过开发跨设备协同音乐播放应用,展示分布式能力的实际应用,涵盖项目配置、主界面设计、分布式服务实现及部署调试步骤。此外,深入分析分布式数据同步原理、任务调度优化及常见问题解决方案,帮助开发者掌握 HarmonyOS Next 的核心技术和实战技巧。
128 76
鸿蒙HarmonyOS应用开发 | 探索 HarmonyOS Next-从开发到实战掌握 HarmonyOS Next 的分布式能力
|
7天前
|
物联网 调度 vr&ar
鸿蒙HarmonyOS应用开发 |鸿蒙技术分享HarmonyOS Next 深度解析:分布式能力与跨设备协作实战
鸿蒙技术分享:HarmonyOS Next 深度解析 随着万物互联时代的到来,华为发布的 HarmonyOS Next 在技术架构和生态体验上实现了重大升级。本文从技术架构、生态优势和开发实践三方面深入探讨其特点,并通过跨设备笔记应用实战案例,展示其强大的分布式能力和多设备协作功能。核心亮点包括新一代微内核架构、统一开发语言 ArkTS 和多模态交互支持。开发者可借助 DevEco Studio 4.0 快速上手,体验高效、灵活的开发过程。 239个字符
158 13
鸿蒙HarmonyOS应用开发 |鸿蒙技术分享HarmonyOS Next 深度解析:分布式能力与跨设备协作实战
|
4天前
|
SpringCloudAlibaba JavaScript Dubbo
【SpringCloud Alibaba系列】Dubbo dubbo-admin安装教程篇
本文介绍了 Dubbo-Admin 的安装和使用步骤。Dubbo-Admin 是一个前后端分离的项目,前端基于 Vue,后端基于 Spring Boot。安装前需确保开发环境(Windows 10)已安装 JDK、Maven 和 Node.js,并在 Linux CentOS 7 上部署 Zookeeper 作为注册中心。
【SpringCloud Alibaba系列】Dubbo dubbo-admin安装教程篇
|
14天前
|
NoSQL Java Redis
秒杀抢购场景下实战JVM级别锁与分布式锁
在电商系统中,秒杀抢购活动是一种常见的营销手段。它通过设定极低的价格和有限的商品数量,吸引大量用户在特定时间点抢购,从而迅速增加销量、提升品牌曝光度和用户活跃度。然而,这种活动也对系统的性能和稳定性提出了极高的要求。特别是在秒杀开始的瞬间,系统需要处理海量的并发请求,同时确保数据的准确性和一致性。 为了解决这些问题,系统开发者们引入了锁机制。锁机制是一种用于控制对共享资源的并发访问的技术,它能够确保在同一时间只有一个进程或线程能够操作某个资源,从而避免数据不一致或冲突。在秒杀抢购场景下,锁机制显得尤为重要,它能够保证商品库存的扣减操作是原子性的,避免出现超卖或数据不一致的情况。
45 10
|
9天前
|
弹性计算 Java 数据库
Web应用上云经典架构实战
本课程详细介绍了Web应用上云的经典架构实战,涵盖前期准备、配置ALB、创建服务器组和监听、验证ECS公网能力、环境配置(JDK、Maven、Node、Git)、下载并运行若依框架、操作第二台ECS以及验证高可用性。通过具体步骤和命令,帮助学员快速掌握云上部署的全流程。
|
1月前
|
消息中间件 Java Kafka
实时数仓Kappa架构:从入门到实战
【11月更文挑战第24天】随着大数据技术的不断发展,企业对实时数据处理和分析的需求日益增长。实时数仓(Real-Time Data Warehouse, RTDW)应运而生,其中Kappa架构作为一种简化的数据处理架构,通过统一的流处理框架,解决了传统Lambda架构中批处理和实时处理的复杂性。本文将深入探讨Kappa架构的历史背景、业务场景、功能点、优缺点、解决的问题以及底层原理,并详细介绍如何使用Java语言快速搭建一套实时数仓。
180 4
|
1月前
|
运维 NoSQL Java
后端架构演进:微服务架构的优缺点与实战案例分析
【10月更文挑战第28天】本文探讨了微服务架构与单体架构的优缺点,并通过实战案例分析了微服务架构在实际应用中的表现。微服务架构具有高内聚、低耦合、独立部署等优势,但也面临分布式系统的复杂性和较高的运维成本。通过某电商平台的实际案例,展示了微服务架构在提升系统性能和团队协作效率方面的显著效果,同时也指出了其带来的挑战。
86 4
|
7月前
|
Dubbo Java 应用服务中间件
微服务学习 | Springboot整合Dubbo+Nacos实现RPC调用
微服务学习 | Springboot整合Dubbo+Nacos实现RPC调用
|
2月前
|
Dubbo Java 应用服务中间件
Spring Cloud Dubbo:微服务通信的高效解决方案
【10月更文挑战第15天】随着信息技术的发展,微服务架构成为企业应用开发的主流。Spring Cloud Dubbo结合了Dubbo的高性能RPC和Spring Cloud的生态系统,提供高效、稳定的微服务通信解决方案。它支持多种通信协议,具备服务注册与发现、负载均衡及容错机制,简化了服务调用的复杂性,使开发者能更专注于业务逻辑的实现。
75 2
|
4月前
|
Dubbo Java 应用服务中间件
💥Spring Cloud Dubbo火爆来袭!微服务通信的终极利器,你知道它有多强大吗?🔥
【8月更文挑战第29天】随着信息技术的发展,微服务架构成为企业应用开发的主流模式,而高效的微服务通信至关重要。Spring Cloud Dubbo通过整合Dubbo与Spring Cloud的优势,提供高性能RPC通信及丰富的生态支持,包括服务注册与发现、负载均衡和容错机制等,简化了服务调用管理并支持多种通信协议,提升了系统的可伸缩性和稳定性,成为微服务通信领域的优选方案。开发者仅需关注业务逻辑,而无需过多关心底层通信细节,使得Spring Cloud Dubbo在未来微服务开发中将更加受到青睐。
90 0