Redhat5.4 系统上部署 MooseFS分布式文件系统的部署

简介:

 第一,               分布式文件系统的介绍

分布式文件系统有数十种方案可供选择。如:ustre hadoopPnfs 等。还有下面要实现的moosfes moosfes 文件系统具有以下几个优点

   1 实施简单。 MFS(即是moosfes) 的部署,配置相对于其他类型的分布式文件系统来数,相对简单。

  2  在不停止服务时,就能对该文件系统进行扩容。 MFS 框架做好后,随时就可以可以对服务器进行扩充容量;在进行扩充   减少容量的同时都不会对现有服务造成影响。注: hadoop 也具有该功能

  3 容易恢复。

  4 高可靠性,将数据分成几个副本存储在不同的计算机中;通过增加计算机或者增加硬盘,动态的扩充可用磁盘空间; 可以设置删除文件的空间回收时间; 同时也能为文件创建快照

 6 mfs 文件系统的组成

     1,原数据服务器。负责管理文件系统

     2 数据服务器,即是chunkserver 。真正存储用户的数据服务器。存储文件时,首先把文件分成数据块,然后这些数据块存在数据服务器chunkserver之间复制。数据服务器可以死多个,并将数据服务器的数量越多,可使用的“磁盘空间”越大,同时可靠性也就越高

      3,客户端。使用MFS文件系统来存储和访问的主机称为mfs 的客户端,成功挂接MFS文件系统后,就可以共享该虚拟性的存储

7 MooseFS(即是mfs 架构(如下图)

        mfs 包括四种类型的机器

l   Mangaging Server master server

l   Data servers chunk servers

l   Metadata backup servers (metalogger server)

l   Client

          

 



 


 

第二.Master server(元数据服务器的安装

首先创建用户mfs

  #useradd –s /sbin/nologin  mfs

配置安装数据源服务器

    #tar  -xvf   mfs-1.6.17.tar.gz

    # cd mfs-1.6.17

    # ./configure  --prefix=/usr/local/mfs  --disable-mfschunkserver  --disable-mfsmount –with-default-user=mfs  --with-default-group=mfs 

    #make  && make install

配置数据服务器的相关配置文件

     #cd /usr/local/mfs/etc

     #cp   mfsexports.cfg.dist    mfsexports.cfg

     #cp   mfsmaster.cfg.dist     mfsmaster.cfg

     #cd  /usr/local/mfs/var/mfs

     #cp  metadata.mfs.empty  metadata.mfs

   4 修改mfsexports.cfg  mfsmaster.cfg

     IP      /    rw,alldirs,maproot=0

     注:IP 是允许 挂载的主机,该处可以是域名,主机名,IP地址

         #vim  mfsmaster.cfg

          mfsmaster.cfg 每行都是被注释掉了,但是都是配置文件的默认值。

Ø  LOCK_FILE=/var/run/mfs/mfsmaster.lock 

       注:文件锁在的位置,该文件主要是避免多次启动同一个守护进程。

Ø  DATA_PATH=/user/local/mfs/var/mfs 数据存储路径,只是元数据的存放路径,

Ø  MATOCS_LISTEN_PORT = 9420  即元数据服务使用9420 这个端口来接受数据储存服务器chunkserver端的连接

Ø  MATOCU_LISTEN_PORT = 9421  元数据服务器在9421 端口监听,用用以接受客户端对于MFS进行远程挂接(客户端以mfsmount 挂接MFS

        5 启动元数据服务器master

                    #/usr/local/mfs/sbin/mfsmaster  start

                             working directory: /usr/local/mfs/var/mfs

lockfile created and locked

initializing mfsmaster modules ...

loading sessions ... ok

sessions file has been loaded

exports file has been loaded

loading metadata ...

loading objects (files,directories,etc.) ... ok

loading names ... ok

loading deletion timestamps ... ok

checking filesystem consistency ... ok

loading chunks data ... ok

connecting files and chunks ... ok

all inodes: 6

directory inodes: 2

                             file inodes: 4

chunks: 46

metadata file has been loaded

stats file has been loaded

master <-> metaloggers module: listen on *:9419

master <-> chunkservers module: listen on *:9420

main master server module: listen on *:9421

mfsmaster daemon initialized properly

 

 

   6 关闭原数据服务器master 

 

       在关闭元数据服务器master 务必使用/usr/local/mfs/sbin/mfsmaster –s

 

 

       如果直接使用kill 杀死进程,导致下次启动时出现找不到相关文件,而不能正常启动服务器。 如果使用kill 杀死进程,时出现上面的问题时,可以通过mfsmetastore 来恢复

第三,安装数据 储存服务器 chunkserver

1         解压mfs

#tar  -xvf  mfs-1.6.17.tar.gz

#cd  mfs-1.6.17

2         创建mfs 用户

   #useradd  -s /sbin/nologin mfs

3         配置安装mfs

  #  ./configure –prefix=/usr/local/mfs   --disable-mfsmaster –disable-mfsmount –with-default-user=mfs  --with-default-group=mfs

  #make  && make install

4         修改相关的配置文件

   #cd  /usr/local/mfs/etc

   #cp   mfschunkserver.cfg.dist   mfschunkserver.cfg

   #cp  mfshdd.cfg.dist     mfsshdd.cfg

   #vim  mfschunkserver.cfg

        取消下列注释

      MASTER_HOST= 192.168.2.1

        注: 该处的ip地址为元数据服务器的IP地址,此处可以设置元数据服务器的域名等

   LOCK_FILE=/var/run/mfs/mfschunkserver.lock  

                        注:文件锁在的位置,该文件主要是避免多次启动同一个守护进程

         CSSERV_LISTEN_PORT=9422 该端口用于与其他数据储存服务器间的连接,通常是数据复制 

 

             HDD_CONF_FILENAME=/usr/local/mfs/etc/mfshdd.cfg

                注: 分配给MFS使用的磁盘空间配置文件的位置

 

5         修改配置文件mfshdd.cfg 服务分区挂接点 /data ,并修改属主

#chown  -R mfs:mfs  /data

 注:mfshdd.cfg 文件存的是用来给MooseFs 使用的空间,如果是单个chunkserver的储存空间最好大于2g,否则无法写入空间

6         启动数据储存服务器chunkserver

#/usr/local/mfs/sbin/mfschunkserver  start

 working directory: /usr/local/mfs/var/mfs

lockfile created and locked

initializing mfschunkserver modules ...

hdd space manager: scanning folder /mnt/data/ ...

hdd space manager: /mnt/data/: 46 chunks found

hdd space manager: scanning complete

main server module: listen on *:9422

stats file has been loaded

mfschunkserver daemon initialized properly

7         数据储存服务器chunkserver 监听的端口为9422 ,同样关闭数据储存服务器时同样和元数据服务器的方法类似

#/usr/local/mfs/sbin/mfschunkserver –s

第四,安装元数据日志服务器 mfsmetalogger

      1 创建mfs 用户

         #useradd  -s /sbin/nologin  mfs

      2 安装元数据日志服务器

          # tar –xvf  mfs-1.6.17.tar.gz

          #cd mfs-1.6.17

          # ./configure  --prefix=/usr/local/mfs   --disable-mfschunkserver  --disable-mfsmount  --with-default-user=mfs   --with-default-group=mfs  

          # make  && make install

       3 修改相关配置

          #cd  /usr/local/mfs/etc

           #cp  mfsmetalogger.cfg.dist  mfsmetalogger.cfg

            #vim mfsmetalogger.cfg

             并把修改下面的选项

                MASTER_HOST = mfsmaster 

                 MASTER_HOST = 192.168.2.1 此地址为mfsmaster ip地址

                并保存

                back_logs =50 

               META_DOWNLOAD_FREQ=24 注:元数据备份文件下载请求频率,默认为24 小时,即每个一天重元数据服务器 (master) 下载一个metadata.mfs.back 文件。但元数据服务器关闭或者故障时,matedata.mfs.back文件将消失,如果要回复整个 mfs。则需要从metalogger服务器取得该文件。该文件与日志文件在一起时,才能恢复整个被损坏的分布式文件系统

     4 启动元数据日志服务器

        #/usr/local/sbin/mfsmetalogger start

          working directory: /usr/local/mfs/var/mfs

lockfile created and locked

initializing mfsmetalogger modules ...

mfsmetalogger daemon initialized properly

 注: metalogger 连接的master9419 端口   

第五.MFS客户端的安装 

 

   1 创建,mfs 用户

 

    #useradd  -s /sbin/nologin mfs

  2 解压安装fuse 

      # tar –xvf fuse-2.8.5.tar.gz

      #cd fuse-2.8.5

      #./configure  -prefix=/usr/local/fuse

      #make && make install

设置fuse 的环境

   #vim  /etc/profile 并在其尾部添加如下配置

     export PKG_CONFIG_PATH=/usr/local/fuse/lib/pkgconfig:$PKG_CONFIG_PATH

      保存并执行

     #source  /etc/profile

4解压,安装mfs客户端

     #tar –xvf  mfs-1.6.17.tar.gz

     #cd  mfs-1.6.17

     #./configure  --prefix=/user/local/mfs   --disable-mfsmaster –disable-mfschunkserver –enable-mfsmount  --with-default-user=mfs  --with-default-group=mfs

     #make  && make install

挂载MooseFs

    #mkdir  /mnt/mfs

  #/usr/local/mfs/bin/mfsmount –H  192.168.2.1 /mnt/mfs

mfsmaster accepted connection with parameters:read-write,restricted_ip;root mapped to root:root










本文转自 freehat08 51CTO博客,原文链接:http://blog.51cto.com/freehat/411552,如需转载请自行联系原作者
目录
相关文章
|
4月前
|
Kubernetes 大数据 调度
Airflow vs Argo Workflows:分布式任务调度系统的“华山论剑”
本文对比了Apache Airflow与Argo Workflows两大分布式任务调度系统。两者均支持复杂的DAG任务编排、社区支持及任务调度功能,且具备优秀的用户界面。Airflow以Python为核心语言,适合数据科学家使用,拥有丰富的Operator库和云服务集成能力;而Argo Workflows基于Kubernetes设计,支持YAML和Python双语定义工作流,具备轻量化、高性能并发调度的优势,并通过Kubernetes的RBAC机制实现多用户隔离。在大数据和AI场景中,Airflow擅长结合云厂商服务,Argo则更适配Kubernetes生态下的深度集成。
559 34
|
2月前
|
数据采集 缓存 NoSQL
分布式新闻数据采集系统的同步效率优化实战
本文介绍了一个针对高频新闻站点的分布式爬虫系统优化方案。通过引入异步任务机制、本地缓存池、Redis pipeline 批量写入及身份池策略,系统采集效率提升近两倍,数据同步延迟显著降低,实现了分钟级热点追踪能力,为实时舆情监控与分析提供了高效、稳定的数据支持。
分布式新闻数据采集系统的同步效率优化实战
|
4月前
|
监控 Linux 应用服务中间件
Linux多节点多硬盘部署MinIO:分布式MinIO集群部署指南搭建高可用架构实践
通过以上步骤,已成功基于已有的 MinIO 服务,扩展为一个 MinIO 集群。该集群具有高可用性和容错性,适合生产环境使用。如果有任何问题,请检查日志或参考MinIO 官方文档。作者联系方式vx:2743642415。
1218 57
|
7月前
|
Java 关系型数据库 MySQL
新一代 Cron-Job分布式任务调度平台 部署指南
简单易用、超低延迟,支持用户权限管理、多语言客户端和多租户接入的分布式任务调度平台。 支持任何Cron表达式的任务调度,支持常用的分片和随机策略;支持失败丢弃、失败重试的失败策略;支持动态任务参数。
209 101
|
5月前
|
SQL 数据可视化 网络安全
YashanDB分布式可视化部署
本文介绍YashanDB的分布式部署流程,涵盖服务端安装、数据库基本信息与服务器配置、节点信息设置、建库参数调整、环境变量配置及安装结果检查等步骤。通过可视化Web界面操作,详细说明了各环节配置方法和注意事项,确保用户顺利完成数据库集群的搭建与初始化设置。适用于需要分布式数据库部署的场景,提供全面的操作指导。
YashanDB分布式可视化部署
|
6月前
|
运维 Kubernetes Java
Koupleless 助力「人力家」实现分布式研发集中式部署,又快又省!
本文由仁励家网络科技(杭州)有限公司架构师赵云兴、葛志刚撰写,探讨了公司在优化HR SaaS解决方案时遇到的系统资源浪费和运维成本高的问题。通过引入Koupleless框架,成功将模块体积从500M缩减至5M以下,部署时间从6分钟缩短至3分钟,并大幅节省服务器资源。文章详细介绍了Koupleless的部署方案及优化措施,感谢Koupleless团队的专业支持,使人力家实现了多应用合并部署,降低了运维成本。
Koupleless 助力「人力家」实现分布式研发集中式部署,又快又省!
|
6月前
|
运维 Kubernetes Java
Koupleless 助力「人力家」实现分布式研发集中式部署,又快又省!
通过引入Koupleless框架,解决了多应用部署中资源浪费和运维成本高的问题,实现了模块瘦身、快速部署及流量控制优化,大幅降低了服务器资源占用和发布耗时,提升了系统稳定性和运维效率。最终,人力家成功实现了多应用的轻量集中部署,显著减少了运维成本。
 Koupleless 助力「人力家」实现分布式研发集中式部署,又快又省!
|
7月前
|
人工智能 Kubernetes 异构计算
大道至简-基于ACK的Deepseek满血版分布式推理部署实战
大道至简-基于ACK的Deepseek满血版分布式推理部署实战
372 5
|
7月前
|
人工智能 Kubernetes 异构计算
大道至简-基于ACK的Deepseek满血版分布式推理部署实战
本教程演示如何在ACK中多机分布式部署DeepSeek R1满血版。
|
8月前
|
存储 运维 安全
盘古分布式存储系统的稳定性实践
本文介绍了阿里云飞天盘古分布式存储系统的稳定性实践。盘古作为阿里云的核心组件,支撑了阿里巴巴集团的众多业务,确保数据高可靠性、系统高可用性和安全生产运维是其关键目标。文章详细探讨了数据不丢不错、系统高可用性的实现方法,以及通过故障演练、自动化发布和健康检查等手段保障生产安全。总结指出,稳定性是一项系统工程,需要持续迭代演进,盘古经过十年以上的线上锤炼,积累了丰富的实践经验。
597 7

推荐镜像

更多