Redhat5.4 系统上部署 MooseFS分布式文件系统的部署

简介:

 第一,               分布式文件系统的介绍

分布式文件系统有数十种方案可供选择。如:ustre hadoopPnfs 等。还有下面要实现的moosfes moosfes 文件系统具有以下几个优点

   1 实施简单。 MFS(即是moosfes) 的部署,配置相对于其他类型的分布式文件系统来数,相对简单。

  2  在不停止服务时,就能对该文件系统进行扩容。 MFS 框架做好后,随时就可以可以对服务器进行扩充容量;在进行扩充   减少容量的同时都不会对现有服务造成影响。注: hadoop 也具有该功能

  3 容易恢复。

  4 高可靠性,将数据分成几个副本存储在不同的计算机中;通过增加计算机或者增加硬盘,动态的扩充可用磁盘空间; 可以设置删除文件的空间回收时间; 同时也能为文件创建快照

 6 mfs 文件系统的组成

     1,原数据服务器。负责管理文件系统

     2 数据服务器,即是chunkserver 。真正存储用户的数据服务器。存储文件时,首先把文件分成数据块,然后这些数据块存在数据服务器chunkserver之间复制。数据服务器可以死多个,并将数据服务器的数量越多,可使用的“磁盘空间”越大,同时可靠性也就越高

      3,客户端。使用MFS文件系统来存储和访问的主机称为mfs 的客户端,成功挂接MFS文件系统后,就可以共享该虚拟性的存储

7 MooseFS(即是mfs 架构(如下图)

        mfs 包括四种类型的机器

l   Mangaging Server master server

l   Data servers chunk servers

l   Metadata backup servers (metalogger server)

l   Client

          

 



 


 

第二.Master server(元数据服务器的安装

首先创建用户mfs

  #useradd –s /sbin/nologin  mfs

配置安装数据源服务器

    #tar  -xvf   mfs-1.6.17.tar.gz

    # cd mfs-1.6.17

    # ./configure  --prefix=/usr/local/mfs  --disable-mfschunkserver  --disable-mfsmount –with-default-user=mfs  --with-default-group=mfs 

    #make  && make install

配置数据服务器的相关配置文件

     #cd /usr/local/mfs/etc

     #cp   mfsexports.cfg.dist    mfsexports.cfg

     #cp   mfsmaster.cfg.dist     mfsmaster.cfg

     #cd  /usr/local/mfs/var/mfs

     #cp  metadata.mfs.empty  metadata.mfs

   4 修改mfsexports.cfg  mfsmaster.cfg

     IP      /    rw,alldirs,maproot=0

     注:IP 是允许 挂载的主机,该处可以是域名,主机名,IP地址

         #vim  mfsmaster.cfg

          mfsmaster.cfg 每行都是被注释掉了,但是都是配置文件的默认值。

Ø  LOCK_FILE=/var/run/mfs/mfsmaster.lock 

       注:文件锁在的位置,该文件主要是避免多次启动同一个守护进程。

Ø  DATA_PATH=/user/local/mfs/var/mfs 数据存储路径,只是元数据的存放路径,

Ø  MATOCS_LISTEN_PORT = 9420  即元数据服务使用9420 这个端口来接受数据储存服务器chunkserver端的连接

Ø  MATOCU_LISTEN_PORT = 9421  元数据服务器在9421 端口监听,用用以接受客户端对于MFS进行远程挂接(客户端以mfsmount 挂接MFS

        5 启动元数据服务器master

                    #/usr/local/mfs/sbin/mfsmaster  start

                             working directory: /usr/local/mfs/var/mfs

lockfile created and locked

initializing mfsmaster modules ...

loading sessions ... ok

sessions file has been loaded

exports file has been loaded

loading metadata ...

loading objects (files,directories,etc.) ... ok

loading names ... ok

loading deletion timestamps ... ok

checking filesystem consistency ... ok

loading chunks data ... ok

connecting files and chunks ... ok

all inodes: 6

directory inodes: 2

                             file inodes: 4

chunks: 46

metadata file has been loaded

stats file has been loaded

master <-> metaloggers module: listen on *:9419

master <-> chunkservers module: listen on *:9420

main master server module: listen on *:9421

mfsmaster daemon initialized properly

 

 

   6 关闭原数据服务器master 

 

       在关闭元数据服务器master 务必使用/usr/local/mfs/sbin/mfsmaster –s

 

 

       如果直接使用kill 杀死进程,导致下次启动时出现找不到相关文件,而不能正常启动服务器。 如果使用kill 杀死进程,时出现上面的问题时,可以通过mfsmetastore 来恢复

第三,安装数据 储存服务器 chunkserver

1         解压mfs

#tar  -xvf  mfs-1.6.17.tar.gz

#cd  mfs-1.6.17

2         创建mfs 用户

   #useradd  -s /sbin/nologin mfs

3         配置安装mfs

  #  ./configure –prefix=/usr/local/mfs   --disable-mfsmaster –disable-mfsmount –with-default-user=mfs  --with-default-group=mfs

  #make  && make install

4         修改相关的配置文件

   #cd  /usr/local/mfs/etc

   #cp   mfschunkserver.cfg.dist   mfschunkserver.cfg

   #cp  mfshdd.cfg.dist     mfsshdd.cfg

   #vim  mfschunkserver.cfg

        取消下列注释

      MASTER_HOST= 192.168.2.1

        注: 该处的ip地址为元数据服务器的IP地址,此处可以设置元数据服务器的域名等

   LOCK_FILE=/var/run/mfs/mfschunkserver.lock  

                        注:文件锁在的位置,该文件主要是避免多次启动同一个守护进程


         CSSERV_LISTEN_PORT=9422 该端口用于与其他数据储存服务器间的连接,通常是数据复制 

 

             HDD_CONF_FILENAME=/usr/local/mfs/etc/mfshdd.cfg

                注: 分配给MFS使用的磁盘空间配置文件的位置

 

5         修改配置文件mfshdd.cfg 服务分区挂接点 /data ,并修改属主

#chown  -R mfs:mfs  /data

 注:mfshdd.cfg 文件存的是用来给MooseFs 使用的空间,如果是单个chunkserver的储存空间最好大于2g,否则无法写入空间

6         启动数据储存服务器chunkserver

#/usr/local/mfs/sbin/mfschunkserver  start

 working directory: /usr/local/mfs/var/mfs

lockfile created and locked

initializing mfschunkserver modules ...

hdd space manager: scanning folder /mnt/data/ ...

hdd space manager: /mnt/data/: 46 chunks found

hdd space manager: scanning complete

main server module: listen on *:9422

stats file has been loaded

mfschunkserver daemon initialized properly

7         数据储存服务器chunkserver 监听的端口为9422 ,同样关闭数据储存服务器时同样和元数据服务器的方法类似

#/usr/local/mfs/sbin/mfschunkserver –s


第四,安装元数据日志服务器 mfsmetalogger

      1 创建mfs 用户

         #useradd  -s /sbin/nologin  mfs

      2 安装元数据日志服务器

          # tar –xvf  mfs-1.6.17.tar.gz

          #cd mfs-1.6.17

          # ./configure  --prefix=/usr/local/mfs   --disable-mfschunkserver  --disable-mfsmount  --with-default-user=mfs   --with-default-group=mfs  

          # make  && make install

       3 修改相关配置

          #cd  /usr/local/mfs/etc

           #cp  mfsmetalogger.cfg.dist  mfsmetalogger.cfg

            #vim mfsmetalogger.cfg

             并把修改下面的选项

                MASTER_HOST = mfsmaster 

                 MASTER_HOST = 192.168.2.1 此地址为mfsmaster ip地址

                并保存

                back_logs =50 

               META_DOWNLOAD_FREQ=24 注:元数据备份文件下载请求频率,默认为24 小时,即每个一天重元数据服务器 (master) 下载一个metadata.mfs.back 文件。但元数据服务器关闭或者故障时,matedata.mfs.back文件将消失,如果要回复整个 mfs。则需要从metalogger服务器取得该文件。该文件与日志文件在一起时,才能恢复整个被损坏的分布式文件系统

     4 启动元数据日志服务器

        #/usr/local/sbin/mfsmetalogger start

          working directory: /usr/local/mfs/var/mfs

lockfile created and locked

initializing mfsmetalogger modules ...

mfsmetalogger daemon initialized properly

 注: metalogger 连接的master9419 端口

   

第五.MFS客户端的安装 

 

   1 创建,mfs 用户

 

    #useradd  -s /sbin/nologin mfs

  2 解压安装fuse 

      # tar –xvf fuse-2.8.5.tar.gz

      #cd fuse-2.8.5

      #./configure  -prefix=/usr/local/fuse

      #make && make install

设置fuse 的环境

   #vim  /etc/profile 并在其尾部添加如下配置

     export PKG_CONFIG_PATH=/usr/local/fuse/lib/pkgconfig:$PKG_CONFIG_PATH

      保存并执行

     #source  /etc/profile

4解压,安装mfs客户端

     #tar –xvf  mfs-1.6.17.tar.gz

     #cd  mfs-1.6.17

     #./configure  --prefix=/user/local/mfs   --disable-mfsmaster –disable-mfschunkserver –enable-mfsmount  --with-default-user=mfs  --with-default-group=mfs

     #make  && make install

挂载MooseFs

    #mkdir  /mnt/mfs

  #/usr/local/mfs/bin/mfsmount –H  192.168.2.1 /mnt/mfs

mfsmaster accepted connection with parameters:read-write,restricted_ip;root mapped to root:root










本文转自 freehat08 51CTO博客,原文链接:http://blog.51cto.com/freehat/411552,如需转载请自行联系原作者
目录
相关文章
|
21天前
|
存储 安全 数据管理
新型数据库技术:基于区块链的分布式数据存储系统
传统数据库系统面临着中心化管理、数据安全性和可信度等方面的挑战。本文介绍了一种基于区块链技术的新型数据库系统,通过分布式存储和去中心化的特性,提高了数据的安全性和可信度,同时实现了高效的数据管理和共享。该系统在多个领域如金融、医疗和物联网等具有广阔的应用前景。
|
2月前
|
Java 测试技术 Linux
jmeter-分布式部署之负载机的设置
jmeter-分布式部署之负载机的设置
53 1
|
1月前
|
Docker 容器 关系型数据库
【PolarDB-X从入门到精通】 第四讲:PolarDB分布式版安装部署(源码编译部署)
本期课程将于4月11日19:00开始直播,内容包括源码编译基础知识和实践操作,课程目标是使学员掌握源码编译部署技能,为未来发展奠定基础,期待大家在课程中取得丰富的学习成果!
【PolarDB-X从入门到精通】 第四讲:PolarDB分布式版安装部署(源码编译部署)
|
1天前
|
传感器 存储 SQL
LabVIEW使用ModbusTCP协议构建分布式测量系统
LabVIEW使用ModbusTCP协议构建分布式测量系统
11 4
|
2天前
|
存储 安全 区块链
一文说清楚IPFS分布式存储系统
一文说清楚IPFS分布式存储系统
11 1
|
12天前
|
Windows
Windows系统下安装分布式事务组件Seata
Windows系统下安装分布式事务组件Seata
|
12天前
|
缓存 NoSQL Java
【亮剑】分布式锁是保证多服务实例同步的关键机制,常用于互斥访问共享资源、控制访问顺序和系统保护,如何使用注解来实现 Redis 分布式锁的功能?
【4月更文挑战第30天】分布式锁是保证多服务实例同步的关键机制,常用于互斥访问共享资源、控制访问顺序和系统保护。基于 Redis 的分布式锁利用 SETNX 或 SET 命令实现,并考虑自动过期、可重入及原子性以确保可靠性。在 Java Spring Boot 中,可通过 `@EnableCaching`、`@Cacheable` 和 `@CacheEvict` 注解轻松实现 Redis 分布式锁功能。
|
17天前
|
存储 安全 数据管理
新一代数据库技术:融合区块链的分布式存储系统
传统数据库技术在面对日益增长的数据量和复杂的数据管理需求时显现出局限性。本文介绍了一种新一代数据库技术:融合区块链的分布式存储系统。通过将区块链技术与传统数据库相结合,实现了数据的分布式存储、安全性和透明度,以及去中心化的特性。这一技术的应用将极大地推动数据库系统的发展,为数据管理带来全新的解决方案。
|
17天前
|
存储 安全 数据管理
新一代数据库技术:融合区块链的分布式数据存储系统
传统数据库系统面临着数据安全性、可信度和去中心化等挑战,而区块链技术的兴起为解决这些问题提供了新的思路。本文介绍了一种新一代数据库技术,将区块链技术与传统的分布式数据存储系统相融合,实现了更高水平的数据安全性和可信度,以及去中心化的优势。通过结合区块链的不可篡改性和分布式存储系统的高性能,这一新型数据库技术将在未来的数据管理领域发挥重要作用。
|
17天前
使用JWT的服务分布式部署之后报错:JWT Check Failure:
使用JWT的服务分布式部署之后报错:JWT Check Failure:
24 1

推荐镜像

更多