集群 Ricci&&luci Fence机制

简介:

一 Ricci&&luci


Server1server4做同样的操作,

 1)配置yum 

[HighAvailability]

name=HighAvailability

baseurl=http://172.25.21.250/rhel6.5/HighAvailability

gpgcheck=0

[LoadBalancer]

name=LoadBalancer

baseurl=http://172.25.21.250/rhel6.5/LoadBalancer

gpgcheck=0

[ResilientStorage]

name=ResilientStorage

baseurl=http://172.25.21.250/rhel6.5/ResilientStorage

gpgcheck=0

[ScalableFileSystem]

name=ScalableFileSystem

baseurl=http://172.25.21.250/rhel6.5/ScalableFileSystem

gpgcheck=0


参数来源

截图:

wKiom1l8oEHAqhh_AAIgbpOCtvU781.png-wh_50

2)安装服务

    安装 ricci 使用 luci 配置集群要求在集群节点中安装并运行 ricci,使用 ricci 需要一个密码,您在创建集群时需要为每个集群节点输入该密码。在启动 luci ,请确定您集群节点中的 IP 端口允许任意与 luci 沟通的节点中的luci 服务器到端口

11211 的连接。

要使用 Conga 管理红帽高可用性附加组件,请安装并运行 luci,如下:

1. 选择托管 luci 的主机,并在那台计算机中安装luci 软件通常是服务器架或者托管 luci 的数据中心的一台计算机中,但集群计算机也可托管 luci

2. 使用 service luci start 启动 luci。例如:

注意 :从红帽企业版Linux 6.1 开始,您可以使用/etc/sysconfig/luci 文件配置 luci 行为的某

些方面,包括端口和主机参数,

3. 在网页浏览器的地址栏中输入 cm an 服务器的 URL,并点击 Go(或者相当的按钮)luci 服务器的URL 语法为https://luci_server_hostname:luci_server_portluci_server_port的默认值为 8084 

您首次访问 luci ,网页浏览器会根据显示的自我签名 SSL 证书( luci 服务器的证书)给出具体提示。确认一个或者多个对话框后,您的网页显示器会显示luci 登录页面。

注意

如果 15 分钟后没有互动, luci 会处于闲置超时而让您退出。

(3) 使用 luci 创建集群包括命名集群、在集群中添加集群节点、为每个节点输入ricci 密码并提交创建集群请求。如果节点信息和密码正确, Conga 会自动在集群节点中安装软件(如果当前没有安装适当的软件包)并启动集群。

注意:

如果缺少任意基本集群组件(cmanrgmanagermodcluster 及其所有相依性软件包),无论是选择「使用本地安装的软件包」 ,还是[下载软件包]选项,都会安装它们。如果没有安装它们,则创建节点会失败.

 

   12  vim /etc/yum.repos.d/rhel-source.repo

   13 yum clean all

   14 yum repolist  查看yum

   16 yum install ricci luci  -y

   17 /etc/init.d/ricci start

   18 /etc/init.d/luci start

   19 passwd ricci ####ricci加密码

   20 chkconfig ricci on  ###开机自启动

   21 chkconfig luci on



物理机浏览器:https:172.25.21.1:8084

截图:

luci Homebase 页面”:

wKioL1l8oEvB_hawAACnxEpQ7PY315.png-wh_50

按如下步骤创建集群:

截图:

wKioL1l8oEfy3J5cAAAegYhzIAg062.png-wh_50

wKiom1l8oEiyVB2qAAB3Z3_k78g353.png-wh_50

wKioL1l8oEnDNfiJAAEbmBuccIk658.png-wh_50

查看节点状态,每一项是running表示集群节点正常运行。

wKiom1l8oEvAgxiNAAFOlGukn1k115.png-wh_50


二、Fence机制

当集群其中节点网络出现故障,互相之间无法通信,会以为对方出现故障,从而都会接管资源,此时出现资源争抢。Fence机制是直接将故障节点掉电。防止资源争抢。

物理机;  

1.安装软件

#Yum install fence-virtd-0.3.0-16.el7.x86_64

fence-virtd-libvirt-0.3.0-16.el7.x86_64

fence-virtd-multicast-0.3.0-16.el7.x86_64 -y

#rpm -qa | grep fence 搜索软件

#Fence_virtd  -c 

Module search path [/usr/lib64/fence-virt]:

Listener module [multicast]:

Multicast IP Address [225.0.0.12]:

Multicast IP Port [1229]:

Interface [br0]: br0

Key File [/etc/cluster/fence_xvm.key]:

Backend module [libvirt]:

Replace /etc/fence_virt.conf with the above [y/N]? Y

#dd if=/dev/urandom of =/etc/cluster/fence_xvm.key bs=128 count=1

#Systemctl start fence_virtd

#Systemctl restart fence_virtd

#Systemctl status fence_virtd

#Netstat -anulp |grep :1299

#Scp /etc/cluster/fence_xvm.key root@172.25.21.1:/etc/cluster/

#Scp /etc/cluster/fence_xvm.key root@172.25.21.4:/etc/cluster/

2.进入luci的图形管理界面,添加fence设备,每操作一步,就是向配置文件/etc/cluster/cluster.conf写入

浏览器:http:172.25.21.1:8084

(1)输入:用户名,用户密码

wKioL1l8r97DQTtBAAN28G241Mo360.png-wh_50

(2)添加fence设备图

     起个设备名字

wKiom1l8r-yxtkcKAARIbeWi7Kw793.png-wh_50

(3)server1server2加入fence设备

图:

wKiom1l8sSyhWaySAACD2QyVRgg969.png-wh_50

wKioL1l8sS2DEFaFAABVH3IvogI773.png-wh_50

wKiom1l8sS6h_gxsAACT7i3WOlw919.png-wh_50

wKiom1l8sTDxSVYOAAB77gt7FCY633.png-wh_50

 

可在server1server2输入

Cat /etc/cluster/cluster.conf 

 wKioL1l8sSuC6wpDAAHOne91QbY426.png-wh_50


三、集群的故障转移域

1、创建一个故障转移域。Prioritized,设定集群节点优先级;Pestricted,指定在特定的节点上运行服务;No Failback,不回切机制,当故障节点恢复后,集群资源不回切。

###添加故障切换域add failover domain tocluster

图:

wKioL1l8s6LCkG-0AACGu9Dcs-I745.png-wh_50

wKiom1l8s6ORM24ZAACTEpbMeqU463.png-wh_50


###配置全局集群资源:resources

 

wKiom1l8tCSjmbtIAACbpK6U8l8995.png-wh_50

wKioL1l8tCXzHDSgAAB0R9sXB4Y721.png-wh_50

wKioL1l8tCbSPUspAABeoz5R4W4089.png-wh_50


##资源组service groups 

 

wKiom1l8tHvhjfqFAADhXyBtvCQ526.png-wh_50

可在server1server4输入

Clustat  

Clustat命令可以查看集群状态,以及服务正在server1的节点上运行。

图:

 wKioL1l8tH3AynQuAADtGZFityc641.png-wh_50

测试:  

server1的优先级高,client访问VIP时,server1接管集群资源,所以client访问到的是server1httpd服务。

当停掉server1httpd服务,集群健康检查,server4接管集群资源,此时访问VIPserver2接管。

server4内核崩溃,server4会被fenceserver1接管集群资源。

[root@server4 ~]# echo c >/proc/sysrq-trigger 



四 基于高可用(HA)集群的apache+target服务配置。

集群共享文件系统apache+target

Server2 管理端:首先给server2添加一块8G的硬盘

wKioL1l8t-rh000KAAFqrVkWhgs653.png-wh_50

1.安装tgtd服务。

Server2

Yum install -y scsi-* -y

2.修改tgtd的配置文件/etc/tgt/targets.conf,用fdisk -l命令查看磁盘是vda还是sda。我的是vda,所以将vdb磁盘添加为scsi磁盘。启动tgtd服务

Vim /etc/tgt/tartgets.conf

 <target     iqn.2017-07.com.example:server.target1>

   backing-store /dev/vdb

   initiator-address  172.25.21.1

    initiator-address  172.25.21.4

</target>

/etc/init.d/tgtd start

Tgt -admin -s 查看磁盘状态 

wKiom1l8uA2i9VXwAAE4bld2Jmk312.png-wh_50

Ps ax

wKioL1l8uHmRui-LAAEwdoIA1LE891.png-wh_50


3.Server1和Server4安装iscsi

Yum install -y iscsi-* -y

iscsiadm -m discovery -t st -p 172.25.21.2

iscsiadm -m node -l

Fdisk -l

fdisk -cu /dev/sda

:

wKiom1l8uHjgO1afAAHOddbM3x8134.png-wh_50

Vim /etc/lvm/lvm.conf

图:

wKioL1l8uHfTWdf0AAHzud1sPow780.png-wh_50

PSlocking_type = 1的话,可以用 lvmconf --enable-cluster命令修改。

lvmconf --enable-cluster

pvcreate /dev/sda1

pvs

vgcreate clusttervg /dev/sda1

vgs

lvcreate -L +2G -n demo clusttervg

lvs

wKioL1l8uHWjSGHnAACmxNEThto013.png-wh_50

Server4

Yum install -y iscsi-* -y

iscsiadm -m discovery -t st -p 172.25.21.2

iscsiadm -m node -l

pvs

Vgs

Lvs











本文转自 如何何如  51CTO博客,原文链接:http://blog.51cto.com/12778805/1952034,如需转载请自行联系原作者
目录
相关文章
|
前端开发
网络设置错误造成cluster不能启动(oifcfg setif cluster_interconnect )
设置rac节点之间的互联网络错误,造成集群无法启动,应该设置成
|
存储 Unix 关系型数据库
failover机制和NFS服务
failover机制和NFS服务
174 0
|
网络安全 数据安全/隐私保护
Centos7.7下用pcs+pacemaker+corosync快速构建HA群集
Centos7.7下用pcs+pacemaker+corosync快速构建HA群集
135 0
|
存储 Apache
Centos7.7下建立无共享存储的WEB集群(pcs+pacemaker+corosync)
Centos7.7下建立无共享存储的WEB集群(pcs+pacemaker+corosync)
74 0