centos7.3 rabbitmq集群

简介:

RabbitMQ集群概述

     通过 Erlang 的分布式特性(通过 magic cookie 认证节点)进行 RabbitMQ 集群,各 RabbitMQ 服务为对等节点,即每个节点都提供服务给客户端连接,进行消息发送与接收。

     这些节点通过 RabbitMQ HA 队列(镜像队列)进行消息队列结构复制。本方案中搭建 3 个节点,并且都是磁盘节点(所有节点状态保持一致,节点完全对等),只要有任何一个节点能够工作,RabbitMQ 集群对外就能提供服务。


安装 Erlang、RabbitMQ

http://yanconggod.blog.51cto.com/1351649/1933009

修改 /etc/hosts

加入集群 3 个节点的对应关系:

10.0.0.231  node1

10.0.0.232  node2

10.0.0.233  node3


设置 Erlang Cookie

  RabbitMQ节点之间和命令行工具 (e.g. rabbitmqctl)是使用Cookie互通的,Cookie是一组随机的数字+字母的字符串。当RabbitMQ服务器启动的时候,Erlang VM会自动创建一个随机内容的Cookie文件。如果是通过yum源安装RabbitMQ的话,Erlang Cookie 文件在/var/lib/rabbitmq/.erlang.cookie。如果是通过源码安装的RabbitMQ,Erlang Cookie文件$HOME/.erlang.cookie。

本文演示的实例是用源码安装,由于这个文件权限是 400,所以需要先修改 node2、node3 中的该文件权限为 777:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
node1:
yancongadmin@node1:~$  chmod  777 .erlang.cookie
 
node2:
yancongadmin@node2:~$  chmod  777 .erlang.cookie
yancongadmin@node2:~$  scp  -r node1: /home/yancongadmin/ .erlang.cookie ~/
yancongadmin@node1's password:
.erlang.cookie                                                                                     100%   20     0.0KB /s    00:00
 
 
node3:
yancongadmin@node3:~$  chmod  777 .erlang.cookie
yancongadmin@node3:~$  scp  -r node1: /home/yancongadmin/ .erlang.cookie ~/
yancongadmin@node1's password:
.erlang.cookie                                                                                     100%   20     0.0KB /s    00:00

分别在node1、node2、node3将权限恢复过来:

1
yancongadmin@node1:~$  chmod  400 .erlang.cookie

最后分别在确认三台机器上的.erlang.cookie的值是一致的

1
2
3
4
5
6
yancongadmin@node1:~$  cat  .erlang.cookie
VORMVSAAOFOFEQKTNWBB
yancongadmin@node2:~$  cat  .erlang.cookie
VORMVSAAOFOFEQKTNWBB
yancongadmin@node3:~$  cat  .erlang.cookie
VORMVSAAOFOFEQKTNWBB

使用detached参数,在后台启动Rabbit Node

1
2
3
4
yancongadmin@node1:~$ rabbitmqctl stop
Stopping and halting node rabbit@node1 ...
Gracefully halting Erlang VM
yancongadmin@node1:~$ rabbitmq-server -detached

通过rabbitmqctl cluster_status命令,可以查看和个节点的状态,节点的名称是rabbit@shorthostname,

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
node1:
yancongadmin@node1:~$ rabbitmqctl cluster_status
Cluster status of node rabbit@node1 ...
[{nodes,[{disc,[rabbit@node1]}]},
  {running_nodes,[rabbit@node1]},
  {cluster_name,<< "rabbit@node1" >>},
  {partitions,[]},
  {alarms,[{rabbit@node1,[]}]}]
 
node2:
yancongadmin@node2:~$ rabbitmqctl cluster_status
Cluster status of node rabbit@node2 ...
[{nodes,[{disc,[rabbit@node2]}]},
  {running_nodes,[rabbit@node2]},
  {cluster_name,<< "rabbit@node2" >>},
  {partitions,[]},
  {alarms,[{rabbit@node2,[]}]}]
  
  
node3:
yancongadmin@node3:~$ rabbitmqctl cluster_status
Cluster status of node rabbit@node3 ...
[{nodes,[{disc,[rabbit@node3]}]},
  {running_nodes,[rabbit@node3]},
  {cluster_name,<< "rabbit@node3" >>},
  {partitions,[]},
  {alarms,[{rabbit@node3,[]}]}]

将node1、node2、node3组成集群

因为rabbitmq-server启动时,会一起启动节点和应用,它预先设置RabbitMQ应用为standalone模式。要将一个节点加入到现有的集群中,你需要停止这个应用并将节点设置为原始状态,然后就为加入集群准备好了。如果使用./rabbitmqctl stop,应用和节点都将被关闭。所以使用rabbitmqctl stop_app仅仅关闭应用。 

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
node2:
yancongadmin@node2:~$ rabbitmqctl stop_app
Stopping node rabbit@node2 ...
yancongadmin@node2:~$ rabbitmqctl join_cluster rabbit@node1
Clustering node rabbit@node2 with rabbit@node1 ...
yancongadmin@node2:~$ rabbitmqctl start_app
Starting node rabbit@node2 ...
 
 
node3:
yancongadmin@node3:~$ rabbitmqctl stop_app
Stopping node rabbit@node3 ...
yancongadmin@node3:~$ rabbitmqctl join_cluster rabbit@node1
Clustering node rabbit@node3 with rabbit@node1 ...
yancongadmin@node3:~$ rabbitmqctl start_app
Starting node rabbit@node3 ...

此时 node2 与 node3 也会自动建立连接。


如果要使用内存节点,则可以使用以下命令:

1
yancongadmin@node2:~$ rabbitmqctl join_cluster -- ram  rabbit@node1

集群配置好后,可以在 RabbitMQ 任意节点上执行 rabbitmqctl cluster_status 来查看是否集群配置成功。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
node1:
 
yancongadmin@node1:~$ rabbitmqctl cluster_status
Cluster status of node rabbit@node1 ...
[{nodes,[{disc,[rabbit@node1,rabbit@node2,rabbit@node3]}]},
  {running_nodes,[rabbit@node1]},
  {cluster_name,<< "rabbit@node1" >>},
  {partitions,[]},
  {alarms,[{rabbit@node1,[]}]}]
node2:
 
yancongadmin@node2:~$ rabbitmqctl cluster_status
Cluster status of node rabbit@node2 ...
[{nodes,[{disc,[rabbit@node1,rabbit@node2]}]},{alarms,[{rabbit@node1,[]}]}]
node3:
 
yancongadmin@node3:~$ rabbitmqctl cluster_status
Cluster status of node rabbit@node3 ...
[{nodes,[{disc,[rabbit@node1,rabbit@node2,rabbit@node3]}]},
  {alarms,[{rabbit@node1,[]}]}]

RabbitMQ镜像功能

使用Rabbit镜像功能,需要基于RabbitMQ策略来实现,策略是用来控制和修改群集范围的某个vhost队列行为和Exchange行为

1
yancongadmin@node2:~$ rabbitmqctl set_policy -p hrsystem ha-allqueue "^"  '{"ha-mode":"all"}'

这行命令在vhost名称为hrsystem创建了一个策略,策略名称为ha-allqueue,策略模式为 all 即复制到所有节点,包含新增节点,策略正则表达式为 “^” 表示所有匹配所有队列名称。

例如下面的命令,^message 这个规则要根据自己修改,这个是指同步”message”开头的队列名称,我们配置时使用的应用于所有队列,所以表达式为”^”。

1
yancongadmin@node2:~$ rabbitmqctl set_policy -p hrsystem ha-allqueue  "^message"  '{"ha-mode":"all"}'

在任意一个节点上执行:

1
2
yancongadmin@node2: #  rabbitmqctl set_policy ha-all "^" '{"ha-mode":"all"}'
Setting policy  "ha-all"  for  pattern  "^"  to  "{\"ha-mode\":\"all\"}"  with priority  "0"

将所有队列设置为镜像队列,即队列会被复制到各个节点,各个节点状态保持一直。

我使用过的例子,仅供参考:

1
2
3
4
5
rabbitmqctl set_policy ha-xxx  "^cn\.xxx"  \
    '{"ha-mode":"exactly","ha-params":2,"ha-sync-mode":"automatic","ha-promote-on-shutdown":"always","ha-sync-batch-size":20}'
    
rabbitmqctl set_policy queue-xxx  "^queue"  \
    '{"ha-mode":"exactly","ha-params":2,"ha-sync-mode":"automatic","ha-promote-on-shutdown":"always","ha-sync-batch-size":20}'


如果需要负载均衡器,需要安装并配置 HAProxy

例如:

1
2
3
4
5
6
7
8
listen rabbitmq_cluster 0.0.0.0:5672
  
mode tcp
balance roundrobin
  
server   node1 10.0.0.231:5672 check inter 2000 rise 2 fall 3 
server   node2 10.0.0.232:5672 check inter 2000 rise 2 fall 3
server   node3 10.0.0.233:5672 check inter 2000 rise 2 fall 3

参考:http://idoall.org/blog/post/lion/15


本文转自 yanconggod 51CTO博客,原文链接:http://blog.51cto.com/yanconggod/1933930

相关实践学习
消息队列RocketMQ版:基础消息收发功能体验
本实验场景介绍消息队列RocketMQ版的基础消息收发功能,涵盖实例创建、Topic、Group资源创建以及消息收发体验等基础功能模块。
消息队列 MNS 入门课程
1、消息队列MNS简介 本节课介绍消息队列的MNS的基础概念 2、消息队列MNS特性 本节课介绍消息队列的MNS的主要特性 3、MNS的最佳实践及场景应用 本节课介绍消息队列的MNS的最佳实践及场景应用案例 4、手把手系列:消息队列MNS实操讲 本节课介绍消息队列的MNS的实际操作演示 5、动手实验:基于MNS,0基础轻松构建 Web Client 本节课带您一起基于MNS,0基础轻松构建 Web Client
相关文章
|
3天前
|
消息中间件 监控 RocketMQ
Docker部署RocketMQ5.2.0集群
本文详细介绍了如何使用Docker和Docker Compose部署RocketMQ 5.2.0集群。通过创建配置文件、启动集群和验证容器状态,您可以快速搭建起一个RocketMQ集群环境。希望本文能够帮助您更好地理解和应用RocketMQ,提高消息中间件的部署和管理效率。
140 91
|
6月前
|
消息中间件 Linux API
centos7 安装rabbitmq自定义版本及配置
centos7 安装rabbitmq自定义版本及配置
|
2月前
|
消息中间件 存储 运维
2024最全RabbitMQ集群方案汇总
本文梳理了RabbitMQ集群的几种方案,主要包括普通集群、镜像集群(高可用)、Quorum队列(仲裁队列)、Streams集群模式(高可用+负载均衡)和插件方式。重点介绍了每种方案的特点、优缺点及适用场景。搭建步骤包括安装Erlang和RabbitMQ、配置集群节点、修改hosts文件、配置Erlang Cookie、启动独立节点并创建集群,以及配置镜像队列以提高可用性和容错性。推荐使用Quorum队列与Streams模式,其中Quorum队列适合高可用集群,Streams模式则同时支持高可用和负载均衡。此外,还有Shovel和Federation插件可用于特定场景下的集群搭建。
322 2
|
2月前
|
消息中间件 RocketMQ
2024最全RocketMQ集群方案汇总
在研究RocketMQ集群方案时,发现网上存在诸多不一致之处,如组件包含NameServer、Broker、Proxy等。通过查阅官方文档,了解到v4.x和v5.x版本的差异。v4.x部署模式包括单主、多主、多主多从(异步复制、同步双写),而v5.x新增Local与Cluster模式,主要区别在于Broker和Proxy是否同进程部署。Local模式适合平滑升级,Cluster模式适合高可用需求。不同模式下,集群部署方案大致相同,涵盖单主、多主、多主多从等模式,以满足不同的高可用性和性能需求。
321 0
|
5月前
|
分布式计算 Hadoop Java
Hadoop集群搭建,基于3.3.4hadoop和centos8【图文教程-从零开始搭建Hadoop集群】,常见问题解决
本文是一份详细的Hadoop集群搭建指南,基于Hadoop 3.3.4版本和CentOS 8操作系统。文章内容包括虚拟机创建、网络配置、Java与Hadoop环境搭建、克隆虚拟机、SSH免密登录设置、格式化NameNode、启动Hadoop集群以及通过UI界面查看Hadoop运行状态。同时,还提供了常见问题的解决方案。
Hadoop集群搭建,基于3.3.4hadoop和centos8【图文教程-从零开始搭建Hadoop集群】,常见问题解决
|
4月前
|
Kubernetes Ubuntu Linux
Centos7 搭建 kubernetes集群
本文介绍了如何搭建一个三节点的Kubernetes集群,包括一个主节点和两个工作节点。各节点运行CentOS 7系统,最低配置为2核CPU、2GB内存和15GB硬盘。详细步骤包括环境配置、安装Docker、关闭防火墙和SELinux、禁用交换分区、安装kubeadm、kubelet、kubectl,以及初始化Kubernetes集群和安装网络插件Calico或Flannel。
308 4
|
5月前
|
存储 Kubernetes 负载均衡
CentOS 7.9二进制部署K8S 1.28.3+集群实战
本文详细介绍了在CentOS 7.9上通过二进制方式部署Kubernetes 1.28.3+集群的全过程,包括环境准备、组件安装、证书生成、高可用配置以及网络插件部署等关键步骤。
884 4
CentOS 7.9二进制部署K8S 1.28.3+集群实战
|
5月前
|
消息中间件 Linux
centos7安装rabbitmq
centos7安装rabbitmq
|
6月前
|
消息中间件 存储 负载均衡
|
5月前
|
Kubernetes Linux API
CentOS 7.6使用kubeadm部署k8s 1.17.2测试集群实战篇
该博客文章详细介绍了在CentOS 7.6操作系统上使用kubeadm工具部署kubernetes 1.17.2版本的测试集群的过程,包括主机环境准备、安装Docker、配置kubelet、初始化集群、添加节点、部署网络插件以及配置k8s node节点管理api server服务器。
209 0
CentOS 7.6使用kubeadm部署k8s 1.17.2测试集群实战篇