10. RabbitMQ 集群
克隆镜像:
10.1. clustering
10.1.1. 使用集群的原因
最开始我们介绍了如何安装及运行 RabbitMQ 服务,不过这些是单机版的,无法满足目前真实应用的要求。如果 RabbitMQ 服务器遇到内存崩溃、机器掉电或者主板故障等情况,该怎么办?单台 RabbitMQ 服务器可以满足每秒 1000 条消息的吞吐量,那么如果应用需要 RabbitMQ 服务满足每秒 10 万条消息的吞吐量呢?购买昂贵的服务器来增强单机 RabbitMQ 务的性能显得捉襟见肘,搭建一个 RabbitMQ 集群才是解决实际问题的关键.
10.1.2. 搭建步骤
修改3个服务器名字 好区别
1. 修改 3 台机器的主机名称
vim /etc/hostname
2. 配置各个节点的 hosts 文件,让各个节点都能互相识别对方
vim /etc/hosts 10.211.55.74 node1 10.211.55.75 node2 10.211.55.76 node3
3个服务器各做一次
3. 确保各个节点的 cookie 文件使用的是同一个值以
在 node1 上执行远程操作命令
scp /var/lib/rabbitmq/.erlang.cookie root@node2:/var/lib/rabbitmq/.erlang.cookie scp /var/lib/rabbitmq/.erlang.cookie root@node3:/var/lib/rabbitmq/.erlang.cookie
4. 启动 RabbitMQ 服务,顺带启动 Erlang 虚拟机和 RbbitMQ 应用服务(在三台节点上分别执行以下命令)
3台重启
rabbitmq-server -detached
5. 在节点 2 执行
rabbitmqctl stop_app //关掉服务 (rabbitmqctl stop 会将 Erlang 虚拟机关闭, rabbitmqctl stop_app 只关闭 RabbitMQ 服务) rabbitmqctl reset //重置成新的 rabbitmqctl join_cluster rabbit@node1 // 加入到1中 rabbitmqctl start_app(只启动应用服务)
6. 在节点 3 执行
rabbitmqctl stop_app rabbitmqctl reset rabbitmqctl join_cluster rabbit@node2 rabbitmqctl start_app
7.集群状态
rabbitmqctl cluster_status
当前是3个接的
集群的信息
8.需要重新设置用户
创建账号
rabbitmqctl add_user admin 123
设置用户角色
rabbitmqctl set_user_tags admin administrator
设置用户权限
rabbitmqctl set_permissions -p "/" admin ".*" ".*" ".*"
9.解除集群节点(node2 和 node3 机器分别执行) 解除集群的方法
rabbitmqctl stop_app rabbitmqctl reset rabbitmqctl start_app rabbitmqctl cluster_status rabbitmqctl forget_cluster_node rabbit@node2(node1 机器上执行)
效果如 绿色
是健康的状态的
10.2. 镜像队列
10.2.1. 使用镜像的原因
如果 RabbitMQ 集群中只有一个 Broker 节点,那么该节点的失效将导致整体服务的临时性不可用,并且也可能会导致消息的丢失。可以将所有消息都设置为持久化,并且对应队列的durable 属性也设置为true, 但是这样仍然无法避免由于缓存导致的问题:因为消息在发送之后和被写入磁盘井执行刷盘动作之间存在一个短暂却会产生问题的时间窗。通过 publisherconfirm 机制能够确保客户端知道哪些消息己经存入磁盘, 尽管如此,一般不希望遇到因单点故障导致的服务不可用。
引入镜像队列(Mirror Queue)的机制,可以将队列镜像到集群中的其他 Broker 节点之上,如果集群中的一个节点失效了,队列能自动地切换到镜像中的另一个节点上以保证服务的可用性。
10.2.2. 搭建步骤
1. 启动三台集群节点
2. 随便找一个节点添加 policy
3. 在 node1 上创建一个队列发送一条消息,队列存在镜像队列
4. 停掉 node1 之后发现 node2 成为镜像队列
5.就算整个集群只剩下一台机器了 依然能消费队列里面的消息
说明队列里面的消息被镜像队列传递到相应机器里面了
10.3. Haproxy+Keepalive 实现高可用负载均衡
高可用 主机宕机后 备机可以替代使用
10.3.1. 整体架构图
10.3.2. Haproxy 实现负载均衡
HAProxy 提供高可用性、负载均衡及基于TCPHTTP 应用的代理,支持虚拟主机,它是免费、快速并且可靠的一种解决方案,包括 Twitter,Reddit,StackOverflow,GitHub 在内的多家知名互联网公司在使用。
HAProxy 实现了一种事件驱动、单一进程模型,此模型支持非常大的井发连接数。
扩展 nginx,lvs,haproxy 之间的区别: http://www.ha97.com/5646.html
10.3.3. 搭建步骤
1. 下载 haproxy(在 node1 和 node2)
yum -y install haproxy
2. 修改 node1 和 node2 的 haproxy.cfg
vim /etc/haproxy/haproxy.cfg
需要修改红色 IP 为当前机器 IP
3. 在两台节点启动
haproxy haproxy -f /etc/haproxy/haproxy.cfg ps -ef | grep haproxy
4. 访问地址
http://10.211.55.71:8888/stats
10.3.4. Keepalived 实现双机(主备)热备
试想如果前面配置的 HAProxy 主机突然宕机或者网卡失效,那么虽然 RbbitMQ 集群没有任何故障但是对于外界的客户端来说所有的连接都会被断开结果将是灾难性的为了确保负载均衡服务的可靠性同样显得十分重要,这里就要引入 Keepalived 它能够通过自身健康检查、资源接管功能做高可用(双机热备),实现故障转移.
10.3.5. 搭建步骤
1. 下载 keepalived
yum -y install keepalived
2. 节点 node1 配置文件
vim /etc/keepalived/keepalived.conf
把资料里面的 keepalived.conf
修改之后替换
3. 节点 node2 配置文件
需要修改global_defs
的 router_id
,如:nodeB
其次要修改 vrrp_instance_VI
中 state 为"BACKUP
";
最后要将priority 设置为小于 100 的值
4. 添加 haproxy_chk.sh
(为了防止 HAProxy 服务挂掉之后 Keepalived 还在正常工作而没有切换到 Backup 上,所以
这里需要编写一个脚本来检测 HAProxy 务的状态,当 HAProxy 服务挂掉之后该脚本会自动重启 HAProxy 的服务,如果不成功则关闭 Keepalived 服务,这样便可以切换到 Backup 继续工作)
vim /etc/keepalived/haproxy_chk.sh(可以直接上传文件) 修改权限 chmod 777 /etc/keepalived/haproxy_chk.sh
5.启动 keepalive 命令(node1 和 node2 启动)
systemctl start keepalived
6. 观察 Keepalived 的日志
tail -f /var/log/messages -n 200