Docker下RabbitMQ延时队列实战两部曲之一:极速体验

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介: 向RabbitMQ发出消息后,有时我们希望消费方不要立即消费,这时候延时队列就派上用场了,本篇就来快速体验其效果

欢迎访问我的GitHub

这里分类和汇总了欣宸的全部原创(含配套源码): https://github.com/zq2599/blog_demos

关于延时队列

  • 有的应用场景中,向RabbitMQ发出消息后,我们希望消费方不要立即消费,可以通过延时队列来实现,思路是将消息发送到A队列,此队列没有消费者,等消息过期后会进入A队列的Dead Letter Exchange中,B队列绑定了这个Dead Letter Exchange,消费方只要消费B队列的消息,就能实现延时消费了,如下图所示:

image.png

延时的时长

  • 从上面的描述可以看出,延时时长就是消息的过期时间TTL(Time To Live),这个参数可以通过以下两种方式设置:
  1. 生产消息时,设置该消息的TTL;
  2. 设置整个队列的TTL,队列中每个消息的TTL都是一样的;
  • 接下来的实战,我们将上述两种方式都体验一次;

环境信息

  1. 操作系统:Ubuntu 16.04.3 LTS
  2. Docker:1.12.6
  3. RabbitMQ:3.7.5-rc.1

极速体验

  • 本章是《Docker下RabbitMQ延时队列实战两部曲》系列的第一篇,重点是极速体验,先看一下即将体验的整体结构图:

image.png

  • 简单说一下上图中应用的身份:
  1. delayrabbitmqconsumer:SpringBoot框架的应用,连接RabbitMQ的两个队列,消费消息;
  2. messagettlproducer:SpringBoot框架的应用,收到web请求后向RabbitMQ发送消息,消息中带有过期时间(TTL);
  3. queuettlproducer:SpringBoot框架的应用,收到web请求后向RabbitMQ发送消息,消息中不带过期时间(TTL),但是对应的消息队列已经设置了过期时间;
  • 开始实战:
  • 确保当前电脑上Docker可用,创建docker-compose.yml文件,内容如下:
version: '2'
services:
  rabbit1:
    image: bolingcavalry/rabbitmq-server:0.0.3
    hostname: rabbit1
    ports:
      - "15672:15672"
    environment:
      - RABBITMQ_DEFAULT_USER=admin
      - RABBITMQ_DEFAULT_PASS=888888
  rabbit2:
    image: bolingcavalry/rabbitmq-server:0.0.3
    hostname: rabbit2
    depends_on:
      - rabbit1
    links:
      - rabbit1
    environment:
     - CLUSTERED=true
     - CLUSTER_WITH=rabbit1
     - RAM_NODE=true
     - HA_ENABLE=true
    ports:
      - "15673:15672"
  rabbit3:
    image: bolingcavalry/rabbitmq-server:0.0.3
    hostname: rabbit3
    depends_on:
      - rabbit2
    links:
      - rabbit1
      - rabbit2
    environment:
      - CLUSTERED=true
      - CLUSTER_WITH=rabbit1
    ports:
      - "15675:15672"
  messagettlproducer:
    image: bolingcavalry/messagettlproducer:0.0.1-SNAPSHOT
    hostname: messagettlproducer
    depends_on:
      - rabbit3
    links:
      - rabbit1:rabbitmqhost1
      - rabbit2:rabbitmqhost2
      - rabbit3:rabbitmqhost3
    ports:
      - "18080:8080"
    environment:
      - mq.rabbit.address=rabbitmqhost1:5672,rabbitmqhost2:5672,rabbitmqhost3:5672
      - mq.rabbit.username=admin
      - mq.rabbit.password=888888
      - message.ttl.exchange=message.ttl.exchange
      - message.ttl.queue.source=message.ttl.queue.source
      - message.ttl.queue.process=message.ttl.queue.process
  queuettlproducer:
    image: bolingcavalry/queuettlproducer:0.0.1-SNAPSHOT
    hostname: queuettlproducer
    depends_on:
      - messagettlproducer
    links:
      - rabbit1:rabbitmqhost1
      - rabbit2:rabbitmqhost2
      - rabbit3:rabbitmqhost3
    ports:
      - "18081:8080"
    environment:
      - mq.rabbit.address=rabbitmqhost1:5672,rabbitmqhost2:5672,rabbitmqhost3:5672
      - mq.rabbit.username=admin
      - mq.rabbit.password=888888
      - queue.ttl.exchange=queue.ttl.exchange
      - queue.ttl.queue.source=queue.ttl.queue.source
      - queue.ttl.queue.process=queue.ttl.queue.process
      - queue.ttl.value=5000
  delayrabbitmqconsumer:
    image: bolingcavalry/delayrabbitmqconsumer:0.0.1-SNAPSHOT
    hostname: delayrabbitmqconsumer
    depends_on:
      - queuettlproducer
    links:
      - rabbit1:rabbitmqhost1
      - rabbit2:rabbitmqhost2
      - rabbit3:rabbitmqhost3
    environment:
     - mq.rabbit.address=rabbitmqhost1:5672,rabbitmqhost2:5672,rabbitmqhost3:5672
     - mq.rabbit.username=admin
     - mq.rabbit.password=888888
     - message.ttl.queue.process=message.ttl.queue.process
     - queue.ttl.queue.process=queue.ttl.queue.process
  • 在docker-compose.yml文件所在目录执行命令docker-compose up -d,docker会先去下载镜像,然后创建多个容器,请静候启动完成,如下:
root@willzhao-Vostro-3267:/usr/local/work/github/blog_demos/rabbitmq_docker_files/delaymq# docker-compose up -d
Creating network "delaymq_default" with the default driver
Creating delaymq_rabbit1_1 ... done
Creating delaymq_rabbit2_1 ... done
Creating delaymq_rabbit3_1 ... done
Creating delaymq_messagettlproducer_1 ... done
Creating delaymq_queuettlproducer_1   ... done
Creating delaymq_delayrabbitmqconsumer_1 ... done
  • 一共启动了5个容器,将他们的名称和作用列举到下面表格中:
名称 作用 备注
delaymq_rabbit1_1 一号RabbitMQ 管理页面:192.168.31.102:15672
delaymq_rabbit2_1 二号RabbitMQ 管理页面:192.168.31.102:15673
delaymq_rabbit3_1 三号RabbitMQ 管理页面:192.168.31.102:15675
delaymq_messagettlproducer_1 消息生产者 每条消息中都带了TTL
delaymq_queuettlproducer_1 消息生产者 消息中不带TTL,消息队列设置了TTL
delaymq_delayrabbitmqconsumer_1 消息消费者 同时消费上述两个队列的消息
  • 我的电脑IP地址是192.168.31.102,因此在浏览器输入:http://:192.168.31.102:15672 ,可以进入RabbitMQ的登录页面,如下图:

image.png

  • 登录用户名:admin,密码:888888,登录后页面如下图,可以见到RabbitMQ集群已经就绪:

image.png

  • 如果您的页面中的三个RabbitMQ还没有完全就绪(绿色状态),建议稍等几分钟后再刷新页面;
  • 我的电脑IP地址是192.168.31.102,因此在浏览器输入:http://192.168.31.102:18080/messagettl/aaa/bbb/3 ,即可向delaymq_messagettlproducer_1容器发起一次请求,容器会发送一条带有TTL的消息,然后页面提示发送成功,如下图:

image.png

  • 在浏览器输入:http://192.168.31.102:18081/queuettl/ccc/ddd ,即可向delaymq_queuettlproducer_1容器发起一次请求,容器会向一个已经设置了TTL的队列发送一条消息,然后页面提示发送成功,如下图:

image.png

  • 再次进入RabbitMQ管理页面http://:192.168.31.102:15672 ,查看队列情况如下图,已经有四个队列了:

image.png

  • 用下列表格对上述四个队列简单说明:
名称 作用 备注
message.ttl.queue.source 生产者发送消息到此 这里面的消息都带有TTL
message.ttl.queue.process Dead Letter Exchange将过期消息转发到此 这里都是message.ttl.queue.source的过期消息
queue.ttl.queue.source 生产者发送消息到此 这里面的消息都不带TTL,这个队列自己有TTL
queue.ttl.queue.process Dead Letter Exchange将过期消息转发到此 这里都是queue.ttl.queue.source的过期消息
  • 容器delaymq_delayrabbitmqconsumer_1中的tomcat在启动时候,由于此时队列还没创建,因此无法连接队列,会导致tomcat启动失败,进而导致容器退出(因为tomcat进程占据了控制台,它退出容器就会退出),此时请执行docker restart delaymq_delayrabbitmqconsumer_1重启容器;
  • 重启后,执行命令docker logs -f delaymq_delayrabbitmqconsumer_1,开始实时打印消费者容器的日志,可以看到SpringBoot刚刚启动就把之前的两条消息给消费了,如下图红框所示:

image.png

  • 在浏览器输入:http://192.168.31.102:18080/messagettl/aaa01/bbb01/10 ,url中的10表示延时十秒,去看delaymq_delayrabbitmqconsumer_1的日志,果然,10秒钟后日志才会打印出来,如下所示,消息中的时间和日志的时间戳相差10秒:
2018-06-09 07:13:25.878  INFO 1 --- [cTaskExecutor-1] c.b.d.receiver.MessageTtlReceiver        : receive message : hello, aaa01 , bbb01, from queue [message.ttl.queue.source], delay 10's, 2018-06-09 07:13:15
  • 在浏览器输入:http://192.168.31.102:18081/queuettl/ccc01/ddd01 ,会发送消息到队列queue.ttl.queue.source,这个队列的TTL是5秒,在delaymq_delayrabbitmqconsumer_1的日志中可以看见发起和收到时间正好差5秒,如下:
2018-06-09 07:31:05.101  INFO 1 --- [cTaskExecutor-1] c.b.d.receiver.QueueTtlReceiver          : receive message : hello, ccc01 , ddd01, from queue [queue.ttl.queue.source], 2018-06-09 07:31:00
  • 至此,咱们的极速体验延时队列实战就结束了,接下来的章节,我们一起实战详细的开发过程《Docker下RabbitMQ延时队列实战两部曲之二:细说开发》

欢迎关注阿里云开发者社区博客:程序员欣宸

学习路上,你不孤单,欣宸原创一路相伴...
相关实践学习
消息队列RocketMQ版:基础消息收发功能体验
本实验场景介绍消息队列RocketMQ版的基础消息收发功能,涵盖实例创建、Topic、Group资源创建以及消息收发体验等基础功能模块。
消息队列 MNS 入门课程
1、消息队列MNS简介 本节课介绍消息队列的MNS的基础概念 2、消息队列MNS特性 本节课介绍消息队列的MNS的主要特性 3、MNS的最佳实践及场景应用 本节课介绍消息队列的MNS的最佳实践及场景应用案例 4、手把手系列:消息队列MNS实操讲 本节课介绍消息队列的MNS的实际操作演示 5、动手实验:基于MNS,0基础轻松构建 Web Client 本节课带您一起基于MNS,0基础轻松构建 Web Client
相关文章
|
6天前
|
关系型数据库 应用服务中间件 PHP
实战~如何组织一个多容器项目docker-compose
本文介绍了如何使用Docker搭建Nginx、PHP和MySQL的环境。首先启动Nginx容器并查看IP地址,接着启动Alpine容器并安装curl测试连通性。通过`--link`方式或`docker-compose`配置文件实现服务间的通信。最后展示了Nginx配置文件和PHP代码示例,验证了各服务的正常运行。
22 3
实战~如何组织一个多容器项目docker-compose
|
22天前
|
存储 缓存 监控
Docker容器性能调优的关键技巧,涵盖CPU、内存、网络及磁盘I/O的优化策略,结合实战案例,旨在帮助读者有效提升Docker容器的性能与稳定性。
本文介绍了Docker容器性能调优的关键技巧,涵盖CPU、内存、网络及磁盘I/O的优化策略,结合实战案例,旨在帮助读者有效提升Docker容器的性能与稳定性。
54 7
|
1月前
|
运维 Cloud Native 云计算
云原生之旅:Docker容器化实战
本文将带你走进云原生的世界,深入理解Docker技术如何改变应用部署与运维。我们将通过实际案例,展示如何利用Docker简化开发流程,提升应用的可移植性和伸缩性。文章不仅介绍基础概念,还提供操作指南和最佳实践,帮助你快速上手Docker,开启云原生的第一步。
|
24天前
|
Kubernetes Linux 开发者
深入探索容器化技术——Docker 的实战应用
深入探索容器化技术——Docker 的实战应用
71 0
|
25天前
|
存储 Cloud Native 开发者
深入探索容器化技术——Docker的实战应用
深入探索容器化技术——Docker的实战应用
36 0
|
25天前
|
存储 安全 Docker
Docker 的实战应用与优化策略
Docker 的实战应用与优化策略
35 0
|
26天前
|
JavaScript Linux 持续交付
深入探索容器化技术——Docker 的实战应用
深入探索容器化技术——Docker 的实战应用
48 0
|
2月前
|
消息中间件 JSON Java
开发者如何使用轻量消息队列MNS
【10月更文挑战第19天】开发者如何使用轻量消息队列MNS
100 7
|
2月前
|
消息中间件 安全 Java
云消息队列RabbitMQ实践解决方案评测
一文带你详细了解云消息队列RabbitMQ实践的解决方案优与劣
93 8
|
1月前
|
消息中间件 存储 Kafka
MQ 消息队列核心原理,12 条最全面总结!
本文总结了消息队列的12个核心原理,涵盖消息顺序性、ACK机制、持久化及高可用性等内容。关注【mikechen的互联网架构】,10年+BAT架构经验倾囊相授。