RocketMQ在搜狐的创新实践

简介: 大多数的视频各部门中使用过的消息中间件,包括有 RedisMQ、ActiveMQ、RocketMQ、Kafka 等,本文将选取几个典型的业务介绍一下其使用场景及问题。

MQ使用场景及选型


大多数的视频各部门中使用过的消息中间件,包括有 RedisMQ、ActiveMQ、RocketMQ、Kafka 等,本文将选取几个典型的业务介绍一下其使用场景及问题。


1、引入RocketMQ


最开始使用 RocketMQ 的是计数业务,计数业务需要将客户端的播放量实时计算并展示。当时采用 Redis 进行实时计数,再异步调用数据库进行计数。起初这种模式没什么问题,但是随着业务量变大,数据库压力也进一步增大。甚至有时候数据库机器的 CPU 快被打满了,另外当数据库迁移时,需要暂停写入,计数将面临数据丢失。


这时计数业务迫切需要一个可靠的,能实时消费,且能够堆积的 MQ 来改变这种状况.


当时我们考虑了 RocketMQ 和 Kafka,却最终选择了 RocketMQ,原因请参考下方。


2、放弃 Kafka


放弃 Kafka 投放业务需要将为用户推荐的内容投放到各个区域,但是推荐业务需要知道用户对于推荐内容的反馈,所以投放业务选择了使用 Kafka 来跟推荐业务交互。但是由于某次机器故障,导致 Kafka 集群发生故障转移,而不幸的是,这个集群的分区数过多,导致转移耗时几分钟才完成。


进而导致业务线程阻塞,服务进入无响应状态。而之后了解到 RocketMQ 即使某个 broker 宕机,消息会发送到其他 broker,不会产生整个集群阻塞情况,后来投放业务就将消息交互全部迁移到了 RocketMQ 上。


3、不可靠的 RedisMQ


之前视频基础服务使用了 RedisMQ,用来通知调用方,视频数据发生了变化,进行数据更新。而redis的消息推送基于 pub/sub 模式,虽然实时性很高,但是却不保证可靠,而且消息不会进行持久化。


这两个缺点就导致了某些情况下,调用方收不到通知,而且消息丢失时基本无据可查。


所以此业务最终放弃了 RedisMQ,转而投向 RocketMQ。RocketMQ 能够保证消息至少被投递一次,而且消息支持持久化,即使客户端重启,仍然可以从上次消费的地方继续消费。


4、低性能 ActiveMQ


用户视频基础服务之前使用了 ActiveMQ,主要用于通知依赖方数据变更,它的消息体里包含了变更的数据。遗憾的是,当消息量很大时,ActiveMQ 经常出现无法响应的情况,甚至消费者出现长时间接收不到消息的情况。而了解到 RocketMQ 单个 broker 可以承担几十万 TPS,亿级消息堆积时,此业务也迁移到 了RocketMQ 上。


目前使用 RocketMQ 的业务,包括视频基础服务,用户服务,直播业务,付费业务,审核等等业务系统。而 Kafka 大部分只用于日志相关的处理服务上,比如日志上报,业务日志收集等等。


另外,随着 RocketMQ 支持的客户端越来越丰富,也便于我们很多其他语言的业务接入,比如 AI 组使用 python 客户端,一些 GO 开发的业务,使用 GO 客户端等。


运维之痛


初期,我们运维 RocketMQ 基本靠命令行和 RocketMQ-Console。业务方经常来询问的问题包括如下:


  • 我有哪些机器在往这个topic发送消息?
  • 发送消息怎么超时了?
  • 发送失败能通知我吗?
  • 消费失败了能通知我吗?
  • 消息体是啥样的?
  • RocketMQ集群不可用了能不能降级隔离?
  • 我消费我的topic为啥导致别的业务消费混乱?
  • 为啥还需要我自己序列化?


问题很多,而且千奇百怪!


而作为运维人员,除了调查解答业务方的问题之外,在命令行运维 RocketMQ,更让我们小心翼翼。生怕脑子一时糊涂,敲错一个命令,造成大面积故障。随着运维的深入,我们总结了一篇又一篇的使用规范,最佳实践,命名约定,操作步骤等等的文章。但是,随之发现,这些文章对生产效率的提升并不明显。所以与其写文档不如将经验和实践转换为产品,能够更好的服务于业务,因此 MQCloud 应运而生。


MQCloud 诞生


先看一下 MQCloud 的定位:


1.png


它是集客户端 SDK,监控预警,集群运维于一体的一站式服务平台。MQCloud 的系统架构如下:


2.png


接下来分别说明一下 MQCloud 如何解决上面提到的痛点。


1、业务端和运维端分离,使业务用户只聚焦于业务数据


为了实现这个目的,引入了用户,资源两大维度。针对用户和资源加以控制,使不同的用户只聚焦于自己的数据。


3.png


  • 对于生产方来说,他关心的是 topic 配置,消息的发送数据,谁在消费等等问题,这样只对他展示相应的数据即可;
  • 对于消费者来说,只关心消费状况,有没有堆积,消费失败等情况;
  • 对于管理员来说,可以进行部署,监控,统一配置,审批等日常运维;


2、清晰明了的操作


通过对不同角色展示不同的视图,使用户可以进行的操作一目了然。


3、规范和安全


为了保障集群操作的安全性和规范性,所有的操作都会以申请单的形式进入后台审批系统,管理员来进行相关审批,安全性大大提升。


4、多维的数据统计和监控预警

MQCloud 核心功能之一就是监控预警,目前支持如下预警:


  • 生产消息异常预警
  • 消费消息堆积预警(broker 角度)
  • 消费客户端阻塞(客户端角度)
  • 消费失败预警
  • 消费偏移量错误预警
  • 消费订阅错误预警
  • 消费落后预警(超出内存阈值,从硬盘拉数据)
  • 死消息预警(消费失败太多,消息进入死信队列)
  • 消息流量异常预警
  • 消息存储耗时过长预警(broker 存储消息耗时)
  • broker&NameServer 宕机预警
  • 服务器宕机预警
  • 服务器 cpu,内存,网络流量等指标预警


要想做监控,必须先做统计,为了更好的知道 RocketMQ 集群的运行状况,MQCloud 做了大量的统计工作(大部分依赖于 broker 的统计),主要包括如下几项:


  • 每分钟 topic 的生产流量:用于绘制 topic 生产流量图及监控预警。
  • 每分钟消费者流量:用于绘制消费流量图及监控预警。
  • 每10分钟 topic 生产流量:用于按照流量展示 topic 排序。
  • 每分钟 broker 生产、消费流量:用于绘制 broker 生产消费流量图。
  • 每分钟集群生产、消费流量:用于绘制集群的生产流量图。
  • 每分钟生产者百分位耗时、异常统计:以 ip 维度绘制每个生产者的耗时流量图及监控预警。
  • 机器的 cpu,内存,io,网络流量,网络连接等统计:用于服务器的状况图和监控预警。


下面捡一两点进行一下说明:


1、生产异常耗时统计:


4.png


由于 RocketMQ 并没有提供生产者的流量统计(只提供了 topic,但是并不知道每个生产者的情况),所以 MQCloud 实现了对生产者数据进行统计(通过 RocketMQ 的回调钩子实现):


5.png


主要统计如下信息:


  • 客户端 ip->broker ip
  • 发送消息耗时
  • 消息数量
  • 发送异常


统计完成后,定时发送到 MQCloud 进行存储,并做实时监控和展示。


关于统计部分有一点说明,一般耗时统计有最大,最小和平均值,而通常 99% (即 99% 的请求耗时都低于此数值)的请求的耗时情况才能反映真实响应情况。99% 请求耗时统计最大的问题是如何控制内存占用,因为需要对某段时间内所有的耗时做排序后才能统计出这段时间的 99% 的耗时状况。而对于流式数据做这样的统计是有一些算法和数据结构的,例如 t-digest,但是 MQCloud 采用了非精确的但是较为简单的分段统计的方法,具体如下:


1、创建一个按照最大耗时预哈希的时间跨度不同的耗时分段数组


第一段:耗时范围 0ms~10ms,时间跨度为 1ms。


6.png


第二组:耗时范围 11ms~100ms,时间跨度 5ms。


7.png


第三组:耗时范围 101ms~3500ms,时间跨度 50ms。


8.png


优点:此种分段方法占用内存是固定的,比如最大耗时如果为3500ms,那么只需要空间大小为96的数组即可缺点:分段精度需要提前设定好,且不可更改。


2、针对上面的分段数组,创建一个大小对应的AtomicLong的计数数组,支持并发统计:


9.png


3、耗时统计时,计算耗时对应的耗时分段数组下标,然后调用计数数组进行统计即可,参考下图:


10.png


  • 例如某次耗时为18ms,首先找到它所属的区间,即归属于[16~20]ms之间,对应的数组下标为12。


  • 根据第一步找到的数组下标12,获取对应的计数数组下标12。


  • 获取对应的计数器进行+1操作,即表示18ms发生了一次调用。



这样,从计数数组就可以得到实时耗时统计,类似如下:


11.png


4、然后定时采样任务会每分钟对计数数组进行快照,产生如下耗时数据


12.png


5、由于上面的耗时数据天然就是排好序的,可以很容易计算 99%、90%、平均耗时等数据了。


另外提一点,由于 RocketMQ 4.4.0 新增的 trace 功能也使用 hook 来实现,与 MQCloud 的统计有冲突,MQCloud 已经做了兼容。Trace 和统计是两种维度,trace 反映的是消息从生产->存储->消费的流程,而 MQCloud 做的是针对生产者状况的统计,有了这些统计数据,才可以做到生产耗时情况展示,生产异常情况预警等功能。


2、机器统计


关于集群状况收集主要采用了将nmon自动放置到/tmp目录,定时采用ssh连接到机器执行nmon命令,解析返回的数据,然后进行存储。


上面这些工作就为监控和预警奠定了坚实的数据基础。


一、单独定制的客户端


13.png

针对客户端的一些需求,mq-client 在 rocketmq-client 的基础上进行了开发定制:


1、多集群支持

MQCloud储存了生产者、消费者和集群的关系,通过路由适配,客户端可以自动路由到目标集群上,使客户端对多集群透明。


2、透明的trace集群

通过搭建单独的trace集群和定制客户端,使trace数据能够发往独立的集群,防止影响主集群。


3、序列化


通过集成不同的序列化机制,配合MQCloud,客户端无需关心序列化问题。

目前支持的序列化为protobuf和json,并且通过类型检测支持在线修改序列化方式。


4、流控

通过提供令牌桶和漏桶限流机制,自动开启流控机制,防止消息洪峰冲垮业务端,也为需要精准控制流速的业务提供了方便。


5、隔离降级

针对生产消息使用hystrix提供了隔离api,使业务端在broker故障时可以避免拖累。


6、埋点监控

通过对客户端数据进行统计,收集,在MQCloud里进行监控,使客户端任何风吹草动都能及时得知。


7、规范问题


通过编码保障,使某些约定,规范和最佳实践得以实现。包括但不限于:


  • 命名规范


  • 消费组全局唯一,防止重复导致消费问题


  • 重试消息跳过


  • 安全关闭等等


  • 更完善的重试机制



二、近乎自动化运维


1、部署


手动部署一台 broker 实例没什么问题,但是当实例变多时,手动部署极易出错且耗时耗力。


MQCloud 提供了一套自动化部署机制,包括停止写入,上下线,本地更新,远程迁移(包含数据校验):


14.png


支持一键部署:


15.png


另外,broker 作为 RocketMQ 的核心,其配置有百项之多,而且好多涉及到性能调优,调整时往往需要根据服务器的状况谨慎调整,MQCloud 开发了配置模板功能来支持灵活的部署项:


16.png


2、机器运维


MQCloud 提供了一整套机器的运维机制,大大提升了生产力。


3、可视化的集群拓扑


17.gif


三、安全性加固


1、开启管理员权限


RocketMQ 从 4.4.0 开始支持 ACL,但是默认没有开启,也就是任何人使用管理工具或 API 就可以直接操纵线上集群。但是开启 ACL 对现有业务影响太大,针对这种情况 MQCloud 进行专门定制。


借鉴 RocketMQ ACL 机制,只针对 RocketMQ 管理员操作加固权限校验:


18.png


并且支持自定义和热加载管理员请求码,使得非法操作 RocketMQ 集群成为不可能,安全性大大提升。


2broker 通信加固


broker 同步数据代码由于没有校验,存在安全隐患,只要连接 master 监听的 slave 通信端口,发送数据大于 8 个字节,就可能导致同步偏移量错误,代码如下:


MQCloud 通过验证数据首包的策略,保障了通信的安全性。


if ((this.byteBufferRead.position() - this.processPostion) >= 8) {
  int pos = this.byteBufferRead.position() - (this.byteBufferRead.position() % 8);
  long readOffset = this.byteBufferRead.getLong(pos - 8);
  this.processPostion = pos;
  HAConnection.this.slaveAckOffset = readOffset;
  if (HAConnection.this.slaveRequestOffset < 0) {
      HAConnection.this.slaveRequestOffset = readOffset;
      log.info("slave[" + HAConnection.this.clientAddr + "] request offset " + readOffset);
  }
  HAConnection.this.haService.notifyTransferSome(HAConnection.this.slaveAckOffset);
}


开源之路


目前 MQCloud 运维规模如下:


  • 服务器:50台+
  • 集群:5个+
  • topic:800个+
  • consumer:1400+
  • 生产消费消息量/日:4 亿条+
  • 生产消费消息大小/日:400G+


MQCloud 在充分考虑和吸收实际业务的需求后,以各个角色聚焦为核心,以全面监控为目标,以满足各业务端需求为己任,在不断地发展和完善。


在 MQCloud 逐渐成熟之后,秉承着服务于社区和吸收更多经验的理念,我们开放了源代码。经过设计和拆分,MQCloud 于 18 年开源了,从第一个版本 release 到现在已经过去两年了,期间随着更新迭代大大小小一共 release 了 20 多个版本。其中不但包含功能更新、bug 修复、wiki 说明等,而且每个大版本都经过详细的测试和内部的运行。之后很多小伙伴跃跃欲试,来试用它,并提出一些建议和意见,我们根据反馈来进一步完善它。


我们将一直遵循我们的目标,坚定的走自己的开源之路:


  • 为业务提供可监控,可预警,可满足其各种需求的稳定的 MQ 服务。
  • 积累 MQ 领域经验,将经验转化为产品,更好的服务业务。



默认标题_公众号封面首图_2021-07-29-0 (2).png


8月14日,RocketMQ x EventMesh Open Day 将在深圳举办。Apache RocketMQ,Apache  EventMesh(incubating)社区携手分别来自银行、保险、基金、券商顶级金融企业:微众银行、平安人寿、博时基金、国信证券打造金融专场 Open Day。全天议程网罗 RocketMQ 5.0、EventMesh 社区最新动态、以及四大金融企业前沿实践、北京大学同款开源实操体验轻松上手、精美茶歇丰富礼品拿到手软,丰富的整日议程不负夏日好时光。

相关实践学习
消息队列RocketMQ版:基础消息收发功能体验
本实验场景介绍消息队列RocketMQ版的基础消息收发功能,涵盖实例创建、Topic、Group资源创建以及消息收发体验等基础功能模块。
消息队列 MNS 入门课程
1、消息队列MNS简介 本节课介绍消息队列的MNS的基础概念 2、消息队列MNS特性 本节课介绍消息队列的MNS的主要特性 3、MNS的最佳实践及场景应用 本节课介绍消息队列的MNS的最佳实践及场景应用案例 4、手把手系列:消息队列MNS实操讲 本节课介绍消息队列的MNS的实际操作演示 5、动手实验:基于MNS,0基础轻松构建 Web Client 本节课带您一起基于MNS,0基础轻松构建 Web Client
相关文章
|
消息中间件 弹性计算 Java
Rocketmq-spring入门与实践
本场景带您体验如何在 Spring 生态中优雅地使用 Apache RocketMQ,感受最受欢迎业务开发框架与最受欢迎消息平台结合的魅力。
|
1月前
|
消息中间件 存储 Serverless
【实践】快速学会使用阿里云消息队列RabbitMQ版
云消息队列 RabbitMQ 版是一款基于高可用分布式存储架构实现的 AMQP 0-9-1协议的消息产品。云消息队列 RabbitMQ 版兼容开源 RabbitMQ 客户端,解决开源各种稳定性痛点(例如消息堆积、脑裂等问题),同时具备高并发、分布式、灵活扩缩容等云消息服务优势。
85 2
|
2月前
|
消息中间件 Java Apache
RocketMQ消息回溯实践与解析
在分布式系统和高并发应用的开发中,消息队列扮演着至关重要的角色,而RocketMQ作为阿里巴巴开源的一款高性能消息中间件,以其高吞吐量、高可用性和灵活的配置能力,在业界得到了广泛应用。本文将围绕RocketMQ的消息回溯功能进行实践与解析,分享工作学习中的技术干货。
76 3
|
3月前
|
消息中间件 弹性计算 Kubernetes
RabbitMQ与容器化技术的集成实践
【8月更文第28天】RabbitMQ 是一个开源消息代理和队列服务器,用于在分布式系统中存储、转发消息。随着微服务架构的普及,容器化技术(如 Docker 和 Kubernetes)成为了部署和管理应用程序的标准方式。本文将探讨如何使用 Docker 和 Kubernetes 在生产环境中部署和管理 RabbitMQ 服务,同时保证高可用性和弹性伸缩能力。
66 3
|
23天前
|
消息中间件
解决方案 | 云消息队列RabbitMQ实践获奖名单公布!
云消息队列RabbitMQ实践获奖名单公布!
|
1月前
|
消息中间件 安全 Java
云消息队列RabbitMQ实践解决方案评测
一文带你详细了解云消息队列RabbitMQ实践的解决方案优与劣
67 6
|
1月前
|
消息中间件 存储 弹性计算
云消息队列RabbitMQ实践
云消息队列RabbitMQ实践
|
1月前
|
消息中间件 存储 弹性计算
云消息队列 RabbitMQ 版实践解决方案评测
随着企业业务的增长,对消息队列的需求日益提升。阿里云的云消息队列 RabbitMQ 版通过架构优化,解决了消息积压、内存泄漏等问题,并支持弹性伸缩和按量计费,大幅降低资源和运维成本。本文从使用者角度详细评测这一解决方案,涵盖实践原理、部署体验、实际优势及应用场景。
|
1月前
|
消息中间件 存储 监控
解决方案 | 云消息队列RabbitMQ实践
在实际业务中,网站因消息堆积和高流量脉冲导致系统故障。为解决这些问题,云消息队列 RabbitMQ 版提供高性能的消息处理和海量消息堆积能力,确保系统在流量高峰时仍能稳定运行。迁移前需进行技术能力和成本效益评估,包括功能、性能、限制值及费用等方面。迁移步骤包括元数据迁移、创建用户、网络打通和数据迁移。
64 4
|
2月前
|
消息中间件 运维 监控
云消息队列RabbitMQ实践解决方案评测报告
本报告旨在对《云消息队列RabbitMQ实践》解决方案进行综合评测。通过对该方案的原理理解、部署体验、设计验证以及实际应用价值等方面进行全面分析,为用户提供详尽的反馈与建议。
80 16

相关产品

  • 云消息队列 MQ