百万级高并发mongodb集群性能数十倍提升优化实践(下篇)

本文涉及的产品
云数据库 MongoDB,独享型 2核8GB
推荐场景:
构建全方位客户视图
日志服务 SLS,月写入数据量 50GB 1个月
简介: 本文是oppo互联网某百亿级数据量/百万级高并发mongodb集群线上真实优化案例,荣获mongodb中文社区2019年度一等奖,上篇地址:https://developer.aliyun.com/article/779084?spm=a2c6h.13148508.0.0.37d34f0e4AZoIg

关于作者

  前滴滴出行技术专家,现任OPPO文档数据库mongodb负责人,负责oppo千万级峰值TPS/十万亿级数据量文档数据库mongodb研发和运维工作,一直专注于分布式缓存、高性能服务端、数据库、中间件等相关研发。后续持续分享《MongoDB内核源码设计、性能优化、最佳运维实践》,Github账号地址:https://github.com/y123456yz
  mongodb源码中文注释分析:https://github.com/y123456yz/reading-and-annotate-mongodb-3.6

1 说明

   温馨提示:在进行本下篇优化文章阅读前,可以提前了解下《百万级高并发mongodb集群性能数十倍提升优化实践(上篇)》的问题背景及优化方法,这样可以更好的了解和学习本篇性能优化下篇的内容。百万级高并发mongodb集群性能数十倍提升优化实践(上篇)

2.背景

  线上某集群峰值TPS超过100万/秒左右(主要为写流量,读流量很低),峰值tps几乎已经到达集群上限,同时平均时延也超过100ms,随着读写流量的进一步增加,时延抖动严重影响业务可用性。该集群采用mongodb天然的分片模式架构,数据均衡的分布于各个分片中,添加片键启用分片功能后实现完美的负载均衡。集群每个节点流量监控如下图所示:
image.png
image.png
  从上图可以看出集群流量比较大,峰值已经突破120万/秒,其中delete过期删除的流量不算在总流量里面(delete由主触发删除,但是主上面不会显示,只会在从节点拉取oplog的时候显示)。如果算上主节点的delete流量,总tps超过150万/秒。
  在《百万级高并发mongodb集群性能数十倍提升优化实践(上篇)》中,我们通过业务优化、mongodb服务层配置优化、wiredtiger存储引擎层优化及硬件IO优化后,客户端总体时延从几百ms迟控制到了2-5ms左右,总体性能有了很大的提升,但是当有超大流量写冲击的时候,会有几十ms时延抖动,几个不同接口的时延如下图所示:
image.png
image.png
image.png

3.硬件问题回顾及遗留问题

  在《上篇》文章中,我们通过定位nvme ssd硬件的IO问题后,和厂商一起分析后发现IO问题是因为操作系统版本不对引起,于是开始对线上的主从mongod实例的服务器硬件进行升级,升级后开始替换线上该集群的实例。具体操作过程如下:
  1. 为了验证IO升级后的机器,我们替换一个分片的从节点为升级后的服务器(IO问题得以解决,IO能力从之前的500M/s写入达到了近2G/s,我们称IO升级后的服务器为高IO服务器,未升级的服务器为低IO服务器),替换后通过iostat可以看到该从节点的IO 100%问题得到了很大程度的缓解,不会出现持续性IO跌0问题。
  2. 第一步上面的服务器跑了一周后,我们确定升级后的高IO服务器运行稳定,为了谨慎起见,我们虽然确定该高IO服务器在从节点运行没有问题,但是我们需要进一步在主节点验证是否文档,于是我们做了一次主从切换,该高IO服务器变为主节点运行,也就是集群中某个分片的主节点为高IO服务器,但是从节点还是低IO服务器。
  3. 当高IO服务器在某个分片的主节点跑了数周后,我们确定高IO服务器在主节点运行正常,于是我们得下结论: 升级后的服务器运行稳定。
  4. 确定高IO服务器没问题后,我们开始批量替换mongod实例到该服务器。为了保险起见,毕竟只验证了一台高IO服务器在主从运行都没问题,于是我们考虑只把整个集群的主节点替换为高IO服务器(因为当时我认为客户端都是用的默认配置,数据写到主节点就会返回OK,虽然从节点IO慢,但是还是可以追上oplog速度的,这样客户端时延就会很好的得到控制)。

  为了谨慎保险起见,通过上面的硬件替换升级过程,我们只替换了所有分片的主节点,提后前后架构发生了变化,原有集群硬件架构如下图所示:
image.png
  所有分片主节点硬件升级后的架构图如下图所示:
image.png
  从上图可知,新的集群架构,主从节点服务器IO能力有比较大的差距。最开始我认为业务方默认没有设置WriteConncern,也就是默认写入到Primary就向客户端发送确认,因此不会影响业务写入。
  所有分片主节点升级为高IO服务器后,多个业务接口的时间访问延迟降到了平均2-4ms左右,但是在超大流量冲击的时候,还是有几十ms的尖刺,我选取一个接口的时延为例,如下图所示:
image.png
  从上图可以看出,特别是在大流量冲击的时间点,尖刺越明显。

4.主节点硬件升级后优化

4.1 readConcern配置优化

  在上一节,我们替换了分片的所有主节点为高IO服务器,从节点还是以前未升级的低IO服务器。由于业务方默认没有设置WriteConncern,因此我认为客户端写到主成功就会返回客户端OK,即使从服务器性能差也不会影响客户端写主。
  在升级主服务器后,我继续优化存储引擎把eviction_dirty_trigger:25%调整到了30%。
  由于在超大流量的高并发冲击,会从平峰期的几十万TPS瞬间飙升到百万级别,而且该毛刺几乎每天都会出现两三次,比较容易复现。于是提前部署好mongostat监控所有实例,同时在每个服务器上用Iostat监控实时的IO状况,同时编写脚本实时采集db.serverstatus()、db.printSlaveReplicationInfo()、db.printReplicationInfo()等集群重要信息。
  当某个时间点监控出现毛刺后,于是开始分析mongostat,我们发现一个问题,即使在平峰期,脏数据比例也会持续增长到阀值(30%),我们知道当脏数据比例超过eviction_dirty_trigger:30%阀值,用户线程就会进行evict淘汰,这样用户线程就会阻塞直到腾出内存空间,因此淘汰刷盘过程很慢。分析平峰期毛刺时间点对应的mongostat监控,发现如下情况:
image.png
  从上图可以看出,集群TPS才40-50万左右的时候某个分片的主节点出现了脏数据达到eviction_dirty_trigger:30%阀值,于是整个集群访问时延就会瞬间增加,原因是一个分片的用户线程需要刷盘,导致这个分片的访问时延上升(实际上其他分片的访问时延还是正常的),最终把整体平均时延拉上去了。
  为什么普通平峰期也会有抖动?这很明显不科学。
  于是获取出问题的主节点的一些监控信息,得出以下结论:
  1. IO正常,IO不是瓶颈。
  2. 分析抖动的时候的系统top负载,负载正常。
  3. 该分片的TPS才4万左右,显然没到到分片峰值。
  4. db.printSlaveReplicationInfo()看到主从延迟较高。
  当客户端时延监控发现时间延迟尖刺后,我们发现主节点所有现象一切正常,系统负载、IO、TPS等都没有到达瓶颈,但是有一个唯一的异常,就是主从同步延迟持续性增加,如下图所示:
image.png
   同时对应低IO服务器的从节点上面的io状况如下图:
image.png
   从节点的IO性能一塌乌涂,这也正式主从延迟增加的根源。

   从上图可以看出在时延尖刺的同样时间点,主从延迟超大。于是怀疑时延尖刺可能和从节点拉取Oplog速度有关系,于是把整个mongostat、iostat、top、db.printSlaveReplicationInfo()、db.serverstatus()等监控持续跑了两天,记录下了两天内的一些核心系统和mongo监控指标。
   两天后,对着客户端时延尖刺时间点分析对应监控数据,发现一个共同的现象,尖刺出现时间点和脏数据eviction_dirty_trigger超过阀值时间点一致,同时主从延迟在这个时间点都有很大的延迟。
   到这里,我越来越怀疑问题和从节点拉取oplog速度有关。之前认为业务方默认没有设置WriteConncern,也就是默认写入到Primary就向客户端发送确认,可能应答客户端前还有其他流程会影响写入。于是查看mongodb-3.6的Production Notes,从中发现了如下信息:
image.png
   从Production Notes可以看出,mongodb-3.6默认启用了 read concern "majority"功能,于是怀疑抖动可能和该功能有关。为了避免藏独,mongodb增加了该功能,启用该功能后,mongodb为了确保带有带有参数readConcern("Majority")的客户端读取到的数据确实是同步到大多数实例的数据,因此mongodb必须在内存中借助snapshot 及主从通信来维护更多的版本信息,这就增加了wiredtiger存储引擎对内存的需求。由于从节点是低IO服务器,很容易造成阻塞,这样拉取oplog的速度就会跟不上进度,造成主节点消耗大量的内存来维护快照信息,这样就会导致大量的内存消耗,最终导致脏数据瞬间剧增,很快达到eviction_dirty_trigger阀值,业务也因此抖动。
   说一个小插曲,因为mongodb-3.6默认开启enableMajorityReadConcern功能,我们在这个过程中出现过一次严重的集群故障,业务流量有段时间突然暴涨,造成时延持续性达到几千ms,现象如下:
image.png
   该问题的根源也是因为enableMajorityReadConcern功能引起,由于从节点严重落后主节点,导致主节点为了维护各种snapshot快照,消耗大量内存,同时从节点和主节点的oplog延后,导致主节点维护了更多的内存版本,脏数据比例持续性增长,直到从节点追上oplog。由于我们的业务不需要readConcert功能,因此我们考虑禁用该功能(配置文件增加配置replication.enableMajorityReadConcern=false)。
   鉴于篇幅,enableMajorityReadConcern及主从硬件IO能力不足引起的严重业务故障,本篇不做详细的分析,后期会写一篇专门的《百万计高并发mongodb集群性能优化采坑记》中做分享,除了ReadConcern采坑,还有其他好几个核心采坑点,敬请关注。
   此外,后续会专门写一篇ReadConcern的原理及代码实现分析文章,敬请关注。

4.2 替换从节点服务器为升级后的高IO服务器

   除了通过replication.enableMajorityReadConcern=false在配置文件中禁用ReadConcern Majority功能,我们继续把所有分片的从节点由之前的低IO服务器替换为升级后的高IO服务器,升级后所有主从硬件资源性能完全一样,升级后集群分片架构如下图所示:
image.png
   通过禁用功能,并统一主从服务器硬件资源后,查看有抖动的一个接口的时间延迟,如下图所示:
image.png
   从上图可以看出,通过MajorityReadConcern功能并且替把所有从节点的低IO服务器做系统升级后,业务时间延迟抖动的峰值进一步降低了,从之前第3节中的峰值80ms降低到了现在的峰值40ms左右。
   此外,4.1节提到的脏数据持续性突破eviction_dirty_trigger阀值引起客户端时延飙涨到几千ms的问题得以彻底解决。

4.3 继续优化调整存储引起参数

   通过前面的条优化,我们发现有一个业务接口还是偶尔有40ms时延尖刺,分析发现主要是eviction_dirty_trigger达到了我们配置的阀值,业务线程开始淘汰page cache,这样就造成业务线程很慢,最终导致平均时延尖刺。
   为了进一步减缓时延尖刺,我们继续在之前基础上对存储引擎调优,调整后配置如下:
   eviction_target: 75%
   eviction_trigger:97%
   eviction_dirty_target: %3
   eviction_dirty_trigger:30%
   evict.threads_min:12
   evict.threads_max:18
   checkpoint=(wait=20,log_size=1GB)
   经过此轮的存储引擎调优后,该业务的核心接口时延进一步好转,时延尖刺相比之前有了进一步的改善,时延最大尖刺时间从前面的40ms降低到了30ms,同时尖刺出现的频率明显降低了,如下图所示:
image.png
   从此图可以看出,在个别时间点还是有一次时延尖刺,对照该尖刺的时间点分析提前部署好的mongostat和iostat监控,得到如下信息:
image.png
  从上图可以看出,在峰值TPS百万级别的时候,部分节点evict淘汰速率已经跟不上写入速度,因此出现了用户线程刷盘的情况。
  但是,很奇怪的是,在这个时间点分析对应机器的系统负载、io状况、内存状况等,发现系统负载、比较正常,但是对应服务器IO偏高,如下图所示:
image.png
  同时分析对应服务器对应时间点的慢日志,我们发现尖刺出现时间的的慢日志统计如下:
image.png
  分析非时延尖刺时间点,对应慢日志统计如下:
image.png
  分析两个时间点慢日志可以看出,慢日志出现的条数和时间延迟尖刺出现的时间点一致,也就是IO负载很高的时候。
  通过上面的分析可以看出,当IO比较高(util超过50%)的时候,慢日志和时延都会增加,他们之间成正比关系。

5.总结

  通过软件层面(mongodb服务配置、业务优化、存储引擎优化)及硬件优化(升级操作系统)后,该大流量集群的核心接口时延从最初的平均成百上千ms降低到了现在的平均1-2ms,性能提升比较可观,整体时延性能提升数十倍。
  优化前主要接口时延:
image.png
image.png
  在不增加物理机器的基础上,经过一系列的优化措施,最终业务方主要接口时延控制到了几ms,如下图所示:
image.png
image.png

相关实践学习
MongoDB数据库入门
MongoDB数据库入门实验。
快速掌握 MongoDB 数据库
本课程主要讲解MongoDB数据库的基本知识,包括MongoDB数据库的安装、配置、服务的启动、数据的CRUD操作函数使用、MongoDB索引的使用(唯一索引、地理索引、过期索引、全文索引等)、MapReduce操作实现、用户管理、Java对MongoDB的操作支持(基于2.x驱动与3.x驱动的完全讲解)。 通过学习此课程,读者将具备MongoDB数据库的开发能力,并且能够使用MongoDB进行项目开发。   相关的阿里云产品:云数据库 MongoDB版 云数据库MongoDB版支持ReplicaSet和Sharding两种部署架构,具备安全审计,时间点备份等多项企业能力。在互联网、物联网、游戏、金融等领域被广泛采用。 云数据库MongoDB版(ApsaraDB for MongoDB)完全兼容MongoDB协议,基于飞天分布式系统和高可靠存储引擎,提供多节点高可用架构、弹性扩容、容灾、备份回滚、性能优化等解决方案。 产品详情: https://www.aliyun.com/product/mongodb
相关文章
|
2月前
|
存储 监控 NoSQL
MongoDB优化的几点原则
这篇文章讨论了MongoDB优化的一些原则,包括查询优化、热数据大小、文件系统选择、硬盘选择、查询方式优化、sharding key设计和性能监控。
70 1
|
3月前
|
存储 监控 固态存储
在高并发环境下,如何优化 WAL 的写入性能?
在高并发环境下,如何优化 WAL 的写入性能?
|
23天前
|
存储 NoSQL MongoDB
掌握MongoDB索引优化策略:提升查询效率的关键
在数据库性能调优中,索引是提升查询效率的利器。本文将带你深入了解MongoDB索引的内部工作原理,探讨索引对查询性能的影响,并通过实际案例指导如何针对不同的查询模式建立有效的索引。不仅将涵盖单一字段索引,还会探讨复合索引的使用,以及如何通过分析查询模式和执行计划来优化索引,最终实现查询性能的最大化。
|
1月前
|
存储 监控 固态存储
在高并发环境下,如何优化 WAL 的写入性能?
在高并发环境下,如何优化 WAL 的写入性能?
|
11天前
|
NoSQL Cloud Native atlas
探索云原生数据库:MongoDB Atlas 的实践与思考
【10月更文挑战第21天】本文探讨了MongoDB Atlas的核心特性、实践应用及对云原生数据库未来的思考。MongoDB Atlas作为MongoDB的云原生版本,提供全球分布式、完全托管、弹性伸缩和安全合规等优势,支持快速部署、数据全球化、自动化运维和灵活定价。文章还讨论了云原生数据库的未来趋势,如架构灵活性、智能化运维和混合云支持,并分享了实施MongoDB Atlas的最佳实践。
|
12天前
|
NoSQL Cloud Native atlas
探索云原生数据库:MongoDB Atlas 的实践与思考
【10月更文挑战第20天】本文探讨了MongoDB Atlas的核心特性、实践应用及对未来云原生数据库的思考。MongoDB Atlas作为云原生数据库服务,具备全球分布、完全托管、弹性伸缩和安全合规等优势,支持快速部署、数据全球化、自动化运维和灵活定价。文章还讨论了实施MongoDB Atlas的最佳实践和职业心得,展望了云原生数据库的发展趋势。
|
21天前
|
存储 监控 NoSQL
TDengine 3.3.3.0 版本上线:优化监控、增强 MongoDB 支持
今天我们非常高兴地宣布,TDengine 3.3.3.0 版本正式发布。本次更新引入了多项重要功能和性能优化,旨在为用户提供更高效、更灵活的数据解决方案。
41 0
|
1月前
|
存储 关系型数据库 MySQL
四种数据库对比MySQL、PostgreSQL、ClickHouse、MongoDB——特点、性能、扩展性、安全性、适用场景
四种数据库对比 MySQL、PostgreSQL、ClickHouse、MongoDB——特点、性能、扩展性、安全性、适用场景
|
2月前
|
缓存 监控 安全
如何提高 Java 高并发程序的性能?
以下是提升Java高并发程序性能的方法:优化线程池设置,减少锁竞争,使用读写锁和无锁数据结构。利用缓存减少重复计算和数据库查询,并优化数据库操作,采用连接池和分库分表策略。应用异步处理,选择合适的数据结构如`ConcurrentHashMap`。复用对象和资源,使用工具监控性能并定期审查代码,遵循良好编程规范。
|
3月前
|
JSON NoSQL MongoDB
MongoDB Schema设计实战指南:优化数据结构,提升查询性能与数据一致性
【8月更文挑战第24天】MongoDB是一款领先的NoSQL数据库,其灵活的文档模型突破了传统关系型数据库的限制。它允许自定义数据结构,适应多样化的数据需求。设计MongoDB的Schema时需考虑数据访问模式、一致性需求及性能因素。设计原则强调简洁性、查询优化与合理使用索引。例如,在构建博客系统时,可以通过精心设计文章和用户的集合结构来提高查询效率并确保数据一致性。正确设计能够充分发挥MongoDB的优势,实现高效的数据管理。
56 3