《PolarDB-X开源分布式数据库实战进阶》——PolarDB-X的部署与运维(6)

简介: 《PolarDB-X开源分布式数据库实战进阶》——PolarDB-X的部署与运维(6)

《PolarDB-X开源分布式数据库实战进阶》——PolarDB-X的部署与运维(5) https://developer.aliyun.com/article/1228807?groupCode=polardbforpg



四、 企业级运维能力

 

PolarDB-X Operator在2.2版本支持的企业级运维能力包括日志采集(SQL审计能力)、强一致备份恢复、备库重搭以及参数模板和参数设置四项能力。

 

image.png

 

PolarDB-X 2.2版本支持三种日志的自动采集,分别是:

 

sql.log记录全量的SQL信息,基于日志便可以构建全量的SQL审计功能。

 

slow.log记录慢SQL列表,可以帮助有效地监控PolarDB-X上是否存在慢SQL或问题SQL。

 

error.log即错误日志,可以帮助判断是否存在业务上的异常或系统上的异常。

 

日志文件的采集采用了Filebeats +Logstash的开源解决方案。首先,Filebeats会以daemonSet的方式部署在K8s的每个节点上,定时拉取相关日志文件,并将其投递到Logstash集群中。Logstash负责对日志文本进行解析,提取索引字段,同时将其发送给下游存储系统,默认推荐采用Elasticsearch的方式进行存储,通过Kibana的方式做可视化的查询展现。

 

上图展示了Kibana查询PolarDB-X SQL日志的截图,可以简单地利用查询语言,帮助定位问题SQL或高危SQL。

 

另外,采用Logstash的解决方案可以充分利用其多种output plugin的能力,将SQL日志或慢日志投递到不同的存储系统中,比如MongoDB、Datadog或Clickhouse,构建自己的分析业务。

 

image.png

 

PolarDB-X的备份流程分为几个步骤:

 

对每一个DN节点进行并行的物理备份,所有DN都备份完成之后,在增量日志里寻找一致性位点。然后,对增量的binlog日志进行裁剪,备份增量日志,进行元数据备份。

 

为什要寻找一致性的位点?以经典的转账场景为例来说明:如上图,有一张账户信息表,一共有4个账户a、b、c、d,其中a、b分布在DN1,c、d在DN2上。账户总金额为200元。在某一时刻,发生了a向d转账以及c向b转账。而此时恰好正在进行备份,且备份完成。如果要基于之前的备份集对数据进行恢复,则恢复出的数据应该只存在两种情况:两笔转账在DN1和DN2上都没发生或都发生了,不应该存在诸如DN1上发生而DN2上没发生的情况。即四个账户的总金额始终要保持200,保证全局数据的一致性。

 

而如果没有保证全局数据的一致性,如上图下方所示,a账号已经完成了转账,账户金额从100变为50,但是该50元还未到d账户中,c和b的情况类似,则会导致四个账户的总金额变成为110,这对于业务而言是不可接受的结果。

 

因此,我们需要找出一致性的位点,保证恢复的时刻所有该提交的事务都已完成提交,所有该回滚的事务都已全部被回滚。

 

备份完成之后,PolarDB-X备份集的构成如下:PolarDB-X的账号、密码、元拓扑信息等元数据;每一个DN节点的全量物理备份,同时我们会为每一个DN节点配备增量的备份日志,保证所有DN都恢复到全局一致的位点,保证恢复出的数据的一致性。

 

PolarDB-X的备份集目前支持多种存储方式,包括OSS、SFTP、NAS等,未来也会支持S3等更多方式。



《PolarDB-X开源分布式数据库实战进阶》——PolarDB-X的部署与运维(7) https://developer.aliyun.com/article/1228804?groupCode=polardbforpg

相关文章
|
7月前
|
存储 关系型数据库 数据库
附部署代码|云数据库RDS 全托管 Supabase服务:小白轻松搞定开发AI应用
本文通过一个 Agentic RAG 应用的完整构建流程,展示了如何借助 RDS Supabase 快速搭建具备知识处理与智能决策能力的 AI 应用,展示从数据准备到应用部署的全流程,相较于传统开发模式效率大幅提升。
附部署代码|云数据库RDS 全托管 Supabase服务:小白轻松搞定开发AI应用
|
7月前
|
运维 监控 关系型数据库
AI 时代的 MySQL 数据库运维解决方案
本文探讨了大模型与MySQL数据库运维结合所带来的变革,介绍了构建结构化运维知识库、选择合适的大模型、设计Prompt调用策略、开发MCP Server以及建立监控优化闭环等关键步骤。通过将自然语言处理能力与数据库运维相结合,实现了故障智能诊断、SQL自动优化等功能,显著提升了MySQL运维效率和准确性。
640 18
|
7月前
|
运维 Prometheus 监控
别再盲选了!开源运维工具选型这事儿,咱得说人话
别再盲选了!开源运维工具选型这事儿,咱得说人话
439 7
|
6月前
|
人工智能 运维 监控
运维也能“先演练后实战”?聊聊数字孪生的那些神操作
运维也能“先演练后实战”?聊聊数字孪生的那些神操作
191 0
|
8月前
|
人工智能 运维 安全
基于合合信息开源智能终端工具—Chaterm的实战指南【当运维遇上AI,一场效率革命正在发生】
在云计算和多平台运维日益复杂的今天,传统命令行工具正面临前所未有的挑战。工程师不仅要记忆成百上千条操作命令,还需在不同平台之间切换终端、脚本、权限和语法,操作效率与安全性常常难以兼顾。尤其在多云环境、远程办公、跨部门协作频繁的背景下,这些“低效、碎片化、易出错”的传统运维方式,已经严重阻碍了 IT 团队的创新能力和响应速度。 而就在这时,一款由合合信息推出的新型智能终端工具——Chaterm,正在悄然颠覆这一现状。它不仅是一款跨平台终端工具,更是业内率先引入 AI Agent 能力 的“会思考”的云资源管理助手。
|
8月前
|
人工智能 运维 关系型数据库
数据库运维:mysql 数据库迁移方法-mysqldump
本文介绍了MySQL数据库迁移的方法与技巧,重点探讨了数据量大小对迁移方式的影响。对于10GB以下的小型数据库,推荐使用mysqldump进行逻辑导出和source导入;10GB以上可考虑mydumper与myloader工具;100GB以上则建议物理迁移。文中还提供了统计数据库及表空间大小的SQL语句,并讲解了如何使用mysqldump导出存储过程、函数和数据结构。通过结合实际应用场景选择合适的工具与方法,可实现高效的数据迁移。
1365 1
|
7月前
|
数据可视化 BI API
无缝对接云数据库:自定义报表生成工具在混合云环境下的部署指南
自定义报表生成工具通过拖拽设计、多数据源整合及自动化输出,帮助业务人员零代码创建个性化报表,解决传统工具灵活性不足、技术门槛高的问题。文章对比其与传统报表差异,列举行业应用场景(如财务、零售),并给出选型建议与主流工具(如FineReport、Power BI、板栗看板)的优劣势分析。
277 0
|
7月前
|
缓存 运维 安全
7天精通电商API:从接入到运维的完整实战手册
本文全面解析电商API接口技术,从基础概念到高阶应用,涵盖商品、订单、支付与营销等核心模块,并深入探讨性能优化、安全防护与智能化发展方向,助你掌握驱动数字商业的核心技术。
|
7月前
|
存储 关系型数据库 分布式数据库
喜报|阿里云PolarDB数据库(分布式版)荣获国内首台(套)产品奖项
阿里云PolarDB数据库管理软件(分布式版)荣获「2024年度国内首版次软件」称号,并跻身《2024年度浙江省首台(套)推广应用典型案例》。

相关产品

  • 云原生数据库 PolarDB