使用Percona Toolkit解决Mysql主从不同步问题【备忘】

本文涉及的产品
云数据库 RDS MySQL Serverless,0.5-2RCU 50GB
简介: 由于各种原因,mysql主从架构经常会出现数据不一致的情况出现,大致归结为如下几类 1:备库写数据 2:执行non-deterministic query 3:回滚掺杂事务表和非事务表的事务 4:binlog或者relay log数据损坏 数据不同步给应用带来的危害是致命的,当出现主从数据不一致的情况,常见的应对方法是先把从库下线,然后找个半夜三更的时间把应用停掉,重新执行同步,如果数据库的体积十分庞大,那工作量可想而知,会让人崩溃。

由于各种原因,mysql主从架构经常会出现数据不一致的情况出现,大致归结为如下几类

  • 1:备库写数据
  • 2:执行non-deterministic query
  • 3:回滚掺杂事务表和非事务表的事务
  • 4:binlog或者relay log数据损坏

数据不同步给应用带来的危害是致命的,当出现主从数据不一致的情况,常见的应对方法是先把从库下线,然后找个半夜三更的时间把应用停掉,重新执行同步,如果数据库的体积十分庞大,那工作量可想而知,会让人崩溃。本文介绍使用percona-toolkit工具对mysql主从数据库的同步状态进行检查和重新同步。

一:安装percona-toolkit

  1. # yum -y install perl-Time-HiRes 
  2. # wget 
  3. http://www.percona.com/downloads/percona-toolkit/2.2.13/tarball/percona-toolkit-2.2.13.tar.gz 
  4. # tar -zxvpf percona-toolkit-2.2.13.tar.gz 
  5. # cd percona-toolkit-2.2.13 
  6. # perl Makefile.PL 
  7. # make 
  8. # make install 

二:修改mysql 的binlog格式binlog_format参数为row格式

mysql binlog日志有三种格式,分别为Statement, Mixed,以及ROW!

1.Statement:

每一条会修改数据的sql都会记录在binlog中。

优点:不需要记录每一行的变化,减少了binlog日志量,节约了IO,提高性能。(相比row能节约多少性能与日志量,这个取决于应用的SQL情况,正常同一条记录修改或者插入row格式所产生的日志量还小于Statement产生的日志量,但是考虑到如果带条件的update操作,以及整表删除,alter表等操作,ROW格式会产生大量日志,因此在考虑是否使用ROW格式日志时应该跟据应用的实际情况,其所产生的日志量会增加多少,以及带来的IO性能问题。)

缺点:由于记录的只是执行语句,为了这些语句能在slave上正确运行,因此还必须记录每条语句在执行的时候的一些相关信息,以保证所有语句能在slave得到和在master端执行时候相同 的结果。另外mysql 的复制,像一些特定函数功能,slave可与master上要保持一致会有很多相关问题(如sleep()函数, last_insert_id(),以及user-defined functions(udf)会出现问题).

2.Row

不记录sql语句上下文相关信息,仅保存哪条记录被修改。

优点: binlog中可以不记录执行的sql语句的上下文相关的信息,仅需要记录那一条记录被修改成什么了。所以rowlevel的日志内容会非常清楚的记录下每一行数据修改的细节。而且不会出现某些特定情况下的存储过程,或function,以及trigger的调用和触发无法被正确复制的问题

缺点:所有的执行的语句当记录到日志中的时候,都将以每行记录的修改来记录,这样可能会产生大量的日志内容,比如一条update语句,修改多条记录,则binlog中每一条修改都会有记录,这样造成binlog日志量会很大,特别是当执行alter table之类的语句的时候,由于表结构修改,每条记录都发生改变,那么该表每一条记录都会记录到日志中。

3.Mixed

是以上两种level的混合使用,一般的语句修改使用statment格式保存binlog,如一些函数,statement无法完成主从复制的操作,则采用row格式保存binlog,MySQL会根据执行的每一条具体的sql语句来区分对待记录的日志形式,也就是在Statement和Row之间选择一种.新版本的MySQL中队row level模式也被做了优化,并不是所有的修改都会以row level来记录,像遇到表结构变更的时候就会以statement模式来记录。至于update或者delete等修改数据的语句,还是会记录所有行的变更。

主从数据库分别修改my.cnf文件相关配置项如下:

  1. binlog_format=ROW

 

三:使用pt-table-checksum工具检查数据一致性情况

用法参考:

假设192.168.1.205是主库,192.168.1.207是它的从库,端口在3306。

1. 先校验

  1. # pt-table-checksum --user=root --password=123456 \ 
  2. --host=192.168.1.205 --port=3306 \ 
  3. --databases=test --tables=t2 --recursion-method=processlist \ 
  4. --no-check-binlog-format --nocheck-replication-filters \ 
  5. --replicate=test.checksums 

2. 根据校验结果,只修复192.168.1.207从库与主库不一致的地方:

  1. # pt-table-sync --execute --replicate \ 
  2. test.checksums --sync-to-master h=192.168.1.207,P=3306,u=root,p=123456 

3. 修复后,再重新校验一次。执行第一步的语句即可。

4. 检查修复结果: 登陆到192.168.1.207,执行如下sql语句返回若为空,则说明修复成功:

  1. SELECT 
  2. FROM 
  3. test.checksums 
  4. WHERE 
  5. master_cnt <> this_cnt 
  6. OR master_crc <> this_crc 
  7. OR ISNULL(master_crc) <> ISNULL(this_crc) 

各参数含义

  • --nocheck-replication-filters:不检查复制过滤器,建议启用。后面可以用--databases来指定需要检查的数据库。
  • --no-check-binlog-format:不检查复制的binlog模式,要是binlog模式是ROW,则会报错。
  • --replicate-check-only:只显示不同步的信息。
  • --replicate=:把checksum的信息写入到指定表中,建议直接写到被检查的数据库当中。
  • --databases=:指定需要被检查的数据库,多个则用逗号隔开。
  • --tables=:指定需要被检查的表,多个用逗号隔开
  • h=127.0.0.1:Master的地址
  • u=root:用户名
  • p=123456:密码
  • P=3306:端口

 

下面我们来模拟下主从数据库不同步情况下的pt-table-checksum,为了方便,这里我们采用test schema

1: 主库上建表,插入测试数据

  1. mysql> create table t2 (id int primary key,name varchar(100) not null,salary int); 
  2. mysql> CREATE PROCEDURE test_insert () 
  3. BEGIN 
  4. DECLARE i INT DEFAULT 0; 
  5. WHILE i<10000 
  6. DO 
  7. INSERT INTO t2 
  8. VALUES 
  9. (i,CONCAT('员工',i), i); 
  10. SET i=i+1; 
  11. END WHILE ; 
  12. END;; 
  13. mysql> CALL test_insert(); 

从库上校验当前数据的同步情况为正常。

从库上删除一半的数据

  1. mysql> delete from t2 where id > 5000; 
  2. Query OK, 4999 rows affected (0.14 sec) 
  3.  
  4. mysql> select count(*) from t2; 
  5. +----------+ 
  6. | count(*) | 
  7. +----------+ 
  8. 5001 | 
  9. +----------+ 
  10. 1 row in set (0.01 sec)

2:使用pt-table-checksum工具进行校验:

  1. # pt-table-checksum --user=root --password=123456 \ 
  2. --host=192.168.1.205 --port=3306 \ 
  3. --databases=test --tables=t2 --recursion-method=processlist \ 
  4. --no-check-binlog-format --nocheck-replication-filters \ 
  5. --replicate=test.checksums

3:登陆从库进行查询checksum表

  1. mysql> SELECT 
  2. FROM 
  3. test.checksums 
  4. WHERE 
  5. master_cnt <> this_cnt 
  6. OR master_crc <> this_crc 
  7. OR ISNULL(master_crc) <> ISNULL(this_crc)

4:使用pt-table-sync工具进行数据重新同步

  1. # pt-table-sync --execute --replicate \ 
  2. test.checksums --sync-to-master h=192.168.1.207,P=3306,u=root,p=123456 

5:从库上验证数据,中文“员工”变成了“??”

检查主库,发现出现一样的情况,中文“员工”变成了“??”,猜想和字符集设置相关。

于是检查数据库字符集设置,发现test库字符集非utf8

主从库my.cnf文件添加如下配置项后重启数据库实例

  1. character_set_client=utf8 
  2. character_set_server=utf8

重新执行以上1-4步,发现一切正常!关键第4步要加--charset=utf8 参数

  1. # pt-table-sync --execute --replicate \ 
  2. test.checksums --charset=utf8 \ 
  3. --sync-to-master h=192.168.1.207,P=3306,u=root,p=123456

相关实践学习
基于CentOS快速搭建LAMP环境
本教程介绍如何搭建LAMP环境,其中LAMP分别代表Linux、Apache、MySQL和PHP。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助 &nbsp; &nbsp; 相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
相关文章
|
29天前
|
关系型数据库 MySQL
elasticsearch对比mysql以及使用工具同步mysql数据全量增量
elasticsearch对比mysql以及使用工具同步mysql数据全量增量
21 0
|
1月前
|
关系型数据库 MySQL API
Flink CDC产品常见问题之mysql整库同步到starrock时任务挂掉如何解决
Flink CDC(Change Data Capture)是一个基于Apache Flink的实时数据变更捕获库,用于实现数据库的实时同步和变更流的处理;在本汇总中,我们组织了关于Flink CDC产品在实践中用户经常提出的问题及其解答,目的是辅助用户更好地理解和应用这一技术,优化实时数据处理流程。
|
1月前
|
SQL DataWorks 关系型数据库
DataWorks常见问题之dataworks同步Rds任务失败如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
|
1月前
|
关系型数据库 MySQL 开发工具
MySQL5.7主从配置(Docker)
MySQL5.7主从配置(Docker)
730 0
|
1月前
|
SQL 关系型数据库 MySQL
解决MySQL主从慢同步问题的常见的解决方案:
解决MySQL主从慢同步问题的方法有很多,以下是一些常见的解决方案: 1. 检查网络连接:确保主从服务器之间的网络连接稳定,避免网络延迟或丢包导致数据同步缓慢。 2. 优化数据库配置:调整MySQL的配置参数,如增大binlog文件大小、调整innodb_flush_log_at_trx_commit等参数,以提高主从同步性能。 3. 检查IO线程和SQL线程状态:通过SHOW SLAVE STATUS命令检查IO线程和SQL线程的状态,确保它们正常运行并没有出现错误。 4. 检查主从日志位置:确认主从服务器的binlog文件和位置是否正确,避免由于错误的日志位置导致同步延迟。 5.
126 1
|
1月前
|
运维 安全 网络安全
Flink CDC产品常见问题之flink1.18同步mysql-starrocks pipeline时报错如何解决
Flink CDC(Change Data Capture)是一个基于Apache Flink的实时数据变更捕获库,用于实现数据库的实时同步和变更流的处理;在本汇总中,我们组织了关于Flink CDC产品在实践中用户经常提出的问题及其解答,目的是辅助用户更好地理解和应用这一技术,优化实时数据处理流程。
|
3月前
|
关系型数据库 MySQL API
|
3月前
|
关系型数据库 MySQL 流计算
Flink CDC 3.0中,如果你想在同步MySQL数据时排除某列
Flink CDC 3.0中,如果你想在同步MySQL数据时排除某列
73 1
|
1月前
|
消息中间件 关系型数据库 MySQL
Flink CDC产品常见问题之flinkcdc3同步mysql到doris的时候语句不同步如何解决
Flink CDC(Change Data Capture)是一个基于Apache Flink的实时数据变更捕获库,用于实现数据库的实时同步和变更流的处理;在本汇总中,我们组织了关于Flink CDC产品在实践中用户经常提出的问题及其解答,目的是辅助用户更好地理解和应用这一技术,优化实时数据处理流程。
|
3月前
|
SQL 关系型数据库 MySQL
MySQL-主从架构的搭建
MySQL-主从架构的搭建
58 0