Mysql主从不同步问题处理

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
RDS MySQL Serverless 高可用系列,价值2615元额度,1个月
简介:

由于各种原因,mysql主从架构经常会出现数据不一致的情况出现,大致归结为如下几类

1:备库写数据  

2:执行non-deterministic query   

3:回滚掺杂事务表和非事务表的事务

4:binlog或者relay log数据损坏

 

数据不同步给应用带来的危害是致命的,当出现主从数据不一致的情况,常见的应对方法是先把从库下线,然后找个半夜三更的时间把应用停掉,重新执行同步,如果数据库的体积十分庞大,那工作量可想而知,会让人崩溃。本文介绍使用percona-toolkit工具对mysql主从数据库的同步状态进行检查和重新同步。

 

一:安装percona-toolkit

1
2
3
4
5
6
7
8
# yum -y  install perl-Time-HiRes
# wget 
http://www.percona.com/downloads/percona-toolkit/2.2.13/tarball/percona-toolkit-2.2.13.tar.gz
# tar -zxvpf percona-toolkit-2.2.13.tar.gz 
# cd percona-toolkit-2.2.13
# perl Makefile.PL 
# make 
# make install

二:修改mysql binlog格式binlog_format参数为row格式 

mysql binlog日志有三种格式,分别为Statement, Mixed,以及ROW

1.Statement

每一条会修改数据的sql都会记录在binlog中。

优点:不需要记录每一行的变化,减少了binlog日志量,节约了IO,提高性能。(相比row能节约多少性能与日志量,这个取决于应用的SQL情况,正常同一条记录修改或者插入row格式所产生的日志量还小于Statement产生的日志量,但是考虑到如果带条件的update操作,以及整表删除,alter表等操作,ROW格式会产生大量日志,因此在考虑是否使用ROW格式日志时应该跟据应用的实际情况,其所产生的日志量会增加多少,以及带来的IO性能问题。)

缺点:由于记录的只是执行语句,为了这些语句能在slave上正确运行,因此还必须记录每条语句在执行的时候的一些相关信息,以保证所有语句能在slave得到和在master端执行时候相同 的结果。另外mysql 的复制,像一些特定函数功能,slave可与master上要保持一致会有很多相关问题(sleep()函数, last_insert_id(),以及user-defined functions(udf)会出现问题).

 

2.Row

不记录sql语句上下文相关信息,仅保存哪条记录被修改。

优点: binlog中可以不记录执行的sql语句的上下文相关的信息,仅需要记录那一条记录被修改成什么了。所以rowlevel的日志内容会非常清楚的记录下每一行数据修改的细节。而且不会出现某些特定情况下的存储过程,或function,以及trigger的调用和触发无法被正确复制的问题

缺点:所有的执行的语句当记录到日志中的时候,都将以每行记录的修改来记录,这样可能会产生大量的日志内容,比如一条update语句,修改多条记录,则binlog中每一条修改都会有记录,这样造成binlog日志量会很大,特别是当执行alter table之类的语句的时候,由于表结构修改,每条记录都发生改变,那么该表每一条记录都会记录到日志中。

 

3.Mixed

是以上两种level的混合使用,一般的语句修改使用statment格式保存binlog,如一些函数,statement无法完成主从复制的操作,则采用row格式保存binlog,MySQL会根据执行的每一条具体的sql语句来区分对待记录的日志形式,也就是在StatementRow之间选择一种.新版本的MySQL中队row level模式也被做了优化,并不是所有的修改都会以row level来记录,像遇到表结构变更的时候就会以statement模式来记录。至于update或者delete等修改数据的语句,还是会记录所有行的变更。

 

主从数据库分别修改my.cnf文件相关配置项如下:

1
binlog_format=ROW

wKioL1T0IqbTifj_AAE9sN0TV0o570.jpg

wKiom1T0IajCTV2pAAFJketB500041.jpg

三:使用pt-table-checksum工具检查数据一致性情况

用法参考:

假设192.168.1.205是主库,192.168.1.207是它的从库,端口在3306


1. 先校验

1
2
3
4
5
#  pt-table-checksum --user=root --password=123456 \
   --host=192.168.1.205 --port=3306 \
   --databases=test  --tables=t2  --recursion-method=processlist \
   --no-check-binlog-format  --nocheck-replication-filters \
   --replicate=test.checksums

2. 根据校验结果,只修复192.168.1.207从库与主库不一致的地方:

1
2
# pt-table-sync  --execute  --replicate \
test.checksums  --sync-to-master h=192.168.1.207,P=3306,u=root,p=123456

3. 修复后,再重新校验一次。执行第一步的语句即可。 


4. 检查修复结果: 登陆到192.168.1.207,执行如下sql语句返回若为空,则说明修复成功:

1
2
3
4
5
6
7
8
SELECT
*
FROM
test.checksums
WHERE
master_cnt <> this_cnt
OR master_crc <> this_crc
OR ISNULL(master_crc) <> ISNULL(this_crc)

各参数含义

--nocheck-replication-filters:不检查复制过滤器,建议启用。后面可以用--databases来指定需要检查的数据库。

--no-check-binlog-format:不检查复制的binlog模式,要是binlog模式是ROW,则会报错。

--replicate-check-only:只显示不同步的信息。

--replicate=:把checksum的信息写入到指定表中,建议直接写到被检查的数据库当中。 

--databases=:指定需要被检查的数据库,多个则用逗号隔开。

--tables=:指定需要被检查的表,多个用逗号隔开

h=127.0.0.1:Master的地址

u=root:用户名

p=123456:密码

P=3306:端口


下面我们来模拟下主从数据库不同步情况下的pt-table-checksum,为了方面,这里我们采用test schema

 

1: 主库上建表,插入测试数据

1
2
3
4
5
6
7
8
9
10
11
12
13
mysql> create table t2 (id int primary key,name varchar(100) not null,salary int);
mysql> CREATE PROCEDURE test_insert ()
        BEGIN
        DECLARE i INT DEFAULT 0;
        WHILE i< 10000
        DO
        INSERT INTO t2
       VALUES
       (i,CONCAT('员工',i), i);
       SET  i =i+1;
       END WHILE ;
       END;;
mysql> CALL test_insert();

从库上校验当前数据的同步情况为正常。

wKioL1T0I63D5z_sAAQ-M6dFnmo722.jpg

从库上删除一半的数据

1
2
3
4
5
6
7
8
9
10
mysql> delete from t2 where id > 5000;
Query OK, 4999 rows affected (0.14 sec)
  
mysql> select count(*) from t2;
+----------+
| count(*) |
+----------+
|     5001 |
+----------+
1 row in set (0.01 sec)

2使用pt-table-checksum工具进行校验:

1
2
3
4
5
#  pt-table-checksum --user=root --password=123456 \
   --host=192.168.1.205 --port=3306 \
   --databases=test  --tables=t2  --recursion-method=processlist \
   --no-check-binlog-format  --nocheck-replication-filters \
   --replicate=test.checksums

wKiom1T0It-xh_2wAALWSm1-Ihs867.jpg

3:登陆从库进行查询checksum

1
2
3
4
5
6
7
8
mysql> SELECT
*
FROM
test.checksums
WHERE
master_cnt <> this_cnt
OR master_crc <> this_crc
OR ISNULL(master_crc) <> ISNULL(this_crc)

wKioL1T0JBLTIkLXAAPYSaaLP2c662.jpg

4:使用pt-table-sync工具进行数据重新同步

1
2
# pt-table-sync  --execute  --replicate \
  test.checksums  --sync-to-master h=192.168.1.207,P=3306,u=root,p=123456

5:从库上验证数据,中文“员工”变成了“??

wKioL1T0JECw6iLQAAMwzE_kngo764.jpg

检查主库,发现出现一样的情况,中文“员工”变成了“??”,猜想和字符集设置相关。

于是检查数据库字符集设置,发现test库字符集非utf8

wKioL1T0JICjbqboAAXA0u2VFSY703.jpg

主从库my.cnf文件添加如下配置项后重启数据库实例

1
2
character_set_client=utf8
character_set_server=utf8

wKiom1T0I6TAuiq3AAN-S7fbvMQ746.jpgwKioL1T0JMCCjs7QAAUKSFnkXKg698.jpg

重新执行以上1-4步,发现一切正常!关键第4步要加--charset=utf8 参数

1
2
3
  # pt-table-sync  --execute  --replicate \
  test.checksums   --charset=utf8 \
  --sync-to-master h=192.168.1.207,P=3306,u=root,p=123456

wKiom1T0I9zAwLW7AAQS_GWreLI996.jpg

本文转自斩月博客51CTO博客,原文链接http://blog.51cto.com/ylw6006/1616570如需转载请自行联系原作者


ylw6006

相关实践学习
如何在云端创建MySQL数据库
开始实验后,系统会自动创建一台自建MySQL的 源数据库 ECS 实例和一台 目标数据库 RDS。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助 &nbsp; &nbsp; 相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
相关文章
|
2月前
|
安全 关系型数据库 MySQL
如何将数据从MySQL同步到其他系统
【10月更文挑战第17天】如何将数据从MySQL同步到其他系统
245 0
|
2月前
|
SQL 存储 关系型数据库
Mysql主从同步 清理二进制日志的技巧
Mysql主从同步 清理二进制日志的技巧
32 1
|
3月前
|
消息中间件 canal 关系型数据库
Maxwell:binlog 解析器,轻松同步 MySQL 数据
Maxwell:binlog 解析器,轻松同步 MySQL 数据
378 11
|
4月前
|
关系型数据库 MySQL Linux
mysql 主从同步 实现增量备份
【8月更文挑战第28天】mysql 主从同步 实现增量备份
56 3
|
4月前
|
消息中间件 关系型数据库 MySQL
实时计算 Flink版产品使用问题之使用CTAS同步MySQL到Hologres时出现的时区差异,该如何解决
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
4月前
|
SQL 缓存 关系型数据库
MySQL主从同步如何操作?
随着业务增长,单台MySQL服务器难以应对高并发访问和潜在的故障风险。主从同步(Master-Slave)通过读写分离提升数据库处理能力,具备多项优势:读写分离减轻主数据库压力、支持一主多从增强扩展性与高可用性、以及数据备份确保容灾恢复。MySQL利用binlog实现主从数据同步,记录所有写操作,不包含查询。binlog有三种格式:Statement(基于SQL语句)、Row(基于行更改)、Mixed(结合前两者优点)。主从复制涉及三个关键线程:主库的binlog dump thread和从库的I/O thread与SQL thread。
119 0
MySQL主从同步如何操作?
|
4月前
|
存储 关系型数据库 MySQL
MySQL主从同步如何保证数据一致性?
MySQL主从同步如何保证数据一致性?
340 0
MySQL主从同步如何保证数据一致性?
|
4月前
|
SQL 存储 关系型数据库
实时计算 Flink版产品使用问题之同步MySQL多张表的过程中,内存释放依赖于什么
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
4月前
|
SQL 存储 关系型数据库
MySQL主从同步延迟原因与解决方法
MySQL主从同步延迟原因与解决方法
680 0
|
4月前
|
SQL 关系型数据库 MySQL
mysql读写分离,主从同步
本文介绍了如何在Laravel项目中配置数据库读写分离,并实现MySQL主从同步。主要步骤包括:在`config/database.php`中设置读写分离配置;为主机授予从机访问权限;配置各MySQL服务器的`/etc/my.cnf`文件以确保唯一的`server-id`;以及通过SQL命令设置主从关系并启动从服务。文章还针对一些常见错误提供了排查方法。最后通过验证确认主从同步是否成功。[原文链接](https://juejin.cn/post/6901581801458958344)。版权所有者为作者佤邦帮主,转载请遵循相关规定。