Mysql主从不同步问题处理

本文涉及的产品
云数据库 RDS MySQL Serverless,0.5-2RCU 50GB
简介:

由于各种原因,mysql主从架构经常会出现数据不一致的情况出现,大致归结为如下几类

1:备库写数据  

2:执行non-deterministic query   

3:回滚掺杂事务表和非事务表的事务

4:binlog或者relay log数据损坏

 

数据不同步给应用带来的危害是致命的,当出现主从数据不一致的情况,常见的应对方法是先把从库下线,然后找个半夜三更的时间把应用停掉,重新执行同步,如果数据库的体积十分庞大,那工作量可想而知,会让人崩溃。本文介绍使用percona-toolkit工具对mysql主从数据库的同步状态进行检查和重新同步。

 

一:安装percona-toolkit

1
2
3
4
5
6
7
8
# yum -y  install perl-Time-HiRes
# wget 
http://www.percona.com/downloads/percona-toolkit/2.2.13/tarball/percona-toolkit-2.2.13.tar.gz
# tar -zxvpf percona-toolkit-2.2.13.tar.gz 
# cd percona-toolkit-2.2.13
# perl Makefile.PL 
# make 
# make install

二:修改mysql binlog格式binlog_format参数为row格式 

mysql binlog日志有三种格式,分别为Statement, Mixed,以及ROW

1.Statement

每一条会修改数据的sql都会记录在binlog中。

优点:不需要记录每一行的变化,减少了binlog日志量,节约了IO,提高性能。(相比row能节约多少性能与日志量,这个取决于应用的SQL情况,正常同一条记录修改或者插入row格式所产生的日志量还小于Statement产生的日志量,但是考虑到如果带条件的update操作,以及整表删除,alter表等操作,ROW格式会产生大量日志,因此在考虑是否使用ROW格式日志时应该跟据应用的实际情况,其所产生的日志量会增加多少,以及带来的IO性能问题。)

缺点:由于记录的只是执行语句,为了这些语句能在slave上正确运行,因此还必须记录每条语句在执行的时候的一些相关信息,以保证所有语句能在slave得到和在master端执行时候相同 的结果。另外mysql 的复制,像一些特定函数功能,slave可与master上要保持一致会有很多相关问题(sleep()函数, last_insert_id(),以及user-defined functions(udf)会出现问题).

 

2.Row

不记录sql语句上下文相关信息,仅保存哪条记录被修改。

优点: binlog中可以不记录执行的sql语句的上下文相关的信息,仅需要记录那一条记录被修改成什么了。所以rowlevel的日志内容会非常清楚的记录下每一行数据修改的细节。而且不会出现某些特定情况下的存储过程,或function,以及trigger的调用和触发无法被正确复制的问题

缺点:所有的执行的语句当记录到日志中的时候,都将以每行记录的修改来记录,这样可能会产生大量的日志内容,比如一条update语句,修改多条记录,则binlog中每一条修改都会有记录,这样造成binlog日志量会很大,特别是当执行alter table之类的语句的时候,由于表结构修改,每条记录都发生改变,那么该表每一条记录都会记录到日志中。

 

3.Mixed

是以上两种level的混合使用,一般的语句修改使用statment格式保存binlog,如一些函数,statement无法完成主从复制的操作,则采用row格式保存binlog,MySQL会根据执行的每一条具体的sql语句来区分对待记录的日志形式,也就是在StatementRow之间选择一种.新版本的MySQL中队row level模式也被做了优化,并不是所有的修改都会以row level来记录,像遇到表结构变更的时候就会以statement模式来记录。至于update或者delete等修改数据的语句,还是会记录所有行的变更。

 

主从数据库分别修改my.cnf文件相关配置项如下:

1
binlog_format=ROW

wKioL1T0IqbTifj_AAE9sN0TV0o570.jpg

wKiom1T0IajCTV2pAAFJketB500041.jpg

三:使用pt-table-checksum工具检查数据一致性情况

用法参考:

假设192.168.1.205是主库,192.168.1.207是它的从库,端口在3306


1. 先校验

1
2
3
4
5
#  pt-table-checksum --user=root --password=123456 \
   --host=192.168.1.205 --port=3306 \
   --databases=test  --tables=t2  --recursion-method=processlist \
   --no-check-binlog-format  --nocheck-replication-filters \
   --replicate=test.checksums

2. 根据校验结果,只修复192.168.1.207从库与主库不一致的地方:

1
2
# pt-table-sync  --execute  --replicate \
test.checksums  --sync-to-master h=192.168.1.207,P=3306,u=root,p=123456

3. 修复后,再重新校验一次。执行第一步的语句即可。 


4. 检查修复结果: 登陆到192.168.1.207,执行如下sql语句返回若为空,则说明修复成功:

1
2
3
4
5
6
7
8
SELECT
*
FROM
test.checksums
WHERE
master_cnt <> this_cnt
OR master_crc <> this_crc
OR ISNULL(master_crc) <> ISNULL(this_crc)

各参数含义

--nocheck-replication-filters:不检查复制过滤器,建议启用。后面可以用--databases来指定需要检查的数据库。

--no-check-binlog-format:不检查复制的binlog模式,要是binlog模式是ROW,则会报错。

--replicate-check-only:只显示不同步的信息。

--replicate=:把checksum的信息写入到指定表中,建议直接写到被检查的数据库当中。 

--databases=:指定需要被检查的数据库,多个则用逗号隔开。

--tables=:指定需要被检查的表,多个用逗号隔开

h=127.0.0.1:Master的地址

u=root:用户名

p=123456:密码

P=3306:端口


下面我们来模拟下主从数据库不同步情况下的pt-table-checksum,为了方面,这里我们采用test schema

 

1: 主库上建表,插入测试数据

1
2
3
4
5
6
7
8
9
10
11
12
13
mysql> create table t2 (id int primary key,name varchar(100) not null,salary int);
mysql> CREATE PROCEDURE test_insert ()
        BEGIN
        DECLARE i INT DEFAULT 0;
        WHILE i< 10000
        DO
        INSERT INTO t2
       VALUES
       (i,CONCAT('员工',i), i);
       SET  i =i+1;
       END WHILE ;
       END;;
mysql> CALL test_insert();

从库上校验当前数据的同步情况为正常。

wKioL1T0I63D5z_sAAQ-M6dFnmo722.jpg

从库上删除一半的数据

1
2
3
4
5
6
7
8
9
10
mysql> delete from t2 where id > 5000;
Query OK, 4999 rows affected (0.14 sec)
  
mysql> select count(*) from t2;
+----------+
| count(*) |
+----------+
|     5001 |
+----------+
1 row in set (0.01 sec)

2使用pt-table-checksum工具进行校验:

1
2
3
4
5
#  pt-table-checksum --user=root --password=123456 \
   --host=192.168.1.205 --port=3306 \
   --databases=test  --tables=t2  --recursion-method=processlist \
   --no-check-binlog-format  --nocheck-replication-filters \
   --replicate=test.checksums

wKiom1T0It-xh_2wAALWSm1-Ihs867.jpg

3:登陆从库进行查询checksum

1
2
3
4
5
6
7
8
mysql> SELECT
*
FROM
test.checksums
WHERE
master_cnt <> this_cnt
OR master_crc <> this_crc
OR ISNULL(master_crc) <> ISNULL(this_crc)

wKioL1T0JBLTIkLXAAPYSaaLP2c662.jpg

4:使用pt-table-sync工具进行数据重新同步

1
2
# pt-table-sync  --execute  --replicate \
  test.checksums  --sync-to-master h=192.168.1.207,P=3306,u=root,p=123456

5:从库上验证数据,中文“员工”变成了“??

wKioL1T0JECw6iLQAAMwzE_kngo764.jpg

检查主库,发现出现一样的情况,中文“员工”变成了“??”,猜想和字符集设置相关。

于是检查数据库字符集设置,发现test库字符集非utf8

wKioL1T0JICjbqboAAXA0u2VFSY703.jpg

主从库my.cnf文件添加如下配置项后重启数据库实例

1
2
character_set_client=utf8
character_set_server=utf8

wKiom1T0I6TAuiq3AAN-S7fbvMQ746.jpgwKioL1T0JMCCjs7QAAUKSFnkXKg698.jpg

重新执行以上1-4步,发现一切正常!关键第4步要加--charset=utf8 参数

1
2
3
  # pt-table-sync  --execute  --replicate \
  test.checksums   --charset=utf8 \
  --sync-to-master h=192.168.1.207,P=3306,u=root,p=123456

wKiom1T0I9zAwLW7AAQS_GWreLI996.jpg

本文转自斩月博客51CTO博客,原文链接http://blog.51cto.com/ylw6006/1616570如需转载请自行联系原作者


ylw6006

相关实践学习
基于CentOS快速搭建LAMP环境
本教程介绍如何搭建LAMP环境,其中LAMP分别代表Linux、Apache、MySQL和PHP。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助 &nbsp; &nbsp; 相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
相关文章
|
20天前
|
关系型数据库 MySQL
elasticsearch对比mysql以及使用工具同步mysql数据全量增量
elasticsearch对比mysql以及使用工具同步mysql数据全量增量
19 0
|
27天前
|
SQL 存储 关系型数据库
MySQL的主从复制&主从同步
MySQL的主从复制&主从同步
28 0
|
30天前
|
关系型数据库 MySQL API
Flink CDC产品常见问题之mysql整库同步到starrock时任务挂掉如何解决
Flink CDC(Change Data Capture)是一个基于Apache Flink的实时数据变更捕获库,用于实现数据库的实时同步和变更流的处理;在本汇总中,我们组织了关于Flink CDC产品在实践中用户经常提出的问题及其解答,目的是辅助用户更好地理解和应用这一技术,优化实时数据处理流程。
|
1月前
|
SQL DataWorks 关系型数据库
DataWorks常见问题之dataworks同步Rds任务失败如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
|
1月前
|
关系型数据库 MySQL 开发工具
MySQL5.7主从配置(Docker)
MySQL5.7主从配置(Docker)
723 0
|
1月前
|
SQL 关系型数据库 MySQL
解决MySQL主从慢同步问题的常见的解决方案:
解决MySQL主从慢同步问题的方法有很多,以下是一些常见的解决方案: 1. 检查网络连接:确保主从服务器之间的网络连接稳定,避免网络延迟或丢包导致数据同步缓慢。 2. 优化数据库配置:调整MySQL的配置参数,如增大binlog文件大小、调整innodb_flush_log_at_trx_commit等参数,以提高主从同步性能。 3. 检查IO线程和SQL线程状态:通过SHOW SLAVE STATUS命令检查IO线程和SQL线程的状态,确保它们正常运行并没有出现错误。 4. 检查主从日志位置:确认主从服务器的binlog文件和位置是否正确,避免由于错误的日志位置导致同步延迟。 5.
109 1
|
1月前
|
Ubuntu 关系型数据库 MySQL
使用Ubuntu和Windows电脑实现Mysql主从同步(详细操作步骤)
使用Ubuntu和Windows电脑实现Mysql主从同步(详细操作步骤)
27 2
|
1月前
|
运维 安全 网络安全
Flink CDC产品常见问题之flink1.18同步mysql-starrocks pipeline时报错如何解决
Flink CDC(Change Data Capture)是一个基于Apache Flink的实时数据变更捕获库,用于实现数据库的实时同步和变更流的处理;在本汇总中,我们组织了关于Flink CDC产品在实践中用户经常提出的问题及其解答,目的是辅助用户更好地理解和应用这一技术,优化实时数据处理流程。
|
3月前
|
关系型数据库 MySQL API
|
3月前
|
关系型数据库 MySQL 流计算
Flink CDC 3.0中,如果你想在同步MySQL数据时排除某列
Flink CDC 3.0中,如果你想在同步MySQL数据时排除某列
72 1

推荐镜像

更多