如何使用与维护,才能把MySQL GR发挥到极致?

本文涉及的产品
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,高可用系列 2核4GB
简介:

作者介绍

贺春旸普惠金融MySQL专家,《MySQL管理之道》第一版、第二版作者。曾任职于中国移动飞信、机锋安卓市场,拥有丰富的数据库管理经验。目前致力于MySQL、Linux等开源技术的研究。

 

MySQL异步复制及semi-sync半同步复制,它们都基于MySQL binlog,原生复制是完全异步的,master不需要保证slave接收并执行了binlog,能够保证master最大性能,但是slave可能存在延迟,主备数据无法保证一致性,在不停服务的前提下如果master宕机,提升slave为新的主库,就会丢失数据。

 

semi-sync在异步复制基础上增加了数据保护的考虑,这样一来master必须确认slave收到binlog后(但不保证slave执行了事务)才能最终提交事务,若再结合MHA(Master High Availability)高可用架构,此时master挂掉之后,slave可以在apply完所有relay log后切换成master提供读写服务。

 

semi-sync半同步复制工作原理,如下图所示。

 

 

相对于MySQL源生复制和semi-sync半同步复制,Group Replication全同步复制的差异是:

 

  1. 全同步复制,主备无延迟,一个节点宕机后其他两个节点可以立即提供服务,而semi-sync需要应用(执行)完所有relay log,并依赖第三方高可用软件实现数据不丢失;

  2. 事务冲突检测保证数据一致性,多个节点可以同时读写数据,可以极大简化数据访问;

  3. 行级别并行复制,MySQL 5.7/MariaDB 10.0之前slave sql线程只有一个,这个长期饱受诟病,是导致slave落后master的主要原因。

 

 
 
1
 
Group Replication的工作原理

 

使用的是基于认证的复制,其流程如下图所示:

 

 

当客户端发起commit命令时(此时仍然没有发生真正的commit),所有本事务内对数据库的更改行的主键都会被搜集到一个写入集(writeset)中,该写入集随后会被复制到其他节点,该写入集会在每个节点上使用搜索到的主键进行确认性认证测试来判断该写入集是否可以被应用。如果认证测试失败,写入集会被丢弃并且原始事务会被回滚;如果认证成功,事务会被提交并且写入集会被在剩余节点进行应用。最终,这意味着所有服务器以相同的顺序接收同一组事务。

 

其他节点只要验证成功了,就会返回成功的信号,即使当前数据并没有真正的写入当前节点,固这里的全同步复制,其实是虚拟的全同步复制。这段时间内,数据是有延迟的,但很小,如果应用程序访问的是远端节点,读到的数据是未改变之前的旧数据。固在生产环境里,对数据延迟要求很苛刻的情况下,建议在一个主节点上读写,避免造成数据不一致的情况发生。

 

(注:Galera通过设置参数wsrep_causal_reads = ON可以避免,这种情况下需要等待远端节点应用完事务后,才返回客户端读取请求,这将增加读取的响应时间。Group Replication未发现相关参数,如有朋友知道也请告知。)

 

而真正意义上的全同步复制,是要等所有节点事务都提交落地,才成功返回客户端。因此虚拟全同步复制的性能会更好一些。

 

Group Replication内部实现了flow control限流措施,作用就是协调各个节点,保证所有节点执行事务的速度大于队列增长速度,从而避免丢失事务。实现原理和简单:整个Group Replication集群中,同时只有一个节点可以广播消息(数据),每个节点都会获得广播消息的机会(获得机会后也可以不广播),当慢节点的待执行队列超过一定长度后,它会广播一个FC_PAUSE消息,所以节点收到消息后都会暂缓广播消息并不提供写操作,直到该慢节点的待执行队列长度减小到一定长度后,Group Replication数据同步又开始恢复。

 

变量参数:

group_replication_flow_control_applier_threshold = 25000

group_replication_flow_control_certifier_threshold = 25000

 

待执行队列长度超过该值时,flow control被触发,默认是25000。
 

 
 
2
 
Group Replication的特性和注意事项

 

  • 全同步复制,事务要么在所有节点都提交,要么都回滚;

  • 多主复制,可以在任意节点进行写操作;

  • 在从服务器上并行应用事件,真正意义上的并行复制;

  • 节点自动配置--故障节点自动从集群中移除,当故障节点再次加入集群,无需手工备份当前数据库并拷贝至故障节点;

  • 应用程序的兼容性:无需更改应用程序,原生的MySQL接口;

  • 生产环境上集群推荐配置3个节点;

  • 每个节点都包含完整的数据副本;

  • 各个节点的同步复制,通过GTID binlog ROW实现。

 

优点:

  1. 真正的多主架构,任何节点都可以进行读写,无需进行读写分离;

    (注:生产环境建议只在一台机器上写,由于集群是乐观锁并发控制,事务冲突的情况会在commit阶段发生。如果有两个事务在集群中不同的节点上对同一行写入并提交,失败的节点将回滚,客户端返回报错,作为DBA你不想被一群开发投诉的话,还是默默的开启Single-Primary写入模式)

  2. 无集中管理,可以在任何时间点失去任何一个节点,集群将正常工作不受影响;

  3. 节点宕机不会导致数据丢失;

  4. 对应用透明。

 

缺点:

  1. 加入新节点,开销大,需要复制完整的数据。

  2. 不能有效的解决写扩展问题,磁盘空间满了,无法自动扩容,不能像MongoDB分片那样自动移动chunk做balance

  3. 有多少个节点就有多少份重复的数据

  4. 由于事务提交需要跨节点通讯(分布式事务),写入会比主从复制慢

  5. 对网络要求非常高,如果网络出现波动或机房被ARP攻击,造成两个节点失联,Group Replication集群发生脑裂,服务将不可用。

 

下面是官方集群节点投票示意图,如果是3个节点,必须满足大多数节点2个投票,这里很像MongoDB副本集的算法吧^_^

 

     

 

集群自身不提供VIP机制,也没有像MongoDB副本集那样提供JAVA/PHP客户端API接口实现故障切换(需要开发自己写,成本较高),需要结合第三方HaProxy软件(建议2块网卡做bond0)+自定义脚本实现秒级故障切换,另通过代理方式,性能会降低,因为多了一层网络转发。

 

局限性:

  • 目前的复制仅仅支持InnoDB存储引擎;

  • 每张表必须有主键;

  • 只支持ipv4网络;

  • 集群最大支持9个节点;

  • 不支持Savepoints;

  • 不支持SERIALIZABLE隔离级别在Multi-Primary多主模式;

  • 不支持外键在Multi-Primary多主模式;

  • 整个集群的写入吞吐量是由最弱的节点限制,如果有一个节点变得缓慢,比如硬盘故障(RAID10坏了一块盘),那么整个集群将是缓慢的。为了稳定的高性能要求,所有的节点应使用统一的硬件。

 

 
 
3
 
Group Replication的使用

 

Single-Primary模式配置环境:

 

1、设置host解析

 

三台服务器的配置如下:

 

# cat /etc/hosts

 

192.168.17.133     node1

192.168.17.134     node2

192.168.17.135     node3

 

2、编辑/etc/my.cnf配置参数(三个节点按照如下设置)

 

log-bin = /data/mysql57/binlog/mysql-bin

binlog_format = ROW

sync_binlog = 1

binlog_checksum = NONE

log_slave_updates = 1

gtid_mode = ON

enforce_gtid_consistency = ON

master_info_repository = TABLE

relay_log_info_repository = TABLE

 

3、安装插件

 

INSTALL PLUGIN group_replication SONAME   'group_replication.so';

 

4、设置集群参数(三个节点都执行)

 

set global transaction_write_set_extraction =   "XXHASH64";

set global group_replication_start_on_boot = ON;

set global group_replication_bootstrap_group = OFF;

set global group_replication_group_name =

"13dd01d4-d69e-11e6-9c80-000c2937cddb";

set global group_replication_local_address =   '192.168.17.133:6606';

set global group_replication_group_seeds =

'192.168.17.133:6606,192.168.17.134:6606,192.168.17.135:6606';

set global group_replication_single_primary_mode = ON;

 

注:group_replication_group_name名字要通过select uuid()来生成

group_replication_local_address在节点2和节点3上改成本地IP地址

执行完了,别忘了修改my.cnf里加入到配置文件里。

 

5、节点加入集群

 

Primary节点上执行

 

SET SQL_LOG_BIN=0;

GRANT REPLICATION SLAVE,REPLICATION CLIENT ON *.* TO   'repl'@'%' IDENTIFIED BY 'repl';

FLUSH PRIVILEGES;

SET SQL_LOG_BIN=1;

CHANGE MASTER TO MASTER_USER='repl',

MASTER_PASSWORD='repl' FOR CHANNEL

'group_replication_recovery';

SET GLOBAL group_replication_bootstrap_group=ON;

START GROUP_REPLICATION;

select * from   performance_schema.replication_group_members;

SET GLOBAL group_replication_bootstrap_group=OFF;

 

注:待replication_group_members表查询结果MEMBER_STATE字段状态为ONLINE,再执行关闭初始化。

 

两台Secondary上执行

 

SET SQL_LOG_BIN=0;

GRANT REPLICATION SLAVE,REPLICATION CLIENT ON *.* TO   'repl'@'%' IDENTIFIED BY 'repl';

FLUSH PRIVILEGES;

SET SQL_LOG_BIN=1;

CHANGE MASTER TO MASTER_USER='repl',

MASTER_PASSWORD='repl' FOR CHANNEL

'group_replication_recovery';

START GROUP_REPLICATION;

select * from   performance_schema.replication_group_members;

 

如下图所示,代表集群已经成功运行。

 

 

 
 
4
 
Group Replication的维护

 

假如Secondary节点宕机,重启后由于种种原因加入集群失败,现需要重新恢复,步骤如下:

 

1、在另一台Secondary节点上mysqldump全量

 

mysqldump -uroot -p123456 -q --single-transaction

--master-data=2 -B yourDB > /root/yourDB.sql

 

这一步会自动在yourDB.sql里生成

 

SET @@GLOBAL.GTID_PURGED='23e510dc-d30b-11e6-a4c6-b82a72d18b06:1,4d1fd6ec-d2fd-11e6-ae4b-549f3503ab31:1-1543112:2003786-2003789:3003787,e4e34dd3-d2fa-11e6-984b-b82a72d18b06:1';

 

2、导入进去

 

再执行下面的语句即可

 

CHANGE MASTER TO MASTER_USER='repl',

MASTER_PASSWORD='repl' FOR CHANNEL

'group_replication_recovery';

START GROUP_REPLICATION;

 

 
 
5
 
Group Replication总结

 

由于5.7.17版本刚刚GA,所以直接上生产环境风险太高,至少1年后小版本超过5.7.40以后再考虑。

原文发布时间为:2017-01-12

本文来自云栖社区合作伙伴DBAplus

相关实践学习
如何在云端创建MySQL数据库
开始实验后,系统会自动创建一台自建MySQL的 源数据库 ECS 实例和一台 目标数据库 RDS。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助     相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
相关文章
|
5月前
|
关系型数据库 MySQL 分布式数据库
数据库专家带你体验PolarDB MySQL版 Serverless的极致弹性特性
作为数据库专家,我有幸带大家深入体验阿里巴巴自主研发的下一代关系型分布式云原生数据库——PolarDB MySQL版的Serverless极致弹性特性。在这个云原生和分布式技术飞速发展的时代,Pola
|
6月前
|
关系型数据库 MySQL 测试技术
数据库专家带你体验PolarDB MySQL版 Serverless的极致弹性特性!
本次基于阿里云瑶池数据库解决方案体验馆,带你体验PolarDB MySQL Serverless形态下的性能压测环境,基于可选择的标准压测工具进行压测,构造弹性场景进行压测,实时动态展示弹性能力、价格和性价比结果,压测环境可开放定制修改、可重复验证。参与活动即有机会获得鼠标、小米打印机、卫衣等精美礼品。
数据库专家带你体验PolarDB MySQL版 Serverless的极致弹性特性!
|
6月前
|
关系型数据库 MySQL 测试技术
数据库专家带你体验PolarDB MySQL版 Serverless的极致弹性特性
本次基于阿里云瑶池数据库解决方案体验馆,带你体验PolarDB MySQL Serverless形态下的性能压测环境,基于可选择的标准压测工具进行压测,构造弹性场景进行压测,实时动态展示弹性能力、价格和性价比结果,压测环境可开放定制修改、可重复验证。参与活动即有机会获得鼠标、小米打印机、卫衣等精美礼品。
|
11月前
|
监控 关系型数据库 Serverless
PolarDB MySQL 版 Serverless评测|一文带你体验什么是极致弹性|后续
PolarDB MySQL 版 Serverless评测|一文带你体验什么是极致弹性|后续
|
11月前
|
关系型数据库 MySQL Serverless
PolarDB MySQL 版 Serverless评测|一文带你体验什么是极致弹性
PolarDB MySQL 版 Serverless评测|一文带你体验什么是极致弹性
|
6月前
|
关系型数据库 MySQL Serverless
点点鼠标,10分钟快速感知阿里云RDS MySQL Serverless的极致弹性!
瑶池解决方案体验馆,带您沉浸式、所见即所得地体验云数据库最前沿的技术方向
|
存储 SQL 监控
MySQL的触发器——自动智能化的数据维护
MySQL的触发器——自动智能化的数据维护
256 0
MySQL的触发器——自动智能化的数据维护
|
关系型数据库 MySQL 数据库
|
关系型数据库 MySQL 数据库
创建与维护MySQL
MySQL基础命令
115 0
创建与维护MySQL
|
关系型数据库 MySQL
MySQL:自动维护create_time和update_time字段
通过建表语句设置,让mysql自动维护这两个字段,那么编程的时候也能少写一部分代码
112 0