MySQL集群搭建
MySQL是现在互联网最常用的开源数据库产品。但是我们平常开发使用,大都是用的单机服务。而在实际生产中,往往数据量会极为庞大,并且数据的安全性要求也更高,这样单机的MySQL,不管是性能还是安全都是达不到要求的。所以在生产环境中,MySQL必须是要搭建一套主从复制的架构,同时可以基于一些工具实现高可用架构。然后,在此基础上,就可以基于一些中间件实现读写分离架构。最后如果数据量非常大,还必须可以实现分库分表的架构。
环境: Ubuntu 18.04.3 LTS 两台
MySQL 版本:5.7.33
理论基础
主从架构有什么用?
通过搭建MySQL主从集群,可以缓解MySQL的数据存储以及访问的压力。
- 数据安全
给主服务增加一个数据备份。基于这个目的,可以搭建主从架构,或者也可以基于主从架构搭建互主的架构。 - 读写分离
对于大部分的JAVA业务系统来说,都是读多写少的,读请求远远高于写请求。这时,当主服务的访问压力过大时,可以将数据读请求转为由从服务来分担,主服务只负责数据写入的请求,这样大大缓解数据库的访问压力。但是,MySQL的主从架构只是实现读写分离的一个基础。实现读写分离还是需要一些中间件来支持,比如ShardingSphere。 - 故障转移-高可用
当MySQL主服务宕机后,可以由一台从服务切换成为主服务,继续提供数据读写功能。
对于高可用架构,主从数据的同步也只是实现故障转移的一个前提条件,要实现MySQL主从切换,还需要依靠一些其他的中间件来实现。比如MMM、MHA、MGR。
在一般项目中,如果数据库的访问压力没有那么大,那读写分离不一定是必须要做的,但是,主从架构和高可用架构则是必须要搭建的。
同步原理
MySQL服务的主从架构一般都是通过binlog日志文件来进行的。即在主库上打开binlog记录每一步的数据库操作,然后从库上会有一个IO线程,负责跟主库建立一个TCP连接,请求主库将binlog传输过来。这时,主库上会有一个IO dump线程,负责通过这个TCP连接把Binlog日志传输给从库的IO线程。接着从库的IO线程会把读取到的binlog日志数据写入自己的relay日志文件中。然后从服务上另外一个SQL线程会读取relay日志里的内容,进行操作重演,达到还原数据的目的。
MySQL的binlog不光可以用于主从同步,还可以用于缓存数据同步等场景。
例如Canal,可以模拟一个slave节点,向MySQL发起binlog同步,然后将数据落地到Redis、Kafka等其他组件,实现数据实时流转。
搭建要求
搭建主从集群时,有两个必要的要求:
- 双方MySQL必须版本一致,至少需要主服务的版本低于从服务。
- 两节点间的时间需要同步。
安装MySQL(Ubuntu)
参考文档:https://docs.rackspace.com/support/how-to/install-mysql-server-on-the-ubuntu-operating-system/
sudo apt-get update sudo apt-get install mysql-server #设置账号密码 sudo mysql_secure_installation utility #开启自启 sudo systemctl enable mysql #重启 sudo systemctl restart mysql #连接mysql mysql -uroot -p
设置主从
实例如下:
ip | 端口 | 节点类型 |
192.168.1.13 | 3306 | 主节点 |
192.168.1.14 | 3306 | 从节点 |
1.修改主库MySQL配置
- 打开配置文件
vim /etc/mysql/mysql.conf.d/mysqld.cnf
- 在[mysqld]条目下增加以下配置
#服务id server-id=1 #开启binlog log_bin=master-bin log_bin-index=master-bin.index binlog_format=row #注释bind-address配置, 否则只能本机登陆mysql #bind-address=127.0.0.1
- 重启
systemctl restart mysql
2. 创建新用户
在主库上创建一个新用户,用于数据同步
CREATE USER 'slave'@'%' IDENTIFIED BY '1qaz@WSX0okm(IJN';
赋予同步权限
GRANT REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'slave'@'%'; FLUSH PRIVILEGES;
3. 修改从库MySQL配置
- 打开配置文件
vim /etc/mysql/mysql.conf.d/mysqld.cnf
- 在[mysqld]条目下增加以下配置
#服务id 需要和主库不一致 server-id=2 #打开MySQL中继日志 relay-log-index=slave-relay-bin.index relay-log=slave-relay-bin #打开从服务二进制日志 log-bin=mysql-bin #使得更新的数据写进二进制日志中 log-slave-updates=1
- 重启
systemctl restart mysql
4. 配置主从
登陆主库
mysql -uroot -p
查询主库的同步状态
show master status;
登陆从库,设置主库的同步状态
#MASTER_LOG_FILE 和 MASTER_LOG_POS是主库状态的中的File和Position CHANGE MASTER TO MASTER_HOST='192.168.1.13', MASTER_PORT=3306, MASTER_USER='slave', MASTER_PASSWORD='1qaz@WSX0okm(IJN', MASTER_LOG_FILE='master-bin.000001', MASTER_LOG_POS=154; #开启slave start slave; #查看主从同步状态 show slave status \G;
Slave_IO_Running
和Slave_SQL_Running
都为 Yes 则同步成功!
主从测试
在主库创建一个数据库
create database demo;
查看从库的情况
show databases; +--------------------+ | Database | +--------------------+ | information_schema | | demo | | mysql | | performance_schema | | sys | +--------------------+
可以发现同步过来了
再创建一个表,并插入一条数据
use demo; create table demo_table (id int not null); insert into demo_table values (1);
查看从库是否同步成功
mysql> show tables; +----------------+ | Tables_in_demo | +----------------+ | demo_table | +----------------+ 1 row in set (0.00 sec) mysql> select * from demo_table; +----+ | id | +----+ | 1 | +----+ 1 row in set (0.00 sec)
集群搭建扩展
编写案例
首先,我们在主库中创建几个数据库和几张表用于测试。
#创建一个不同步的库 create database ignore_db; create database ignore_db_2; #再在刚才的demo库中创建几张表 use demo; create table ignore_table (id int not null);
部分同步
以上配置的主从同步都是针对全库的,而在实际环境中,我们一般只会针对一些特别重要的库或者表进行同步,修改方式如下。
修改主库配置
- 打开配置文件
vim /etc/mysql/mysql.conf.d/mysqld.cnf
- 在[mysqld]条目下增加以下配置
#需要同步的二进制数据库名 binlog-do-db=demo #只保留7天的二进制日志,以防磁盘被日志占满(可选) expire-logs-days=7 #不备份的数据库 binlog-ignore-db=ignore_db binlog-ignore-db=ignore_db_2
- 重启
systemctl restart mysql
修改从库配置
- 打开配置文件,配置从库与主库的对应关系
vim /etc/mysql/mysql.conf.d/mysqld.cnf
- 在[mysqld]条目下增加以下配置
#如果slave库名称与master库名相同,使用本配置 replicate-do-db=demo #如果master库名[ignore_db]与slave库名[ignore_db2]不同,使用以下配置[需要做映射] #当然,由于我这里的需要同步的只有一个demo库,也不需要映射关系,所以不做该配置,该配置只做为记录 replicate-rewrite-db = ignore_db -> ignore_db2 #如果不是要全部同步[默认全部同步],则指定需要同步的表 replicate-wild-do-table=demo.demo_table
- 重启
systemctl restart mysql
测试
往主库的demo数据库中的ignore_table表插入一条数据
use demo; insert into ignore_table values (1);
查询从库情况
mysql> select * from ignore_table; Empty set (0.00 sec)
可以发现从库未有任何记录添加,配置生效
在主库的ignore_db库中创建一张表
use ignore_db; create table test_table (id int not null);
查询从库情况
mysql> use ignore_db; Database changed mysql> show tables; Empty set (0.00 sec)
从库中无任何表新增,配置生效!
读写分离配置
在我们搭建的主从架构中,数据流向的单向的,只能由主库向从库同步,而从库的更新是无法同步到主库的。这便会造成一个问题:当不小心更新了从库,数据就会发现紊乱,最后导致数据不一致甚至同步发生错误导致中断。所以我们为了保证数据一致性需要在从库中加上以下配置:
vim /etc/mysql/mysql.conf.d/mysqld.cnf #设置为只读 read_only=1 #重启服务 systemctl restart mysql
注意:该配置只适用于普通用户,对于root等有super权限的用户无效!
创建一个新用户进行测试
CREATE USER 'test'@'%' IDENTIFIED BY '1qaz@WSX0okm(IJN'; #赋予所有表所有操作权限 GRANT INSERT,UPDATE,DELETE,SELECT ON *.* TO 'test'@'%'; FLUSH PRIVILEGES;
测试
mysql> insert demo_table value (3); ERROR 1290 (HY000): The MySQL server is running with the --read-only option so it cannot execute this statement
GTID同步集群
以上搭建的集群方式,是基于Binlog日志记录点的方式来搭建的,这也是最为传统的MySQL集群搭建方式。而我们在show master status
中可以看到有一个Executed_Grid_Se
t列是空的。实际上,这就是另外一种搭建主从同步的方式,即GTID
搭建方式。这种模式是从MySQL5.6版本引入的。
GTID的本质也是基于Binlog来实现主从同步,只是他会基于一个全局的事务ID来标识同步进度。GTID即全局事务ID,全局唯一并且趋势递增,他可以保证为每一个在主节点上提交的事务在复制集群中可以生成一个唯一的ID 。
在基于GTID的复制中,首先从服务器会告诉主服务器已经在从服务器执行完了哪些事务的GTID值,然后主库会有把所有没有在从库上执行的事务,发送到从库上进行执行,并且使用GTID的复制可以保证同一个事务只在指定的从库上执行一次,这样可以避免由于偏移量的问题造成数据不一致。
他的搭建方式跟我们上面的主从架构整体搭建方式差不多。只是需要修改一些配置。
修改主库配置
vim /etc/mysql/mysql.conf.d/mysqld.cnf gtid_mode=on enforce_gtid_consistency=on #重启服务 systemctl restart mysql