Mysql数据库平滑扩容解决高并发和大数据量问题 2

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云原生数据库 PolarDB 分布式版,标准版 2核8GB
RDS SQL Server Serverless,2-4RCU 50GB 3个月
推荐场景:
简介: Mysql数据库平滑扩容解决高并发和大数据量问题

4.4 环境部署

4.4.1 MariaDB服务安装

  1. 切换阿里云镜像服务(YUM安装过慢可以切换)
yum -y install wget
mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo.bak
wget -O /etc/yum.repos.d/CentOS-Base.repo
http://mirrors.aliyun.com/repo/Centos-7.repo
wget -P /etc/yum.repos.d/ http://mirrors.aliyun.com/repo/epel-7.repo
yum clean all
yum makecache

卸载Mariadb服务

yum -y remove Maria*

删除数据与配置:

rm -rf /var/lib/mysql/*
rm -rf /etc/my.cnf.d/
rm -rf /etc/my.cnf
  1. 初始化配置
systemctl  start mariadb
mysql_secure_installation
  1. 开启用户远程连接权限
    将连接用户root开启远程连接权限;
    mysql -uroot -p654321
    进入MySQL服务, 执行以下操作:
use mysql;
delete from user;
GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY '654321' WITH GRANT
OPTION;
FLUSH PRIVILEGES;

4.4.2 MariaDB双主同步

  1. 在Server1增加配置:
    在/etc/my.cnf中添加以下配置:
[mysqld]
server-id  = 1
log-bin=mysql-bin
relay-log = mysql-relay-bin
replicate-wild-ignore-table=mysql.%
replicate-wild-ignore-table=information_schema.%
log-slave-updates=on
slave-skip-errors=all
auto-increment-offset=1
auto-increment-increment=2
binlog_format=mixed
expire_logs_days=10

注意, Server1自增为奇数位:

auto-increment-offset=1 主键自增基数, 从1开始。

auto-increment-increment=2 主键自增偏移量,每次为2。

2. 在Server2增加配置:

修改/etc/my.cnf:

[mysqld]
server-id = 2
log-bin=mysql-bin
relay-log = mysql-relay-bin
replicate-wild-ignore-table=mysql.%
replicate-wild-ignore-table=information_schema.%
log-slave-updates=on
slave-skip-errors=all
auto-increment-offset=2
auto-increment-increment=2
binlog_format=mixed
expire_logs_days=10

Server2自增为偶数位:

auto-increment-offset=2 主键自增基数, 从2开始。

auto-increment-increment=2 主键自增偏移量,每次为2。

配置修改完成后, 重启数据库。

3. 同步授权配置

在Server1创建replica用于主从同步的用户:

MariaDB [(none)]> grant replication slave, replication client on *.* to
'replica'@'%' identified by 'replica';
mysql> flush privileges;

查询日志文件与偏移量,开启同步时需使用:

MariaDB [(none)]> show master status;
+------------------+----------+--------------+------------------+
| File       | Position | Binlog_Do_DB | Binlog_Ignore_DB |
+------------------+----------+--------------+------------------+
| mysql-bin.000001 |    663 |       |         |
+------------------+----------+--------------+------------------+

同样, 在Server2创建replica用于主从同步的用户:

MariaDB [(none)]> grant replication slave, replication client on *.* to
'replica'@'%' identified by 'replica';
mysql> flush privileges;

查询日志文件与偏移量:

MariaDB [(none)]> show master status;
+------------------+----------+--------------+------------------+
| File       | Position | Binlog_Do_DB | Binlog_Ignore_DB |
+------------------+----------+--------------+------------------+
| mysql-bin.000001 |    663 |       |         |
+------------------+----------+--------------+------------------+
  1. 配置主从同步信息
    在Server1中执行:
MariaDB [(none)]> change master to
master_host='10.10.20.126',master_user='replica', master_password='replica',
master_port=3306, master_log_file='mysql-bin.000001', master_log_pos=663,
master_connect_retry=30;

在Server2中执行:

MariaDB [(none)]> change master to
master_host='10.10.20.125',master_user='replica', master_password='replica',
master_port=3306, master_log_file='mysql-bin.000001', master_log_pos=663,
master_connect_retry=30;
  1. 开启双主同步
    在Server1和Server2中分别执行:
MariaDB [(none)]> start slave;
Query OK, 0 rows affected (0.00 sec)

在Server1查询同步信息:

MariaDB [(none)]> show slave status\G;
*************************** 1. row ***************************
       Slave_IO_State: Waiting for master to send event
        Master_Host: 10.10.20.126
        Master_User: replica
        Master_Port: 3306
       Connect_Retry: 30
      Master_Log_File: mysql-bin.000001
    Read_Master_Log_Pos: 663
       Relay_Log_File: mysql-relay-bin.000002
       Relay_Log_Pos: 555
   Relay_Master_Log_File: mysql-bin.000001
      Slave_IO_Running: Yes
     Slave_SQL_Running: Yes
...

在Server2查询同步信息:

MariaDB [(none)]> show slave status\G;
*************************** 1. row ***************************
       Slave_IO_State: Waiting for master to send event
        Master_Host: 10.10.20.125
        Master_User: replica
        Master_Port: 3306
       Connect_Retry: 30
      Master_Log_File: mysql-bin.000001
    Read_Master_Log_Pos: 663
       Relay_Log_File: mysql-relay-bin.000002
       Relay_Log_Pos: 555
   Relay_Master_Log_File: mysql-bin.000001
      Slave_IO_Running: Yes
     Slave_SQL_Running: Yes
...

Slave_IO_Running和Slave_SQL_Running 都是Yes,说明双主同步配置成功。

4.4.3 KeepAlived安装与高可用配置

  1. 在Server1与Server2两台节点安装keepalived:
    yum -y install keepalived
    2.关闭防火墙
systemctl stop firewalld
systemctl disable firewalld
  1. 设置主机名称:
    Server1节点:hostnamectl set-hostname vip1
    Server2节点:hostnamectl set-hostname vip2
  2. Server1节点配置
    /etc/keepalived/keepalived.conf:
global_defs {
 router_id vip1      # 机器标识,和主机名保持一致
}
vrrp_instance VI_1 {       #vrrp实例定义
 state BACKUP        #lvs的状态模式,MASTER代表主, BACKUP代表备份节点
 interface ens33        #绑定对外访问的网卡
 virtual_router_id 111     #虚拟路由标示,同一个vrrp实例采用唯一标示
 priority 100        #优先级,100代表最大优先级, 数字越大优先级越高
 advert_int 1        #master与backup节点同步检查的时间间隔,单位是秒
 authentication {      #设置验证信息
   auth_type PASS     #有PASS和AH两种
   auth_pass 6666     #验证密码,BACKUP密码须相同
 }
 virtual_ipaddress {     #KeepAlived虚拟的IP地址
    10.10.20.130
 }
}
virtual_server 10.10.20.130 3306 {    #配置虚拟服务器IP与访问端口
 delay_loop 6         #健康检查时间
 lb_algo rr          #负载均衡调度算法, rr代表轮询
 lb_kind DR          #负载均衡转发规则
 persistence_timeout 0     #会话保持时间,这里要做测试, 所以设为0, 实际可根
据session有效时间配置
 protocol TCP        #转发协议类型,支持TCP和UDP
 real_server 10.10.20.125 3306 {   #配置服务器节点VIP1  
 notify_down /usr/local/shell/mariadb.sh #当服务挂掉时, 会执行此脚本,结束
keepalived进程
 weight 1        #设置权重,越大权重越高
 TCP_CHECK {        #r状态监测设置
   connect_timeout 10    #超时配置, 单位秒
   retry 3       #重试次数
   delay_before_retry 3     #重试间隔
   connect_port 3306     #连接端口, 和上面保持一致
   }
 }
}

创建关闭脚本mariadb.sh

/usr/local/shell/mariadb.sh:pkill keepalived

加入执行权限:chmod a+x mariadb.sh

5.Server2节点配置:

global_defs {
 router_id vip2      # 机器标识,和主机名保持一致
}
vrrp_instance VI_1 {       #vrrp实例定义
 state BACKUP        #lvs的状态模式,MASTER代表主, BACKUP代表备份节点
 interface ens33        #绑定对外访问的网卡
 virtual_router_id 111     #虚拟路由标示,同一个vrrp实例采用唯一标示
 priority 98        #优先级,100代表最大优先级, 数字越大优先级越高
 advert_int 1        #master与backup节点同步检查的时间间隔,单位是秒
 authentication {      #设置验证信息
   auth_type PASS     #有PASS和AH两种
   auth_pass 6666     #验证密码,BACKUP密码须相同
 }
 virtual_ipaddress {     #KeepAlived虚拟的IP地址
    10.10.20.130
 }
}
virtual_server 10.10.20.130 3306 {    #配置虚拟服务器IP与访问端口
 delay_loop 6         #健康检查时间
 lb_algo rr          #负载均衡调度算法, rr代表轮询, 可以关闭
 lb_kind DR          #负载均衡转发规则, 可以关闭
 persistence_timeout 0     #会话保持时间,这里要做测试, 所以设为0, 实际可根
据session有效时间配置
 protocol TCP        #转发协议类型,支持TCP和UDP
 real_server 10.10.20.126 3306{   #配置服务器节点VIP2
 notify_down /usr/local/shell/mariadb.sh #当服务挂掉时, 会执行此脚本,结束
keepalived进程
 weight 1        #设置权重,越大权重越高
 TCP_CHECK {        #r状态监测设置
   connect_timeout 10    #超时配置, 单位秒
   retry 3       #重试次数
   delay_before_retry 3     #重试间隔
   connect_port 3306     #连接端口, 和上面保持一致
   }
 }
}

和Server1的差异项:

router_id vip2  # 机器标识,和主机名保持一致
priority 98        #优先级,100代表最大优先级, 数字越大优先级越高
real_server 10.10.20.126 3306  #配置服务器节点VIP2

注意, 两台节点都设为BACKUP

virtual_router_id 111     #同一个vrrp实例采用唯一标示
state BACKUP

如果不想重启后, 争夺备用节点的VIP, 可以设置此项

nopreempt #不主动抢占资源

6. 验证高可用

停止主节点MariaDB服务, 验证是否自动切换。

4.4.4 搭建应用服务工程

  1. ShardingJDBC的集成配置
  2. ShardingJDBC数据源的动态切换实现
  3. 验证应用服务动态扩容



  1. 配置两个数据源,分别指向Server1和Server2
  2. 分片只配置一个数据源
  3. 动态增加另一个数据源
  4. 动态扩容的验证
  5. 动态扩容的复原验证(模拟节点异常, 实现复原单节点数据源)
  6. 采用动态数据源配置实现扩容(扩容实践中改造)
// 动态数据源配置实现扩容
Properties properties = loadPropertiesFile("datasource1.properties");
try {
  log.info("load datasource config url: " + properties.get("url"));
  DruidDataSource druidDataSource = (DruidDataSource)
DruidDataSourceFactory.createDataSource(properties);
  druidDataSource.setRemoveAbandoned(true);
  druidDataSource.setRemoveAbandonedTimeout(600);
  druidDataSource.setLogAbandoned(true);
  // 设置数据源错误重连时间
  druidDataSource.setTimeBetweenConnectErrorMillis(60000);
  druidDataSource.init();
  OrchestrationShardingDataSource dataSource =
SpringContextUtil.getBean("tradeSystemDataSource",
OrchestrationShardingDataSource.class);
  Map<String, DataSource> dataSourceMap =
dataSource.getDataSource().getDataSourceMap();
  dataSourceMap.put(DatasourceEnum.DATASOURCE_2.getValue(),
druidDataSource);
  Map<String, DataSourceConfiguration> dataSourceConfigMap = new
HashMap<String, DataSourceConfiguration>();
  for(String key : dataSourceMap.keySet()) {
    dataSourceConfigMap.put(key,
DataSourceConfiguration.getDataSourceConfiguration(dataSourceMap.get(key)));
 }
  String result =
SHARDING_RULE_TABLE_ORDER.replace(SHARDING_RULE_DATASOURCE, newRule);
  replaceActualDataNodes(result);
  SHARDING_RULE_DATASOURCE = newRule;
  dataSource.renew(new DataSourceChangedEvent(
    "/" + DruidSystemDataSourceConfiguration.DYNAMIC_SHARDING +
"/config/schema/logic_db/datasource",
    dataSourceConfigMap));
  return;
} catch (Exception e) {
  log.error(e.getMessage(), e);
}

4.注意事项

Sharding JDBC, Mycat, Drds 等产品都是分布式数据库中间件, 相比直接的数据源操作, 会存在一些

限制, Sharding JDBC在使用时, 要注意以下问题:

有限支持子查询

不支持HAVING

不支持OR,UNION 和 UNION ALL

不支持特殊INSERT

每条INSERT语句只能插入一条数据,不支持VALUES后有多行数据的语句

不支持DISTINCT聚合

不支持dual虚拟表查询

不支持SELECT LAST_INSERT_ID(), 不支持自增序列

不支持CASE WHEN

相关实践学习
如何快速连接云数据库RDS MySQL
本场景介绍如何通过阿里云数据管理服务DMS快速连接云数据库RDS MySQL,然后进行数据表的CRUD操作。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助 &nbsp; &nbsp; 相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
目录
相关文章
|
3月前
|
分布式计算 关系型数据库 MySQL
大数据-88 Spark 集群 案例学习 Spark Scala 案例 SuperWordCount 计算结果数据写入MySQL
大数据-88 Spark 集群 案例学习 Spark Scala 案例 SuperWordCount 计算结果数据写入MySQL
59 3
|
3月前
|
消息中间件 分布式计算 关系型数据库
大数据-140 - ClickHouse 集群 表引擎详解5 - MergeTree CollapsingMergeTree 与其他数据源 HDFS MySQL
大数据-140 - ClickHouse 集群 表引擎详解5 - MergeTree CollapsingMergeTree 与其他数据源 HDFS MySQL
66 0
|
3月前
|
消息中间件 关系型数据库 MySQL
大数据-117 - Flink DataStream Sink 案例:写出到MySQL、写出到Kafka
大数据-117 - Flink DataStream Sink 案例:写出到MySQL、写出到Kafka
229 0
|
9天前
|
存储 人工智能 数据管理
|
2天前
|
存储 人工智能 数据管理
媒体声音|专访阿里云数据库周文超博士:AI就绪的智能数据平台设计思路
在生成式AI的浪潮中,数据的重要性日益凸显。大模型在实际业务场景的落地过程中,必须有海量数据的支撑:经过训练、推理和分析等一系列复杂的数据处理过程,才能最终产生业务价值。事实上,大模型本身就是数据处理后的产物,以数据驱动的决策与创新需要通过更智能的平台解决数据多模处理、实时分析等问题,这正是以阿里云为代表的企业推动 “Data+AI”融合战略的核心动因。
|
3月前
|
算法 大数据 数据库
云计算与大数据平台的数据库迁移与同步
本文详细介绍了云计算与大数据平台的数据库迁移与同步的核心概念、算法原理、具体操作步骤、数学模型公式、代码实例及未来发展趋势与挑战。涵盖全量与增量迁移、一致性与异步复制等内容,旨在帮助读者全面了解并应对相关技术挑战。
61 3
|
3月前
|
存储 缓存 NoSQL
大数据-38 Redis 高并发下的分布式缓存 Redis简介 缓存场景 读写模式 旁路模式 穿透模式 缓存模式 基本概念等
大数据-38 Redis 高并发下的分布式缓存 Redis简介 缓存场景 读写模式 旁路模式 穿透模式 缓存模式 基本概念等
81 4
|
3月前
|
缓存 NoSQL Ubuntu
大数据-39 Redis 高并发分布式缓存 Ubuntu源码编译安装 云服务器 启动并测试 redis-server redis-cli
大数据-39 Redis 高并发分布式缓存 Ubuntu源码编译安装 云服务器 启动并测试 redis-server redis-cli
67 3
|
3月前
|
SQL 缓存 大数据
C#高效处理大数据的批次处理,以及最好的数据库设计
C#高效处理大数据的批次处理,以及最好的数据库设计
107 0
|
3月前
|
大数据 关系型数据库 数据库
python 批量处理大数据写入数据库
python 批量处理大数据写入数据库
164 0

相关产品

  • 云数据库 RDS MySQL 版