ClickHouse同步MySQL数据

本文涉及的产品
阿里云百炼推荐规格 ADB PostgreSQL,4核16GB 100GB 1个月
云原生数据仓库AnalyticDB MySQL版,8核32GB 100GB 1个月
简介: ClickHouse同步MySQL数据

1 概述

MySQL 的用户群体很大,为了能够增强数据的实时性,很多解决方案会利用 binlog 将数据写入到 ClickHouse。为了能够监听 binlog 事件,我们需要用到类似 canal 这样的第三方中间件,这无疑增加了系统的复杂度。

 ClickHouse 20.8.2.3 版本新增加了 MaterializeMySQL 的 database 引擎,该 database 能映 射 到 MySQL 中 的 某 个 database , 并 自 动 在 ClickHouse 中 创 建 对 应 的ReplacingMergeTree。ClickHouse 服务做为 MySQL 副本,读取 Binlog 并执行 DDL 和 DML 请求,实现了基于 MySQL Binlog 机制的业务数据库实时同步功能。


1.1 特点

MaterializeMySQL 同时支持全量和增量同步,在 database 创建之初会全量同步MySQL 中的表和数据,之后则会通过 binlog 进行增量同步。


MaterializeMySQL database 为其所创建的每张 ReplacingMergeTree

  自动增加了_sign 和 _version

字段。

其中,

_version

用作 ReplacingMergeTree 的 ver 版本参数,每当监听到 insert、update 和 delete 事件时,在 databse 内全局自增。而

_sign

则用于标记是否被删除,取值 1 或者 -1。


目前 MaterializeMySQL 支持如下几种 binlog 事件:


MYSQL_WRITE_ROWS_EVENT: _sign = 1,_version ++

MYSQL_DELETE_ROWS_EVENT: _sign = -1,_version ++

MYSQL_UPDATE_ROWS_EVENT: 新数据 _sign = 1

MYSQL_QUERY_EVENT: 支持 CREATE TABLE 、DROP TABLE 、RENAME TABLE 等。

1.2 使用细则

1.DDL 查询

MySQL DDL 查询被转换成相应的 ClickHouse DDL 查询(ALTER, CREATE, DROP, RENAME)。如果 ClickHouse 不能解析某些 DDL 查询,该查询将被忽略。

2.数据复制

MaterializeMySQL 不支持直接插入、删除和更新查询,而是将 DDL 语句进行相应转换:

MySQL INSERT 查询被转换为 INSERT with _sign=1。

MySQL DELETE 查询被转换为 INSERT with _sign=-1。

MySQL UPDATE 查询被转换成 INSERT with _sign=1 和 INSERT with _sign=-1。

3.SELECT 查询

如果在 SELECT 查询中没有指定_version,则使用 FINAL 修饰符,返回_version 的最大值对应的数据,即最新版本的数据。

如果在 SELECT 查询中没有指定_sign,则默认使用 WHERE _sign=1,即返回未删除状态(_sign=1)的数据。

4.索引转换

ClickHouse 数据库表会自动将 MySQL 主键和索引子句转换为ORDER BY 元组。

ClickHouse 只有一个物理顺序,由 ORDER BY 子句决定。如果需要创建新的物理顺序,请使用物化视图。

2 案例实操

2.1 MySQL 开启 binlog 和 GTID 模式

  1. 确保 MySQL 开启了 binlog 功能,且格式为 ROW
    打开/etc/my.cnf,在[mysqld]下添加:
   server-id=1
   log-bin=mysql-bin
   binlog_format=ROW
  1. 开启 GTID 模式
    如果如果 clickhouse 使用的是 20.8 prestable 之后发布的版本,那么 MySQL 还需要配置开启 GTID 模式, 这种方式在 mysql 主从模式下可以确保数据同步的一致性(主从切换时)。
   gtid-mode=on
   enforce-gtid-consistency=1 # 设置为主从强一致性
   log-slave-updates=1 # 记录日志

GTID 是 MySQL 复制增强版,从 MySQL 5.6 版本开始支持,目前已经是 MySQL 主流复制模式。它为每个 event 分配一个全局唯一 ID 和序号,我们可以不用关心 MySQL 集群主从拓扑结构,直接告知 MySQL 这个 GTID 即可。

\3. 重启 MySQL

   sudo systemctl restart mysqld

2.2 准备 MySQL 表和数据

  1. 在 MySQL 中创建数据表并写入数据
   CREATE DATABASE testck;
   CREATE TABLE `testck`.`t_organization` (
    `id` int(11) NOT NULL AUTO_INCREMENT,
    `code` int NOT NULL,
    `name` text DEFAULT NULL,
    `updatetime` datetime DEFAULT NULL,
    PRIMARY KEY (`id`),
    UNIQUE KEY (`code`)
   ) ENGINE=InnoDB;
   INSERT INTO testck.t_organization (code,name,updatetime) VALUES(1000,'Realinsight',NOW());
   INSERT INTO testck.t_organization (code,name,updatetime) VALUES(1001, 'Realindex',NOW());
   INSERT INTO testck.t_organization (code,name,updatetime) VALUES(1002,'EDT',NOW());
  1. 创建第二张表
   CREATE TABLE `testck`.`t_user` (
    `id` int(11) NOT NULL AUTO_INCREMENT,
    `code` int,
    PRIMARY KEY (`id`)
   ) ENGINE=InnoDB;
   INSERT INTO testck.t_user (code) VALUES(1);

2.3 开启 ClickHouse 物化引擎

set allow_experimental_database_materialize_mysql=1;

2.4 创建复制管道

  1. ClickHouse 中创建MaterializeMySQL 数据库
   CREATE DATABASE test_binlog ENGINE = MaterializeMySQL('hadoop1:3306','testck','root','000000');

其中 4 个参数分别是 MySQL 地址、databse、username 和 password。

  1. 查看 ClickHouse 的数据
   use test_binlog;
   show tables;
   select * from t_organization;
   select * from t_user;

2.5 修改数据

  1. 在 MySQL 中修改数据:
update t_organization set name = CONCAT(name,'-v1') where id = 1
1

查看 clickhouse 日志可以看到 binlog 监听事件,查询clickhouse

select * from t_organization;
1

2.6 删除数据

  1. MySQL 删除数据:
DELETE FROM t_organization where id = 2;
  1. ClicKHouse,日志有 DeleteRows 的 binlog 监听事件,查看数据:
select * from t_organization;
  1. 在刚才的查询中增加 _sign 和 _version 虚拟字段
select *,_sign,_version from t_organization order by _sign desc,_version desc;

在查询时,对于已经被删除的数据,_sign=-1,ClickHouse 会自动重写 SQL,将 _sign =1 的数据过滤掉;

对于修改的数据,则自动重写 SQL,为其增加 FINAL 修饰符。

   select * from t_organization
   等同于
   select * from t_organization final where _sign = 1

2.7 删除表

  1. 在 mysql 执行删除表
drop table t_user;
  1. 此时在 clickhouse 处会同步删除对应表,如果查询会报错
show tables;
   select * from t_user;
   DB::Exception: Table scene_mms.scene doesn't exist..
  1. mysql 新建表,clickhouse 可以查询到
   CREATE TABLE `testck`.`t_user` (
   `id` int(11) NOT NULL AUTO_INCREMENT,
   `code` int,
   PRIMARY KEY (`id`)
   ) ENGINE=InnoDB;
   INSERT INTO testck.t_user (code) VALUES(1);
   #ClickHouse 查询
   show tables;
   select * from t_user;

3 ClickHouse常见问题排查

3.1 分布式 DDL 某数据节点的副本不执行

  1. 问题:使用分布式 ddl 执行命令 create table on cluster xxxx 某个节点上没有创建表,但是 client 返回正常,查看日志有如下报错。
   <Error> xxx.xxx: Retrying createReplica(), because some other replicas were created at the same time
  1. 解决办法:重启该不执行的节点。

3.2 数据副本表和数据不一致

  1. 问题:由于某个数据节点副本异常,导致两数据副本表不一致,某个数据副本缺少表,需要将两个数据副本调整一致。
  2. 解决办法:
    在缺少表的数据副本节点上创建缺少的表,创建为本地表,表结构可以在其他数据副本通过 show crete table xxxx 获取。
    表结构创建后,clickhouse 会自动从其他副本同步该表数据,验证数据量是否一致即可。

3.3 副本节点全量恢复

  1. 问题:某个数据副本异常无法启动,需要重新搭建副本。
  2. 解决办法:
  • 清空异常副本节点的 metadata 和 data 目录。
  • 从另一个正常副本将 metadata 目录拷贝过来(这一步之后可以启动数据库,但是只有表结构没有数据)。
  • 执行 sudo -u clickhouse touch /data/clickhouse/flags/force_restore_data
  • 启动数据库。

3.4 数据副本启动缺少 zk 表

  1. 问题:某个数据副本表在 zk 上丢失数据,或者不存在,但是 metadata 元数据里存在,导致启动异常,报错:
   Can’t get data for node /clickhouse/tables/01-02/xxxxx/xxxxxxx/replicas/xxx/metadata: node doesn’t exist (No node): 
   Cannot attach table xxxxxxx

解决办法:

  • metadata 中移除该表的结构文件,如果多个表报错都移除
  • mv metadata/xxxxxx/xxxxxxxx.sql /tmp/
  • 启动数据库
  • 手工创建缺少的表,表结构从其他节点 show create table 获取。
  • 创建后会自动同步数据,验证数据是否一致。

3.5 ZK table replicas 数据未删除,导致重建表报错

问题:重建表过程中,先使用 drop table xxx on cluster xxx ,各节点在 clickhouse 上table 已物理删除,但是 zk 里面针对某个 clickhouse 节点的 table meta 信息未被删除(低概率事件),因 zk 里仍存在该表的 meta 信息,导致再次创建该表 create table xxx on cluster, 该节点无法创建表(其他节点创建表成功),报错:

   Replica /clickhouse/tables/01-03/xxxxxx/xxx/replicas/xxx already exists..

解决办法:

从其他数据副本 cp 该 table 的 metadata sql 过来.

重启节点。

3.6 Clickhouse 节点意外关闭

  1. 问题:模拟其中一个节点意外宕机,在大量 insert 数据的情况下,关闭某个节点。
  2. 现象:数据写入不受影响、数据查询不受影响、建表 DDL 执行到异常节点会卡住,报错:
   Code: 159. DB::Exception: Received from localhost:9000. DB::Exception: Watching task /clickhouse/task_queue/ddl/query-0000565925 is executing longer than distributed_ddl_task_timeout (=180) seconds. There are 1 unfinished hosts (0 of them are currently active), they are going to execute the query in background.
  1. 解决办法:启动异常节点,期间其他副本写入数据会自动同步过来,其他副本的建表 DDL 也会同步。

3.7 其他问题参考

阿里云帮助中心:https://help.aliyun.com/document_detail/162815.html?spm=a2c4g.11186623.6.652.312e79bd17U8IO

目录
相关文章
|
4天前
|
关系型数据库 MySQL
MySQL 保姆级教程(五):数据过滤
MySQL 保姆级教程(五):数据过滤
|
4天前
|
关系型数据库 MySQL
MySQL 保姆级教程(四):过滤数据
MySQL 保姆级教程(四):过滤数据
|
4天前
|
关系型数据库 MySQL
MySQL 保姆级教程(三):排序检索数据
MySQL 保姆级教程(三):排序检索数据
|
4天前
|
关系型数据库 MySQL 数据库
MySQL 保姆级教程(二):使用 MySQL 检索数据
MySQL 保姆级教程(二):使用 MySQL 检索数据
|
2天前
|
关系型数据库 MySQL API
MySQL上亿数据查询优化:实践与技巧
MySQL亿级数据查询优化涉及索引设计、分区表、查询语句优化和数据库架构调整。例如,通过为常用查询列创建索引、使用EXPLAIN分析查询计划、避免全表扫描和SELECT *,以及采用垂直拆分、水平拆分和读写分离来提升性能。分区表能减少查询数据量,API接口测试可验证优化效果。
8 0
|
10天前
|
关系型数据库 MySQL 数据库
MybatisPlus添加数据数据库没有数据,数据消失,使用Navicate看不到数据,Navicate中Mysql的数据与idea的数据不一定同步,Navicate与idea的数据库同步,其实有分页
MybatisPlus添加数据数据库没有数据,数据消失,使用Navicate看不到数据,Navicate中Mysql的数据与idea的数据不一定同步,Navicate与idea的数据库同步,其实有分页
|
11天前
|
关系型数据库 MySQL 数据库
mysql,归零,无法自动排序,删除id,表单的数据没有从零开始出现怎样解决?删除数据仍然从删除的地方该怎样解决?表单的数据没有从2开始,而是从之前的删除的序号开始自增。
mysql,归零,无法自动排序,删除id,表单的数据没有从零开始出现怎样解决?删除数据仍然从删除的地方该怎样解决?表单的数据没有从2开始,而是从之前的删除的序号开始自增。
|
11天前
|
SQL 关系型数据库 MySQL
Navicate,数据库,Mysql,改表,4月29日Finished - Unsuccessfully,导出数据不妨,右键,备份一下Mysql数据库的内容,你想导入和导出数据不如,用查询的方式去做
Navicate,数据库,Mysql,改表,4月29日Finished - Unsuccessfully,导出数据不妨,右键,备份一下Mysql数据库的内容,你想导入和导出数据不如,用查询的方式去做
|
11天前
|
SQL Oracle 关系型数据库
MySQL单表千万级数据查询优化大家怎么说(评论有亮点)
单表千万级数据是MySQL查询的一个坎,可能还不是天花板。“一个人走的慢,一群人走的快”,通过讨论可以发现MySQL千万数据的全貌大概是怎样的。
23 0
|
9天前
|
存储 关系型数据库 MySQL
探索MySQL:关系型数据库的基石
MySQL,作为全球最流行的开源关系型数据库管理系统(RDBMS)之一,广泛应用于各种Web应用、企业级应用和数据仓库中