迁移mysql数据到oceanbase

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
云数据库 RDS PostgreSQL,集群系列 2核4GB
简介: 迁移MySQL数据到oceanbase,MySQL数据库时maridb


1 实验环境

mysql数据库使用的是maridb, oceanbase集群用的是obd自动部署的单节点集群。

2 使用 mysqldump 将 mysql的表结构和数据同步到 OceanBase 的MySQL 租户中

mysql数据库中的数据由Percona tpcc-mysql产生,这个工具主要是用于MySQL数据库的TPCC测试,产生的数据符合TPCC测试标准。首先下载编译tpcc-mysql工具:

[root@localhost ~]# git clone https://github.com/Percona-Lab/tpcc-mysql
[root@localhost tpcc-mysql]# pwd
/root/tpcc-mysql/src
[root@localhost src]# make

git克隆项目至本地后进入到项目目录下src目录,运行make命令即可。编译成功后在项目目录下生成名为tpcc_load的问题可用于载入数据。

      登陆MySQL数据库创建数据库,执行tpcc-mysql目录下的建表脚本

[root@localhost tpcc-mysql]# mysqladmin -uroot -p'' create sysben_test;
mysql> use sysben_test;
mysql> source create_table.sql

     使用tpcc_load工具装载数据,-w参数指定仓库个数

[root@localhost ~]# ./tpcc_load -h127.0.0.1 -P 3306 -d sysbench_test -uroot -p'' -w 2

数据装载完毕,检验无误后,使用mysqldump进行数据库表结构导出

[root@localhost ~]# mysqldump -h 127.0.0.1 -P3306 -uroot -p'rooT@123' -d sysben_test --compact > sysben_ddl.sql
检查导出的表结构文件

[root@localhost ~]# head -40 sysben_ddl.sql
/!40101 SET @saved_cs_client = @@character_set_client /;
/!50503 SET character_set_client = utf8mb4 /;

CREATE TABLE `customer` (
  `c_id` int NOT NULL,
  `c_d_id` tinyint NOT NULL,
  `c_w_id` smallint NOT NULL,
  `c_first` varchar(16) DEFAULT NULL,
  `c_middle` char(2) DEFAULT NULL,
  `c_last` varchar(16) DEFAULT NULL,
  `c_street_1` varchar(20) DEFAULT NULL,
  `c_street_2` varchar(20) DEFAULT NULL,
  `c_city` varchar(20) DEFAULT NULL,
  `c_state` char(2) DEFAULT NULL,
  `c_zip` char(9) DEFAULT NULL,
  `c_phone` char(16) DEFAULT NULL,
  `c_since` datetime DEFAULT NULL,
  `c_credit` char(2) DEFAULT NULL,
  `c_credit_lim` bigint DEFAULT NULL,
  `c_discount` decimal(4,2) DEFAULT NULL,
  `c_balance` decimal(12,2) DEFAULT NULL,
  `c_ytd_payment` decimal(12,2) DEFAULT NULL,
  `c_payment_cnt` smallint DEFAULT NULL,
  `c_delivery_cnt` smallint DEFAULT NULL,
  `c_data` text,
  PRIMARY KEY (`c_w_id`,`c_d_id`,`c_id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci;
/*!40101 SET character_set_client = @saved_cs_client */;
/*!40101 SET @saved_cs_client     = @@character_set_client */;
/*!50503 SET character_set_client = utf8mb4 */;

编辑一下,去掉其中的COLLATE=utf8mb4_0900_ai_ci及ENGINE=Innodb。

导出数据

[root@localhost ~]# mysqldump -h 127.0.0.1 -P3306 -uroot -p'rooT@123' -t sysben_test --compact > sysben_data.sql
将导出的文件拷贝至/home/admin目录下,登陆Oceanbase集群,相应租户下,创建数据库,运行

表创建脚本和数据导入脚本

obclient -h127.0.0.1 -uroot@my_tenant -P2883 -p -c -A test
MySQL [test]> source sysben_ddl.sql;
MySQL [test]> source sysben_data.sql

脚本运行过程中没有报错,选择一个表,导入的数据。

MySQL [test]> select count(*) from orders;

  +----------+
  | count(*) |
  +----------+
  |   600000 |
  +----------+
  1 row in set (1.447 sec)

    表中的记录数同原表相同。

2   使用 datax 离线同步 MySQL 表 到 OceanBase 的 MySQL 租户

下载jdk,设置需要的环境变量

[root@localhost ~]# yum -y install java-1.8.0-openjdk.x86_64

下载并解压datax

[root@localhost datax]# wget http://datax-opensource.oss-cn-hangzhou.aliyuncs.com/datax.tar.gz
[root@localhost datax]# tar -zxvf datax.tar.gz -C /usr/local

运行一下datax自带的测试job

[root@localhost datax]# bin/datax.py /usr/local/datax/job/job.json

022-01-19 03:45:21.630 [main] WARN  ConfigParser - 插件[streamreader,streamwriter]加载失败,1s后重试... Exception:Code:
[Common-00], Describe:[您提供的配置文件存在错误信息,请检查您的作业配置 .] - 配置信息错误,您提供的配置文件[/usr/local/d
atax/plugin/reader/._drdsreader/plugin.json]不存在. 请检查您的配置文件.
2022-01-19 03:45:22.637 [main] ERROR Engine -
经DataX智能分析,该任务最可能的错误原因是:
com.alibaba.datax.common.exception.DataXException: Code:[Common-00], Describe:[您提供的配置文件存在错误信息,请检查您的
作业配置 .] - 配置信息错误,您提供的配置文件[/usr/local/datax/plugin/reader/._drdsreader/plugin.json]不存在. 请检查您的
配置文件.

这里出错了,看了错误信息,完全不知道怎样解决,百度一下找到了解决方案,

rm -rf /usr/local/datax/plugin//._
运行上面的rm命令之后,再进行测试就成功了

[root@localhost datax]# bin/datax.py /usr/local/datax/job/job.json

  2022-01-19 03:53:12.059 [main] INFO  VMInfo - VMInfo# operatingSystem class => sun.management.OperatingSystemImpl
  2022-01-19 03:53:12.066 [main] INFO  Engine - the machine info  =>
  2022-01-19 03:53:22.249 [job-0] INFO  JobContainer -
  --------
  --------
  --------
  任务启动时刻                    : 2022-01-19 03:53:12
  任务结束时刻                    : 2022-01-19 03:53:22
  任务总计耗时                    :                 10s
  任务平均流量                    :          253.91KB/s
  记录写入速度                    :          10000rec/s
  读出记录总数                    :              100000
  读写失败总数                    :                   0

准备数据离线同步需要的job json文件,源库使用的是mysql自带sakila示例数据库,同步的表是payment,同步至oceanbase的test数据库下。

"job": {

    "setting": {
        "speed": {
            "channel": 1
        },
        "errorLimit": {
            "record": 0,
            "percentage": 0.1
        }
    },
    "content": [
        {
            "reader": {
                "name": "mysqlreader",
                "parameter": {
                    "username": "root",
                    "password": "root123",
                    "column": [
                        "*"
                    ],
                    "connection": [
                        {
                            "table": [
                                "payment"
                            ],
                            "jdbcUrl": ["jdbc:mysql://127.0.0.1:3306/sakila?useUnicode=true&characterEncoding=utf8"]
                        }
                    ]
                }
            },

            "writer": {
                "name": "oceanbasev10writer",
                "parameter": {
                    "obWriteMode": "insert",
                    "column": [
                        "*"
                    ],
                    "preSql": [
                        "truncate table orders"
                    ],
                    "connection": [
                        {
                            "jdbcUrl": "||_dsc_ob10_dsc_||obcluster:sys||_dsc_ob10_dsc_||jdbc:oceanbase://127.0.0.1:2883/test?useLocalSessionState=true&allowBatch=true&allowMultiQueries=true&rewriteBatchedStatements=true",
                            "table": [
                                "payment"
                            ]
                        }
                    ],
                    "username": "root",
                    "password":"",
                    "writerThreadCount":10,
                    "batchSize": 1000,
                    "memstoreThreshold": "0.9"
                }
            }
        }
    ]
}

}

运行job,将数据同步至oceanbase数据库

[root@localhost datax]#bin/datax.py job/my_job.json

  --------
  --------
  2022-01-20 00:53:58.619 [job-0] INFO  JobContainer -
  任务启动时刻                    : 2022-01-20 00:53:45
  任务结束时刻                    : 2022-01-20 00:53:58
  任务总计耗时                    :                 12s
  任务平均流量                    :           50.84KB/s
  记录写入速度                    :           1604rec/s
  读出记录总数                    :               16049
  读写失败总数                    :                   0

同步任务执行成功,没有读写失败,速度是50.84KB/s。

登陆目的库检查一下:

MySQL [test]> select count(*) from payment;

+----------+
| count(*) |
+----------+
|    16049 |
+----------+
1 row in set (0.014 sec)

   记录数同源库一致,同步成功。

相关实践学习
如何快速连接云数据库RDS MySQL
本场景介绍如何通过阿里云数据管理服务DMS快速连接云数据库RDS MySQL,然后进行数据表的CRUD操作。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助     相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
相关文章
|
5月前
|
弹性计算 关系型数据库 数据库
手把手带你从自建 MySQL 迁移到云数据库,一步就能脱胎换骨
阿里云瑶池数据库来开课啦!自建数据库迁移至云数据库 RDS原来只要一步操作就能搞定!点击阅读原文完成实验就可获得一本日历哦~
|
3月前
|
运维 关系型数据库 Java
DataKit6.0将MySQL8.0迁移至openGauss6.0
DataKit6.0将MySQL8.0迁移至openGauss6.0
|
4月前
|
存储 SQL 关系型数据库
一篇文章搞懂MySQL的分库分表,从拆分场景、目标评估、拆分方案、不停机迁移、一致性补偿等方面详细阐述MySQL数据库的分库分表方案
MySQL如何进行分库分表、数据迁移?从相关概念、使用场景、拆分方式、分表字段选择、数据一致性校验等角度阐述MySQL数据库的分库分表方案。
560 15
一篇文章搞懂MySQL的分库分表,从拆分场景、目标评估、拆分方案、不停机迁移、一致性补偿等方面详细阐述MySQL数据库的分库分表方案
|
3月前
|
SQL 分布式计算 关系型数据库
Hadoop-21 Sqoop 数据迁移工具 简介与环境配置 云服务器 ETL工具 MySQL与Hive数据互相迁移 导入导出
Hadoop-21 Sqoop 数据迁移工具 简介与环境配置 云服务器 ETL工具 MySQL与Hive数据互相迁移 导入导出
112 3
|
3月前
|
SQL 分布式计算 关系型数据库
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
124 0
|
分布式计算 关系型数据库 MySQL
E-Mapreduce如何处理RDS的数据
目前网站的一些业务数据存在了数据库中,这些数据往往需要做进一步的分析,如:需要跟一些日志数据关联分析,或者需要进行一些如机器学习的分析。在阿里云上,目前E-Mapreduce可以满足这类进一步分析的需求。
4982 0
|
13天前
|
存储 Oracle 关系型数据库
数据库传奇:MySQL创世之父的两千金My、Maria
《数据库传奇:MySQL创世之父的两千金My、Maria》介绍了MySQL的发展历程及其分支MariaDB。MySQL由Michael Widenius等人于1994年创建,现归Oracle所有,广泛应用于阿里巴巴、腾讯等企业。2009年,Widenius因担心Oracle收购影响MySQL的开源性,创建了MariaDB,提供额外功能和改进。维基百科、Google等已逐步替换为MariaDB,以确保更好的性能和社区支持。掌握MariaDB作为备用方案,对未来发展至关重要。
39 3
|
13天前
|
安全 关系型数据库 MySQL
MySQL崩溃保险箱:探秘Redo/Undo日志确保数据库安全无忧!
《MySQL崩溃保险箱:探秘Redo/Undo日志确保数据库安全无忧!》介绍了MySQL中的三种关键日志:二进制日志(Binary Log)、重做日志(Redo Log)和撤销日志(Undo Log)。这些日志确保了数据库的ACID特性,即原子性、一致性、隔离性和持久性。Redo Log记录数据页的物理修改,保证事务持久性;Undo Log记录事务的逆操作,支持回滚和多版本并发控制(MVCC)。文章还详细对比了InnoDB和MyISAM存储引擎在事务支持、锁定机制、并发性等方面的差异,强调了InnoDB在高并发和事务处理中的优势。通过这些机制,MySQL能够在事务执行、崩溃和恢复过程中保持
42 3
|
13天前
|
SQL 关系型数据库 MySQL
数据库灾难应对:MySQL误删除数据的救赎之道,技巧get起来!之binlog
《数据库灾难应对:MySQL误删除数据的救赎之道,技巧get起来!之binlog》介绍了如何利用MySQL的二进制日志(Binlog)恢复误删除的数据。主要内容包括: 1. **启用二进制日志**:在`my.cnf`中配置`log-bin`并重启MySQL服务。 2. **查看二进制日志文件**:使用`SHOW VARIABLES LIKE 'log_%';`和`SHOW MASTER STATUS;`命令获取当前日志文件及位置。 3. **创建数据备份**:确保在恢复前已有备份,以防意外。 4. **导出二进制日志为SQL语句**:使用`mysqlbinlog`
54 2
|
26天前
|
关系型数据库 MySQL 数据库
Python处理数据库:MySQL与SQLite详解 | python小知识
本文详细介绍了如何使用Python操作MySQL和SQLite数据库,包括安装必要的库、连接数据库、执行增删改查等基本操作,适合初学者快速上手。
182 15

热门文章

最新文章