【笔记】用户指南—数据导入和导出—使用mysqldump导入导出数据

简介: 本文介绍了通过mysqldump工具将PolarDB-X数据导入导出的几种常见场景和详细操作步骤。 PolarDB-X支持MySQL官方数据导出工具mysqldump。mysqldump命令的详细说明请参见MySQL 官方文档。

mysqldump工具介绍

mysqldump能够导出表结构信息和表内数据,并转化成SQL语句的格式方便用户直接导入,SQL语法如下:


DROP TABLE IF EXISTS `table_name`;
CREATE TABLE `table_name` (
    `id` int(11) NOT NULL,
    `k` int(11) NOT NULL DEFAULT '0',
    ...
) ENGINE = InnoDB DEFAULT CHARSET = utf8mb4  dbpartition by hash(`id`);
INSERT INTO `table_name` VALUES (...),(...),...;
INSERT INTO `table_name` VALUES (...),(...),...;
...

mysqldump工具导出数据的命令使用方式举例:


shell> mysqldump -h ip -P port -u user -pPassword --default-character-set=char-set --net_buffer_length=10240 --no-create-db --no-create-info --skip-add-locks --skip-lock-tables --skip-tz-utc --set-charset  [--hex-blob] [--no-data] database [table1 table2 table3...] > dump.sql

mysqldump的参数说明可通过mysqldump --help命令查看或查询MySQL 官方文档,常用参数说明如下,请根据实际情况输入:

参数名 说明
ip PolarDB-X实例的IP。
port PolarDB-X实例的端口。
user PolarDB-X的用户名。
password PolarDB-X的密码,注意前面有个-p,之间没有空格。
char-set 指定的编码。
--hex-blob 使用十六进制格式导出二进制字符串字段。如果有二进制数据就必须使用本选项。影响的字段类型包括BINARY、VARBINARY、BLOB。
--no-data 不导出数据。
table 指定导出某个表。默认导出该数据库所有的表。
--no-create-info 不导出建表信息
--net_buffer_length 传输缓冲区大小。影响Insert语句的长度,默认值1046528。

导出的SQL语句格式文件,有两种方法导入数据库中:

  • SOURCE语句导入数据
## 1.登录数据库

shell> mysql -h ip -P port -u user -pPassword --default-character-set=char-set
## 2.通过source语句执行文件中的sql语句导入数据
mysql> source dump.sql
  • mysql命令导入数据
shell> mysql -h ip -P port -u user -pPassword --default-character-set=char-set< /yourpath/dump.sql

下面从不同场景介绍mysqldump工具的使用实例。

PolarDB-X和MySQL之间数据传输时不推荐导出表结构,因为PolarDB-X包含分库分表功能,CREATE TABLE中的拆分函数等与MySQL不兼容,不兼容的关键字包括:

  • DBPARTITION BY hash(partition_key)
  • TBPARTITION BY hash(partition_key)
  • TBPARTITIONS N
  • BROADCAST

如果导出表结构,需在导出的SQL语句文件中修改建表语句,才能正确导入。所以推荐只导出表内数据,手动登录数据库进行建表操作,然后再导入数据。

场景一:从MySQL导入到PolarDB-X

从MySQL导入数据到PolarDB-X,请按照以下步骤进行操作。

  1. 从MySQL中导出数据到文件。输入以下命令,从MySQL中导出表内数据(不推荐导出表结构),假设导出文件为dump.sql。
mysqldump -h ip -P port -u user -pPassword --default-character-set=char-set --net_buffer_length=204800 --no-create-db --no-create-info --skip-add-locks --skip-lock-tables --skip-tz-utc --set-charset --hex-blob database [table1 table2 table3...] > dump.sql
  1. 登录PolarDB-X,手动建立目标表,关于PolarDB-X建表语句的语法请参见CREATE TABLE。如果未加--no-create-info参数,导出的dump.sql文件中包含MySQL端的建表语句,也可在文件中进行修改建表语句。

导入数据文件到PolarDB-X中。您可以通过如下两种方式导入数据文件到PolarDB-X:
    • 通过mysql -h ip -P port -u user -pPassword --default-character-set=char-set命令登录目标PolarDB-X,执行source /yourpath/dump.sql命令将数据导入到目标PolarDB-X。
    • 直接通过mysql -h ip -P port -u user -pPassword --default-character-set=char-set< /yourpath/dump.sql命令将数据导入到目标PolarDB-X。
  1. 说明
    • 上述两个命令中default-character-set要设置成实际的数据编码。如果是Windows平台,source命令指定的文件路径需要对分隔符转义。
    • 第一种方式会把所有的步骤回显到屏幕上,速度略慢,但是可以观察导入过程。
    • 导入的时候,由于某些PolarDB-X和MySQL实现上的不同,可能会报错,错误信息类似ERROR 1231 (HY000): a29ef6461c00000[**]Variable @saved_cs_client can't be set to the value of @@character_set_client。此类错误信息并不影响导入数据的正确性。

场景二:从一个PolarDB-X导入到另一个PolarDB-X

假设您之前有一个测试环境的PolarDB-X,测试完毕以后,需要把测试过程中的一些表结构和数据导入到生产环境中的PolarDB-X中,那么可以按照以下步骤进行操作。

  1. 从源PolarDB-X中导出数据到文本文件。请参见场景一步骤一。
  2. 导入数据文件到PolarDB-X。请参见场景一步骤三。
  3. 手动创建Sequence对象。mysqldump并不会导出PolarDB-X中的Sequence对象,所以如果在源PolarDB-X中使用了Sequence对象,并且需要在目标PolarDB-X中继续使用相同的Sequence对象,则需要手动在目标PolarDB-X中创建同名的Sequence的对象。具体步骤如下:
    1. 在源PolarDB-X上执行SHOW SEQUENCES,获取当前PolarDB-X中的Sequence对象的状态。
    2. 在目标PolarDB-X数据库上通过CREATE SEQUENCE命令创建新的Sequence对象。
  1. Sequence命令详情请参见Sequence

场景三:从PolarDB-X导出数据到MySQL

从PolarDB-X导出数据到MySQL,和在PolarDB-X之间相互导入数据的过程类似,也分为以下几个步骤。

  1. 从源PolarDB-X中导出数据到文本文件。请参见场景一步骤一。
  2. 登录MySQL,手动创建目标表。如果导出数据包含建表语句,则需要在导出文件中修改建表语句,删除PolarDB-X中不兼容MySQL的关键字等信息。例如PolarDB-X中的某个拆分表:
CREATE TABLE `table_name` (
`id` int(11) NOT NULL,
`k` int(11) NOT NULL DEFAULT '0',
...
) ENGINE = InnoDB DEFAULT CHARSET = utf8mb4 dbpartition by hash(`id`);
  1. 需去掉MySQL不兼容的拆分函数语句,改成:
CREATE TABLE `table_name` (
`id` int(11) NOT NULL,
`k` int(11) NOT NULL DEFAULT '0',
...
) ENGINE = InnoDB DEFAULT CHARSET = utf8mb4;
  1. 导入数据文件到PolarDB-X。请参见场景一步骤三。
相关实践学习
每个IT人都想学的“Web应用上云经典架构”实战
本实验从Web应用上云这个最基本的、最普遍的需求出发,帮助IT从业者们通过“阿里云Web应用上云解决方案”,了解一个企业级Web应用上云的常见架构,了解如何构建一个高可用、可扩展的企业级应用架构。
MySQL数据库入门学习
本课程通过最流行的开源数据库MySQL带你了解数据库的世界。 &nbsp; 相关的阿里云产品:云数据库RDS MySQL 版 阿里云关系型数据库RDS(Relational Database Service)是一种稳定可靠、可弹性伸缩的在线数据库服务,提供容灾、备份、恢复、迁移等方面的全套解决方案,彻底解决数据库运维的烦恼。 了解产品详情:&nbsp;https://www.aliyun.com/product/rds/mysql&nbsp;
相关文章
|
6月前
|
监控 安全 API
电商API行业标准与规范体系构建:推动电商行业规范化前行
电商API行业标准与规范是推动电商高效发展的核心。通过数据格式标准化、接口设计一致性及严格的安全措施,可提升数据交互效率、保障安全并促进系统兼容性。淘宝、京东、拼多多等平台的实践展示了其重要性。未来,智能化、隐私保护强化和跨平台集成将成为主要趋势,助力电商生态持续繁荣。
|
6月前
|
前端开发 开发者 容器
使用CSS Grid实现响应式布局
使用CSS Grid实现响应式布局
|
6月前
|
数据采集 搜索推荐 数据可视化
一文讲透,如何快速完成埋点与用户行为分析产品选型
在ClkLog的日常咨询中,我们发现有接近一半的客户是刚刚起步接触用户行为分析,在意识到这项需求之后,他们常常面临各种困惑。为此,ClkLog通常会建议客户从三个关键点来梳理: 我们的需求目标是什么?可能会涉及哪些产品? 公司对产品数据是否有要求?SaaS还是私有化建设? 核心需求是哪些?是否需要产品包含或可以自己二开?
|
搜索推荐 关系型数据库 数据库
使用sphinx search打造你自己的中文搜索引擎
Google搜索引擎建立至今已经快20年了,之后全球各类大大小小类似的搜索引擎也陆续出现、消亡。国内目前以百度为大,搜狗、360、必应等也势在必争。搜索引擎技术也发展的相当成熟,同时也就出现了很多开源的搜索引擎系统。
3423 0
|
消息中间件 Ubuntu Java
Kafka安装并配置SASL_PLAINTEXT认证
Kafka安装并配置SASL_PLAINTEXT认证
1860 0
|
运维 分布式计算 DataWorks
阿里云大数据助力知衣科技打造AI服装行业核心竞争力
杭州知衣科技有限公司是一家以人工智能技术为驱动的国家高新技术企业,致力于将数据化趋势发现、爆款挖掘和供应链组织能力标准化输出,打造智能化服装设计的供应链平台。
2985 0
|
数据采集 自动驾驶 物联网
NR 的需求和目标 | 带你读《5G 空口设计与实践进阶 》之一
相对以往的移动通信系统,NR 的应用场景和服务对象均发生了极大的变化,其系统设计也不再简单地以更高峰值速率和更高频谱效率作为核心目标。为满足差异化的能力指标要求,NR 需要系统性的方案设计,基于一组关键技术以解决不同场景的需求侧重点。需要强调的是,NR选择的技术不一定是理论上最先进的,但一定是可实现和满足需求的。
NR 的需求和目标   | 带你读《5G 空口设计与实践进阶 》之一
|
存储 C++
【回放视频+PPT下载整理】编程语言系列讲座:快速上手C++
C++在具有诸多优势的同时,也存在很多缺点,其中最主要的就是“极其消耗脑细胞”,也就是说使用C++会增大开发上的成本!那么究竟应该如何深入地学习C++呢?如何让你的脑细胞多活几天呢?云栖社区编程语言系列讲座:快速上手C++,付哲与陶云峰两位技术专家将带你深入学习C++!
8640 0
|
存储 机器学习/深度学习 Kubernetes
kubeflow系列(一):基于国内阿里云镜像解决kubeflow一键安装
google出品在国内都存在墙的问题,而kubeflow作为云原生的机器学习套件对团队的帮助很大,对于无条件的团队,基于国内镜像搭建kubeflow可以帮助大家解决不少麻烦,这里给大家提供一套基于国内阿里云镜像的kubeflow 0.6的安装方案。
5223 0