OceanBase 知识加油站(工具篇一):准备好您的数据了吗?

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,集群版 2核4GB 100GB
推荐场景:
搭建个人博客
云解析DNS,个人版 1个月
简介: OceanBase【知识加油站】上线啦!干货满满,配合上手实操更佳哟~

玉璁,OceanBase 工具团队技术专家


孙夕恩,花名玉璁,长期从事基础架构与中间件领域研发工作。现任职于 OceanBase 工具团队,负责基础组件&工具的研发工作,致力于为 OceanBase 建设一套完善的生态工具体系。在Java、分布式、基础架构、中间件、“去O”等领域有着较为丰富的研发实战经验。

 

引言


在企业级的应用系统中,不是所有的业务都是使用在线迁移/同步工具处理数据。有些业务使用导出工具将数据库中的数据导出,再导入到其它库中供业务分析;有些业务使用导出工具将数据库中的数据导出,文件传递给其它系统进行处理....包括定期逻辑备份恢复,日常的离线迁移等操作,我们都需要将数据库中的模式或者数据导出到文件中。我们只有准确地理解不同的数据格式的规范,熟练地使用导入导出工具,才能在日常的工作中更好地运用这些数据。


本文主要是结合 OceanBase 开源的导入导出工具,讲述常用的数据格式、最佳实践、常见案例和一些注意事项。


正文


OBLOADER 是一款使用 Java 开发的客户端导入工具,提供向 OceanBase 数据库导入结构和数据的能力。该工具提供了非常灵活的命令行选项,您可以在多种复杂的场景下,将结构和数据导入到 OceanBase 数据库中。OBLOADER 主要与 OBDUMPER 搭配使用。但是在外部业务中,OBLOADER 也支持如 Navicat、Mydumper 和 SQLDeveloper 等工具导出的 SQL 或 CSV 格式的文件导入。OBLOADER 充分利用 OceanBase 分布式系统的特性,重点优化了导入的性能。


文件大小限制和建议


强烈建议您不要直接使用太大的文件,例如 100 GB 或更大的数据文件。如果您使用的导数工具(如 mysqldump 和 SQLDeveloper 等)无法按照文件块导出时,我们可以寻找第三方的切分工具对大文件进行切分。下述介绍了在不同系统下如何进行数据切分。


Linux or macOSX


使用系统内置的切分命令 split 就可以把大的 CSV 文件切分成若干小的文件。

split [-a suffix_length] [-bbyte_count[k|m]] [-l line_count] [-p pattern] [file [name]]

示例语句如下所示:

split -l 100000 pagecounts-20210723.csvpages

上述示例是将数据文件 pagecounts-20210723.csv 根据行数进行切分。假设当前文件大小是 8 GB,且包含 1000 万行数据,以 100,000 行作为条件,将大文件切分成 100 份子文件,每一份子文件的名称以pages作为后缀且大小将是80MB(1,000,000/100,000=100)。


注意:split 命令是根据行数切分文件,数据存在换行时可能会出现切分错误。


Windows


Windows 平台没有系统内置的切分工具。但是在网上您可以搜索许多第三方的切分工具和脚本用来切分大文件。


说明:1.使用 OBDUMPER 导出数据时,为了避免将一张表中所有的数据写入单个文件从而导致在磁盘中生成超大文件的情况,程序默认会限制文件的大小是 1 GB。如果导出的数据体积超出 1 GB,程序会生成一份新的文件并继续写入。

2.使用 OBLOADER 导入数据时,为了提升导入性能,程序内部默认会对文件进行逻辑拆分。需要注意的是,这里只是逻辑拆分,过程中不会产生任何临时文件。即使遇到大文件(100 GB 以上),程序也可以在很短的时间内完成文件拆分,从而并行解析每一份子文件,然后并发导入到数据库中。因此,您无需启动多个 OBLOADER 进程进行并发导入的操作。


准确地辨识数据格式


在离线迁移和逻辑备份等场景中 OBDUMPER 支持三种通用的数据格式,包括 CSV、Insert 和 Delimited Text。文件格式与文件后缀名不是同一个概念。文件格式,通常是指文件中的内容的组织形式。例如 123.csv 文件通常存放的是 CSV 格式的数据,文件使用 .csv 作为后缀名是为了增加辨识度。您也可以在 123.txt 文件中存放 CSV 格式的数据,它并不影响软件程序解析该数据文件,只是您可能会难以通过文件名辨识文件中的内容。为了准确地确认数据格式,最快速的办法就是预览部分数据内容。这一节,我们主要教大家如何辨识这些数据格式,避免日常操作中频犯错误。


CSV 格式


CSV 格式是业界最常见的、最通用的数据保存格式,也是我们推荐使用的数据格式。除了基本的格式规范(参照:RFC4180 <点击阅读原文查看>)以外,需要特别注意以下 2 个容易犯错的地方。


1、数据中含有某种特殊字符。CSV 格式的基本符号有定界符、列分隔符和行分隔符。如果数据中存在上述符号或者 NULL 值,导出的命令中必须要设置转义符参数,否则生成的 CSV 文件是无法被正确地解析。


2、CSV 格式与 Excel 格式的区别。CSV 是文本格式,可以用任何编辑器打开预览。Excel 格式是二进制格式,只能使用 Microsoft Excel 软件打开。由于 Excel 软件可以解析 CSV 格式的数据,所以不少用户习惯用 Excel 软件预览 CSV 文件的内容,但是这要求您熟知 CSV 格式的灵活性以及对于 Excel 软件有较高的熟练度。例如 Excel 软件解析 CSV 文件时,其默认定界符是双引号,列分隔符是逗号,转义符是双引号。假设打开的 CSV 文件中没有使用 Excel 软件默认的符号,结果预览的就是错误的内容。另外,Windows 版本的 Excel 软件支持配置 CSV 格式,而 MacOS 版本的 Excel 软件不支持该配置。


下述为 CSV 的格式样例:

1.png

CSV Header 是指 CSV 文件中第一行存放的是表中的列名,用户可以选择不插入列头。(可选)CSV Record 是指 CSV 文件中存放的是表中的数据。数据中含有的定界符、分隔符、换行符和 NULL 等需要转义。


Insert 格式


Insert 格式就是我们最熟悉的 Insert SQL 语句,为了确保 SQL 语法的正确性,您必须设置正确的转义符号。


Insert SQL 语句中一些容易造成语法错误的原因:


1.对象名或者列名是 SQL 关键字。该问题会导致 SQL 语句执行失败,解决办法是生成 Insert SQL 语句时,程序逻辑中给对象名或者列名加上转义符号。例如,Oracle 语法使用双引号转义("),MySQL 语法使用反引号(`)转义。


2.业务数据中存在单引号。该问题会造成 Insert SQL 解析错误,解决办法是生成 Insert SQL 语句时,程序逻辑中给数据做特殊字符的转义替换。使用 OBDUMPER 工具导出数据时,默认会对数据做转义处理,所以最终可以保证生成的是语法正确的 Insert SQL 语句。


下述为 Insert 格式样例:

2.png


Delimited Text 格式


Delimited Text 格式是最简单的文本格式,也是最容易与 CSV 格式混淆的格式。CSV 格式的分隔符只能是单个字符,默认是逗号。Delimited Text 格式的分隔符可以是单个字符,也可以是多个字符。Delimited Text 格式的基本符号是列分隔符和换行符,没有定界符。数据中不能出现与基本符号相冲突的字符,否则程序无法正确地解析。例如,Delimited Text 格式要求一行数据在文件中独占一行,假设数据中存在换行,最终解析出来的就是两行数据。


下述为 Delimited Text 格式样例:

3.png


半结构化数据的处理


通常我们所遇见的半结构化数据格式是 JSON 或 XML 数据类型。这两种数据类型自身也是一种复合的数据定义格式。比如,在 JSON 或者 XML 数据节点中可以存放 CSV 或者 Insert SQL 语句等任意格式的数据。所以您在准备数据的时候,一定要做好数据的定界和转义。目前文件中存在该类型的数据是无法被正确切分的,所以使用 OBLOADER 导入文件中包含 JSON 或者 XML 类型的数据时,可以调整文件拆分的阈值参数,让程序跳过对文件的自动拆分。


二进制大对象的处理


像RAW、BINARY 和LOB(Large ObjectBinary)等二进制大对象类型在企业级的业务中的应用并不少见,有些数据库导入导出工具并不支持处理这些数据类型。强烈要求您将二进制类型的数据编码成 16 进制的字符串才能进行文件存储和解析,OBDUMPER 和 MySQLDump 等工具默认也是这么处理的。极端场景下,LOB 类型可能存储数百 MB 甚至若干 GB 的数据,这为导入导出工具的性能和存储空间两个方面带来巨大的挑战。您在日常的操作中,可以尽量将存在二进制大对象数据类型的表单独进行处理。


日期时间类型的处理


在 Oracle 或者 OceanBaseOracle 模式下,日期时间相关的数据类型是比较复杂的,而且在使用的过程中也是极其容易犯错。比如精度、格式和时区错误等。


源库导出数据前,要求设置符合预期的日期时间格式,目标库导入前,也要设置符合预期的日期时间格式。假设源库和目标库的日期时间格式不一致,日期时间类型的数据是无法被正确地导入。在日常操作中,这种问题是很常见的。其次,不同数据库的日期时间类型存在差异。例如,DATE 类型在 MySQL、DB2、Oracle 和 OceanBase 等各个不同的数据库中所表示的日期时间信息是有差异的。而这些差异,您只能自行查阅数据库文档来解决兼容性的问题,否则可能会出现精度丢失或者写入失败等问题。


您可以通过下述参数设置日期时间数据的格式:
NLS_DATE_FORMAT              YYYY-MM-DDNLS_TIMESTAMP_FORMAT         YYYY-MM-DD HH24:MI:SSXFF AMNLS_TIMESTAMP_TZ_FORMAT      YYYY-MM-DD HH24:MI:SSXFF AM TZR


写在最后


从数据库中导出数据时,只要您仔细根据上述的指导建议,并进行检查和设置。那么无论使用哪一种导数工具,它都能够产生符合要求的数据文件。同样,您也能够轻松地运用好这些数据文件以便于后续的导入工作。切记不要图省事儿!

相关实践学习
如何在云端创建MySQL数据库
开始实验后,系统会自动创建一台自建MySQL的 源数据库 ECS 实例和一台 目标数据库 RDS。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助 &nbsp; &nbsp; 相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
相关文章
|
3月前
|
关系型数据库 MySQL 数据库
实时计算 Flink版产品使用合集之支持将数据写入 OceanBase 数据库吗
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
104 5
|
3月前
|
Apache 流计算 OceanBase
手把手教你实现 OceanBase 数据到阿里云数据库 SelectDB 内核版 Apache Doris 的便捷迁移|实用指南
本文介绍了如何将数据从 OceanBase 迁移到阿里云数据库 SelectDB 内核版 Apache Doris。提供 3 种数据同步方法 1. 使用 DataX,下载 DataX 并编写配置文件,通过 OceanBaseReader 和 DorisWriter 进行数据迁移。 2. 利用 Apache Doris 的 Catalog功 能,将 OceanBase 表映射到 Doris 并插入数据。 3. 通过Flink CDC,设置 OceanBase 环境,配置 Flink 连接器,实现实时数据同步。
手把手教你实现 OceanBase 数据到阿里云数据库 SelectDB 内核版 Apache Doris 的便捷迁移|实用指南
|
13天前
|
数据采集 监控 关系型数据库
CDC 与 Oceanbase 的激情碰撞:实时采集数据的震撼之旅,颠覆数据世界的神秘冒险!
【8月更文挑战第7天】在数据处理领域,实时采集变得至关重要。OceanBase是一款高性能、可扩展的分布式数据库。通过变更数据捕获(CDC)技术实时采集其数据是一项关键技术。利用如Debezium等工具,可以实现OceanBase的数据变动捕捉。示例代码展示了如何配置Debezium以监听OceanBase的数据变更。实际应用中需按业务需求定制数据处理逻辑,并实施监控与错误管理以保障采集的准确性和稳定性,从而为业务提供实时数据支持,推动创新发展。
36 1
|
13天前
|
安全 API 数据库
OceanBase数据库clog日志,删前请三思!一不小心可能引发数据灾难,快来了解正确的日志管理之道!
【8月更文挑战第7天】ModelScope(魔搭)作为开放的模型即服务平台,提供丰富的预训练模型。访问令牌在此类平台中至关重要,用于验证用户身份并授权访问特定模型或服务。本文介绍访问令牌的概念、获取方法及使用示例,强调安全性与有效期内的使用,并简述刷新令牌机制。掌握这些知识可帮助用户安全高效地利用ModelScope的资源。
33 0
|
1月前
|
DataWorks 关系型数据库 MySQL
DataWorks操作报错合集之从OceanBase(OB)数据库调度数据到MySQL数据库时遇到连接报错,该怎么办
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
|
3月前
|
分布式计算 DataWorks 数据库
DataWorks操作报错合集之DataWorks使用数据集成整库全增量同步oceanbase数据到odps的时候,遇到报错,该怎么处理
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
54 0
|
3月前
|
SQL 关系型数据库 MySQL
OBCP实践 - 迁移 MySQL 数据到 OceanBase 集群
OBCP实践 - 迁移MySQL数据到OceanBase集群,这是一个涉及到将现有MySQL数据库的数据和表结构迁移到OceanBase分布式数据库集群的实际操作过程。OceanBase是一款高度兼容MySQL协议的分布式数据库产品,支持在线平滑迁移,以便企业用户可以从传统的MySQL数据库平滑迁移到OceanBase,以实现更高的可用性、扩展性和性能。
83 0
|
3月前
|
存储 BI 数据库
数据洞见未来——瓴羊Quick BI荣获邀请,将亮相OceanBase开发者大会
数据洞见未来——瓴羊Quick BI荣获邀请,将亮相OceanBase开发者大会
52 0
|
3月前
|
SQL 关系型数据库 MySQL
在OceanBase数据库中,mysqldump工具是可以用于数据备份的
【2月更文挑战第2天】在OceanBase数据库中,mysqldump工具是可以用于数据备份的
136 6
|
3月前
|
数据库 OceanBase
可以暂停OceanBase数据库的OMS数据迁移
可以暂停OceanBase数据库的OMS数据迁移
63 3