异构数据源离线同步工具之DataX的安装部署

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云原生数据库 PolarDB MySQL 版,Serverless 5000PCU 100GB
RDS MySQL Serverless 高可用系列,价值2615元额度,1个月
简介: 异构数据源离线同步工具之DataX的安装部署🍅程序员小王的博客:程序员小王的博客🍅 欢迎点赞 👍 收藏 ⭐留言 📝🍅 如有编辑错误联系作者,如果有比较好的文章欢迎分享给我,我会取其精华去其糟粕🍅java自学的学习路线:java自学的学习路线🍅该博客参考文献:阿里云DataX,DataX官网,尚硅谷大数据研究院————————————————版权声明:本文为CSDN博主「程序员小王java」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。原文链接:https://blog.csdn.net/weixin_44385486/a

一、DataX概述

1、什么是DataX

DataX是阿里巴巴开源的一个异构数据源离线同步工具,致力于实现包括关系型数据库(MySQL、Oracle,DB2 等)、HDFS、Hive、ODPS、HBase、FTP 等各种异构数据源之间稳定高效的数据同步功能。在阿里巴巴集团内被广泛使用的离线数据同步工具


DataX开源地址:https://github.com/alibaba/DataX

0.png


2、DataX的设计

  为了解决异构数据源同步问题,DataX将复杂的网状的同步链路变成了星型数据链路,DataX作为中间传输载体负责连接各种数据源,当需要接入一个新的数据源的时候,只需要将数据源对接到DataX,便能跟已有的数据源做到无缝数据同步了!


1.png


3、支持的数据源

DataX目前已经有了比较全面的插件体系,主流的RDBMS数据库、NOSQL、大数据计算系统都已经接入,目前支持数据如下图,详情请点击:DataX数据源参考指南

image.png


4、DataX框架设计

2.png


**Reader:**数据采集模块,负责采集数据源的数据,将数据发送给FrameWork


Writer:数据写入模块,负责不断向FrameWork取数据,并将数据写入到目的端


FrameWork:用于连接Reader,writer,作为两者的数据传输通道,并处理缓冲,流控,并发,数据转换等核心技术问题


5、运行原理

(1)运行原理


3.png


Job:单个作业的管理节点,负责数据清洗,子任务划分,TaskGroup监控管理


**Task:**由Job切分而来,是DataX作业的最小单元,每个Task负责一部分数据的同步工作


Schedule(计划表):将Task组成TaskGroup,单个TaskGroup的并发量为5


**TaskGroup:**负责启动Task


(2)举例:


用户提交了一个DataX作业,并且配置20个并发,目的是将一个100张分表的mysql数据同步到ods里面。


DataX的调度决策思路是:


DataX的Job根据分库分表切分成100个Task。


根据20个并发,DataX计算共需要分配4个TaskGroup


4个TaskGroup平分切分好的100个Task,每一个TaskGroup负责以5个并发共计运行25个Task.


6、当前现状

DataX在阿里巴巴集团内被广泛使用,承担了所有大数据的离线同步业务,并已持续稳定运行了6年之久。目前每天完成同步8w多道作业,每日传输数据量超过300TB。


7、DataX与Sqoop的对比

 Sqoop(发音:skup)是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql、postgresql...)间进行数据的传递,可以将一个[关系型数据库](https://baike.baidu.com/item/关系型数据库/8999831)(例如 : MySQL ,Oracle ,Postgres等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。

4.png


二、DataX

1、官方地址

下载地址:http://datax-opensource.oss-cn-hangzhou.aliyuncs.com


源码地址:https://github.com/alibaba/DataX


2、前置条件

Linux(我使用的是阿里云)


阿里云参考我的另外一篇博客:阿里云部署javaWeb项目依赖软件(jdk、tomcat、Mariadb数据库)的安装_程序员小王的博客-CSDN博客


JDK(1.8 以上,推荐 1.8)


5.png


Python(使用的是 Python2.7.5X)


6.png


4、datax-web(项目地址:https://github.com/WeiYe-Jing/datax-web


3、安装部署DataX

(1)访问官网下载安装包


http://datax-opensource.oss-cn-hangzhou.aliyuncs.com/datax.tar.gz


(2)使用filezilla上传安装包到服务器(阿里云)datax节点

7.png

8.png



(3)解压安装包


  • 将安装到/root/datax/路径下
tar -zxvf datax.tar.gz

安装成功后

9.png


(4)运行自检脚本测试(需要在bin下启动)

python datax.py /root/datax/datax/job/job.json


10.png

11.png


三、DataX实战案例之从 stream 流读取数据并打印到控制台

(1)查看配置模板

python datax.py -r streamreader -w streamwriter
[root@iZbp1bq6vb70qo4o5mrxdzZ bin]# python datax.py -r streamreader -w streamwriter
DataX (DATAX-OPENSOURCE-3.0), From Alibaba !
Copyright (C) 2010-2017, Alibaba Group. All Rights Reserved.
Please refer to the streamreader document:
     https://github.com/alibaba/DataX/blob/master/streamreader/doc/streamreader.md 
Please refer to the streamwriter document:
     https://github.com/alibaba/DataX/blob/master/streamwriter/doc/streamwriter.md 
Please save the following configuration as a json file and  use
     python {DATAX_HOME}/bin/datax.py {JSON_FILE_NAME}.json 
to run the job.
{
    "job": {
        "content": [
            {
                "reader": {
                    "name": "streamreader", 
                    "parameter": {
                        "column": [], 
                        "sliceRecordCount": ""
                    }
                }, 
                "writer": {
                    "name": "streamwriter", 
                    "parameter": {
                        "encoding": "", 
                        "print": true
                    }
                }
            }
        ], 
        "setting": {
            "speed": {
                "channel": ""
            }
        }
    }
}


(2)根据模板编写配置文件


record:  出错记录数超过record设置的条数时,任务标记为失败.


percentage: 当出错记录数超过percentage百分数时,任务标记为失败.


channel表示任务并发数。


bytes表示每秒字节数,默认为0(不限速)。


-在job目录下创建文件:
vim stream2stream.json

12.png


运行


-在datax执行命令:
[root@iZbp1bq6vb70qo4o5mrxdzZ datax]# python bin/datax.py job/stream2stream.json

13.png


(3)观察控制台输出结果

14.png

10      hello,你好,世界-DataX,我是王恒杰!
10      hello,你好,世界-DataX,我是王恒杰!
10      hello,你好,世界-DataX,我是王恒杰!
10      hello,你好,世界-DataX,我是王恒杰!
10      hello,你好,世界-DataX,我是王恒杰!
10      hello,你好,世界-DataX,我是王恒杰!
10      hello,你好,世界-DataX,我是王恒杰!
10      hello,你好,世界-DataX,我是王恒杰!
10      hello,你好,世界-DataX,我是王恒杰!
10      hello,你好,世界-DataX,我是王恒杰!
10      hello,你好,世界-DataX,我是王恒杰!
10      hello,你好,世界-DataX,我是王恒杰!
10      hello,你好,世界-DataX,我是王恒杰!
10      hello,你好,世界-DataX,我是王恒杰!
10      hello,你好,世界-DataX,我是王恒杰!
10      hello,你好,世界-DataX,我是王恒杰!


四、最后的话

 因为DataX内容较多,预计将分五部份完成DataX博客的专栏,分别是

【1】异构数据源离线同步工具之DataX的安装部署


【2】异构数据源离线同步工具之DataX的可视化工具DataX-Web


【3】读取 MySQL 中的数据Oracle 数据库


【4】读取 Oracle中的数据Mysql数据库


【5】读取 Oracle中的数据DB2数据库


【6】读取DB2中的数据Mysql数据库


相关文章
|
22小时前
|
Java 数据处理 调度
Dataphin常见问题之离线管道同步数据datax就报连接超时如何解决
Dataphin是阿里云提供的一站式数据处理服务,旨在帮助企业构建一体化的智能数据处理平台。Dataphin整合了数据建模、数据处理、数据开发、数据服务等多个功能,支持企业更高效地进行数据治理和分析。
|
22小时前
|
DataWorks 安全 关系型数据库
DataWorks常见问题之使用公共数据集成资源组进行同步失败如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
|
23小时前
|
SQL 分布式计算 Oracle
数据同步工具DataX的安装
数据同步工具DataX的安装
492 0
|
23小时前
|
SQL DataWorks 关系型数据库
DataWorks数据源问题之数据集成报错如何解决
DataWorks数据源是指DataWorks中配置的用于数据集成的外部数据源;本合集将讲解如何在DataWorks中配置和管理数据源,以及处理数据源连接和集成过程中的问题。
42 4
|
23小时前
|
SQL DataWorks NoSQL
DataWorks数据源问题之数据集成任务报错如何解决
DataWorks数据源是指DataWorks中配置的用于数据集成的外部数据源;本合集将讲解如何在DataWorks中配置和管理数据源,以及处理数据源连接和集成过程中的问题。
40 5
|
22小时前
|
数据采集 分布式计算 DataWorks
DataWorks产品使用合集之DataWorks 数据集成中的数据源管理和管理空间的数据源之间的关系是怎样的
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
28 0
|
22小时前
|
分布式计算 DataWorks 数据库
DataWorks操作报错合集之DataWorks使用数据集成整库全增量同步oceanbase数据到odps的时候,遇到报错,该怎么处理
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
25 0
|
22小时前
|
DataWorks 安全 关系型数据库
DataWorks产品使用合集之在 DataWorks 中使用数据集成从 MySQL 导入数据到 GDB 执行同步任务脚本的步骤如何解决
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
24 0
|
22小时前
|
分布式计算 DataWorks 关系型数据库
DataWorks产品使用合集之在使用 DataWorks 数据集成同步 PostgreSQL 数据库中的 Geometry 类型数据如何解决
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
26 0
|
22小时前
|
分布式计算 DataWorks 安全
DataWorks产品使用合集之DataWorks 数据集成在同步任务中实现数据转换如何解决
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
24 1