ODPS到ODPS数据迁移指南

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 1. 工具选择与方案确定 目前,有两种方式可用于专有云环境下的从MaxCompute到MaxCompute整体数据迁移。 (1)使用DataX工具进行迁移,迁移所需的作业配置文件及运行脚本,可用DataX批量配置工具来生成; .

1. 工具选择与方案确定

目前,有两种方式可用于专有云环境下的从MaxCompute到MaxCompute整体数据迁移。

(1)使用DataX工具进行迁移,迁移所需的作业配置文件及运行脚本,可用DataX批量配置工具来生成;

(2)通过大数据开发套件(DataIDE)- 数据开发进行迁移,这种方式可选择界面向导模式逐步配置,操作简单容易上手;

2. 具体实施

2.1 使用DataX工具

 这种场景需要先从源MaxCompute中导出元数据DDL,在目标MaxCompute中初始化表,然后借助DataX工具完成数据迁移,步骤如下:

2.1.1 DataX工具简介

本步骤利用DataX工具进行数据迁移,DataX 是阿里巴巴集团内被广泛使用的离线数据同步工具/平台,实现包括 MySQL、Oracle、SqlServer、Postgre、HDFS、Hive、ADS、HBase、OTS、ODPS 等各种异构数据源之间高效的数据同步功能。DataX工具对于系统环境要求如下:

·          LinuxWindows

·          JDK(1.8)

·          Python(推荐Python2.6.X)

·          Apache Maven 3.x Compile DataX

2.1.2 工具下载及环境部署

1DataX工具下载及部署

因为专有域的ODPS处于专有域经典网络中,即IP为阿里云的私有IP,与专有云的网络不通,所以需要在专有域的ECS部署datax。

下载DataX工具包,下载后解压至本地某个目录,修改权限为755,进入bin目录,即可运行样例同步作业:

$ tar zxvf datax.tar.gz

$ sudo chmod -R 755 {YOUR_DATAX_HOME}

$ cd  {YOUR_DATAX_HOME}/bin

$ python datax.py ../job/job.json

2)安装配置ODPS客户端

客户端下载解压后,其配置文件位于config/odps_config.ini,配置项如下:

project_name=

access_id=<accessid>

access_key=<accesskey>

end_point=http://service.odps.aliyun.com/api


2.1.3 表结构迁移

本部分操作,可通过调用ODPS的SQL来完成。具体可编写程序,调用ODPS SDK或ODPS cmd工具来进⾏。

对预迁移的表,在源ODPS中获取表结构,根据表结构,在目标ODPS中批量运行组装好的建表语句,即可完成。

2.1.3.1      要迁移的表名梳理

1.根据1.2中调研结果,梳理出表名列表;

2.此步骤,也可使用show tables语句获取表名,然后将临时表等不需要迁移的表名去除;

2.1.3.2      生成DDL建表(分区)语句

此步骤操作,在ODPS源端进行,可使用ODPS CMD工具。其配置文件位于config/odps_config.ini,配置项如下:

project_name=

access_id=<accessid>

access_key=<accesskey>

end_point=http://service.odps.aliyun.com/api

*这里注意,专有云环境下的end_point需要联系专有云管理人员获取。

在专有云环境下,可以在Bash环境中,执行如下示例语句,批量导出建表语句。请根据实际情况改写shell语句,例如读取表名列表文件等。这里的odps_config.ini.src是源端ODPS的配置文件。

for table in tab1 tab2 tab3

do

odpscmd --config=odps_config.ini.src -e "export table $table "|awk -F ':' '{print $2}' >>tab.ddl

done


2.1.3.1      建立对应表(分区)

在目标端的DataIDE界面依次执行建表语句,生成迁移所需要的表。

2.1.4 数据迁移

2.1.4.1  作业配置示例

1)创建作业的配置文件(json格式)

可以通过命令查看配置模板: python datax.py -r {YOUR_READER} -w {YOUR_WRITER},并根据json样例填空完成配置即可。

以odps2odps.json样例:python datax.py -r odpsreader -w odpswriter,(填写相关参数,odpsServer/ tunnelServer要改成源/目标ODPS配置):

 

{

    "job": {

        "setting": {

            "speed": {

                "channel": 1

            }

        },

        "content": [

            {

                "reader": {

                    "name": "odpsreader",

                    "parameter": {

                        "accessId": "${srcAccessId}",

                        "accessKey": "${srcAccessKey}",

                        "project": "${srcProject}",

                        "table": "${srcTable}",

                        "partition": ["pt=${srcPartition}"],

                        "column": [

                            "*"

                        ],

                        "odpsServer": " http://service.odps.aliyun.com/api ",

                        "tunnelServer": "http://tunnel.odps.aliyun-inc.com"

                    }

                },

                "writer": {

                    "name": "odpswriter",

                    "parameter": {

                        "accessId": "${dstAccessId}",

                        "accessKey": "${dstAccessKey}",

                        "project": "${dstProject}",

                        "table": "${dstTable}",

                        "partition": "pt",

                        "column": [

                            "*"

                        ],

                        "odpsServer": " http://service.odps.aliyun.com/api ",

                        "tunnelServer": "http://tunnel.odps.aliyun-inc.com"

                    }

                }

            }

        ]

    }

}

2)运行DataX任务

$ cd {YOUR_DATAX_DIR_BIN}

$ python datax.py ./odps2odps.json

同步结束,显示日志如下:

...

2017-05-10 11:20:09.871 [job-0] INFO  JobContainer -

任务启动时刻                    : 2017-05-10 11:19:35

任务结束时刻                    : 2017-05-10 11:20:09

任务总计耗时                    :                 34s

任务平均流量                    :          571.50KB/s

记录写入速度                    :          18287rec/s

读出记录总数                    :              548639

读写失败总数                    :                   0

运行后,可在终端查看运行信息。建议真正跑任务时,可使用DataX批量工具的方式运行。具体如下:

2.1.4.1     DataX批量工具使用方法

1)功能

该工具可以自动获取源表和目标表的属性及分区信息,自动生成源表所有分区的json文件,并生成批量串行脚本和批量检测脚本。方便大家的数据迁移。

注:具体脚本详见附件datax_tools内。

2)操作过程

l  mkdir ./json ./log ./temp

l  config.ini中配置好源ODPS和目标ODPS相关的accessIDaccessKEYprojectODPS server等相关信息;

l  config.ini中配置好datax.pyodmscmd的路径;

l  tables.ini中配置好需要迁移的表名;

l  运行python datax_tools.py,生成运行脚本;

l  运行run_datax.sh,批量顺序执行迁移任务;

l  运行check_datax.sh,进行源表和目标表的条数校验;

3)详细说明

Ø  工具配置

l  ODPS配置与目标ODPS配置

在配置文件config.ini的reader_common和writer_common区域,reader表示源ODPS,writer表示目标ODPS。主要配置accessID、accessKey和project名。这些均可从base的用户信息获取。

l  datax的相关配置

在配置文件config.ini的datax_settings区域。

datax_speed: 控制datax实际运行时的速度上限;

reader_project_auth: datax的验证机制,可为空。如果验证失败,可以输入一个源ODPS ID具备owner权限的项目名;

reader_odps_server: 源ODPS的api url,可从cmdb查询,或找云管理员获取;

writer_odps_server: 目标ODPS的api url,可从cmdb查询,或找云管理员获取;

writer_odps_tunnel: 目标ODPS的tunnel,可从cmdb查询,或找云管理员获取;

writer_truncate: 覆盖式导入开关;

writer_accoutType: 一般默认为aliyun;

l  工具的相关配置

本批量工具的相关配置,需要注意datax.py和odpscmd的路径,其余一般不用修改。

Ø  源表和目标表添加在配置文件tables.ini

l  若源表和目标表的表名相同,则直接输入源表的表名即可,每行一个表名;

l  若源表和目标表的表名不同,则每行输入一个源表名和一个目标表名,两者之间用空格分隔;

Ø  生成脚本直接运行python datax_tools.py即可

l  运行过程中会打印运行的odpscmd语句及相关运行信息,该语句可能会有延迟或失败;

l  运行的所有过程会记录在./log/info.log中;

l  脚本运行完毕会打印所有获取信息失败的表名;

l  所有获取信息成功的表,会生成相关的json文件,存储在./json中;

l  生成run_datax.sh脚本,用于实际进行datax任务;

l  生成check_datax.sh脚本,用于运行完任务后进行校验;

Ø  批量运行datax任务运行run_datax.sh的脚本,批量顺序执行datax任务

l  相关日志存储在./log/表名.log中;

l  若想并行运行程序,可修改run_datax.sh中的语句,改为后台运行;

l  批量检测;

l  data_x的所有任务完成后,运行check_datax.sh的脚本,会生成所有源表和目标表所有的条数;

l  为减少对ODPS的请求次数,脚本会一次请求该ODPS(源表,目标表)所有迁移表的条数;

l  结果会存储在./log/check_src.log, ./log/check_dst.log两个日志中;

l  可用vimdiff来比较两个日志,查看具体哪个表条数不同。

2.2 通过Base中的CDP同步数据

2.2.1 CDP简介

CDP是阿里集团对外提供的稳定高效、弹性伸缩的数据同步平台,为阿里云大数据计算引擎(包括 MaxCompute、AnalyticDB 等)提供离线(批量)的数据进出通道 。

2.2.2 数据源配置


在目的云账号的MaxCompute项目空间的数据集成中添加数据源,该数据源为另一个云账号的MaxCompute项目空间。

8c42fc9b0152cb652e88bd7c3e76a3e675ab8716

在新增数据源弹出框中填写相关配置项,并测试连通性。若测试连通性成功,则点击保存按钮完成配置信息保存。

2.2.3 作业配置示例

Ø  新建同步任务

1. 在“数据集成”界面,点击左侧导航栏 同步任务;


2. 点击界面中的“向导模式”,即可进入任务配置页面 。

fdb9f6a4bc6b868732ce599ee9e5b2599614e6c4

Ø  配置数据同步任务

同步任务节点包括“选择来源”、“选择目标”、“字段映射”、“通道控制”四大配置项 。

1. 选择来源


选择数据源(数据源为“新建数据源”中已经建立好的数据源)后并且选择数据表。

fea5a9e2c2fa6ff412ad06260fbcd9c29ac75ac4

2. 选择目标


点击“快速建表”可将源头表的建表语句转化为符合 MaxCompute SQL 语法规范的 DDL 语句新建目标表 。选择后点击“下一步”。

fd83c9a2f4f154c0f5c3c9e383de9a5bc7da58c0

l  分区信息:分区是为了便于查询部分数据引入的特殊列,指定分区便于快速定位到需要的数据。支持常量和变量

l  清理规则:

1)写入前清理已有数据:导数据之前,清空表或者分区的所有数据,相当于 insert overwrite 。

2)写入前保留已有数据:导数据之前不清理任何数据,每次运行数据都是追加进去的,相当于 insert into 。


在参数配置中为参数赋值,如下图所示:

959ef21b1b470a43df6f7ee9c61b9ddd727e5312


3. 映射字段


需对字段映射关系进行配置,左侧“源头表字段”和右侧“目标表字段”为一一对应的关系。

044abe5cf69c226b1aa317c0970c4bd62b6efd6d

增加/删除,点击”添加一行”可单个增加字段。鼠标 Hover 上每一行,点击删除图标可以删除当前字段。

4. 通道控制


通道控制用来配置作业速率上限和脏数据检查规则,如下图所示:

b38858e43a7cb0d15da5499ef7cf7617e45acb58

l  作业速率上限,即配置当前数据同步最大上限并不是实际的流量,速度上线越大资源占用也会越多,每个项目资源是有限的,能否一定达到上限速度也和您的数据源能力相关,向导模式配置的作业速率上限为10MB/S,脚本模式可以设置更大的作业速率。

l  当错误记录数(即脏数据数量)超过所配置的个数时,该数据同步任务结束

5. 预览保存

完成以上配置后,点击“下一步”即可预览,如若无误,点击“保存”,如下图所示:

0f5ccbb1690d728b16f948e2358a84ceae4b48f0


备注:如果您想切换为脚本模式,点击工具栏中的转换脚本即可

Ø  提交数据同步任务,并测试工作流

1. 点击顶部菜单栏提交

2. 提交成功后点击测试运行

3. 查看同步数据 。

2.2.4 配置批量数据同步任务

通过创建工作流的方式,将多个数据同步任务放入同一工作流执行,即可实现数据表的批量迁移。具体操作步骤如下:

537abf5ac2ab3d3d8d757c9a0e53b159cc54bbd9

2.2.4.1  创建工作流

步骤1:以开发者身份进入阿里云数加平台>大数据开发套件>管理控制台,点击对应项目操作栏中的进入工作区。

步骤2:创建工作流文件目录。

步骤3:目录文件夹上点击右键新建任务>工作流任务,或右边工作区点击新建任务>工作流任务。


步骤4:在新建工作流弹出框中填写各配置项。


d71cd865000893db4845fbb4b2c810074cb0e0e0

步骤5:点击创建。

步骤6:点击右侧导航栏的调度配置进行配置。

2.2.4.1     配置数据同步任务

原始数据在MaxCompute中,需要先在目的云账号的MaxCompute项目空间的项目管理中添加数据源,该数据源为另一个云账号的MaxCompute项目空间。这一步我们已在3.2.1中完成。接下来我们可以开始创建数据导入任务。具体操作如下:

步骤1:在上一步创建的工作流设计器的节点组件中向画布拖拽一个虚节点组件,作为开始节点;


步骤2:在工作流设计器的节点组件中向画布拖拽一个数据同步节点组件,进行创建;

e33788bb32309f0782ea83236eb527be66a2cbda

步骤3:双击该节点或右键查看节点内容进入任务配置界面。具体操作同2.2.3作业配置示例;

步骤4:配置节点依赖,节点依赖关系如上图所示;

步骤5:点击“保存”、“提交”,然后就可以进行测试运行,可以通过执行日志监控执行成功与否。

2.3优势与限制

2.3.1优势与特点

Ø  使用DataX工具

(1)  DataX通过配置文件做源和目标的映射非常灵活;

(2)  可以通过DataX批量配置工具生成批量迁移所需要的脚本和作业配置文件。

Ø  通过大数据开发套件(DataIDE-数据开发做数据同步

(1)  这种方式可以通过选择界面向导逐步配置,操作简单容易上手,学习成本低;

(2)  对于目标端不存在的表可以使用向导模式提供的快速建表功能新建目标表;

(3)  脚本模式可以提供更丰富灵活的能力,做精细化的配置管理,适合高级用户,学习成本较高。

2.3.2 约束与限制

Ø  使用DataX工具

1)新建专有云环境中不支持odpscmd客户端访问,无法进行批量建表,需通过大数据开发套件手动创建;

Ø  通过大数据开发套件(DataIDE-数据开发做数据同步

(1)需要确保数据源连通性,同时对数据同步的速度也有限制,最高10M/s。

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps&nbsp;
目录
相关文章
|
3月前
|
运维 DataWorks 关系型数据库
DataWorks产品使用合集之怎么进行全量数据迁移
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
5月前
|
JSON DataWorks 监控
DataWorks产品使用合集之如何实现数据迁移(从阿里云一个账号迁移到另一个账号)
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
61 1
|
6月前
|
数据采集 DataWorks 数据安全/隐私保护
有没有方式可以实现dataworks数据迁移(从阿里云一个账号迁移到另外一个账号)?
有没有方式可以实现dataworks数据迁移(从阿里云一个账号迁移到另外一个账号)?
65 2
|
6月前
|
数据采集 DataWorks 数据安全/隐私保护
有没有方式可以实现dataworks数据迁移(从阿里云一个账号迁移到另外一个账号)?
有没有方式可以实现dataworks数据迁移(从阿里云一个账号迁移到另外一个账号)?
136 0
|
数据采集 DataWorks 数据挖掘
DataWorks可以支持数据迁移的功能
DataWorks可以支持数据迁移的功能
179 1
|
分布式计算 运维 调度
ODPS到ADS数据迁移指南
数据同步节点任务是阿里云大数据平台对外提供的稳定高效、弹性伸缩的数据同步云服务。ODPS到数据迁移采用的方式同步数据。 1.     创建源和目标库表结构 初次在同步数据前需要在源库和目标库创建好相应的表结构。
9378 0
|
分布式计算 关系型数据库 分布式数据库
DRDS到ODPS数据迁移指南
数据同步节点任务是阿里云大数据平台对外提供的稳定高效、弹性伸缩的数据同步云服务。DRDS到ODPS数据迁移采用CDP的方式同步数据。 开始DRDS到ODPS数据迁移 1.     创建源和目标库表结构 初次在同步数据前需要在源库和目标库创建好相应的表结构。
6836 0
|
JSON 分布式计算 MaxCompute
ODPS数据迁移指南
1. 背景调研 1.1 ODPS源与目的集群 调研项 内容 ODPS源集群版本 ODPS目的集群版本 ODPS源与目的是否在一个集群/可使用相同账号 ODPS源集群AccessKeyId ODPS源集群AccessKeySecret ODPS目的集群AccessKeyId ODPS目的集群AccessKeyIdSecret 1.2 预迁移数据统计 所属Project 表名 大小 是否要迁移增量 Project1 Table1 Desc查看表大小 2. 工具选择与方案确定 目前有四种方式可用于ODPS的数据迁移。
15129 0
|
3月前
|
DataWorks Kubernetes 大数据
飞天大数据平台产品问题之DataWorks提供的商业化服务如何解决
飞天大数据平台产品问题之DataWorks提供的商业化服务如何解决
|
3月前
|
SQL DataWorks 安全
DataWorks产品使用合集之如何实现分钟级调度
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。

热门文章

最新文章

  • 1
    DataWorks操作报错合集之DataWorks任务异常 报错: GET_GROUP_SLOT_EXCEPTION 该怎么处理
    97
  • 2
    DataWorks操作报错合集之DataWorksUDF 报错:evaluate for user defined function xxx cannot be loaded from any resources,该怎么处理
    101
  • 3
    DataWorks操作报错合集之在DataWorks中,任务流在调度时间到达时停止运行,是什么原因导致的
    104
  • 4
    DataWorks操作报错合集之DataWorks ODPS数据同步后,timesramp遇到时区问题,解决方法是什么
    86
  • 5
    DataWorks操作报错合集之DataWorks配置参数在开发环境进行调度,参数解析不出来,收到了 "Table does not exist" 的错误,该怎么处理
    84
  • 6
    DataWorks操作报错合集之DataWorks中udf开发完后,本地和在MaxCompute的工作区可以执行函数查询,但是在datawork里报错FAILED: ODPS-0130071:[2,5],是什么原因
    94
  • 7
    DataWorks操作报错合集之DataWorks提交失败: 提交节点的源码内容到TSP(代码库)失败:"skynet_packageid is null,该怎么解决
    106
  • 8
    DataWorks操作报错合集之DataWorks在同步mysql时报错Code:[Framework-02],mysql里面有个json类型字段,是什么原因导致的
    141
  • 9
    DataWorks操作报错合集之DataWorks集成实例绑定到同一个vpc下面,也添加了RDS的IP白名单报错:数据源配置有误,请检查,该怎么处理
    83
  • 10
    DataWorks操作报错合集之在 DataWorks 中运行了一个 Hologres 表的任务并完成了执行,但是在 Hologres 表中没有看到数据,该怎么解决
    108