离线同步至 MaxCompute 最佳实践 | 学习笔记

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
RDS MySQL Serverless 高可用系列,价值2615元额度,1个月
简介: 快速学习离线同步至 MaxCompute 最佳实践

开发者学堂课程【全链路数据治理-全域数据集成离线同步至 MaxCompute 最佳实践学习笔记,与课程紧密连接,让用户快速学习知识。

课程地址https://developer.aliyun.com/learning/course/1082/detail/16062


离线同步至MaxCompute最佳实践


离线同步至MaxCompute最佳实践

接下来我们会通过三个不同场景的最佳实践来跟大家简单介绍一下,如何通过比如说数据集成完成数据同步相关的工作。

首先给大家带来的场景是离线同步到MaxCompute,这也是我们平时使用相对较多的一个场景,我们这个最佳实践会以MYSQL作为例子进行离线同步写入到我们的数据仓库MaxCompute首先给大家介绍一下MaxCompute,它是阿里云自研的SaaS模式的云数据仓库,具备强大的离线数据分析处理能力,数据集成支持将不同源端数据离线同步到MaxCompute,然后方便大家进行后续的这个大数据相关的处理工作

本篇文章是以MYSQL单表周期第一线同步到MaxCompute为场景,也是我们平常用到最多的场景来跟大家做一个介绍,首先从使用限制上,那为了保证这个同步的稳定,对于生产级别任务,建议大家使用data verse独享的数据集成资源组,接下来分别几步做步骤的介绍,首先我们在准备工作里需要添加原端和目标端的数据源,那我们可以新建一个MYSQL的数据源,可以支持阿里云的实力模式和连接串的两种模式阿里云的实模式是适合阿里云ids或MySQL;连接串模式适用于一些自建或者公网本地机房的MySQL。我们这个操作以ids,就是以云上ids或MySQL为例,首先新数据源,可以把相关的信息填进去,然后需要它跟我们数据集成独享资源度的联通性进行一个测试,确保数据源是一个可联通的状态如果没有联通,大家可以参考第三天的网络联通性的介绍。新建完MySQL数据源之后,我们可以新建MaxCompute的数据源,在data verse中绑定MaxCompute引擎之后,系统会默认建立一个odps first的默认数据源,那一般来说可以直接使用这个数据源

完成两个数据源的添加之后,接下来配置同步任务,在data verse 的data studio页面当中选中新建业务流程,然后来创建离线同步节点,选择新建离线同步节点,那这样就能够创建我们一个离线同步的节点创建完节点之后,可以设置数据源的来源类型,比如说名称、表、过滤规则等等都可以通过这种界面化的方式来做这个输入。设置数据的去向的话,可以设置数据源的类型,比如说我们刚才提到创建的MaxCompute这个数据源,那我们在目标表上也支持从下拉列表中选择,也支持使用一键生成目标表,可以基于原表的sigma直接新建目标表

我们通过这个渐变化的方式,可以针对数据集成各种各样不同的任务的配置进行这种界面化的方式,接下来会有一些配置任务的参考,不管是参数的映射配置,以及通道的配置,在通道上去控制我们的同步速率,以及一些最大任务的并发数,这些都是可以在这个任务详细的列表当中进行不同的配置,然后具体针对于某一个点,大家可以参考文档,然后进行具体的规则设置。

接下来下一步就是配置数据集成的资源组,包括我们之前购买的独享数据集资源组,其实都可以在这个步骤进行配置。配置完资源组之后,直接进行调度的配置,因为是离线版,大家可以按照不同的周期策略,以及一些比如说失败重跑的策略来配置这个调度的属性。刚才这几步配置完之后,基本上我们的任务就已经配置完成了,可以直接在data studio当中直接提交我们的任务,当任务配置完成之后,此时可以依次点击保存和提交按钮,将我们的同步任务发布到生产环境当中进行运行。第二块是我们编辑发布之后,后面会有一个版本管理的功能,它可以进行查看、对比以及回滚等操作,因为是周期性离线的同步,我们可以针对这些任务进行运维,在我们dataverse运维中心工作流当中可以实现一些运维相关的操作,比如说暂停、恢复、补数据,查看日志等等,这些所有的功能,大家可以查看我们详细的文档,或者说直接在data verse当中的运维中心进行操作,这里就不再做详细的介绍

相关实践学习
简单用户画像分析
本场景主要介绍基于海量日志数据进行简单用户画像分析为背景,如何通过使用DataWorks完成数据采集 、加工数据、配置数据质量监控和数据可视化展现等任务。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
2月前
|
存储 JSON 大数据
大数据离线数仓---金融审批数仓
大数据离线数仓---金融审批数仓
165 1
|
4月前
|
分布式计算 DataWorks MaxCompute
DataWorks中odps到容器部署starrocks的单表同步遇到写入问题
【1月更文挑战第6天】【1月更文挑战第29篇】DataWorks中odps到容器部署starrocks的单表同步遇到写入问题
46 3
|
5月前
|
SQL 分布式计算 大数据
Python+大数据学习笔记(一)
Python+大数据学习笔记(一)
45 0
|
15天前
|
分布式计算 DataWorks 大数据
MaxCompute产品使用合集之大数据计算MaxCompute如何实现通过离线同步脚本模式
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
3月前
|
DataWorks 关系型数据库 对象存储
dataworks数据集问题之同步任务如何解决
DataWorks数据集是指在阿里云DataWorks平台内创建、管理的数据集合;本合集将介绍DataWorks数据集的创建和使用方法,以及常见的配置问题和解决方法。
47 4
|
4月前
|
数据挖掘
离线大数据分析的应用
离线大数据分析的应用
|
14天前
|
分布式计算 DataWorks 数据库
DataWorks操作报错合集之DataWorks使用数据集成整库全增量同步oceanbase数据到odps的时候,遇到报错,该怎么处理
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
25 0
|
15天前
|
分布式计算 DataWorks 安全
DataWorks产品使用合集之在DataWorks中,从Elasticsearch同步数据到ODPS时同步_id字段的如何解决
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
25 0
|
15天前
|
分布式计算 DataWorks Java
DataWorks操作报错合集之dataworks 同步es数据到maxcompute 遇到报错:获取表列信息失败如何解决
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
23 0
|
15天前
|
存储 运维 监控

热门文章

最新文章