DataWorks有没有例子,聚合clickhouse中的数据,然后把结果写到mysql中的入门文档?
一键实时同步至AnalyticDB MySQL 3.0
一键实时同步至AnalyticDB MySQL 3.0方案支持全增量一体化同步,先进行全量数据迁移,然后再实时同步增量数据至目标端。本文为您介绍如何创建一键实时同步至AnalyticDB MySQL 3.0任务。
前提条件
已完成数据源配置。您需要在数据集成同步任务配置前,配置好您需要同步的源端和目标端数据库,以便在同步任务配置过程中,可通过选择数据源名称来控制同步任务的读取和写入数据库。同步任务支持的数据源及其配置详情请参见支持的数据源与读写能力。
说明
数据源相关能力介绍详情请参见:数据源概述。
已完成数据源环境准备。您可以基于您需要进行的同步配置,在同步任务执行前,授予数据源配置的账号在数据库进行相应操作的权限。详情请参见:数据库环境准备概述。
操作流程
步骤一:选择同步方案
步骤二:配置网络连通
步骤三:设置同步来源与规则
步骤四:设置目标表
步骤五:DDL消息处理规则
步骤六:运行资源设置
步骤七:执行同步任务
DataWorks提供了丰富的数据集成功能,支持多种数据源之间的数据同步和转换。对于您的需求,您可以使用DataWorks的“数据同步”功能将ClickHouse中的数据聚合后写入到MySQL数据库中。
以下是一个简单的入门示例:
先在dw绑定clickhouse引擎 然后用clickhouse sql处理数据写入tmp表 最后通过离线同步任务 将ck的tmp表同步到mysql中
绑定clickhouse引擎:https://help.aliyun.com/zh/dataworks/user-guide/associate-a-clickhouse-compute-engine-with-a-workspace?spm=a2c4g.11186623.0.i2
同步任务配置:https://help.aliyun.com/zh/dataworks/user-guide/supported-data-source-types-and-read-and-write-operations ,此回答整理自钉群“DataWorks交流群(答疑@机器人)”
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。