实时同步/实时ETL
实时同步功能可以支持多种实时数据源(Kafka、MySQL Binlog,Oracle CDC等),可以将实时消息数据经过一些列处理后再写入目的数据源。即具备实时ETL能力,非常适用于对于数据同步实时性要求比较高的客户,完成批同步做不到的场景,可以实现源端数据库一但变动即时就能在目的端数据库反映出来,以及实现数据库的增量数据捕获,对数据库的干扰几乎为零。
【特点】:
• 支持常见实时数据源Kafka、MySQL Binlog,Oracle CDC、Datahub、Loghub
• 具备完备的ETL能力, 包括拉取(Extract)、转换(Transform)、装载(Load)
• 对原始数据库的干扰几乎为零
• 一路输入多路输出,可以同时写入多个目的端
批同步ETL
在此前DataWorks数据集成强大EL(Extract-Load)能力基础之上,增加了数据处理能力(Transform),实现了完整了ETL链路。以往用户对源表的数据落地目标表时有数据处理的需求时,只能先将数据拉取到一个临时表里(通常是MaxCompute表),然后再写SQL进行加工处理,将结果再次输入到目标表中,如果目标表不是MaxCompute表,还要再进行一次数据集成同步,将数据写入其他数据源,整个链路非常冗长不便,而且造成计算和存储资源浪费。现在使用ETL模式,省去了中间这些繁琐步骤和额外开销,在数据同步过程中即可完成数据处理,直接落地到目的数据源。
【特点】
• 支持现在的数据集成所有数据源,共计60+种。
• 完美兼容现在已有的任务,可以在已有任务上直接开启数据处理功能,原有调度和流程不变。
• 数据处理使用DAG图形拖拽方式进行开发,流程清晰,可读性极强。
• 具备丰富的数据处理组件,通过组合可以覆盖绝大多数数据变换和处理场景。
如果您对以上功能感兴趣,请加入DataWorks新功能测试群查看群公告
钉钉群号:30002661
或直接使用钉钉扫描下方二维码加入