开源共建 | Dinky 扩展批流统一数据集成框架 ChunJun 的实践分享

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,集群版 2核4GB 100GB
推荐场景:
搭建个人博客
简介: Dinky 扩展批流统一数据集成框架 ChunJun 的实践分享

一、前言

ChunJun(原 FlinkX)是一个基于 Flink 提供易用、稳定、高效的批流统一的数据集成工具,既可以采集静态的数据,比如 MySQL,HDFS 等,也可以采集实时变化的数据,比如 binlog,Kafka 等。同时 ChunJun 也是一个支持原生 FlinkSql 所有语法和特性的计算框架。

ChunJun 具有丰富的插件种类,多达 40 种,如常见的 mysql、binlog、logminer 等,大部分插件都支持 source/reader、sink/writer 及维表功能。目前很多用户在思考能否在 Dinky 上使用 ChunJun 的插件以提供更全面的能力。那本文将带来如何在 Dinky 上集成 ChunJun 丰富的插件,其实简单,那我们开始吧。

二、部署 Flink+ChunJun

编译

注意,如果需要集成 Dinky,需要将 ChunJun 项目下的 chunjun-core 的 pom 文件中的 logback-classic 和 logback-core 注释掉,否则容易在 Dinky 执行 sql 任务的时候报错。

网络异常,图片无法展示
|
然后执行:

网络异常,图片无法展示
|

部署

使用 ChunJun 需要先部署 Flink 集群,其部署本文不再做指导。

值得注意的是,如果你需要调用 Flinkx 的 connect jar 的话,则需要将 classloader.resolve-order 改成 parent-first。修改完成配置以后,把 Flinkx 的 jar 包复制过来,主要是 chunjun-clients-master.jar(Flinkx 现在改名 ChunJun )以及 chunjun 的其它 connector 放到 flink/lib 目录下,如图所示。

网络异常,图片无法展示
|

异常处理

如果启动集群时出现异常,即 Flink standalone 集群加载 flinkx-dist 里 jar 包之后,集群无法启动,日志报错:Exception in thread "main" java.lang.NoSuchFieldError: EMPTY_BYTE_ARRAY.

Exception in thread"main"java.lang.NoSuchFieldError:EMPTY_BYTE_ARRAY
      at org.apache.logging.log4j.core.config.ConfigurationSource.<clinit>(ConfigurationSource.java:56)
      at org.apache.logging.log4j.core.config.NullConfiguration.<init>(NullConfiguration.java:32)
      at org.apache.logging.log4j.core.LoggerContext.<clinit>(LoggerContext.java:85)
      at java.lang.Class.forName0(Native Method)
      at java.lang.Class.forName(Class.java:264)
      at org.apache.log4j.LogManager.<clinit>(LogManager.java:72)
      at org.slf4j.impl.Log4jLoggerFactory.getLogger(Log4jLoggerFactory.java:73)
      at org.slf4j.LoggerFactory.getLogger(LoggerFactory.java:285)
      at org.slf4j.LoggerFactory.getLogger(LoggerFactory.java:305)
      at org.apache.flink.runtime.entrypoint.ClusterEntrypoint.<clinit>(ClusterEntrypoint.java:107)

原因:这个报错是因为 log4j 版本不统一导致的,因为 flinkx-dist 中部分插件引用的还是旧版本的 log4j 依赖,导致集群启动过程中,出现了类冲突问题;

方案:临时方案是将 flink lib 中 log4j 相关的 jar 包名字前加上字符 ‘a‘,使得 flink standalone jvm 优先加载。

网络异常,图片无法展示
|

三、部署 Dinky

编译

网络异常,图片无法展示
|
编译完成后的压缩包在 Dinky 根目录下的 build 文件夹下。

部署

1、上传 dlink 压缩包到部署服务器

2、解压

网络异常,图片无法展示
|
3、数据库初始化

4、把 flink 的 jar 放到 dlink 目录下

网络异常,图片无法展示
|

切换 Dinky 的 Flink 版本

因为目前 flinkx 的稳定版本是 1.12.7,所以我们把 dlink 默认的 client 版本修改为 1.12

网络异常,图片无法展示
|
lib 下的目录如图:

网络异常,图片无法展示
|
注意:因为我没有用上 dlink-connector-jdbc 的 jar 包,所以图中的 dlink-connector-jdbc-1.13-0.6.4-SNAPSHOT.jar 没有换成 1.12 版本的,可以去掉。

启动

启动命令

网络异常,图片无法展示
|

注册集群实例

在集群实例中注册已经启动的 Flink 集群。

网络异常,图片无法展示
|

四、示例分享

添加依赖

这里演示 mysql->mysql 的同步作业,所以需要 Flinkx 的 mysql-connector.jar 以及核心 jar。

网络异常,图片无法展示
|

编写作业

Mysql DDL:

CREATE TABLE `datasource_classify` (
`id` int unsigned NOT NULL AUTO_INCREMENT COMMENT '自增id',
`classify_code` varchar(64) NOT NULL COMMENT '类型栏唯一编码',
`sorted` int NOT NULL DEFAULT '0' COMMENT '类型栏排序字段 默认从0开始',
`classify_name` varchar(64) NOT NULL COMMENT '类型名称 包含全部和常用栏',
`is_deleted` tinyint NOT NULL DEFAULT '0' COMMENT '是否删除,1删除,0未删除',
`gmt_create` datetime DEFAULT CURRENT_TIMESTAMP,
`gmt_modified` datetime NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP,
PRIMARY KEY (`id`),
UNIQUE KEY `classify_code` (`classify_code`)
) ENGINE=InnoDB AUTO_INCREMENT=12 DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci COMMENT='数据源分类表';

Flink Sql:

CREATE TABLE source
(
  id          bigint,
  classify_code     STRING,
  sorted     int,
  classify_name   STRING,
  is_deleted    int,
  gmt_create        timestamp(9),
  gmt_modified timestamp(9),
  PRIMARY KEY (id) NOT ENFORCED
) WITH (
     'connector' = 'mysql-x',
     'url' = 'jdbc:mysql://192.168.31.101:3306/datasource?useSSL=false',
     'table-name' = 'datasource_classify',
     'username' = 'root',
     'password' = 'root'
    ,'scan.fetch-size' = '2'
    ,'scan.query-timeout' = '10'
    );
CREATE TABLE sink
(
  id          bigint,
  classify_code     STRING,
  sorted     int,
  classify_name   STRING,
  is_deleted    int,
  gmt_create        timestamp(9),
  gmt_modified timestamp(9),
  PRIMARY KEY (id) NOT ENFORCED
) WITH (
     'connector' = 'mysql-x',
     'url' = 'jdbc:mysql://192.168.31.106:3306/test?useSSL=false',
     'table-name' = 'datasource_classify',
     'username' = 'root',
     'password' = 'root'
    ,'scan.fetch-size' = '2'
    ,'scan.query-timeout' = '10'
    );
insert into sink
select *
from source u;


执行任务

网络异常,图片无法展示
|
选中 Yarn Session 模式提交作业。
网络异常,图片无法展示
|
提交后可从执行历史查看作业提交状况。
网络异常,图片无法展示
|
进程中可以看的 Flink 集群上批作业执行完成。

对比数据

源库:

网络异常,图片无法展示
|
目标库:
网络异常,图片无法展示
|
同步成功,很丝滑。

五、总结

在集成 ChunJun 的时候遇到的问题大部分都是缺包以及包冲突,所以只需要注意一下这个问题就能比较好的进行集成。

在集成服务的时候建议是,先把 Flink 和 ChunJun 进行集成,确保服务能够正常启用以后再进行 Dinky 的集成,这样有利于快速定位查找问题,如果遇到文章之外的问题,也可以查看 Dinky 官网 FAQ | Dinky (dlink.top) chunjun 的官网 QuickStart | ChunJun 纯钧 (dtstack.github.io/chunjun/),看看是否有类似问题的解决办法作为参考。

六、用户体验

因为本人目前还是处于学习使用的过程中,所以很多功能没有好好使用,待自己研究更加透彻后希望写一篇文章,优化官网的用户手册。以下的优缺点以及建议都是目前我在使用学习的过程中遇到的问题。

优点

Dinky 最吸引我的地方应该就是 sql 编辑模版了,直接快捷键生成 sql 模版,在开发测试中屡试不爽。在集成了 ChunJun (Flinkx) 以后,能够做到多源数据的离线跑批任务及日常小批量实时任务的同步。支持各种类型的任务执行方式。

缺点

ui 上适配还有点小问题,例如:打开 F12 调整宽度后,再关闭,页面 ui 不会自适应,需要刷新。

期待改进点

1、更多的自定义异常、业务异常

2、增加新的向导模式,结合数据源,通过 webUI 可以一键引入字段或者勾选需要的字段,生成 Flink Sql 的一大部分配置

CREATE TABLE 表名
(
-- 页面勾选字段,字段从元数据直接拉取
  id          bigint,
  classify_code     STRING,
  sorted     int,
  classify_name   STRING,
  is_deleted    int,
  gmt_create        timestamp(9),
  gmt_modified timestamp(9),
  PRIMARY KEY (id) NOT ENFORCED
) WITH (
-- 从选择的数据中获取
     'connector' = 'mysql-x',
     'url' = 'jdbc:mysql://192.168.31.106:3306/test?useSSL=false',
     'table-name' = 'datasource_classify',
     'username' = 'root',
     'password' = 'root'
    ,
-- 其它非主要配置有用户自己填写
    );

3、sql 历史版本管理,目前我已经提交 Feature 并被合并到 0.6.5 版本中。

想了解或咨询更多有关袋鼠云大数据产品、行业解决方案、客户案例的朋友,浏览袋鼠云官网:https://www.dtstack.com/?src=szalykfz

同时,欢迎对大数据开源项目有兴趣的同学加入「袋鼠云开源框架钉钉技术 qun」,交流最新开源技术信息,qun 号码:30537511,项目地址:https://github.com/DTStack/chunjun

目录
相关文章
|
27天前
|
运维 监控 Devops
DevOps实践:持续集成与持续部署的黄金路径
在数字化时代,快速迭代和高质量软件交付成为企业竞争的核心。本文深入探讨了DevOps文化下,持续集成(CI)与持续部署(CD)的最佳实践,旨在为读者提供一套实现高效、自动化的软件发布流程的方法论。通过分析现代软件开发的挑战,结合具体案例,本文详细阐述了如何构建一个灵活、高效的CI/CD流水线,以及如何利用监控和反馈机制不断优化这一过程。文章不仅适合运维人员阅读,同时也为软件开发者和项目经理提供了宝贵的参考。
|
21天前
|
开发框架 前端开发 JavaScript
ABP框架中短信发送处理,包括阿里云短信和普通短信商的短信发送集成
ABP框架中短信发送处理,包括阿里云短信和普通短信商的短信发送集成
ABP框架中短信发送处理,包括阿里云短信和普通短信商的短信发送集成
|
7天前
|
运维 监控 Devops
DevOps实践:持续集成与持续部署(CI/CD)的精髓
在软件工程的海洋里,DevOps如同一艘高效的船只,而持续集成(Continuous Integration, CI)和持续部署(Continuous Deployment, CD)则是推动这艘船前行的强大双桨。本文将深入探索CI/CD的核心概念,揭示其如何助力团队高效协同、提升软件质量和加速产品上市。
24 1
|
1月前
|
SQL JSON 缓存
玳数科技集成 Flink CDC 3.0 的实践
本文投稿自玳数科技工程师杨槐老师,介绍了 Flink CDC 3.0 与 ChunJun 框架在玳数科技的集成实践。
497 7
玳数科技集成 Flink CDC 3.0 的实践
|
18天前
|
机器学习/深度学习 运维 算法
【阿里天池-医学影像报告异常检测】3 机器学习模型训练及集成学习Baseline开源
本文介绍了一个基于XGBoost、LightGBM和逻辑回归的集成学习模型,用于医学影像报告异常检测任务,并公开了达到0.83+准确率的基线代码。
25 9
|
14天前
|
Kubernetes Devops 测试技术
DevOps实践:持续集成和持续部署(CI/CD)在现代企业中的应用
随着软件开发行业的迅猛发展,DevOps文化及其核心实践—持续集成(Continuous Integration, CI)与持续部署(Continuous Deployment, CD)—已成为提升软件交付速度和质量的关键策略。本文将深入探讨CI/CD的理论基础,并结合真实案例分析其在现代企业中的实际应用效果,旨在为读者提供一套可行的实施指南。
|
14天前
|
人工智能
LLama+Mistral+…+Yi=? 免训练异构大模型集成学习框架DeePEn来了
【8月更文挑战第6天】DeePEn是一种免训练异构大模型集成学习框架,旨在通过融合多个不同架构和参数的大模型输出概率分布,提升整体性能。它首先将各模型输出映射至统一概率空间,然后进行聚合,并最终反转回单一模型空间以生成输出。实验证明,在知识问答和推理任务上,DeePEn相比单一大模型如LLaMA和Mistral有显著提升,但其效果受模型质量和数量影响,并且计算成本较高。[论文: https://arxiv.org/abs/2404.12715]
28 1
|
20天前
|
监控 Devops 测试技术
DevOps实践:从持续集成到自动化部署的旅程
【7月更文挑战第31天】在软件开发领域,DevOps已经成为一种文化和实践,旨在通过改进开发和运维之间的协作,来加速软件交付和提高质量。本文将深入探讨DevOps的核心概念,包括持续集成(CI)、持续交付(CD)以及自动化部署,并分享实施这些实践的具体步骤和技巧,帮助读者构建更加高效、可靠的软件发布流程。
44 1
|
23天前
|
监控 数据挖掘 大数据
阿里云开源利器:DataX3.0——高效稳定的离线数据同步解决方案
对于需要集成多个数据源进行大数据分析的场景,DataX3.0同样提供了有力的支持。企业可以使用DataX将多个数据源的数据集成到一个统一的数据存储系统中,以便进行后续的数据分析和挖掘工作。这种集成能力有助于提升数据分析的效率和准确性,为企业决策提供有力支持。
|
7天前
|
运维 Devops 测试技术
DevOps实践:持续集成与持续部署(CI/CD)的精髓
在软件工程领域,DevOps已经从一种概念演变为提升开发效率和产品质量的关键实践。本文将深入浅出地探讨如何通过实施持续集成(CI)和持续部署(CD)来优化软件开发流程,确保快速迭代同时保持高稳定性。我们将从基础概念出发,逐步深入到实际操作技巧,最后讨论如何克服常见的挑战,旨在为读者提供一条清晰的道路,以实现更高效、更可靠的软件交付。
28 0