阿里云全托管flink-vvp平台hudi connector实践(基于emr集群oss-hdfs存储)

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
对象存储 OSS,20GB 3个月
简介: 阿里云全托管flink-vvp平台hudi sink connector实践,本文数据湖hudi基于阿里云E-MapReduce产品,以云对象存储oss-hdfs作为存储

1. 上游数据准备

上游数据以mysql为例作为hudi入湖的上游应用表,详细的建表、插入及更新语句如下

droptable if exists `sunyf_db`.`flink_test_02_hudi`;createtable if not EXISTS `sunyf_db`.`flink_test_02_hudi`(  id BIGINTnotnull PRIMARY KEY 
,`name` varchar(20),datime TIMESTAMP,price FLOAT);INSERTINTO `sunyf_db`.`flink_test_02_hudi` values(1,'zhao', CURRENT_TIMESTAMP,20);INSERTINTO `sunyf_db`.`flink_test_02_hudi` values(2,'qian', CURRENT_TIMESTAMP,30);INSERTINTO `sunyf_db`.`flink_test_02_hudi` values(3,'sun', CURRENT_TIMESTAMP,40);INSERTINTO `sunyf_db`.`flink_test_02_hudi` values(4,'li', CURRENT_TIMESTAMP,50);INSERTINTO `sunyf_db`.`flink_test_02_hudi` values(5,'zhou', CURRENT_TIMESTAMP,60);select*from `sunyf_db`.`flink_test_02_hudi`
update `sunyf_db`.`flink_test_02_hudi` set `name` ='sunyf35'where id =3;


2. Flink-SQL任务

flink-hudi-connector参数参考:https://hudi.apache.org/docs/basic_configurations#Flink-Options

--********************************************************************---- Author:         sunyf-- Created Time:   2023-07-03 17:52:47-- Description:    Write your description here-- Hints:          You can use SET statements to modify the configuration--********************************************************************--CREATE TEMPORARY TABLE mysqlcdc_source
(    id            bigint,`name`      STRING
,datime       TIMESTAMP,price      float,PRIMARY KEY (id)NOT ENFORCED
)WITH ('connector'='mysql','hostname'='rm-xxx.mysql.rds.aliyuncs.com','port'='3306','username'='用户名','password'='密码','database-name'='sunyf_db','table-name'='flink_test_02_hudi');CREATE TEMPORARY TABLE hudi_sink
(    id       bigintNOTNULL,`name`  STRING
,`price` float,PRIMARY KEY (id)NOT ENFORCED
-- 或者直接在id字段后面写 id int not null primary key 也可以-- 或者 指定如下参数 hoodie.datasource.write.recordkey.field)WITH ('connector'='hudi','oss.endpoint'='oss-cn-xx-internal.aliyuncs.com','accessKeyId'='用户名','accessKeySecret'='密码','path'='oss://sunyf-oss-emr02-hudi/emr_hudi_cluster0630.db/flink_test_03_hudi_cow','table.type'='COPY_ON_WRITE'--MERGE_ON_READ,'write.operation'='insert'-- ,'precombine.field' = 'ts'-- ***************-- 下面的元数据相关参数如果不指定的话--hive_sync.enable=false,仅落地文件,需要参考(标题3)中的两种方案建表,'hive_sync.db'='emr_hudi_cluster0630','hive_sync.table'='flink_test_03_hudi_cow','hive_sync.enable'='true','hive_sync.mode'='hms','dlf.catalog.endpoint'='dlf-vpc.cn-beijing.aliyuncs.com','dlf.catalog.region'='cn-beijing'-- ***************-- 在线压缩参数-- ,'compaction.async.enabled' = 'false'-- 指定分区字段,'hoodie.datasource.write.partitionpath.field'='name'-- 指定使用hive的分区表达方式来展示-- 文件夹名为:(day=20230101),不然的话分在oss上展示为20230101,'hoodie.datasource.write.hive_style_partitioning'='true');CREATE TEMPORARY TABLE print_sink
(    id       bigintNOTNULL,`name`  STRING
,datime       TIMESTAMP,`price` float,PRIMARY KEY (id)NOT ENFORCED
)WITH ('connector'='print','logger'='true','print-identifier'='sunyfOutputFormat');BEGIN STATEMENT SET;INSERTINTO hudi_sink
SELECTid
,`name`
,price
FROM mysqlcdc_source
;INSERTINTO print_sink
SELECT*FROM mysqlcdc_source
;end;

3. 建表方案

3.1. 创建hive外表读hudi文件

-- 使用hive外表的时候可以不指定flink hudi sink表中hive_sync 相关参数-- 直接采用外表的属性即可,这个外表的数据没有hudi的元数据字段createtable flink_sink_hudi_externel
(    id    bigintnotnull primary key
,`name` string
,price  float)ROW FORMAT SERDE 'org.apache.hadoop.hive.ql.io.parquet.serde.ParquetHiveSerDe'STORED AS INPUTFORMAT 'org.apache.hudi.hadoop.HoodieParquetInputFormat'OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.parquet.MapredParquetOutputFormat'LOCATION 'oss://sunyf-oss-emr02-hudi/emr_hudi_cluster0630.db/flink_sink_hudi';

3.2. 创建spark hudi外表

# /bin/bash on spark 3.xspark-sql \
--conf 'spark.serializer=org.apache.spark.serializer.KryoSerializer' \--conf 'spark.sql.extensions=org.apache.spark.sql.hudi.HoodieSparkSessionExtension' \--conf 'spark.sql.catalog.spark_catalog=org.apache.spark.sql.hudi.catalog.HoodieCatalog'# sql on spark
use emr_hudi_cluster0630;# 指定location在oss而非默认的oss-hdfs((标题4)中有相关说明)createtable emr_hudi_cluster0630.spark_hudi_location_cow(  id bigint,  name string,  price float)using hudi options(type ='cow',primaryKey='id')location 'oss://sunyf-oss-emr02-hudi/emr_hudi_cluster0630.db/spark_hudi_location_cow';-- 为了避免字段类型不一致,导致的spark报错,这里伪造的原始数据都进行了一下cast-- 有些值cast过后会有精度的损失,hiveinsertinto emr_hudi_cluster0630.spark_hudi_location_cowvalues(cast(1asbigint),'sun',       cast(999.2asfloat)),(cast(2asbigint),'li',        cast(12.1asfloat));

3.3. 外表的删除

# 任一客户端执行:droptable emr_hudi_cluster0630.flink_test_02_hudi_cow;# 外表要手动删除oss上的文件,drop表仅drop元数据,不会删除数据文件
hdfs dfs -rm -f -r oss://sunyf-oss-emr02-hudi/emr_hudi_cluster0630.db/flink_test_02_hudi_cow

4. hudi表更新

通过修改参数实现cow表的实时更新

'write.operation' = 'insert'

image.png

'write.operation' = 'upsert'

image.png

5. 踩坑问题

5.1. spark创建hudi表

创建的时候指定location,desc的时候就会看到表是EXTERNAL 而不是 MANAGED,要注意表删除时相关数据是否留存或者删表重建,数据异常的问题

5.2. spark与hive获取元数据差异

在oss或者通过hdfs dfs命令对hudi表的文件进行删除或者更改后,维持当前的spark-sql-session是不能获取到这一元数据更改的,select查询该表会报文件不存在的异常,需要重启spark-sql客户端或者

refresh table[table_name]

进行元数据更新,hive侧正常执行。

5.3. 字段类型报错

hudi表字段类型与flink的表结构中字段类型要对应,否则在某些增量(手动写入+flink写入)场景下,可能导致数据读取异常(spark),hive兼容性较好,会进行字段类型的隐式转换,但是会有精度损失,如double->float

image.pngimage.png

5.4. flink hudi con对oss-hdfs支持问题

  1. 根据dlf中表存储的path(图3)直接添加到with参数(图1)中,会报非法参数异常(图2)
  2. 尝试:将oss-hdfs的路径后面的endpoint更改到endpoint参数中,jobmanager可以正常启动,但是写下的文件还是不在该内表指定的oss-hdfs存储路径下(日志中可以观察到,图4),oss上验证文件写入情况,如(图5,6)
  3. 查了下oss-hdfs的文档,应该是目前还不支持这个connector直接写默认存储在oss-hdfs的表。
  1. 参考文档:https://help.aliyun.com/document_detail/419069.html?spm=a2c4g.427753.0.i0
  2. 参考文档:https://help.aliyun.com/document_detail/471050.html?spm=a2c4g.141562.0.i6
  1. 绕行方案:在hudi建表的时候指定location在oss正常的bucket路径中,而不是oss-hdfs,可以正常使用image.pngimage.pngimage.pngimage.pngimage.pngimage.png

5.5. oss目录未删除问题

oss-hdfs 删除的db未删除(图1),dlf中已删除(图2 show databases 与dlf结果一致)

hdfs dfs -rm -f -r oss://sunyf-oss-emr02-hudi/emr_hudi_cluster0630.db/flink_sink_hudi_location

image.png

image.png

相关实践学习
如何快速连接云数据库RDS MySQL
本场景介绍如何通过阿里云数据管理服务DMS快速连接云数据库RDS MySQL,然后进行数据表的CRUD操作。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助     相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
相关文章
|
4天前
|
SQL 消息中间件 Kafka
Flink+Paimon+Hologres,面向未来的一体化实时湖仓平台架构设计
本文介绍了阿里云实时数仓Hologres负责人姜伟华在Flink Forward Asia 2024上的分享,涵盖实时数仓的发展历程、从实时数仓到实时湖仓的演进,以及总结。文章通过三代实时数仓架构的演变,详细解析了Lambda架构、Kafka实时数仓分层+OLAP、Hologres实时数仓分层复用等方案,并探讨了未来从实时数仓到实时湖仓的演进方向。最后,结合实际案例和Demo展示了Hologres + Flink + Paimon在实时湖仓中的应用,帮助用户根据业务需求选择合适的方案。
328 20
Flink+Paimon+Hologres,面向未来的一体化实时湖仓平台架构设计
|
3月前
|
分布式计算 Java 开发工具
阿里云MaxCompute-XGBoost on Spark 极限梯度提升算法的分布式训练与模型持久化oss的实现与代码浅析
本文介绍了XGBoost在MaxCompute+OSS架构下模型持久化遇到的问题及其解决方案。首先简要介绍了XGBoost的特点和应用场景,随后详细描述了客户在将XGBoost on Spark任务从HDFS迁移到OSS时遇到的异常情况。通过分析异常堆栈和源代码,发现使用的`nativeBooster.saveModel`方法不支持OSS路径,而使用`write.overwrite().save`方法则能成功保存模型。最后提供了完整的Scala代码示例、Maven配置和提交命令,帮助用户顺利迁移模型存储路径。
|
6月前
|
存储 SQL 安全
联通实时计算平台问题之如何体现集群治理的效果
联通实时计算平台问题之如何体现集群治理的效果
|
6月前
|
消息中间件 分布式计算 Kafka
联通实时计算平台问题之实时计算平台对于用户订阅和数据下发是如何支持的
联通实时计算平台问题之实时计算平台对于用户订阅和数据下发是如何支持的
|
6月前
|
消息中间件 监控 Java
联通实时计算平台问题之监控Kafka集群的断传和积压情况要如何操作
联通实时计算平台问题之监控Kafka集群的断传和积压情况要如何操作
|
6月前
|
消息中间件 监控 Kafka
联通实时计算平台问题之Flink状态后端数据量较大时,问题排查要如何进行
联通实时计算平台问题之Flink状态后端数据量较大时,问题排查要如何进行
|
6月前
|
消息中间件 存储 算法
联通实时计算平台问题之亿级标签关联实现且不依赖外部系统要如何操作
联通实时计算平台问题之亿级标签关联实现且不依赖外部系统要如何操作
|
6月前
|
消息中间件 监控 Kafka
联通实时计算平台问题之实时计算平台的数据处理流程是什么样的
联通实时计算平台问题之实时计算平台的数据处理流程是什么样的
|
6月前
|
搜索推荐 OLAP 流计算
OneSQL OLAP实践问题之基于 Flink 打造流批一体的数据计算平台如何解决
OneSQL OLAP实践问题之基于 Flink 打造流批一体的数据计算平台如何解决
77 1
|
6月前
|
监控 Java Serverless
美团 Flink 大作业部署问题之想在Serverless平台上实时查看Spring Boot应用的日志要怎么操作
美团 Flink 大作业部署问题之想在Serverless平台上实时查看Spring Boot应用的日志要怎么操作