"Flink+Paimon:阿里云大数据云原生运维数仓的创新实践,引领实时数据处理新纪元"

简介: 【8月更文挑战第2天】Flink+Paimon在阿里云大数据云原生运维数仓的实践

随着大数据产品云原生化的加速推进,云原生集群的规模和数量急剧增加,这给运维工作带来了前所未有的挑战。为了有效应对这些挑战,阿里云大数据团队结合Apache Flink与自研的Paimon数据湖解决方案,构建了一套实时云原生运维数仓,显著提升了运维能力和数据处理的实时性。本文将通过实际案例分析,详细阐述Flink+Paimon在阿里云大数据云原生运维数仓中的应用。

背景与挑战
随着云原生集群的广泛应用,资源审计、资源拓扑和资源趋势分析成为运维工作的关键需求。传统的运维方式已难以满足实时性和精准性的要求,迫切需要一种能够实时反映集群状态并提供高效数据分析能力的解决方案。因此,阿里云大数据团队决定采用Flink+Paimon的流式数仓方案,以应对这些挑战。

解决方案概述
Flink作为实时计算的标准解决方案,以其高吞吐、低延迟的特性在大数据处理领域占据重要地位。而Paimon则是阿里云开源大数据团队推出的低成本数据湖解决方案,为海量数据的存储和分析提供了强有力的支持。两者结合,形成了Flink+Paimon的实时数仓解决方案,为云原生运维数仓提供了强大的实时数据处理和低成本存储能力。

实践案例分析
数据采集与同步
在数据采集阶段,团队研发了exporter-operator工具,该工具嵌入Kubernetes集群中,实时监听Kubernetes API Server中的workload数据变化。通过配置Informer中的自定义资源(CR),exporter-operator能够灵活启用多个workload-informer实例,实现对各类工作负载的监控。捕获到的数据通过阿里云日志服务(SLS)或Apache Kafka进行实时传输,确保数据的实时性和完整性。

数据处理与存储
在数据处理阶段,团队采用Flink作为计算引擎,结合Paimon进行数据存储。Flink作业通过实时读取SLS或Kafka中的数据流,进行复杂的计算处理,如资源聚合、排序和维表join等。处理后的数据直接写入Paimon ODS表中,供后续分析和查询使用。示例代码如下:

sql
CREATE TABLE IF NOT EXISTS abm-exporter-paimon.abm_exporter_db.ods_realtime_exporter_lakehouse (
sls_time bigint,
cluster varchar,
content varchar
) PARTITIONED BY (cluster)
WITH (
'orc.write.batch-size' = '128',
'file.format' = 'avro',
'bucket' = '8'
);

INSERT INTO abm-exporter-paimon.abm_exporter_db.ods_realtime_exporter_lakehouse
SELECT __timestamp__ as sls_time,
__topic__ as cluster,
content
FROM source_k8s_meta;
数据分析与展示
在数据分析阶段,团队利用DataWorks进行数据清洗和预处理,确保数据的准确性和一致性。配置完成后,Paimon表的元数据会自动同步到DataWorks中,用户可以直接在DataWorks中进行数据分析。最终,数据报表通过FBI进行展示,资源拓扑数据则写入到CMDB中,供运维系统使用。

总结
通过Flink+Paimon的实时数仓解决方案,阿里云大数据团队成功构建了高效的云原生运维数仓。该方案不仅满足了实时性和精准性的要求,还显著降低了存储成本,为云原生集群的运维工作提供了强有力的支持。未来,随着技术的不断发展和优化,该方案有望在更多场景中发挥重要作用。

相关实践学习
阿里云云原生数据仓库AnalyticDB MySQL版 使用教程
云原生数据仓库AnalyticDB MySQL版是一种支持高并发低延时查询的新一代云原生数据仓库,高度兼容MySQL协议以及SQL:92、SQL:99、SQL:2003标准,可以对海量数据进行即时的多维分析透视和业务探索,快速构建企业云上数据仓库。 了解产品 https://www.aliyun.com/product/ApsaraDB/ads
相关文章
|
7月前
|
Kubernetes Cloud Native 安全
云原生机密计算新范式 PeerPods技术方案在阿里云上的落地和实践
PeerPods 技术价值已在阿里云实际场景中深度落地。
|
6月前
|
运维 算法 机器人
阿里云AnalyticDB具身智能方案:破解机器人仿真数据、算力与运维之困
本文将介绍阿里云瑶池旗下的云原生数据仓库AnalyticDB MySQL推出的全托管云上仿真解决方案,方案采用云原生架构,为开发者提供从开发环境、仿真计算到数据管理的全链路支持。
|
8月前
|
存储 消息中间件 OLAP
基于 Flink+Paimon+Hologres 搭建淘天集团湖仓一体数据链路
本文整理自淘天集团高级数据开发工程师朱奥在Flink Forward Asia 2024的分享,围绕实时数仓优化展开。内容涵盖项目背景、核心策略、解决方案、项目价值及未来计划五部分。通过引入Paimon和Hologres技术,解决当前流批存储不统一、实时数据可见性差等痛点,实现流批一体存储与高效近实时数据加工。项目显著提升了数据时效性和开发运维效率,降低了使用门槛与成本,并规划未来在集团内推广湖仓一体架构,探索更多技术创新场景。
1632 3
基于 Flink+Paimon+Hologres 搭建淘天集团湖仓一体数据链路
|
3月前
|
人工智能 Cloud Native 算法
拔俗云原生 AI 临床大数据平台:赋能医学科研的开发者实践
AI临床大数据科研平台依托阿里云、腾讯云,打通医疗数据孤岛,提供从数据治理到模型落地的全链路支持。通过联邦学习、弹性算力与安全合规技术,实现跨机构协作与高效训练,助力开发者提升科研效率,推动医学AI创新落地。(238字)
279 7
|
5月前
|
消息中间件 人工智能 监控
【云故事探索 | NO.15】:阿里云云原生加速鸣鸣很忙数字化
【云故事探索 | NO.15】:阿里云云原生加速鸣鸣很忙数字化
|
6月前
|
消息中间件 人工智能 监控
【云故事探索】NO.15:阿里云云原生加速鸣鸣很忙数字化
鸣鸣很忙集团作为中国最大休闲食品饮料连锁零售商,通过数字化与云原生技术实现快速扩张,4年完成其他企业10年的数字化进程。其采用阿里云全栈云原生方案,实现弹性扩容、智能补货、模块化开店等创新实践,支撑日均超430万交易数据稳定运行。未来将深化AI应用,推动供应链智能化与业务全面升级。
|
7月前
|
Cloud Native 关系型数据库 分布式数据库
客户说|知乎基于阿里云PolarDB,实现最大数据库集群云原生升级
近日,知乎最大的风控业务数据库集群,基于阿里云瑶池数据库完成了云原生技术架构的升级。此次升级不仅显著提升了系统的高可用性和性能上限,还大幅降低了底层资源成本。
|
8月前
|
运维 监控 算法
阿里云 OS 控制台:让基础设施运维不再难
涵盖智能异常检测、智能根因分析、智能修复建议的全链路运维解决方案
|
3月前
|
存储 人工智能 OLAP
AI Agent越用越笨?阿里云AnalyticDB「AI上下文工程」一招破解!
AI上下文工程是优化大模型交互的系统化框架,通过管理指令、记忆、知识库等上下文要素,解决信息缺失、长度溢出与上下文失效等问题。依托AnalyticDB等技术,实现上下文的采集、存储、组装与调度,提升AI Agent的准确性与协同效率,助力企业构建高效、稳定的智能应用。