OneSQL OLAP实践问题之BIGO ClickHouse实现二阶段提交事务机制如何解决

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
云原生数据仓库AnalyticDB MySQL版,基础版 8ACU 100GB 1个月
简介: OneSQL OLAP实践问题之BIGO ClickHouse实现二阶段提交事务机制如何解决

问题一:在处理流维表JOIN时,面对Hive大维表导致的OOM问题,采取了哪些优化措施?


在处理流维表JOIN时,面对Hive大维表导致的OOM问题,采取了哪些优化措施?


参考回答:

"为了处理Hive大维表导致的OOM问题,我们采取了以下优化措施:

Hive维表Hash分片:将Hive大维表按照Join Key进行Hash分片,通过Hash函数计算后分布到Flink作业的不同并行子任务的HashMap中。这样,每个HashMap只存放大维表的一部分数据,通过增加作业的并行度,可以将大维表的数据拆分成足够多份进行分片保存。

使用Rocksdb Map State:对于一些仍然太大的维表分片,我们使用Rocksdb Map State来保存分片数据,以进一步减少内存压力。


关于本问题的更多问答可点击原文查看:

https://developer.aliyun.com/ask/666308



问题二:在Flink中将流表数据与Hive维表进行JOIN时,数据是如何被分配到对应subtask的?


在Flink中将流表数据与Hive维表进行JOIN时,数据是如何被分配到对应subtask的?


参考回答:

"在Flink中,Kafka流表中的数据在需要下发到不同的subtask上进行JOIN时,会首先通过相同的Join Key和Hash函数进行计算。这个Hash计算结果决定了数据应该被分配到哪个subtask进行JOIN操作。由于Hive维表已经按照相同的Hash函数进行了分片,因此流表中的数据可以准确地找到对应的subtask进行JOIN,从而输出JOIN后的结果。


关于本问题的更多问答可点击原文查看:

https://developer.aliyun.com/ask/666309



问题三:BIGO ClickHouse是如何实现二阶段提交事务机制来支持Exactly-Once语义的?


BIGO ClickHouse是如何实现二阶段提交事务机制来支持Exactly-Once语义的?


参考回答:

"BIGO ClickHouse实现了一个二阶段提交事务机制来支持Exactly-Once语义。具体步骤如下:

临时写入:当需要写入数据到ClickHouse时,首先将数据以temporary模式写入,表示这些数据是临时的。

记录Insert ID:数据插入完成后,返回一个Insert ID,用于后续的提交操作。

批量提交:在两次checkpoint之间,可能会有多次insert操作产生多个Insert ID。当checkpoint完成时,将这些Insert ID批量提交,将临时数据转为正式数据。

Failover处理:如果作业出现Failover,Flink作业重启后会从最近一次完成的checkpoint恢复状态。对于未提交的Insert ID,会进行重试提交。而那些已经写入但Insert ID未记录的数据,由于是临时数据,会被ClickHouse的过期清理机制清理掉,从而避免数据重复。"


关于本问题的更多问答可点击原文查看:

https://developer.aliyun.com/ask/666310



问题四:BIGO实时计算平台Bigoflow主要提供了哪些功能?


BIGO实时计算平台Bigoflow主要提供了哪些功能?


参考回答:

"BIGO实时计算平台Bigoflow主要提供了以下功能:

多类型作业支持:支持Flink JAR、SQL、Python等多种类型作业,满足不同开发者的需求。

版本兼容性:支持不同的Flink版本,覆盖公司内部大部分实时计算相关业务。

一站式管理:集作业开发、提交、运行、历史展示、监控、告警于一体,便于用户随时查看作业的运行状态和发现问题。

血缘关系查询:提供血缘关系查询功能,方便用户了解每个作业的数据源、数据目的以及数据计算的来龙去脉。


关于本问题的更多问答可点击原文查看:

https://developer.aliyun.com/ask/666311


问题五:Onesql OLAP 分析平台在公司内部主要用于哪些类型的查询?


Onesql OLAP 分析平台在公司内部主要用于哪些类型的查询?


参考回答:

Onesql OLAP 分析平台在公司内部主要应用于 AdHoc 查询。用户通过 Hue 页面提交的 SQL 查询,由 OneSQL 后端转发给 Flink SQL Gateway,并在 Flink Session 集群上执行这些查询任务。


关于本问题的更多问答可点击原文查看:

https://developer.aliyun.com/ask/666312

相关实践学习
AnalyticDB MySQL海量数据秒级分析体验
快速上手AnalyticDB MySQL,玩转SQL开发等功能!本教程介绍如何在AnalyticDB MySQL中,一键加载内置数据集,并基于自动生成的查询脚本,运行复杂查询语句,秒级生成查询结果。
阿里云云原生数据仓库AnalyticDB MySQL版 使用教程
云原生数据仓库AnalyticDB MySQL版是一种支持高并发低延时查询的新一代云原生数据仓库,高度兼容MySQL协议以及SQL:92、SQL:99、SQL:2003标准,可以对海量数据进行即时的多维分析透视和业务探索,快速构建企业云上数据仓库。 了解产品 https://www.aliyun.com/product/ApsaraDB/ads
相关文章
|
2月前
|
搜索推荐 OLAP 流计算
OneSQL OLAP实践问题之基于 Flink 打造流批一体的数据计算平台如何解决
OneSQL OLAP实践问题之基于 Flink 打造流批一体的数据计算平台如何解决
36 1
|
2月前
|
SQL 存储 OLAP
OneSQL OLAP实践问题之Flink SQL Gateway的功能如何解决
OneSQL OLAP实践问题之Flink SQL Gateway的功能如何解决
31 1
|
2月前
|
SQL 消息中间件 OLAP
OneSQL OLAP实践问题之实时数仓中数据的分层如何解决
OneSQL OLAP实践问题之实时数仓中数据的分层如何解决
43 1
|
3月前
|
存储 数据挖掘 BI
数据仓库深度解析与实时数仓应用案例探析
随着数据量的不断增长和数据应用的广泛深入,数据治理和隐私保护将成为数据仓库建设的重要议题。企业需要建立完善的数据治理体系,确保数据的准确性、一致性和完整性;同时加强隐私保护机制建设,确保敏感数据的安全性和合规性。
323 55
|
2月前
|
消息中间件 存储 大数据
大数据-数据仓库-实时数仓架构分析
大数据-数据仓库-实时数仓架构分析
96 1
|
4月前
|
Cloud Native 数据管理 OLAP
云原生数据仓库AnalyticDB产品使用合集之是否可以创建表而不使用分区
阿里云AnalyticDB提供了全面的数据导入、查询分析、数据管理、运维监控等功能,并通过扩展功能支持与AI平台集成、跨地域复制与联邦查询等高级应用场景,为企业构建实时、高效、可扩展的数据仓库解决方案。以下是对AnalyticDB产品使用合集的概述,包括数据导入、查询分析、数据管理、运维监控、扩展功能等方面。
399 2
云原生数据仓库AnalyticDB产品使用合集之是否可以创建表而不使用分区
|
3月前
|
存储 消息中间件 数据挖掘
数据仓库的深度探索与实时数仓应用案例解析
大数据技术的发展,使得数据仓库能够支持大量和复杂数据类型(如文本、图像、视频、音频等)。数据湖作为一种新的数据存储架构,强调原始数据的全面保留和灵活访问,与数据仓库形成互补,共同支持企业的数据分析需求。
|
4月前
|
Cloud Native 关系型数据库 MySQL
《阿里云产品四月刊》—云原生数据仓库 AnalyticDB MySQL 版 新功能
阿里云瑶池数据库云原生化和一体化产品能力升级,多款产品更新迭代
|
4月前
|
SQL Cloud Native 关系型数据库
云原生数据仓库AnalyticDB产品使用合集之如何进行一键诊断
阿里云AnalyticDB提供了全面的数据导入、查询分析、数据管理、运维监控等功能,并通过扩展功能支持与AI平台集成、跨地域复制与联邦查询等高级应用场景,为企业构建实时、高效、可扩展的数据仓库解决方案。以下是对AnalyticDB产品使用合集的概述,包括数据导入、查询分析、数据管理、运维监控、扩展功能等方面。
413 7
|
4月前
|
存储 SQL Cloud Native
云原生数据仓库AnalyticDB产品使用合集之热数据存储空间在什么地方查看
阿里云AnalyticDB提供了全面的数据导入、查询分析、数据管理、运维监控等功能,并通过扩展功能支持与AI平台集成、跨地域复制与联邦查询等高级应用场景,为企业构建实时、高效、可扩展的数据仓库解决方案。以下是对AnalyticDB产品使用合集的概述,包括数据导入、查询分析、数据管理、运维监控、扩展功能等方面。
105 4

热门文章

最新文章

下一篇
无影云桌面