阿里云 ClickHouse 企业版首发邀测&云原生 ClickHouse 技术揭秘

简介: 云数据库 ClickHouse 企业版是阿里云和 ClickHouse, Inc 战略合作打造的云原生ClickHouse 产品。企业版推出专属 SharedMergeTree 云原生引擎,支持存算分离,Serverless 秒级实时弹性,集群吞吐和查询效率线性扩展及 Lightweight update 实时更新能力。本文将详细揭秘 SharedMergeTree 实现机制,实时弹性扩展实现原理,lightweight update 技术实现原理,同时对企业版和开源版进行详细的性能测试对比。

庄同学(魏庄)

ClickHouse 介绍

ClickHouse是一个全球流行的开源高性能、可扩展列式数据库技术,核心应用于在线分析处理(OLAP )业务,在 DB-Engine 全球数据库流行度排榜排名前列,逐年关注度增长迅猛。ClickHouse 分析性能优异, 典型分析场景下,支持数十亿级数据行规模,90%查询在1 秒内完成。这使得 ClickHouse  成为企业处理大规模数据,构建实时数仓的理想选择。国内外大厂中,微软, 腾讯、ebay, 淘宝、Uber, 京东、快手、小红书,携程都使用 ClickHouse 构建数据分析平台。

ClickHouse 企业版介绍

阿里云在2020年发布了基于开源社区版本的云数据库ClickHouse 社区兼容版,是全球领先的大规模提供全托管 ClickHouse 服务的云厂商,成熟稳定服务了包含互联网,游戏,电商,金融保险,汽车制造,媒体广告在内的数千家客户。2021 年 9 月 20 日, ClickHouse 项目创始人 Alexey 在 GitHub 宣布他们正式从 Yandex 独立,并成立一个公司:ClickHouse, Inc。 2023年阿里云与 ClickHouse, Inc 达成独家的商业合作,联合研发阿里云数据库 ClickHouse企业版(以下简称 ClickHouse 企业版),并于2023年8月末开启邀测。ClickHouse企业版对比社区版是里程碑的升级,从传统存算一体的架构全面升级为云原生架构,支持云原生按需弹性 Serverless能力,解决了长期困扰用户的集群扩展效率和平滑性问题。同时升级支持 lightweight update&delete, 数据更新实时可见,且执行成本更低,效率更高。本文将详细揭秘ClickHouse 企业版的技术实现原理。

ClickHouse 企业版云原生架构

ClickHouse企业版采用完全不同与开源社区版本的云原生新架构,针对云环境做了全面适配。新架构基于存储和计算分离的架构基础,采用对象存储数据实现 Share Storage 共享存储,所有ClickHouse Server 节点都可以访问相同的全局物理数据, 单个 Server 节点实际上是单个没有限制分片的 Replica 节点,节点之间访问同一份数据副本。


云数据库 ClickHouse 企业版产品架构图

ClickHouse 企业版引擎升级

MergeTree系列的表引擎是ClickHouse中的主要表引擎。它们负责存储插入的数据,在后台进行数据合并,根据特定的引擎进行数据转换等操作。企业版新推出 SharedMergeTree 引擎加入到 MergeTree 引擎大家庭,而企业版能够支持云原生架构,也核心依赖 SharedMergeTree 引擎。SharedMergeTree 引擎是商业化引擎,仅在企业版提供,在开源社区版不支持。企业版内核相较于开源社区版的核心能力差异如下所示:

开源 ReplicatedMergeTree引擎

大多数MergeTree家族中的表都支持自动的数据复制,并通过ReplicatedMergeTree 表引擎的复制机制实现。在社区版Share-nothing 架构的 ClickHouse集群中,通过ReplicatedMergeTree进行复制以实现数据高可用,并通过分片实现集群横向扩展。阿里云ClickHouse 社区兼容版也正是基于这一内核特性实现的高可用和扩展。而 ClickHouse企业版采用了一种新方法,基于SharedMergeTree构建了云原生数据库服务。

云原生 SharedMergeTree 引擎

SharedMergeTree 表引擎是ClickHouse内核ReplicatedMergeTree表引擎的更高效的替代品,专为云原生数据处理而设计和优化。我们将深入了解这个新表引擎,解释其优势,并通过基准测试展示其效率。同时当前正在引入轻量级更新 Lightweight Update,与SharedMergeTree 形成协同效应。

对象存储上的数据可用性

ClickHouse企业版将所有数据存储在对象存储中,所以不需要在不同服务器上显式地创建数据的物理副本。对象存储本身实现确保存储具有高可用性和容错性。需要注意的是,尽管访问对象存储较慢,但ClickHouse企业版服务具有多层读写缓存,它专为在对象存储上读写而设计,以提供快速的查询结果。对象存储虽然访问延迟比磁盘较大,但具有高并发吞吐量和大的聚合带宽。ClickHouse企业版通过利用多 I/O线程来访问对象存储,并通过异步预读取数据来改善这一点。

自动集群扩展

与开源版本使用分片来扩展集群不同,ClickHouse企业版让用户通过简单地增加计算节点的规格和数量来增加 INSERT和SELECT的并行处理能力。请注意,ClickHouse企业版计算节点实际上是单分片的多个副本。这些节点不是包含相同数据的本地副本节点,而是可以访问存储在对象存储中全量相同的数据的无状态差异节点。计算节点规格和数量可以适应工作负载,进行对应的升降配和水平扩缩容,具体步骤描述如下图所示:


通过① 垂直升配操作和 ② 垂直缩容操作,我们可以更改节点的规格(CPU和内存)。而通过 ③ 水平扩展,我们可以增加计算节点的数量。而无需进行任何物理 Resharding或数据的 Rebalancing,我们可以自由地添加或删除节点。这种无数据移动和搬迁支持水平集群扩展方法,就需要 ClickHouse企业版能够提供支持节点访问相同共享数据的表引擎。

ReplicatedMergeTree的挑战

ReplicatedMergeTree表引擎并不适用于ClickHouse企业版的预期架构,因为其复制机制旨在在少量的节点上创建数据的物理副本。而ClickHouse企业版需要一个支持在对象存储之上运行大量计算服务节点的表引擎。

显式的数据复制

首先我们解释一下ReplicatedMergeTree表引擎的复制机制。该引擎使用ClickHouse Keeper(也称为“Keeper”)作为协调系统,通过复制日志方式进行数据复制。Keeper充当复制过程特定元数据和表结构的集中式存储,以及分布式操作的一致性协调系统。Keeper确保为Part顺序地分配连续的块编号,将merge和mutation操作分配给特定的replica。

下图概述了一个具有3个replica节点的shared-nothing架构的 ClickHouse集群,并显示了ReplicatedMergeTree表引擎的数据复制机制:


当 ① Server-1 接收到插入查询时,② Server-1 在其本地磁盘上创建一个包含插入数据的新Part。③通过复制日志,其他节点(Server-2、Server-3)被告知Server-1上存在一个新Part。在 ④ 处,其他server独立地从 server-1下载(“获取”)该Part到自己的本地文件系统。创建或接收Part后,三个节点还会在Keeper中更新元数据,元数据用以描述 Part 文件信息。

请注意,我们仅展示了如何复制新创建的Part。Part合并(和mutation)也以类似的方式复制。如果一个节点决定合并一组Parts,那么其他节点将在其本地Parts副本上自动执行相同的合并操作。

在本地存储完全丢失或添加新副本时,ReplicatedMergeTree从已有的副本克隆数据。

ClickHouse企业版使用持久性更好的对象存储来实现数据可用性,所以不需要ReplicatedMergeTree的显式数据复制功能。

依赖 sharding进行集群扩展

shared-nothing架构下的 ClickHouse集群用户可以将replication与sharding相结合,来实现高可用和水平扩展。表中数据以分片的形式分布在多个节点上,每个分片通常有2个或3个副本,以确保存储和数据可用性。通过添加更多分片,可以增加数据写入和查询处理的并行能力。而 ClickHouse企业版不需要使用分片进行集群扩展,因为所有数据都存储在共享的对象存储中,只需通过添加额外的节点来增加并行数据处理能力。

SharedMergeTree 升级

独立 SharedMergeTree 优点

ClickHouse企业版实现了一个名为 SharedMergeTree的表引擎 - 专为在共享存储上工作而设计。SharedMergeTree 是云原生方式,具有如下优点

  • (1) MergeTree 代码更加简单易维护,
  • (2)支持垂直和水平自动扩展,
  • (3)为我们的云用户提供未来的功能和改进,如更高的一致性保证,更好的耐用性,基于时间点数据恢复等。

SharedMergeTree 引擎下的集群扩展原理

在这里,我们简要介绍 SharedMergeTree 如何支持ClickHouse企业版自动进行集群扩展。提醒一下:ClickHouse企业版计算节点是具有访问共享存储的计算单元,其规格和数量可以更改。基于此机制,SharedMergeTree 完全将业务数据和元数据的存储与计算节点分离,并使用Keeper的接口去读取、写入和修改共享元数据。每个计算节点都有一个存储元数据的本地缓存,并通过订阅机制自动获取数据更改的通知。下图描述了如何使用 SharedMergeTree 将新服务器添加到集群中:

  1. 当Server-3 添加到集群时,这个新Server① 订阅 Keeper 中的元数据更改信息并将当前Parts的元数据获取到其本地缓存中。这不需要任何锁机制;
  2. ②新Server基本上只需说:“我在这里。请随时通知我所有数据更改”。
  3. ③新添加的Server-3 几乎可以立即参与数据处理,因为它通过从 Keeper 中只获取必要的元数据信息,找到有哪些数据以及在共享存储中的什么位置。

SharedMergeTree 引擎下的数据一致性原理

下图描述所有Server 节点如何知道新插入的数据,来保证查询数据一致性:

  • ① Server-1 接收到插入查询
  • ② Server-1将写入的数据以Part的形式写入共享存储。
  • ③ Server-1 还将关于该部分的信息存储在其本地缓存和 Keeper 中(例如,哪些文件属于该Part,以及与文件对应的块位于共享存储中的位置)。
  • ④ ClickHouse 向查询的发送者确认插入成功。其他节点(Server-2、Server-3)通过 Keeper 的订阅机制 ⑤ 自动得到存储层中存在新数据的通知,并将更新的元数据提取到其本地缓存中。

请注意,在步骤 ④ 之后,插入的数据是持久的。即使Server-1或其他任何节点崩溃,Part都存储在高可用的存储中,元数据存储在 Keeper 中(Keeper 具有至少 3 个 Keeper节点的高可用设置)。

从集群中移除节点也是一个简单且快速的操作。为了优雅地移除,相关节点只需从 Keeper 中注销,以便处理进行中的分布式查询时不会出现缺少服务器的警告。

ClickHouse企业版收益

在 ClickHouse企业版 中,SharedMergeTree 表引擎是 ReplicatedMergeTree 表引擎的更高效的替代品。为 ClickHouse企业版用户带来以下好处。

无缝集群扩展

ClickHouse企业版将所有数据存储在存储量几乎无限的共享存储中。SharedMergeTree 表引擎为所有表添加了共享的元数据存储。它实现了在该存储之上运行的节点几乎无限的扩展。服务器实际上是无状态的计算节点,我们可以立即改变它们的规格和数量,如下示例

假设 ClickHouse企业版用户当前正在使用三个节点,如下图所示:


通过简单地(手动或自动)将每个节点的大小翻倍,或者根据实例负载,将节点数量从三个翻倍到六个,用户可以实现计算能力的翻倍:


同时也会使写入吞吐量翻倍。对于 SELECT 查询,增加节点数会增加并发查询能力,以及单个查询的并发执行。请注意,在 ClickHouse企业版中增加(或减少)节点的数量不需要进行物理数据resharding或rebalancing,我们可以自由地添加或删除节点。而在shared-nothing架构下的集群中更改节点数量需要更多的工作和时间。如果一个集群当前由三个分片,每个分片由两个副本组成:


然后翻倍分片数量需要对当前存储的数据进行resharding和rebalancing:

插入操作的效率收益

对于开源 ReplicatedMergeTree,需要使用 insert_quorum 设置来确保数据的持久性,可以配置插入的数据仅在指定数量的副本上持久化好时返回给发送者。对于 SharedMergeTree,不需要 insert_quorum。如上所示,当插入成功返回给发送者时,查询的数据将存储在高可用的共享存储中,并且元数据集中存储在 Keeper中。

更轻量级的强一致性Select查询

如果您的使用场景对每个节点都返回相同的查询结果有一致性保证的要求,则可以运行 SYNC REPLICA 系统语句,这在 SharedMergeTree 中是一个更轻量级的操作。每个节点不需要在节点之间同步数据,只需从 Keeper 中获取当前版本的元数据即可。

集群吞吐和查询效率的线性提升

通过 SharedMergeTree,增加更多的节点不会导致性能下降。在 Keeper 资源充足的情况下,后台合并的吞吐量随着节点数量的增加而增加。对于显式触发的mutation(默认情况下为异步执行合并)也是如此。

这对于 ClickHouse 中的其他新功能具有积极的影响,例如 SharedMergeTree 为Lightweight Update提供了性能提升。同样地,特定引擎的数据转换(AggregatingMergeTree 的聚合,ReplacingMergeTree 的去重等)也受益于 SharedMergeTree 能够提供更好的合并吞吐量。这些转换在后台Parts合并过程中逐步应用。为了确保查询结果的正确性,用户需要在查询时通过使用 FINAL 修饰符或使用带有显式 GROUP BY 子句来合并还未合并的数据。在这两种情况下,更高的合并吞吐量都会加速查询的执行速度。因为此时查询所需要进行的数据合并工作较少。

SharedMergeTree 引擎的兼容性

SharedMergeTree 表引擎现在已经作为 ClickHouse企业版中默认的表引擎。ClickHouse企业版支持的 MergeTree 家族中的所有特殊表引擎,并都会自动基于 SharedMergeTree 进行更新。例如,当您创建 ReplacingMergeTree表时,ClickHouse企业版将在后台自动创建一个 SharedReplacingMergeTree表:

SharedMergeTree 的实际应用对比

在本节中,我们将展示 SharedMergeTree 的无缝写入性能扩展能力。

测试配置

在我们的测试 case 中,我们将 2022 年前六个月的 WikiStat 数据集加载到 ClickHouse企业版中的一张表中。为此,ClickHouse 需要从大约 4300 个压缩文件(一个文件代表一天的一个小时)中加载约 260 亿条记录。我们使用了四种不同数量节点的配置。每个节点都有 30 个 CPU和 120 GB 内存:

  • 3 个节点
  • 10 个节点
  • 20 个节点
  • 80 个节点

请注意,前两个集群配置都使用了一个3 节点 ClickHouse Keeper 服务,每个节点有 3 个 CPU和 2 GB 内存。对于 20 个节点和 80 个节点的配置,我们将 Keeper 的大小增加到每个节点有 6 个 CPU和 6 GB 内存。在数据加载运行期间,我们监控了 Keeper,以确保 Keeper 的资源不是瓶颈。

测试结论

Shared*MergeTree 并行使用的节点数量越多,期望数据加载速度越快,同时每个时间单位内创建的Parts也越多。为了实现 SELECT 查询的最大性能,有必要尽量减少处理的Parts数量。为此,每个MergeTree表引擎在后台不断将Parts合并成更大的Parts。每个表的默认健康Parts数量(表分区)是 3000 个(之前是 300 个)。

因此,我们测量了从开始加载数据起,到在数据写入完成,整个期间创建的Parts合并到少于 3000 个的健康数量所花费的时间。为此我们使用系统表上的 SQL 查询来监控活动Parts随时间的变化。

请注意,同时我们还选择了shared-nothing架构下的ReplicatedMergeTree表引擎进行写入参照。如上所述,这个表引擎并不适合支持高数量的副本节点。以下图表显示了将所有Parts合并为少于 3000 个健康Parts所花费的时间(以秒为单位):



SharedMergeTree 支持无缝的集群扩展。我们可以看到,在我们的测试中,后台合并的吞吐量与节点数量呈线性关系。当我们将节点数量从 3 增至 10 时,吞吐量也将增加三倍左右。当我们将节点数量再次增加 2 倍至 20,然后增加 4 倍至 80 时,吞吐量也分别增加了约两倍和四倍。正如预期的那样,使用ReplicatedMergeTree 在随着副本节点数量的增加时无法很好地扩展(甚至在较大的集群大小下会减少写入性能),而SharedMergeTree 则随着副本节点数量的增加而获得更好的扩展。因为它的复制机制不适用于处理大量副本的情况。为了完整起见,下图显示了将Parts合并少于 300个所花费的时间。



不同节点数详细结果对比

3 个节点

下图可视化了在具有 3 个副本节点的集群上进行基准测试,期间活动Parts的数量,成功加载数据所花费的秒数(见Ingest finished标记),以及在将Parts合并到少于3000 和 300 个活动Parts时所花费的秒数:我们可以看到两种表引擎的性能在这里非常相似。

我们可以看到两种表引擎在数据加载期间执行的合并操作的数量大致相同:

10 个节点

在10 个节点的集群中,我们可以看到一些不同之处:

写入时间的差异只有 19 秒。然而,当写入完成时,两种表引擎活动Parts的数量是非常不同的。对于使用 ReplicatedMergeTree,该数量要多三倍以上。并且将Parts合并到少于 3000 和 300 个活动Parts所花费的时间也要多两倍。这意味着我们可以更早地通过 SharedMergeTree 获得更快的查询性能。当写入完成时,大约 4 千个活动Parts的数量仍可以进行查询。而大约1万5个数量级时,则是不可行的。

对于从 WikiStat 数据集写入约 260 亿行的任务,这两种引擎都会创建大约 2万3千个初始Parts,每个部分大小约为 10 MB,包含大约 100 万行数据:

WITH
    'default' AS db_name,
    'wikistat' AS table_name,
    (
        SELECT uuid
        FROM system.tables
        WHERE (database = db_name) AND (name = table_name)
    ) AS table_id
SELECT
    formatReadableQuantity(countIf(event_type = 'NewPart')) AS parts,
    formatReadableQuantity(avgIf(rows, event_type = 'NewPart')) AS rows_avg,
    formatReadableSize(avgIf(size_in_bytes, event_type = 'NewPart')) AS size_in_bytes_avg,
    formatReadableQuantity(sumIf(rows, event_type = 'NewPart')) AS rows_total
FROM clusterAllReplicas(default, system.part_log)
WHERE table_uuid = table_id;
┌─parts──────────┬─rows_avg─────┬─size_in_bytes_avg─┬─rows_total────┐
│ 23.70 thousand │ 1.11 million │ 9.86 MiB          │ 26.23 billion │
└────────────────┴──────────────┴───────────────────┴───────────────┘

大约2万3千个初始Parts均匀分布在这 10 个副本节点上:

WITH
    'default' AS db_name,
    'wikistat' AS table_name,
    (
        SELECT uuid
        FROM system.tables
        WHERE (database = db_name) AND (name = table_name)
    ) AS table_id
SELECT
    DENSE_RANK() OVER (ORDER BY hostName() ASC) AS node_id,
    formatReadableQuantity(countIf(event_type = 'NewPart')) AS parts,
    formatReadableQuantity(sumIf(rows, event_type = 'NewPart')) AS rows_total
FROM clusterAllReplicas(default, system.part_log)
WHERE table_uuid = table_id
GROUP BY hostName()
    WITH TOTALS
ORDER BY node_id ASC;
┌─node_id─┬─parts─────────┬─rows_total───┐
│       1 │ 2.44 thousand │ 2.69 billion │
│       2 │ 2.49 thousand │ 2.75 billion │
│       3 │ 2.34 thousand │ 2.59 billion │
│       4 │ 2.41 thousand │ 2.66 billion │
│       5 │ 2.30 thousand │ 2.55 billion │
│       6 │ 2.31 thousand │ 2.55 billion │
│       7 │ 2.42 thousand │ 2.68 billion │
│       8 │ 2.28 thousand │ 2.52 billion │
│       9 │ 2.30 thousand │ 2.54 billion │
│      10 │ 2.42 thousand │ 2.68 billion │
└─────────┴───────────────┴──────────────┘
Totals:
┌─node_id─┬─parts──────────┬─rows_total────┐
│       1 │ 23.71 thousand │ 26.23 billion │
└─────────┴────────────────┴───────────────┘

但是 SharedMergeTree 引擎在数据加载过程中更有效地合并了这些部分:


20 个节点

当 20 个节点并行插入数据时,使用ReplicatedMergeTree 无法应对每单位时间内新创建的Parts数


尽管 ReplicatedMergeTree 在 SharedMergeTree 之前完成了数据插入过程,但活动parts的数量仍然持续增加到约 1 万个左右。因为ReplicatedMergeTree引擎仍然在复制队列中有需要在这 20 个节点之间进行复制的 insert  操作。通过这个查询我们获取了在复制队列中的 insert  数。处理该队列花费了将近 45 分钟。20 个节点每单位时间创建大量新的Parts会导致复制日志上的竞争过于激烈,并且锁和节点间通信的开销过高。减轻这种情况的方法是通过手动调整插入查询的一些设置来限制新创建部分的数量。例如,您可以减少每个节点的并行插入线程数(max_insert_threads),并增加写入每个新Parts的行数(min_insert_block_size_rows)。需要注意的是,后者会增加内存使用。

需要注意的是,测试运行期间 Keeper 的负载并未过载。以下截图显示了两种表引擎的 Keeper 的 CPU 和内存使用情况:

80 个节点

在我们的 80 个节点集群中,我们只将数据加载到一个 SharedMergeTree 表中。我们已经在上面解释了使用ReplicatedMergeTree 并不适用于更高的副本节点数的场景。

插入 260 亿行的过程在 67 秒内完成,平均速度为每秒 3.88 亿行。

Lightweight Update

SharedMergeTree是云原生服务的一个重要基础组成。它使我们能够在以前无法或过于复杂实现的情况下构建新的功能和改进现有功能。许多功能从 SharedMergeTree的架构下受益,使 ClickHouse企业版性能更强、更易用和高持久性。其中一个特性就是“Lightweight Update” - 一种可以在使用更少资源的情况下立即使 ALTER Update 查询的结果实时可见的优化。

开源版本 update 操作重且效率低

ClickHouse 中的 ALTER TABLE … Update是通过mutation来实现的。mutation是一个重型操作,可以同步或异步地重写Parts。

同步mutation


在我们上面的示例情况中,ClickHouse ① 接收一个对空表的插入操作,② 将插入的数据以新的Part写入存储中,并 ③ 确认插入。接下来,ClickHouse ④ 接收一个更新操作并通过 ⑤ mutate Part-1 来执行该操作。该Part被加载到内存中,执行修改,修改后的数据被写入和存储到新的 Part-2中(Part-1 被删除)。只有在该Part重写完成时,才会将 ⑥ 对更新操作的确认返回到更新的发起者。其他更新(或删除数据)也以相同的方式执行。对于较大的Part,这是一个非常重的操作。

异步mutation

默认情况下,为了将几个收到的更新融合到单个mutation中,更新操作是异步执行的,以减轻重写Parts对性能的影响:


当 ClickHouse ① 接收到更新操作时,更新会被添加到队列中并异步执行,② 更新查询立即获得更新的确认。

请注意,在更新被后台的mutation物化之前,表中的 SELECT操作不会看到更新的数据⑤。

此外,注意 ClickHouse 可以将排队的更新融合到单个Part重写操作中。因此,最好的做法是批量更新,并通过单个查询发送数百个更新操作。

企业版  Lightweight Update 轻量操作且实时性高

更新机制

Lightweight update 不再需要显式地对更新查询进行批处理,从用户的角度来看,即使在mutation异步物化时,来自单个更新操作的修改也会立即成功。下图描述了 ClickHouse 中的轻量级即时更新机制:


当 ClickHouse ① 接收到更新操作时,更新会被添加到队列并异步执行。② 此外,将更新操作的表达式会放入内存中。同时更新操作也存储在 Keeper上,并分发到其他节点。当 ③ ClickHouse 在更新还未通过Parts重写和物化之前接收到 SELECT 查询时,ClickHouse 将按照通常的方式执行 SELECT 查询 - 使用primary index来减少需要从Parts流到内存的数据集合,然后在流式传输的数据集合上应用来自 ② 的更新数据。这就是我们称之为 on [the] flymutation的机制。当 ④ 另一个更新操作被 ClickHouse 接收时,⑤ 查询的更新(这次是删除)表达式再次保存在内存中,然后 ⑥ 后续的 SELECT 查询将被执行,通过将(② 和 ⑤)更新表达式应用于流式传输的数据集合上。当 ⑦ 所有排队的更新都通过下一个后台mutation物化到parts上时,on-the-fly 更新表达式将从内存中删除。⑧ 新接收的更新操作和 ⑩ SELECT 查询将按照上述所述执行。

这个新的机制可以通过将 apply_mutations_on_fly 设置为 1 来启用。

实时性优势

用户无需等待mutation物化。ClickHouse 立即提供更新后的结果,同时使用更少的资源。此外,这使得 ClickHouse 用户更容易使用更新,而无需考虑如何批处理更新。

与 SharedMergeTree 的协同

从用户的角度来看,Lightweight Update的修改会立即生效,但在物化更新前,用户会体验到SELECT查询的性能稍微降低了,因为应用更新表达式会消耗一点查询时间。而随着更新在后台的合并操作中被物化,因此对查询延迟的影响会消失。SharedMergeTree 表引擎对后台合并和提升mutation的吞吐量和可扩展性都有帮助,因此mutation完成得更快,Lightweight Update后的 SELECT 查询也更快地恢复到全。

总结

在这篇博文中,我们探索了新的 ClickHouse企业版 SharedMergeTree 表引擎的机制。我们解释了为什么需要引入一种新的表引擎,包含垂直和水平可扩展的计算节层,及几乎没有存储上限对象存储层的读写分离架构。SharedMergeTree 可以在存储之上无缝且几乎无限地扩展计算层。插入和后台合并的吞吐量可以轻松扩展,这有助于 ClickHouse 中的其他功能,如Lightweight Update和特定引擎的数据转换。此外,SharedMergeTree 为插入提供了更好的持久性,为Select查询提供了更轻的强一致性。为新的云原生功能和改进打开了大门。我们通过基准测试展示了引擎的效率,并对由 SharedMergeTree 支持的,称为Lightweight Update的新功能,进行了详细的描述。

ClickHouse  企业版在成本,性能,稳定性上对比开源社区版都有极大的提升,具体对比如下:

云原生技术白皮书

为了帮助开发者学习,我们也基于此文内容整理发布《阿里云ClickHouse企业版技术白皮书 》,系统的介绍了企业版的技术架构和实现原理,欢迎点击下载交流学习

企业版邀测

我们期待看到这个新的表引擎能提升您在ClickHouse企业版使用场景中的性能。当前阿里云已经上线发布了基于 SharedMergeTree 的 ClickHouse  企业版,并启动邀测。欢迎您申请测试使用。点击以下链接或扫描以下二维码提交邀测申请单,

申请链接:https://survey.aliyun.com/apps/zhiliao/oGSFR5mdN

也可以钉钉扫描我们的社区二维码,加入 ClickHouse 技术交流群和我们一起讨论。

       

相关文章
|
22天前
|
存储 弹性计算 监控
【阿里云云原生专栏】成本优化策略:在阿里云云原生平台上实现资源高效利用
【5月更文挑战第29天】本文探讨了在阿里云云原生平台上实现资源高效利用和成本优化的策略。通过资源监控与评估,利用CloudMonitor和Prometheus等工具分析CPU、内存等使用情况,识别浪费。实施弹性伸缩策略,利用自动伸缩规则根据业务负载动态调整资源。借助容器化管理和Kubernetes编排提高资源利用率,优化存储选择如OSS、NAS,以及网络配置如VPC和CDN。示例展示了如何使用Kubernetes的HorizontalPodAutoscaler进行弹性伸缩,降低成本。
121 4
|
22天前
|
边缘计算 Cloud Native 数据管理
【阿里云云原生专栏】云原生背景下的AIoT布局:阿里云Link平台解析
【5月更文挑战第29天】阿里云Link平台,作为阿里云在AIoT领域的核心战略,借助云原生技术,为开发者打造一站式物联网服务平台。平台支持多协议设备接入与标准化管理,提供高效数据存储、分析及可视化,集成边缘计算实现低延时智能分析。通过实例代码展示,平台简化设备接入,助力智能家居等领域的创新应用,赋能开发者构建智能生态系统。
116 3
|
22天前
|
存储 Kubernetes Cloud Native
【阿里云云原生专栏】云原生容器存储:阿里云CSI与EBS的高效配合策略
【5月更文挑战第29天】阿里云提供云原生容器存储接口(CSI)和弹性块存储(EBS)解决方案,以应对云原生环境中的数据存储挑战。CSI作为Kubernetes的标准接口简化存储管理,而EBS则提供高性能、高可靠性的块存储服务。二者协同实现动态供应、弹性伸缩及数据备份恢复。示例代码展示了在Kubernetes中使用CSI和EBS创建存储卷的过程。
154 3
|
7天前
|
人工智能 监控 Cloud Native
多款可观测产品全面升级丨阿里云云原生 5 月产品月报
多款可观测产品全面升级丨阿里云云原生 5 月产品月报。
|
23天前
|
弹性计算 运维 监控
【阿里云云原生专栏】自动化运维的艺术:阿里云云原生平台的自动化运维工具集
【5月更文挑战第28天】阿里云云原生平台提供全面的自动化运维工具,涵盖监控告警、资源管理、部署更新、故障自愈、安全管理和数据备份等方面,简化运维工作,增强系统稳定性。通过智能工具集,运维人员能专注于业务优化,实现高效运维,为企业数字化转型提供有力支持。
159 3
|
23天前
|
供应链 Cloud Native 安全
【阿里云云原生专栏】云原生与区块链的交响曲:阿里云 BaaS 平台的应用展望
【5月更文挑战第28天】阿里云BaaS平台融合云原生与区块链技术,提供一站式便捷、高性能且安全的区块链服务。在供应链和金融等领域应用广泛,如智能合约示例所示,助力数字化转型。未来,两者融合将深化,创造更多应用模式。企业和开发者应把握机遇,借助阿里云BaaS平台开创未来。
243 1
|
23天前
|
运维 监控 安全
【阿里云云原生专栏】云原生时代的 DevSecOps:阿里云的安全开发流程实践
【5月更文挑战第28天】在云原生时代,面对安全新挑战,阿里云践行DevSecOps理念,将安全贯穿于开发运维全过程。通过安全需求分析、设计、代码审查、测试及持续监控,确保云原生应用安全。例如,Kubernetes配置中加入安全设置。阿里云还提供多种安全服务和工具,如身份认证、云防火墙等,助力用户构建安全可靠的云应用,为数字化转型保驾护航。
121 4
|
24天前
|
Cloud Native 安全 Serverless
【阿里云云原生专栏】低代码开发在云原生平台的应用:阿里云低代码服务探索
【5月更文挑战第27天】在云原生时代,低代码开发凭借其图形化界面和预构建模块,简化了应用开发,提升了效率。阿里云积极探索低代码领域,推出函数计算FC和应用配置中心ACM等服务。FC让开发者无需关注基础设施,仅需少量代码即可实现应用部署,而ACM则提供动态配置管理,增强应用灵活性。阿里云的这些服务为企业数字化转型提供了高效、安全的解决方案,预示着低代码开发在云原生平台上的重要地位。
203 1
|
24天前
|
SQL 监控 安全
【阿里云云原生专栏】云原生安全体系构建:阿里云云防火墙与WAF的应用
【5月更文挑战第27天】阿里云云防火墙和WAF是构建云原生安全体系的关键产品,提供网络、主机和Web应用多维度防护。云防火墙采用分布式架构抵御网络攻击,确保应用安全稳定;WAF专注Web应用安全,防止SQL注入、XSS和DDoS等威胁。简单部署配置,结合使用可实现全面安全防护,提升企业云上应用安全性,保障业务安全运行。未来,阿里云将持续强化云原生安全建设。
212 1

热门文章

最新文章