一文剖析PolarDB HTAP的列存数据压缩

本文涉及的产品
RDS PostgreSQL Serverless,0.5-4RCU 50GB 3个月
推荐场景:
对影评进行热评分析
云原生数据库 PolarDB 分布式版,标准版 2核8GB
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
简介: PolarDB MySQL是阿里云自研的云原生数据库,主要处理在线事务负载(OLTP, OnLine Transactional Processing),深受企业用户的青睐。

前言

数据库迁移上云是大数据时代的一大趋势,PolarDB MySQL是阿里云自研的云原生数据库,主要处理在线事务负载(OLTP, OnLine Transactional Processing),深受企业用户的青睐。当下,数据分析对于企业的重要性越发显著:企业使用数据驱动决策,利用分析结果精准调配资源,从而降低成本,提升企业效率,推动业务创新,快速适应外部环境的变化。然而,传统数仓架构的滞后性限制了企业的创新步伐。因此,企业对OLTP数据库提出更高的要求,希望能在OLTP数据库同时进行复杂的实时分析(OLAP, OnLine Analytical Processing),及时应对业务环境的高速变化。


为满足混合负载(HTAP, Hybrid Transactional/Analytical Processing)的需求,部分客户选择了MySQL + Clickhouse的方案,但困扰于着两套独立系统的高使用和高维护成本,以及系统间的数据不一致等问题。客户寻求在一套系统上完美地应对HTAP负载的解决方案。对此,PolarDB MySQL 技术团队提出了基于In-Memory Column Index(以下简称IMCI)的HTAP技术方案,在PolarDB MySQL行存支持OLTP的基础上,原生地构建列存索引以及实现列存计算引擎,支持高效地实时分析,在TPC-H测试中获得数百倍于行存的加速效果。关于PolarDB HTAP和IMCI的详细介绍参考《400倍加速, PolarDB HTAP实时数据分析技术解密》[1]。


本文介绍数据的压缩方法以及PolarDB HTAP在列存数据压缩上的工作。PolarDB MySQL作为云原生数据库,具有存储计算分离的特点,计算资源独可以进行按需分配,而存储始终固定存在且持续增长的,需要压缩对存储成本进行控制。IMCI的数据存储是为列存格式,列数据相比于行数据具有更高的相似性,利于数据压缩。通过压缩,IMCI在大部分业务场景将列存存储空间减少到十分之一,大幅减少客户的存储成本。另外IMCI通过数据压缩,减少数据的大小和存储访问开销,并探究将计算下推到压缩数据从而加速分析,进一步为客户提供更好的OLAP查询性能,实现HTAP系统性能和成本的兼得。


后文主要分为4个部分,在“数据压缩概述”部分我们从数据压缩的理论基础——信息论谈起,结合数据库中的数据压缩问题进行讨论。在“压缩算法分类和介绍”中,我们将压缩方法分为通用压缩和轻量压缩,介绍数据库中最常见的通用压缩方法原理,然后逐一介绍轻量压缩,并讨论字符串的轻量字典压缩,为下一个部分铺垫。在“延迟解压加速计算”部分,我们介绍压缩数据上的直接查询的优化技术,又称为延迟解压技术,然后分析基于字符串字典压缩优化的原理和难点。最后,我们进行“总结以及后续工作”的讨论,展望PolarDB HTAP在数据压缩方向的后续工作。


数据压缩概述

压缩算法包括无损压缩和有损压缩,本文我们只讨论无损压缩,即解压后的文本与压缩前的文本完全相同,后文的“压缩”都是指无损压缩。压缩算法由编码和解码两部分构成,编码和解码本质上是将文本映射到另一个更紧凑的文本空间以及逆映射的过程。


压缩与概率是紧密相关的。所有的压缩算法对于输入数据都有一定的预先假设,这种假设可以用概率描述,例如假设某种数据重复的概率或某几种数据一起出现的概率高。香农的论文《通信的数学原理》,被视为现代信息论研究的开端,正是信息论将数据出现的概率和数据所需编码长度联系起来。在论文中,香农从统计物理学中借鉴了熵的概念,定义了信息熵[2]:

image.png

image.png

H(S)即信息熵,S是所有信息s构成的集合,p(s) 是信息s出现的概率,s ∈ S。i(s)表示需要编码单个信息所需要的比特数,而信息熵H(S)是i(s)以概率p(s)为权重的加权平均,表示编码信息集合S所需的总比特数。


举个例子简单理解这两个公式。我们假设96个可打印字符出现的概率相同,那么编码每个字符需要的平均比特数,即i(s) = log_2(96) = 6.6 bits/char,显然,至少7 bits才可以表示96(2^7=128)个不同的字符。如果我们基于一个英文文本集(例如Calgary Corpus)进行统计,使用字符的频率近似概率,计算出信息熵的平均值i(s)为4.5 bits/char,具体编码可以通过huffman编码算法得到。这个估算认为字符间是独立的,如果考虑上相邻字符、单词间的关联结合超大文本进行统计,编码字符所需要的比特数是1.3 bits/char,8/1.3 = 6.15近似为任意英文文章的压缩比的上界。


通用压缩算法对输入数据仅做简单的假设,如假设数据存在局部相似性等。GZIP和BOA在Calgary Corpus文本集的压缩效果为2.7 bits/char和2.0 bits/char,如果要更接近英文文本的压缩上界,通用压缩算法需要英文词频和语法等作为输入,这将影响其通用性。我们在下一部分对常见通用压缩算法的原理进行简单介绍。

image.png

编码可打印字符所需要的比特数,因此数值越小,说明压缩效果越好,图源自[2]。


了解压缩与概率的关联后,我们看看数据库系统中的数据压缩问题。首先我们关注OLTP数据库和OLAP数据库的数据存储格式,常见的OLTP数据库的存储引擎包括基于B+Tree的innodb和基于LSM-Tree的X-Engine和rocksDB等,它们使用行式存储,表数据按行水平分割,每个记录会包含各个不同的列。而OLAP数据库使用列式存储,表数据按列垂直分割,每列数据单独存储。假设使用通用压缩算法,同一列数据的局部相似性一般高于不同的列,因此列存相比行存天然具有更高的压缩比。

image.pngimage.gif

行式存储,表数据按行水平分割 vs 列式存储,表数据按列垂直分割


另一方面由于列存按列组织数据,因此不同的列可以选择不同的压缩算法,在下一部分我们将看到轻量压缩根据不同列的类型和特征,借此获得远高于通用压缩的压缩比和压缩解压性能。


论文[3]分析了列存相对行存加速查询的原因,包括高压缩,批处理和延迟物化等,其中仅考虑压缩,相比行存,列存数据库平均获得10倍以上的查询加速比。我们在IMCI的TPC-H测试中验证了这一结论,而且在业务真实数据中可以达到平均10倍的压缩比。可见数据压缩对于列存数据库尤为重要。


压缩算法分类和介绍

学术上对于压缩算法已经有了相当充分的研究,最新的学术工作开始探索深度学习方法更精确地估计数据的概率分布,从而提升压缩比,但暂未有大规模的实际应用。大部分压缩算法的区别在于工程上的优化。我们将压缩分为通用压缩和轻量压缩,通用压缩对输入不做复杂的假设,以块为粒度压缩数据,适用于各类数据;轻量压缩的使用存在限制条件,需要数据满足一定特性,例如有序性,distinct值少等,但压缩比,压缩和解压速度上优于通用压缩,并能进一步优化查询。两类压缩算法不冲突,通常会结合使用获得更高的压缩比。


通用压缩

我们简要介绍LZ4和ZSTD,它们是在目前数据库领域最为常用的两种快速压缩算法,相对于其他通用压缩算法,它们的压缩和解压性能较为突出,更适合数据库的数据访问模式。LZ4的特点是解压速度快,但压缩比一般,在lzbench标准测试中,解压速度达到4.97GB/s。Zstd 全称为Zstandard,定位是提供高压缩比的快速压缩算法,由Facebook于2016年发布的。Zstd 采用了有限状态熵(FSE,Finite State Entropy)编码器,获得了更高的压缩比的同时解压性能仍然保持在较高水平,lzbench测试中解压速度到 1.38GB/s。


事实上,包括LZ4和ZSTD在内,常见的snappy, zlib, gzip等压缩算法都属于LZ77算法的变体,因此我们简单介绍LZ77算法的原理。


LZ77 算法及其变体都使用了随cursor移动的滑动窗口。Cursor指向当前需要压缩的第一个位置,并把窗口分为两部分,cursor之前的部分,称为字典;包含cursor开始的部分,称为lookahead buffer。这两个部分的大小是由参数设置,在算法执行过程中是固定的。基本算法非常简单,循环执行以下步骤:


  1. 查找从cursor开始并完全包含在lookahead buffer中的字符串与字典中的字符串的最长匹配。
  2. 输出一个压缩结果三元组 (p, n, c),为字典中的位置p、匹配的长度 n 和匹配部分的下一个字符c。p是相对cursor的距离,具体含义是匹配字符串在字典中的第一个字符相对cursor的偏移量。
  3. 将光标向前移动 n + 1 个字符。


我们举个例子,如下图所示,使用LZ77算法压缩字符串aacaacabcabaaac,围绕字符的方框表示cursor,加粗的字符串部分是字典,大小为5,下划线字符串部分为lookahead buffer,大小为4(包括cursor指向的字符)。

image.png

LZ77算法压缩字符串aacaacabcabaaac, 压缩结果为(0, 0, a), (1, 1, c), (3, 4, b), (3, 3, a), (1, 2, c)


step1: 滑动窗口的字典部分为空,lookahead buffer为aaca,字典为空无法匹配,直接输出(0, 0, a)。

step2: 当前字典为a,lookahead buffer为acaa,匹配a后的下一个字符为c,输出(1, 1, c)。

step3: 当前字典为aac,lookahead buffer为aaca,在step3中,未优化的情况下,匹配到aac时应该结束,优化处理后实际匹配的字符串为aaca,下一个字符为b,输出(3, 4, b)。

step4: 当前字典为caacab,lookahead buffer为caba,匹配cab后的下一个字符为a,输出(3, 3, a)。

step5: 当前字典为abcaba,lookahead buffer为aac,类似step3,匹配aa后的下一个字符为c,输出(1, 2, c)。


step3和step5产生的(3,4,b)和(1,2,c)比较特殊,仔细观察会发现匹配的字符串超出了字典,即n > p,此时字典匹配在cursor的边界[cursor - p, cursor - 1],这部分被当成ring buffer, 匹配到末尾后又从头开始匹配,实现了对连续重复字符串的编码优化,这个压缩效果和下面介绍的轻量压缩中的RLE编码效果相似。结合解压过程动态产生字典的过程,可以更好理解这个处理。


解压比较简单,整个过程是边解压边使用之前解码的数据作为当前字典。step3和step5的需要特殊处理,当字典中出现的位置p小于匹配的长度 n,将p到cursor的字符串复制n / p次后加上剩下的n % p个字符即可。


从LZ77算法的原理中,我们不难理解为什么LZ4, ZSTD等LZ77变种的算法在压缩和解压方面的性能具有不对称性。这种不对称性体现在随着压缩等级增大,压缩比增加,压缩速度下降,但解压速度几乎不受影响,因为压缩过程中的计算复杂度取决于字典窗口的大小和匹配字符的长度等,而解压的过程仅仅是从字典中定位,拷贝数据到输出中。


轻量压缩

前文提到通用压缩以块为粒度压缩数据,这导致数据的随机访问存在读放大问题,即读取一个记录需要将块中所有的记录进行解压,计算代价大。这在内存计算为主的场景中严重影响性能,因此通用压缩常用于落盘数据,而内存压缩,使用轻量压缩方法。下面分字符串类型编码,数值类型编码,数据类型无关编码三个类别讨论轻量压缩方法。


[字符串类型编码]

  • Prefix编码:前缀编码(incremental encoding/front coding),通过将字符串按字典序排列,将当前字符串表示为和上一个字符串重复的部分的长度 + 不重复的剩余部分。


[数值类型编码]

  • FOR编码:FORFrame Of Reference存储与最小值进行相减后的结果。无须数据有序,压缩和解压速度很快,可以在压缩后的数组上进行O(1)随机访存,只需要额外存储的最小值信息。
  • Delta编码:存储两两相邻相减的结果,有序存储的数据,两两相邻相减后的结果取值范围很小,例如主键两两相邻相减后近似常数。
  • NS编码: Null Supression, NS算法本质是设计新的编码,尽量只存储数据的有效位(非0位),节省前缀存在的连续的0的存储开销。学术界主要关注这类轻量压缩算法,设计了诸多编码结合SIMD优化, 代表性的varint-GB, SIMD-BP128, simple_8b, fastpfor等,也在业界广泛使用,例如google的protobuf即使用了varint进行编码。NS假设待压缩数据为非负数(因为负数补码最高为1,不存在无效位)。常见和FOR编码, Delta编码等结合使用,例如FOR编码, Delta编码逻辑上将数据范围从int64缩小到int16,再使用NS编码将数据物理存储代价减少到int16即可。


[数据类型无关编码]

  • 字典编码:字典编码本质是将重复性较高的一段数据作为字典entry,使用字典下标number替代原文的字典entry,达到压缩的目的。解压过程,将下标对应的数据从字典中取出即可。我们按字典entry的设计简单将字典编码分为三个子类。
  • Entry为完整的单个记录(例如完整的字符串),编码后原数据用字典中的下标替代,适用于distinct值较少的列。
  • 使用base + offset处理数值数据,Entry为base,原数据编码后为(下标, offset)的二元组。
  • 使用common prefix + suffix处理二进制数据,Entry为common prefix,编码后为(下标, suffix)的二元组。
  • RLE编码:要求连续重复的数据尽可能集中在一起,因此需要排序。编码结果为(value,length,position)的三元组,例如0,0,1,1,1...的数据,编码为(0, 2, 0),(1, 3, 2),压缩效果取决于avg run length,压缩比近似data size/avg run length。
  • Bitmap编码:distinct值极端少的情况下使用bitmap压缩,例如数据为性别male, female,转化为两个bit位数等同于列数据长度的bitmap。bitmap本身就有集合的语义,可以用于group by等操作的优化以及集合运算。
  • Constant编码:针对近似Constant的数据,出现频率最高的数据视为Constant,而只记录所有不等于这个Constant的异常值和它们的行号,Constant编码在实际业务数据中对应使用了默认值的列。


对比通用压缩算法和轻量压缩算法介绍,不难发现轻量压缩算法的压缩和解压较为简单,计算代价小,并且压缩后的数据仍然可以参与计算,例如RLE编码后的数据用于加速求和,FOR编码的数据更紧凑,CPU计算效率更高。


字符串的轻量字典压缩

本节我们展开讨论字符串的字典压缩算法,我们按构建字典entry的粒度将字典压缩分为三类:对整个字符串,子字符串和单个字符编码的字典。分别使用direct map,pattern map,char map区分三类算法。这三类算法及对应的典型算法如下:

  1. direct map: dictionary
  2. pattern map: FSST,见论文[4]
  3. char map: huffman


其中,从算法1->算法3,算法的通用程度低->通用程度高解压速度高->解压速度低,压缩比则与实际数据的分布有关。对于cardinality较小的数据如category类的数据应使用dictionary,可获得较高的压缩比。对于pattern skew的情况,例如urls集合,FSST更适用。Huffman编码在GZIP和ZSTD中使用,使用Huffman编码对滑动窗口压缩过的数据再进行压缩,进一步增加压缩比。


字典压缩算法通常具有保序性: 如下图所示字典映射后原字符串和编码相对顺序不变,方便直接在压缩数据上进行range查询优化。

image.png

保序性示例,压缩编码后的数据顺序不变, abc(8) < abcdef(17) < xyz(95),括号内为编码后的数据


编码方式的变长vs定长,变长的压缩比更高,但解压速度更慢,变长数据通过padding可以转化为定长,便于使用SIMD加速计算。direct map则是定长编码,而pattern map和char map为变长,编码方式影响三者的解压速度。

image.png

三类字符串字典压缩示例,从左到右,压缩的粒度从高到低,通用程度低->通用程度高,解压速度高->解压速度低。


延迟解压加速计算

数据压缩能减少存储空间和IO的开销,代价是需要支付额外的计算资源对数据进行解压,是时间换空间的trade-off。由于IO带宽相比计算资源更容易成为瓶颈,因此开启压缩后,性能会提升。但数据在内存压缩时,数据解压占用计算资源,降低并行度,可能导致列存查询成倍的性能下降。因此如果条件允许,避免解压或者延迟解压,直接在压缩数据上查询是有必要的。例如对于以下查询:

SELECT COUNT(1) FROM table_a WHERE col_1 = "xxx";


假设我们将col_1列数据以压缩后的编码存放,并在执行查询时使用字典将查询条件中的字符串"xxx"映射为数字,查询时就能使用字典压缩结果与"xxx"的映射值直接进行比较,从而将string比较转化为int数据比较,可减少内存带宽压力和计算代价,提高性能。


可见在特定的查询和使用了特定的压缩算法下,我们能够直接在压缩数据上查询,由于数据压缩后比较的计算量减少,内存中可cache更多数据,查询性能将有明显的提升。Oracle IMC,DB2 BLU等列存产品实现了尽可能避免解压操作的优化,而且将该优化作为和同类列存产品对比的一个重要特征。本节我们介绍论文[5]的直接查询压缩数据的算法原理。


支持延迟解压的算子


[SCAN下推]

Scan算子的延迟解压加速,主要是谓词下推,在压缩数据上直接过滤。

string类型数据,对于string类型字典压缩:


  • 使用保序direct map字典编码,压缩后数据类型由string -> int,通过重写查询,将string比较转化为int数据比较,可支持QE, NE, Between, LT, GE, IN, 前缀的like等比较,适用于cardinality不大的列(50,000~100,000)。

image.png

direct map字典编码,编码后的数据具有保序性,图中'Whole Milk*'模糊匹配被改写为p_name的[32000, 32100]中的range查询。


  • 使用Pattern map例如FSST, 压缩后仍然是string,可支持QE, NE, IN等操作。由于Pattern map字典不保序摸,因此只支持点查询的延迟解压。

image.png

Pattern map字典的查询改写。延迟解压主要加速点查询。


int类型数据,例如int64类型使用FOR算法压缩到15bits,当查询条件为 col = value,则将value改写为value - min即可。


[JOIN]

论文[5]提到RLE和bit vector编码,以nested loop join为例,当发现其中一列为RLE时,便能跳过k次比较(k 是run length)。此为如果使用了全局字典,即不同的列使用了相同的字典压缩,那两列可以直接进行延迟解压的比较操作,返回匹配的行id,从而加速JOIN。


[GROUPBY聚合]

数据以RLE编码,bitmap编码或者字典编码时可以加速groupby聚合。RLE,bitmap和字典相当于已经进行一轮聚类,在这基础上,可以对例如aggregation, distinct计算进行优化,例如RLE编码的求和转化为v * run length的和,distinct相关计算仅需要扫描字典或者返回字典大小。


压缩数据SCAN的谓词下推

AP查询通常需要扫描大量落盘数据。压缩数据SCAN的谓词下推,常与字典压缩算法结合,实现延迟解压加速查询。压缩数据SCAN的谓词下推,主要包括以下3个过程:

  1. 元信息检查,是否符合延迟解压的条件。
  2. 谓词改写,使用相同的字典改写查询条件。
  3. 谓词下推,扫描压缩数据,返回匹配行。


实际上,在数据库中字符串的比较,不仅需要考虑charset,还要考虑collation。Collation定义了字符集中元素的顺序,它本质是一种映射,将字符映射为可比较顺序的编码。如果collation为二进制序binary,直接在压缩数据上比较没有问题,但几乎所有字符集默认的collation不是binary,例如latin1字符集的默认collation为latin1_swedish_ci,下图为该collation的部分截图。可以看到尽管A, a等二进制编码不同,但在比较时被认为是相同。大部分collation问题在于它是n对1的映射关系,而无损压缩算法是1对1映射,因此无法直接使用压缩后的编码进行比较

image.png

左侧为图例,collation次序图中可以看到在latin1字符集,collation为latin1_swedish_ci的情况下,ascii码为41, 61, C0...E3编码的字符在比较时是相同的collation序。


我们举个例子来说明这个问题,字符串“abc”, “abcdef”, “xyz”, “åbc”字典压缩后为“8,17,95,100”,压缩后是保证字典序的,“abc”和 “åbc”仅看压缩的编码“8”和“100”是不同的,在带collation的比较时却被认为是同一个字符串,因此无法运用延迟解压,必须进行解压后使用带collation的比较。那问题是可以使用collation顺序代替字典序吗?显然是不行的,如果我们只保存collation,在这个例子中,如果要解码数字1,它即可以是“abc”,又可以是“åbc”,无法逆映射,可见collation只能用于顺序的比较。

image.png

带collation的比较问题:在这个例子中,åbc和abc在字典编码的位置是保序的 8 < 100,但实际比较时带collation会认为它们相同(都是1),如果希望延迟解压优化,那么8和100需要被映射到1,这是一个额外信息,无法在不解压字符串的情况下获得(黄色曲线表示encode空间到collation空间的变换,有个“X”表示无法直接使用字符串的collation进行这个变换)


一个解决方案是通过额外保存collation结果,可以加速使用列默认collation进行比较的查询。通过存储collation结果,可以在字符串比较时节省计算,缺点是存储collation编码需要额外内存和存储空间,对压缩比有更高的要求。在IMCI中,我们验证了压缩数据SCAN的谓词下推效果,在不同的scan查询场景中获得了3 ~ 20倍的查询加速。


总结以及后续工作

数据压缩作为数据库一项重要技术,在列存执行中结合延迟解压,在系统性能和成本的平衡中起到关键作用。本文首先介绍数据压缩的理论基础,信息论,其为压缩效果定义了边界,然后分析了数据压缩在行存和列存数据库中的不同。压缩方法分为通用压缩和轻量压缩,数据库中最常见的通用压缩算法LZ4和ZSTD都基于LZ77算法,然后我们逐一介绍轻量压缩方法。随后我们讨论轻量压缩数据上的直接查询技术,在该部分我们介绍基于字典压缩实现字符串延迟解压的原理,对性能的影响以及需要解决的问题。


IMCI是PolarDB迈向数据分析市场的第一步,接下来我们将始终如一地深挖技术,结合业务场景,优化HTAP细节并落实到客户的实际应用,为客户降本增效持续赋能。最后,我们展望PolarDB HTAP在压缩技术方面的后续工作:

  1. 探索压缩相关的最新的学术研究成果在用户实际场景的最佳实践。
  2. 在基于规则的列压缩选择算法上,探索并落地基于schema和数据特征实现按列的智能压缩算法选择。
  3. 探索数据内存压缩技术,增大内存的数据密度,同时利用延迟解压的技术方案,加速查询,实现性能和成本的兼得。


立即免费体验 PolarDB HTAP能力,2000元测试代金券限量领。----》https://www.aliyun.com/database/dbfirstbuy


参考

  1. 400倍加速, PolarDB HTAP实时数据分析技术解密 阿里云社区
  2. Introduction to Data Compression. Guy E. Blelloch.
  3. Daniel J. Abadi, Samuel R. Madden, and Nabil Hachem. 2008. Column-stores vs. row-stores: how different are they really? In Proceedings of the 2008 ACM SIGMOD international conference on Management of data (SIGMOD '08). Association for Computing Machinery, New York, NY, USA, 967–980.
  4. Peter Boncz, Thomas Neumann, and Viktor Leis. 2020. FSST: fast random access string compression. Proc. VLDB Endow. 13, 12 (August 2020), 2649–2661.
  5. Daniel Abadi, Samuel Madden, and Miguel Ferreira. 2006. Integrating compression and execution in column-oriented database systems. In Proceedings of the 2006 ACM SIGMOD international conference on Management of data (SIGMOD '06). Association for Computing Machinery, New York, NY, USA, 671–682.
相关实践学习
使用PolarDB和ECS搭建门户网站
本场景主要介绍基于PolarDB和ECS实现搭建门户网站。
阿里云数据库产品家族及特性
阿里云智能数据库产品团队一直致力于不断健全产品体系,提升产品性能,打磨产品功能,从而帮助客户实现更加极致的弹性能力、具备更强的扩展能力、并利用云设施进一步降低企业成本。以云原生+分布式为核心技术抓手,打造以自研的在线事务型(OLTP)数据库Polar DB和在线分析型(OLAP)数据库Analytic DB为代表的新一代企业级云原生数据库产品体系, 结合NoSQL数据库、数据库生态工具、云原生智能化数据库管控平台,为阿里巴巴经济体以及各个行业的企业客户和开发者提供从公共云到混合云再到私有云的完整解决方案,提供基于云基础设施进行数据从处理、到存储、再到计算与分析的一体化解决方案。本节课带你了解阿里云数据库产品家族及特性。
相关文章
|
存储 OLAP OLTP
漫谈OceanBase 列式存储
列式存储主要的目的有两个: 大部分OLAP查询只需要读取部分列而不是全部列数据,列式存储可以避免读取无用数据; 将同一列的数据在物理上存放在一起,能够极大地提高数据压缩率。 OLAP和OLTP OLAP,也叫联机分析处理(Online Analytical Processing)系统,有的时候也叫DSS决策支持系统,就是我们说的数据仓库。
6325 0
|
4天前
|
存储 缓存 调度
性能提升利器|PolarDB- X 超详细列存查询技术解读
本文将深入探讨 PolarDB-X 列存查询引擎的分层缓存解决方案,以及其在优化 ORC 列存查询性能中的关键作用。
|
4月前
|
缓存 测试技术 调度
PolarDB-X的TPC-H列存执行计划
本文从官方的角度逐条解析PolarDB-X在TPC-H列存执行计划的设计要点。这些要点不仅包含了各项优化的原理,还提供了相关的证明与代码实现,希望帮助读者更深入地理解PolarDB-X的列存优化器。
7976 13
|
7月前
|
存储 关系型数据库 分布式数据库
PolarDB-X HTAP新特性 ~ 列存索引
随着数据爆炸式的增长,传统的OLTP和OLAP解决方案基于简单的读写分离或ETL模型,将在线库的数据以T+1的方式抽取到数据仓库中进行计算,这种方案存在存储成本高、实时性差、链路和维护成本高等缺陷。 为应对数据爆炸式增长的挑战,PolarDB分布式版本基于对象存储设计了一套列存索引(Clustered Columnar Index,CCI)功能,支持将行存数据实时同步到列存存储上
76167 148
|
7月前
|
存储 关系型数据库 分布式数据库
阿里云PolarDB解决乐麦多源数据存储性能问题
乐麦通过使用PolarDB数据库,使整个系统之间的数据查询分析更加高效
422 3
|
存储 关系型数据库 MySQL
PolarDB的性能对比
PolarDB的性能对比
403 1
|
存储 弹性计算 关系型数据库
PolarDB HTAP 详解
PolarDB HTAP 详解
234 0
|
存储 文件存储 索引
GreenPlum列存解密
GreenPlum列存解密
239 0
|
存储 运维 关系型数据库
PolarDB-X 读写分离与 HTAP| 学习笔记
快速学习 PolarDB-X 读写分离与 HTAP。
PolarDB-X 读写分离与 HTAP| 学习笔记
|
NoSQL 固态存储 关系型数据库
TiDB、OceanBase、PolarDB-X、CockroachDB二级索引写入性能测评
二级索引是关系型数据库相较于NoSQL数据库的一个关键差异。二级索引必须是强一致的,因此索引的写入需要与主键的写入放在一个事务当中,事务的性能是二级索引性能的基础。本次测试将重点关注不同分布式数据库的索引性能,特别关注业内全局索引的性能与MySQL索引的性能差异。
TiDB、OceanBase、PolarDB-X、CockroachDB二级索引写入性能测评

相关产品

  • 云原生数据库 PolarDB