AliSQL DuckDB:数据压缩与归档分析实践

简介: 书接上文《别再嫌弃MySQL了!AI时代,当DuckDB拥抱MySQL》,继AliSQL Innovate用户社区大会之后,我们正式开启《DuckDB技术解读》系列。本文为第一篇,聚焦数据压缩与归档能力,详解AliSQL如何通过深度集成DuckDB,在保留MySQL生态兼容性的前提下,原生支持高密度存储与高效分析。

引言

随着业务增长,存储开销与历史数据可分析性往往同时成为瓶颈:一方面,InnoDB 以行存与索引页为核心组织方式,在宽表、日志类与分析型查询场景下磁盘占用上升很快;另一方面,用户又希望把更长周期的数据保留下来用于 AP 分析与追溯,随时查询和复用归档的数据。


AliSQL引入 DuckDB 作为存储引擎,使 MySQL 在归档与分析场景中具备更强的压缩与扫描能力:数据以列式形态组织落盘,并在 checkpoint 写入阶段对每一列执行自适应编码与压缩选择,从而显著降低落盘体积,同时提升面向列扫描的查询效率。在此基础上,AliSQL还对 DuckDB 压缩过程进一步优化,结合存储层硬件压缩能力,进一步降低存储成本。本文将浅析 DuckDB 的压缩原理,并结合对比与实践说明 AliSQLDuckDB 存储引擎对归档与 AP 分析的价值。


DuckDB 中的压缩

DuckDB 中数据压缩过程

DuckDB 的表存储格式可抽象为四个层次:一张表(Table)首先以行(Row)为单位进行横向切分,形成多个 Row Group;每个 Row Group 再以列(Column)为单位纵向切分为多个 Column Data;每个 Column Data 继续以行(Row)为单位横向切分为多个 Column Segment;而 Column Segment 则对应实际落盘的数据单元,通常映射为一个约 256KB 的 Data Block,但在某些情况下也可能与其他 Column Segment 共享同一个 Data Block。


在表存储格式的层级中,DuckDB 数据压缩的处理单位是 Column Data。在 Column Data 内部,与压缩密切相关的成员主要包括三个:检查点状态集 checkpoint_states、压缩函数集 compression_functions 以及压缩分析状态集 analyze_states。其中,checkpoint_states 用于保存列在 checkpoint 过程中的上下文信息;在一般的 Column Data 中,checkpoint_states 的 size 通常为 2:checkpoint_states[0] 关联数据列本身,checkpoint_states[1] 关联校验列(validity)。compression_functions 是一个二维数组,用于保存各列可用的候选压缩函数列表,记作 compression_functions[i][j](第 i 列的第 j 个候选压缩函数)。analyze_states 同样是二维结构,用于保存特定列在特定压缩算法下的分析状态/压缩效果信息,记作 analyze_states[i][j](第 i 列的第 j 个算法的分析状态)。

在真正执行压缩之前,DuckDB 会先通过扫描分析来确定每一列的最佳压缩算法。对于一个 Column Data,选择最佳压缩算法的主要流程可以概括为:

1. 查压缩相关配置。

2. 初始化分析状态集 analyze_states。

3. 遍历该 Column Data 内的所有 Column Segment;在每个 Column Segment 内,遍历其中的各列(即 checkpoint_states 中的列);对每一列,依次使用其候选压缩算法进行分析,并将分析结果写入 analyze_states;若某算法在分析过程中被判定不适用,则会被淘汰。

4. 遍历 analyze_states,对候选算法进行最终评分,选择“得分最低(压缩后空间最小)”的算法作为最佳方案。

5. 返回确定的压缩算法集。

每列可选的候选压缩算法与列的数据类型及相关配置有关,这里不展开。下面用一个简化例子说明 DuckDB 压缩的执行过程,假设表中只有一列 id,类型为 INT,则压缩流程大致如下:

1. checkpoint 会透传到 Column Data 来执行。ColumnDataCheckpointer 创建时会将 id 的数据列和检验列填充到 checkpoint_states 之中。

2. 分别初始化这两列候选的压缩函数。如 id 数据列候选的压缩函数可能包括:UncompressedFun、RLEFun、BitpackingFun 和 ZSTDFun,id 校验列候选的压缩函数可能包括 UncompressedFun 和 RoaringFun。

3. 初始化分析状态集。分别对 id 数据列和 id 校验列调用后续的压缩函数集的 init_analyze 接口,完成二维数组 analyze_states 的填充。

4. 扫描数据确定最佳压缩算法。对 id 的数据列依次执行 4 个压缩函数的分析,对 id 的校验列依次执行 2 个压缩函数的分析,将分析结果保存到分析状态集。接着遍历分析状态集,确定各列最优的压缩算法并保存。

5. 数据最终落盘时,将按照此前选定的最佳压缩算法对对应列进行压缩写入。

DuckDB 中的压缩算法

  • 数值/布尔类型

  • 字符串

  • 浮点数

  • 校验类型

DuckDB 压缩效果

DuckDB 的列式存储与自适应编码/压缩能显著降低数据落盘体积,从而直接带来存储成本与运维成本的下降:例如在 sysbench(25 张表、每表 2000 万行)场景下,InnoDB 约 127GB,而 DuckDB 仅 43GB;TPC-H SF100 场景下,InnoDB 约 168GB,而 DuckDB 仅 26GB。更大规模的生产归档场景中,某本地生活服务平台将 InnoDB 的约 133TB 数据归档到 DuckDB 后仅约 66TB,某互联网消费金融平台从约 94TB 降至约 49TB。上述平台均将 DuckDB 作为归档库并承载 AP 查询,在保持 MySQL 使用习惯的同时,通过更高的压缩率获得更低的存储占用、更高的单位容量性价比,并使长期历史数据的分析查询更具成本优势。


编码与压缩机制和效果对比

在 MySQL 中,业务表通常默认使用 InnoDB 引擎进行存储。InnoDB 属于以 B+Tree 页(page) 为核心组织形式的行存引擎,默认配置下一般不启用压缩,因此在分析型/宽表场景下,数据与索引往往会占用较大的磁盘空间(尽管 InnoDB 也支持如 ROW_FORMAT=COMPRESSED、透明页压缩等能力,但压缩收益、CPU 开销与写放大之间需要权衡,线上一般不开启)。


HBase、ClickHouse 和 Doris(SelectDB)在存储组织上更偏向面向分析的压缩友好形态,但各自路径不同。HBase 基于 LSM-tree(MemStore + HFile)的结构,数据排序和编码后落盘到 HFile,并在 block 级别启用通用压缩(如 LZ4、ZSTD、Snappy 等)。压缩主要发生在块层,收益相对稳定,通常取决于数据的重复度与排序特征。ClickHouse 采用列式存储,列数据数据流/part 持久化。其压缩通常由列级 codec(如 Delta、Gorilla、Dictionary 等变换/编码) 与底层通用压缩算法叠加实现:先对列级数据做更贴合分布特征的编码,再通过通用压缩进一步压缩,从而获得较好的空间效率与扫描性能。Doris(SelectDB) 以列式 segment/page 组织数据,通常会对不同类型/数据分布采用合适的编码(如字典、RLE 等)并结合通用压缩,将数据以更高密度写入磁盘,因此在典型分析型数据集上往往能获得较好的空间节省效果。


OceanBase 在存储层对“编码 + 压缩”的分层设计更细:其 SSTable 内部以 micro block 为基本组织单元,在 micro block 内对列数据进行 encoding(面向类型与分布特征的编码/变换) 以提升可压缩性与扫描效率;当 micro block 聚合并写入 macro block 时会叠加通用压缩,目标是在保证读写效率的前提下尽可能降低磁盘空间占用。

以 TPC-H SF100 为例,不同系统的落盘数据量差异明显:MySQL(InnoDB)约 168GB;而在列式存储的系统中,整体空间占用显著下降,HBase 约 73GB,ClickHouse 约 39GB、OceanBase 约 33GB、SelectDB(Doris)约 31GB。在同一数据集与规模下,DuckDB 仅约 26GB,不仅相较 InnoDB 实现约 6.5 倍的空间节省,也在与多种主流分析型系统对比中具备最低落盘体积,意味着在归档与分析场景下可进一步降低存储成本、提升单位磁盘可承载的数据规模。


AliSQL压缩优化

AliSQL将 DuckDB 作为 MySQL 的存储引擎后,对 DuckDB 的压缩链路做了进一步工程化优化,重点提升写入与构建阶段的吞吐与并发效率,包括:

1. 压缩/编码策略复用:对 DuckDB 在列级别进行的 encoding/compression 策略选择(通常依赖列类型与数据分布特征的统计/采样)进行固化与缓存复用,减少重复探测带来的 CPU 开销与延迟抖动。

2. 并发路径优化:在压缩相关的关键路径中降低锁竞争,提升多线程并发压缩时的吞吐稳定性。

3. 采样与并行化:通过采样降低策略选择/统计的成本,并结合多线程流水线进一步提升压缩阶段整体吞吐,从而加快数据写入与存储构建速度。

此外,AliSQL支持在存储层对用户数据进行压缩存储,以减少写入存储介质的数据量并节省存储空间,使单位容量数据的存储成本最高可降低 50%;该能力基于智能自研硬件芯片与企业级 NAND 闪存介质,在物理磁盘层面实现实时压缩与解压缩,不额外占用实例计算资源,开启后对数据库性能几乎无影响;同时提供数据持久性与稳定性保障。


结语

DuckDB 的压缩优势来自“列式组织 + 自适应算法选择”的组合:以 Column Data 为决策单元,在 checkpoint 过程中对数据列与校验列分别建立候选压缩函数集合,通过扫描分析确定最终方案;结合 RLE、Bitpacking、Dictionary/FSST、ALP/Chimp、Roaring 等针对不同类型与分布特征的专用编码,使数据以更高密度落盘,同时降低分析查询的 I/O 与解码成本。这也是在大规模生产归档中,DuckDB 往往能显著小于 InnoDB 落盘体积的根本原因。


AliSQL 在 DuckDB 高效压缩的基础上进一步优化:通过策略固化与缓存减少重复探测带来的 CPU 消耗与延迟波动,通过并行化与锁竞争优化提升写入与构建阶段吞吐,并可结合存储层硬件压缩继续压缩落盘数据量。AliSQL DuckDB 引擎为历史数据归档提供了更低的存储占用与更可控的构建成本,同时让归档数据具备可直接承载 AP 分析的查询效率,使历史数据的长期存储与低成本分析查询可以在统一的 MySQL 入口与使用习惯下同时实现。

参考

1. https://mp.weixin.qq.com/s/GeCMoC43T7sIMzZS94Yq3A

2. https://github.com//oceanbase

3. https://github.com/apache/hbase

4. https://github.com/ClickHouse/ClickHouse

5. https://github.com/apache/doris

6. https://github.com/duckdb/duckdb

7. https://help.aliyun.com/zh/rds/apsaradb-rds-for-mysql/storage-compression

相关文章
|
27天前
|
人工智能 移动开发 编译器
打造高可靠 AI 助手:Skill 编排、Workflow 设计与 Spec Coding 的深度实践
文章首先拆解了上下文工程的五大最佳实践模式(状态管理、渐进式上下文、结构化输出、模版程序、多步处理),并深入对比了 Skill 与 Subagent 在上下文管理机制上的本质差异。
打造高可靠 AI 助手:Skill 编排、Workflow 设计与 Spec Coding 的深度实践
|
27天前
|
人工智能 JSON 前端开发
Skills 真的可以帮我干活了:把工单分析变成一个可复用的 Skill
本文分享将企业内网工单分析SOP固化为Claude Skills的实践:摒弃不稳定的浏览器自动化,创新采用“Copy as fetch + agent-browser eval”方案,直接复用SPA页面接口请求,实现稳定、低开销的数据获取与AI分析,大幅提升重复性工单分析效率。
Skills 真的可以帮我干活了:把工单分析变成一个可复用的 Skill
|
3月前
|
存储 SQL 关系型数据库
AI时代,当 MySQL 遇见列式存储引擎 DuckDB
在AI浪潮席卷全球的今天,有人认为关系型数据库已走向黄昏,MySQL 的生命力正在被边缘化。但事实真的如此吗?AliSQL,作为 MySQL 的重要分支,自2010年诞生以来,始终默默支撑着阿里巴巴集团核心业务的高并发、高可用需求。它从未消失,只是沉寂太久。 2026年,AliSQL社区的一帮开发者们,开始为AliSQL注入创新的血液!这是他们的第一篇,系统阐述了MySQL深度融合DuckDB的重大技术实践。这不仅是对“MySQL 只擅长 TP”这一行业共识的突破性回应,更是一次兼具工程魄力与架构远见的创新。
AI时代,当 MySQL 遇见列式存储引擎 DuckDB
|
27天前
|
人工智能 运维 监控
让问题不过夜:交易领域“问诊”Agent实践
在日常研发支持中,工程师频繁穿梭于工单、群聊、舆情反馈与问题排查之间:一边解释业务规则与口径,一边追踪链路、查看日志、核对指标、执行补偿。这些工作高度碎片化、重复性强且严重依赖个人经验,导致响应效率低、处理质量不稳定、新人上手困难。 为此,我们围绕“研发支持中的问诊痛点”,构建了一个可持续运营的智能 Agent 系统。通过将一线高频问题抽象为两类核心能力形态(业务答疑与问题诊断),并结合“排查文档技能化 + 质量评分闭环”机制,实现解释与排查工作的前置自动化。该系统不仅“能跑”,更能持续迭代进化,显著缩短首响时间与平均解决时长,提升服务一致性与工程效能。
让问题不过夜:交易领域“问诊”Agent实践
|
20天前
|
人工智能 安全 Java
给“氛围编程”系上安全带:阿里集团 AI 代码评审实践与 Benchmark 开源
阿里集团历时一年半、经数万亿Token真实场景打磨,推出AI代码评审助手,实现人机协作新范式:AI接管基础评审,人类聚焦核心风险。联合南京大学开源业界首个支持10语言、具备仓库级上下文感知的CodeReview Benchmark(AACR-Bench),由80+资深工程师多轮交叉标注,显著提升隐性缺陷检出率。
给“氛围编程”系上安全带:阿里集团 AI 代码评审实践与 Benchmark 开源
|
27天前
|
人工智能 自然语言处理 安全
揭秘 Claude Code 前沿技巧与 Qoder CLI 日常开发实战
本文深度解析Claude Code核心能力:Command(快捷指令)、Subagent(专业子代理)、Skills(可复用技能)及Hooks(生命周期钩子),对比Cursor差异,揭示其“主子Agent架构+渐进式披露+可编程工具调用”设计哲学,并介绍Qoder CLI在代码审查、Spec驱动开发、运维诊断等场景的落地实践。
揭秘 Claude Code 前沿技巧与 Qoder CLI 日常开发实战
|
16天前
|
人工智能 自然语言处理 算法
智变之下:AI对金融行业的颠覆性冲击
随着人工智能技术进入规模化落地阶段,其对各行业的重构力度持续升级。在众多受影响行业中,金融行业凭借其标准化、数据驱动的特性,成为AI冲击力最强的领域。本文从业务流程、岗位结构、产业模式三个维度,结合AI在风控、服务、运营等场景的应用案例,剖析AI对金融行业的颠覆性影响,同时探讨冲击背后的行业转型机遇与挑战,论证金融行业是AI发展冲击最深远、最彻底的行业,其变革不仅重塑行业格局,更推动金融服务向更高效、精准、普惠的方向迭代。
|
27天前
|
人工智能 搜索推荐 Linux
OpenClaw(Clawdbot)阿里云+本地部署,零成本搭建私人AI管家+多平台接入每天省8小时
很多人在用ChatGPT时都会陷入两难:功能强大但需要付费、翻墙,还不能直接连接微信等常用平台,更无法实现定时提醒、自动执行代码等个性化需求。而OpenClaw(曾用名Clawdbot、Moltbot)的出现,彻底解决了这些痛点——它是一款开源AI智能体框架,相当于给AI装上了“实体”,能连接微信、Discord等平台,支持联网搜索、代码执行、定时任务,只要有一台服务器,就能24小时免费为你工作。
551 0
|
20天前
|
Arthas 人工智能 Java
我们做了比你更懂 Java 的 AI-Agent -- Arthas Agent
Arthas Agent 是基于阿里开源Java诊断工具Arthas的AI智能助手,支持自然语言提问,自动匹配排障技能、生成安全可控命令、循证推进并输出结构化报告,大幅降低线上问题定位门槛。
712 64
我们做了比你更懂 Java 的 AI-Agent -- Arthas Agent
|
16天前
|
人工智能 监控 算法
红外无人机目标检测数据集(4500+张图片已标注)| YOLO训练数据集 AI视觉检测
本数据集含4500+张红外监控图像,专为夜间/低光照场景下无人机检测构建,采用标准YOLO格式标注(单类“drone”),已划分训练/验证/测试集,适配YOLOv5至v11等主流模型,适用于安防、边境巡检与AI算法研究。