Databend 的安装配置和使用

简介: Databend 的安装配置和使用

介绍

Databend 是一个内置在 Rust 中的开源、弹性和工作负载感知的云数据仓库,为 Snowflake 提供了具有成本效益的替代方案,专门对最大的数据集进行复杂分析而设计。

性能

  • 在存储对象上,能快速进行数据分析。
  • 没有索引和分区,但也能快速查询。
  • 利用数据级并行和指令级并行技术实现最佳性能。

数据操作

  • 支持原子操作,如SELECTINSERTDELETEUPDATEREPLACECOPYMERGE
  • 提供高级功能,如时间旅行和多目录(Apache Hive / Apache Iceberg)。
  • 支持以 CSV、JSON 和 Parquet 等各种格式。
  • 支持半结构化数据类型,如 ARRAY、MAP 和 JSON 。
  • 支持类似 Git 的 MVCC 存储,以便于查询、克隆和恢复历史数据。

对象存储

  • Amazon S3
  • Azure Blob Storage
  • Google Cloud Storage
  • MinIO
  • Ceph
  • Wasabi
  • SeaweedFS
  • Cloudflare R2
  • Tencent COS
  • Alibaba OSS
  • QingCloud QingStor

Databend 的高级架构由meta-service layerquery layerstorage layer组成。

meta-service layer(元服务层)有效地支持多个租户,该层在系统中发挥着至关重要的作用:

  • 元数据管理:处理数据库、表、集群、事务等的元数据。
  • 安全性:管理安全环境的用户身份验证和授权。

query layer(查询层)处理查询计算,由多个集群组成,每个集群包含多个节点。每个节点是查询层中的核心单元,由以下部分组成:

  • 规划师:使用来自的元素为SQL语句制定执行计划关系代数,结合了投影、滤波器和限位等运算符。
  • 优化器:基于规则的优化器应用预定义规则,如“谓词下推”和“未使用列的修剪”,以优化查询执行。
  • 处理器:遵循 Pull & Push 方法,根据规划师指令构建查询执行管道。处理器相互连接,形成一个可以分布在节点之间的管道,以提高性能。

storage layer采用开源柱状格式 Parquet ,并引入了自己的表格格式,以提高查询性能。主要功能包括:

  • 二级索引:加快各种分析维度的数据位置和访问速度。
  • 复杂数据类型索引:旨在加快半结构化数据等复杂类型的数据处理和分析。
  • :Databend 有效地将数据组织成段,提高数据管理和检索效率。
  • 集群:在段内使用用户定义的集群密钥来简化数据扫描。

安装和配置

Databend 官网:https://databend.rs/doc/integrations/access-tool/mysql

Databend 下载:https://databend.rs/download

本地部署,使用 JDBC 驱动程序连接 Databend 步骤如下:

  1. 根据官网下载地址,选择与自己电脑版本对应的,下载解压后可以看到以下系列文件。

  2. 将文件 databend-query.toml 中的以下部分注释取消。

  3. 在文件夹脚本中运行脚本**start.sh,打开进入该文件目录中终端执行 ./scripts/start.sh
  1. 在DBeaver中,选择数据库>驱动程序管理器以打开驱动程序管理器,然后单击新建以创建新驱动程序。

根据上图片,添加设置相关信息如下图:

  1. 在“”选项卡上,单击“添加工件”,然后将以下内容复制并粘贴到“**依赖项声明”**文本框中,点击确定即可。
<dependency>
    <groupId>com.databend</groupId>
    <artifactId>databend-jdbc</artifactId>
    <version>0.0.8</version>
</dependency>

  1. 使用前面添加的驱动,连接本地的 Databend 。

相关扩展

Databend支持的工具、平台和编程语言如下:

可以查看对应的工具和编程语言,了解更多用法。

参考资料

相关文章
|
SQL 分布式计算 数据管理
12款开源数据资产(元数据)管理平台选型分析(一)
12款开源数据资产(元数据)管理平台选型分析(一)
5220 2
|
SQL 分布式计算 Oracle
数据同步工具DataX的安装
数据同步工具DataX的安装
4691 0
|
Ubuntu Linux 网络安全
Linux:使用ntpdate命令同步更新系统时间
Linux:使用ntpdate命令同步更新系统时间
4877 0
|
弹性计算 资源调度 Kubernetes
Flink三种集群模式,Standalone模式,Flink On YARN,Flink On K8S,这三种模式有啥优缺点,生产环境如何选择呢?
Flink三种集群模式,Standalone模式,Flink On YARN,Flink On K8S,这三种模式有啥优缺点,生产环境如何选择呢?
2422 3
|
11月前
|
数据采集 SQL canal
Amoro + Flink CDC 数据融合入湖新体验
本文总结了货拉拉高级大数据开发工程师陈政羽在Flink Forward Asia 2024上的分享,聚焦Flink CDC在货拉拉的应用与优化。内容涵盖CDC应用现状、数据入湖新体验、入湖优化及未来规划。文中详细分析了CDC在多业务场景中的实践,包括数据采集平台化、稳定性建设,以及面临的文件碎片化、Schema演进等挑战。同时介绍了基于Apache Amoro的湖仓融合架构,通过自优化服务解决小文件问题,提升数据新鲜度与读写平衡。未来将深化Paimon与Amoro的结合,打造更高效的入湖生态与自动化优化方案。
596 1
Amoro + Flink CDC 数据融合入湖新体验
|
9月前
|
Java 关系型数据库 MySQL
springboot项目集成dolphinscheduler调度器 实现datax数据同步任务
springboot项目集成dolphinscheduler调度器 实现datax数据同步任务
866 2
|
关系型数据库 MySQL 数据库
【Databend】多表联结,你不会还没有掌握吧!
【Databend】多表联结,你不会还没有掌握吧!
258 2
|
SQL 存储 大数据
Flink 基础详解:大数据处理的强大引擎
Apache Flink 是一个分布式流批一体化的开源平台,专为大规模数据处理设计。它支持实时流处理和批处理,具有高吞吐量、低延迟特性。Flink 提供统一的编程抽象,简化大数据应用开发,并在流处理方面表现卓越,广泛应用于实时监控、金融交易分析等场景。其架构包括 JobManager、TaskManager 和 Client,支持并行度、水位线、时间语义等基础属性。Flink 还提供了丰富的算子、状态管理和容错机制,如检查点和 Savepoint,确保作业的可靠性和一致性。此外,Flink 支持 SQL 查询和 CDC 功能,实现实时数据捕获与同步,广泛应用于数据仓库和实时数据分析领域。
10566 42
|
Oracle 关系型数据库 MySQL
实时计算 Flink版操作报错之使用oracle-cdc的,遇到错误:ORA-01292: no log file has been specified for the current LogMiner session,该如何处理
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。