clickhouse数据文件目录移动到新目录并建立软连接

简介: 原目录:/var/lib/clickhouse目标目录:/test/clickhouse 1、复制数据cp /var/lib/clickhouse/data -r ...

由于本人失误,没有修改clickhouse的默认数据目录,导致把数据保存到了系统盘,现在系统盘空间不够,决定移动到数据盘,步骤如下:

原目录:/var/lib/clickhouse
目标目录:/test/clickhouse

1、复制数据
cp /var/lib/clickhouse/data -r /test/clickhouse
cp /var/lib/clickhouse/flags -r /test/clickhouse
cp /var/lib/clickhouse/format_schemas -r /test/clickhouse
cp /var/lib/clickhouse/metadata -r /test/clickhouse
cp /var/lib/clickhouse/preprocessed_configs -r /test/clickhouse
cp /var/lib/clickhouse/tmp -r /test/clickhouse
cp /var/lib/clickhouse/user_files -r /test/clickhouse

2、在目录/var/lib/clickhouse删除
rm -r data
rm -r flags/
rm -r format_schemas/
rm -r metadata/
rm -r preprocessed_configs/
rm -r tmp
rm -r user_files/

3、建立软连接

ln -s /test/clickhouse/data /var/lib/clickhouse
ln -s /test/clickhouse/flags /var/lib/clickhouse
ln -s /test/clickhouse/format_schemas /var/lib/clickhouse
ln -s /test/clickhouse/metadata /var/lib/clickhouse
ln -s /test/clickhouse/preprocessed_configs /var/lib/clickhouse
ln -s /test/clickhouse/tmp /var/lib/clickhouse
ln -s /test/clickhouse/user_files /var/lib/clickhouse

4、给test/clickhouse目录权限
chown -R clickhouse.clickhouse /test/clickhouse

完成。

通过这四步, 可以在不修改config.xml里的数据目录的情况下,实现数据转移到其他盘。

目录
相关文章
|
6月前
|
存储 SQL 关系型数据库
ClickHouse(02)ClickHouse架构设计介绍概述与ClickHouse数据分片设计
ClickHouse的核心架构包括执行过程和数据存储两部分。执行过程涉及Parser与Interpreter解析SQL,通过Column、DataType、Block、Functions和Storage模块处理数据。Column是内存中列的表示,Field处理单个值,DataType负责序列化和反序列化,Block是内存中表的子集,Block Streams处理数据流。Storage代表表,使用不同的引擎如StorageMergeTree。数据存储基于分片和副本,1个分片由多个副本组成,每个节点只能拥有1个分片。
378 0
ClickHouse(02)ClickHouse架构设计介绍概述与ClickHouse数据分片设计
|
6月前
|
分布式计算 DataWorks 调度
DataWorks报错问题之dataworks同步clickhouse数据报错如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
|
存储 SQL 编解码
如何在ClickHouse中处理时序数据
ClickHouse具有强大的工具,可以高效地存储和处理时序数据,并可用于简单的解决方案和数据发掘,以及支持PB级的实时分析应用。
|
SQL 关系型数据库 MySQL
ClickHouse同步MySQL数据
ClickHouse同步MySQL数据
458 0
|
8天前
|
数据采集 存储 分布式计算
ClickHouse大规模数据导入优化:批处理与并行处理
【10月更文挑战第27天】在数据驱动的时代,高效的数据导入和处理能力是企业竞争力的重要组成部分。作为一位数据工程师,我在实际工作中经常遇到需要将大量数据导入ClickHouse的需求。ClickHouse是一款高性能的列式数据库系统,非常适合进行大规模数据的分析和查询。然而,如何优化ClickHouse的数据导入过程,提高导入的效率和速度,是我们面临的一个重要挑战。本文将从我个人的角度出发,详细介绍如何通过批处理、并行处理和数据预处理等技术优化ClickHouse的数据导入过程。
25 0
|
4月前
|
存储 DataWorks 监控
利用 DataWorks 数据推送定期推播 ClickHouse Query 诊断信息
DataWorks 近期上线了数据推送功能,能够将数据库查询的数据组织后推送到各渠道 (如钉钉、飞书、企业微信及 Teams),除了能将业务数据组织后推送,也能将数据库自身提供的监控数据组织后推送,这边我们就以 ClickHouse 为例,定期推播 ClickHouse 的慢 Query、数据量变化等信息,帮助用户掌握 ClickHouse 状态。
244 6
利用 DataWorks 数据推送定期推播 ClickHouse Query 诊断信息
|
4月前
|
消息中间件 NoSQL Redis
实时计算 Flink版产品使用问题之配置了最大连续失败数不为1,在Kafka的精准一次sink中,如果ck失败了,这批数据是否会丢失
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
5月前
|
分布式计算 运维 DataWorks
MaxCompute产品使用问题之数据如何导出到本地部署的CK
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
5月前
|
JSON NoSQL MongoDB
蓝易云 - mongodb数据如何导入到clickhouse
以上步骤是一种通用的方法,具体的实现可能会根据你的具体需求和数据结构有所不同。
111 1
|
6月前
|
SQL 关系型数据库 MySQL
实时计算 Flink版产品使用合集之在使用Flink SQL向ClickHouse写入数据的过程中出现丢数据或重复数据的情况如何解决
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
317 1

热门文章

最新文章

下一篇
无影云桌面