Apache IoTDB开发之Load External TsFile工具

简介: 加载外部 tsfile 工具允许用户从正在运行的 Apache IoTDB 实例加载 tsfiles、删除 tsfile 或将 tsfile 移动到目标目录。默认情况下,将创建架构。当tsfile对应的存储组不存在时,用户可以通过第四个参数设置存储组的级别。默认情况下,它将使用 中设置的存储组级别。如果该文件对应的文件存在,则会加载到 Apache IoTDB 的数据目录和引擎中。

Load External TsFile工具简介

加载外部 tsfile 工具允许用户从正在运行的 Apache IoTDB 实例加载 tsfiles、删除 tsfile 或将 tsfile 移动到目标目录。

用法

用户通过 Cli 工具或 JDBC 向 Apache IoTDB 系统发送指定的命令以使用该工具。

加载 TS文件

加载 tsfiles 的命令是 。load "<path/dir>" [true/false] [storage group level]

此命令有两种用法:

第一就是通过指定文件路径(绝对路径)加载单个 tsfile。

第二个参数表示要加载的 tsfile 的路径,tsfile 的名称需要符合 tsfile 命名约定,即 .第三个和第四个参数是可选的。当待加载的tsfile中时间序列对应的元数据不存在时,您可以选择是否自动创建架构。如果第三个参数为 true,则将自动创建架构。如果 thrid 参数为 false,则不会创建架构。默认情况下,将创建架构。当tsfile对应的存储组不存在时,用户可以通过第四个参数设置存储组的级别。默认情况下,它将使用 中设置的存储组级别。如果该文件对应的文件存在,则会加载到 Apache IoTDB 的数据目录和引擎中。否则,将从 tsfile 文件重新生成相应的文件。

{systemTime}-{versionNum}-{mergeNum} .tsfile

iotdb-engine.properties.resource.resource

例子:

  • load "/Users/Desktop/data/1575028885956-101-0.tsfile"
  • load "/Users/Desktop/data/1575028885956-101-0.tsfile" false
  • load "/Users/Desktop/data/1575028885956-101-0.tsfile" true
  • load "/Users/Desktop/data/1575028885956-101-0.tsfile" true 1
  1. 通过指定文件夹路径(绝对路径)加载一批文件。

第二个参数表示要加载的 tsfile 的路径,并且 tsfile 的名称需要符合 tsfile 命名约定,即 .第三个和第四个参数是可选的。当待加载的tsfile中时间序列对应的元数据不存在时,可以选择是否自动创建架构。如果第三个参数为 true,则将自动创建架构。如果第三个参数为 false,则不会创建架构。默认情况下,将创建架构。当tsfile对应的存储组不存在时,用户可以通过第四个参数设置存储组的级别。默认情况下,它将使用 中设置的存储组级别。如果该文件对应的文件存在,它们将被加载到 Apache IoTDB 的数据目录和引擎中。否则,将从 tsfile sfile 重新生成相应的文件。{systemTime}-{versionNum}-{mergeNum} .tsfileiotdb-engine.properties.resource.resource

例子:

  • load "/Users/Desktop/data"
  • load "/Users/Desktop/data" false
  • load "/Users/Desktop/data" true
  • load "/Users/Desktop/data" true 1

删除 TSFILE

删除 tsfile 的命令是:。remove "<path>"

此命令通过指定文件路径来删除 tsfile。具体的实现是删除 tsfile 及其对应的 和 文件。.resource.modification

例子:

  • remove "root.vehicle/1575028885956-101-0.tsfile"
  • remove "1575028885956-101-0.tsfile"

将 TSFILE 移动到目标目录

将 tsfile 移动到 ta arget 目录的命令是:。move "<path>" "<dir>"

此命令通过指定 tsfile 路径和目标目录(绝对路径)将 tsfile 移动到目标目录。具体的实现是从引擎中移除 tsfile,并将 tsfile 文件及其对应的文件移动到目标目录。.resource

例子:

  • move "root.vehicle/1575029224130-101-0.tsfile" "/data/data/tmp"
  • move "1575029224130-101-0.tsfile" "/data/data/tmp"
相关文章
|
2月前
|
Apache 数据库
杨校老师课堂之基于Apache的数据库连接池DBCP的工具类开发
杨校老师课堂之基于Apache的数据库连接池DBCP的工具类开发
23 0
|
1月前
|
存储 分布式计算 物联网
Apache IoTDB进行IoT相关开发实践
IoTDB是专为物联网(IoT)设计的开源时间序列数据库,提供数据收集、存储、管理和分析。它支持高效的数据写入、查询,适用于处理大规模物联网数据,包括流数据、时间序列等。IoTDB采用轻量级架构,可与Hadoop和Spark集成,支持多种存储策略,确保数据安全和高可用性。此外,它还具有InfluxDB协议适配器,允许无缝迁移和兼容InfluxDB的API和查询语法,简化物联网项目的数据管理。随着物联网设备数量的快速增长,选择适合的数据库如IoTDB对于数据管理和分析至关重要。
79 12
|
22天前
|
存储 分布式计算 物联网
Apache IoTDB进行IoT相关开发实践
The article introduces IoTDB, an open-source time-series database designed for efficient management of IoT-generated data. It addresses challenges like real-time integration of massive datasets and security. IoTDB supports high-performance storage,
68 0
Apache IoTDB进行IoT相关开发实践
|
19天前
|
安全 搜索推荐 数据挖掘
文件解析的终极工具:Apache Tika
文件解析的终极工具:Apache Tika
32 0
|
1月前
|
Java 应用服务中间件 API
如何安装与使用Java EE 8、Servlet 3.0及Apache Maven进行高效开发
【7月更文第1天】搭建高效Java EE 8开发环境,包括安装JDK、选择WildFly或Payara Server作为应用服务器,以及安装Apache Maven。使用Maven创建Servlet 3.0 Web项目,编写 HelloWorldServlet,打包部署到服务器,通过访问特定URL测试应用。这一流程助力开发者实现快速原型和大型项目开发。
68 0
|
2月前
|
Oracle 关系型数据库 Shell
实时计算 Flink版操作报错合集之遇到报错:Error: Could not find or load main class org.apache.flink.cdc.cli.CliFrontend,是什么导致的
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
|
2月前
|
监控 大数据 Java
使用Apache Flink进行大数据实时流处理
Apache Flink是开源流处理框架,擅长低延迟、高吞吐量实时数据流处理。本文深入解析Flink的核心概念、架构(包括客户端、作业管理器、任务管理器和数据源/接收器)和事件时间、窗口、状态管理等特性。通过实战代码展示Flink在词频统计中的应用,讨论其实战挑战与优化。Flink作为大数据处理的关键组件,将持续影响实时处理领域。
343 5
|
18天前
|
SQL API Apache
官宣|Apache Flink 1.20 发布公告
Apache Flink 1.20.0 已发布,这是迈向 Flink 2.0 的最后一个小版本,后者预计年底发布。此版本包含多项改进和新功能,涉及 13 个 FLIPs 和 300 多个问题解决。亮点包括引入物化表简化 ETL 管道开发,统一检查点文件合并机制减轻文件系统压力,以及 SQL 语法增强如支持 `DISTRIBUTED BY` 语句。此外,还进行了大量的配置项清理工作,为 Flink 2.0 铺平道路。这一版本得益于 142 位贡献者的共同努力,其中包括来自中国多家知名企业的开发者。
606 7
官宣|Apache Flink 1.20 发布公告
|
10天前
|
消息中间件 大数据 Kafka
"Apache Flink:重塑大数据实时处理新纪元,卓越性能与灵活性的实时数据流处理王者"
【8月更文挑战第10天】Apache Flink以卓越性能和高度灵活性在大数据实时处理领域崭露头角。它打破批处理与流处理的传统界限,采用统一模型处理有界和无界数据流,提升了开发效率和系统灵活性。Flink支持毫秒级低延迟处理,通过时间窗口、状态管理和自动并行化等关键技术确保高性能与可靠性。示例代码展示了如何使用Flink从Kafka读取实时数据并进行处理,简明扼要地呈现了Flink的强大能力。随着技术进步,Flink将在更多场景中提供高效可靠的解决方案,持续引领大数据实时处理的发展趋势。
34 7
|
1月前
|
关系型数据库 API Apache
Flink CDC:基于 Apache Flink 的流式数据集成框架
本文整理自阿里云 Flink SQL 团队研发工程师于喜千(yux)在 SECon 全球软件工程技术大会中数据集成专场沙龙的分享。
17574 11
Flink CDC:基于 Apache Flink 的流式数据集成框架

推荐镜像

更多