SQL 数据和表

简介: 在一个 SQL 的系统中,所有有意义的数据都存储在表和序列生成器中。因此使用数据库的第一步是定义一个表和这个表中可能使用的列。

在一个 SQL系统 中,所有有意义的数据 都存储在表和序列生成器中。

因此使用数据库 的第一步是定义 一个表和这个表中可能使用的列。

SQL 标准同时也能支持临时表和永久表,临时表用于临时性的存储数据,永久表用于在数据库中永久保持数据。

临时表
临时表的内容只在连接的生命周期中存在,如果连接被终止,临时表中的内容也将会被清除。临时表中的内容只对当前的连接可见,而不能被其他连接使用。临时表的定义,请参考 SQL 标准中的 GLOBAL TEMPORARY 类型。

如果定义临时表为永久表,当一个新的连接被建立的时候,这个连接也可以看到这个临时表,但是这个表的数据会保额清空。当连接发出一个 commit 提交指令的时候,表中的内容将会被默认定义的内容替换掉。

如果表中定义了内容 ON COMMIT PRESERVE ROWS,那么提交的时候,将不会用默认的值替换掉表中的内容。

永久表
HSQLDB 支持 SQL 标准中定义的表类型,但是所有定义的类型与表中存储的数据有关。在 HSQLDB 中有三种类型的表,分别为 MEMORY,CACHED 和 TEXT。

MEMORY 表可以用命令 CREATE TABLE 来定义。这些表中存储了所有数据的实体,当然你也可以通过 SQL 脚本对表中的数据进行修改,所有内容的修改将会被写到 .log 和 .script 文件 中。

.log 和 .script 文件将会在数据库下一次启动的时候读取,同时表中的数据将会根据这两个文件中的内容进行重建。不像临时表,这种类型的表是长期存在的。我们定义的内存表在数据库被打开的时候,所有表中的数据将会被读取和替换。这个过程将会耗费比较长的时间 ,如果表的数据量超过几十兆字节的时候。当数据库关闭的时候,所有数据将会被保存,这个过程同样也会消耗很长时间。

CACHED 表使用命令 CREATE CACHED TABLE 命令进行创建。表中的部分数据和索引将会被加载到内存中。这种表允许存储大量的数据而不需要将表中的所有数据都加载到内存中。另外的好处是,在数据库启动 的时候,数据库引擎只对表中的少量数据进行索引,这样能够加快处理速度也能让表存储更多人内容。但是,这种类型的表将会降低处理速度,如果你的数据量非常 小,请不要使用这种类型的表。如果在一个应用 程序 中包含有一些大数据量的表和小数据量的表,最好默认将所有的小表采用内存模式。

TEXT 表使用 CSV 或者其他逗号分隔符来存储其数据。你可以指定一个已经存在的 CSV 文件,这个文件可以是从其他数据库或者程序里面导出的。或者,你可以使用一个空的数据文件,然后使用数据库引擎将数据导入到这个文件中。TEXT 表对内存的使用非常有效,因为这种类型的表之缓存部分数据到内存,但是这种表会缓存所有索引到内存中。如果必要的话,TEXT 表中的内容可以被任意指定。如何设定 TEXT 表的具体内容在 Text 表设定的章节中讨论。

在全内存的数据库中 MEMORY 和 CACHED 表被声明为非持久的内存表。TEXT 表不能被声明为这种表。

创建表的中的默认类型可以用下面的命令进行定义,这样使用 CREATE TABLE 命令创建的表将会使用数据库默认定义的类型中进行定义:

SET DATABASE DEFAULT TABLE TYPE { CACHED | MEMORY };如果你希望修改已经存在表的类型,你可以用下面的命令:

SET TABLE <table name> TYPE { CACHED | MEMORY };在 SQL 语句中对不同类型的表进行访问,你不需要在你的 SQL 语句中指定表的类型。

LOB 数据
Lob 数据为存储在数据库表里面的逻辑列。这些数据的物理存储是在文件系统中以 *.lobs 为后缀名的文件。在 HSQLDB 2.0 中,这个文件在 BLOB 或 CLOB 字段 被插入到表中的时候被创建。这个文件将会作为一个持续增长的文件而被插入到数据库中。在 HSQLDB 的 2.0 版本中, 尽管你的数据库中的所有 LOB 数据被删除 了, *.lobs 也不会被删除。当你确定所有 LOB 数据被删除后,你可以在数据库引擎被关闭后手工删除 *.lobs 文件。

 

http://www.ossez.com/viewthread.php?tid=6826&fromuid=426

目录
相关文章
|
6月前
|
SQL 人工智能 JSON
Flink 2.1 SQL:解锁实时数据与AI集成,实现可扩展流处理
简介:本文整理自阿里云高级技术专家李麟在Flink Forward Asia 2025新加坡站的分享,介绍了Flink 2.1 SQL在实时数据处理与AI融合方面的关键进展,包括AI函数集成、Join优化及未来发展方向,助力构建高效实时AI管道。
948 43
|
6月前
|
SQL 人工智能 JSON
Flink 2.1 SQL:解锁实时数据与AI集成,实现可扩展流处理
本文整理自阿里云的高级技术专家、Apache Flink PMC 成员李麟老师在 Flink Forward Asia 2025 新加坡[1]站 —— 实时 AI 专场中的分享。将带来关于 Flink 2.1 版本中 SQL 在实时数据处理和 AI 方面进展的话题。
403 0
Flink 2.1 SQL:解锁实时数据与AI集成,实现可扩展流处理
|
7月前
|
SQL
SQL如何只让特定列中只显示一行数据
SQL如何只让特定列中只显示一行数据
|
11月前
|
SQL 自然语言处理 数据库
【Azure Developer】分享两段Python代码处理表格(CSV格式)数据 : 根据每列的内容生成SQL语句
本文介绍了使用Python Pandas处理数据收集任务中格式不统一的问题。针对两种情况:服务名对应多人拥有状态(1/0表示),以及服务名与人名重复列的情况,分别采用双层for循环和字典数据结构实现数据转换,最终生成Name对应的Services列表(逗号分隔)。此方法高效解决大量数据的人工处理难题,减少错误并提升效率。文中附带代码示例及执行结果截图,便于理解和实践。
288 4
|
7月前
|
SQL
SQL中如何删除指定查询出来的数据
SQL中如何删除指定查询出来的数据
|
7月前
|
SQL 关系型数据库 MySQL
SQL如何对不同表的数据进行更新
本文介绍了如何将表A的Col1数据更新到表B的Col1中,分别提供了Microsoft SQL和MySQL的实现方法,并探讨了多表合并后更新的优化方式,如使用MERGE语句提升效率。适用于数据库数据同步与批量更新场景。
|
9月前
|
SQL 数据挖掘 关系型数据库
【SQL 周周练】一千条数据需要做一天,怎么用 SQL 处理电表数据(如何动态构造自然月)
题目来自于某位发帖人在某 Excel 论坛的求助,他需要将电表缴费数据按照缴费区间拆开后再按月份汇总。当时用手工处理数据,自称一千条数据就需要处理一天。我将这个问题转化为 SQL 题目。
312 12
|
8月前
|
SQL DataWorks 数据管理
SQL血缘分析实战!数据人必会的3大救命场景
1. 开源工具:Apache Atlas(元数据管理)、Spline(血缘追踪) 2. 企业级方案:阿里DataWorks血缘分析、腾讯云CDW血缘引擎 3. 自研技巧:在ETL脚本中植入版本水印,用注释记录业务逻辑变更 📌 重点总结:
|
9月前
|
SQL 数据采集 资源调度
【SQL 周周练】爬取短视频发现数据缺失,如何用 SQL 填充
爬虫爬取抖音和快手的短视频数据时,如果遇到数据缺失的情况,如何使用 SQL 语句完成数据的补全。
248 5
|
12月前
|
SQL 关系型数据库 MySQL
基于SQL Server / MySQL进行百万条数据过滤优化方案
对百万级别数据进行高效过滤查询,需要综合使用索引、查询优化、表分区、统计信息和视图等技术手段。通过合理的数据库设计和查询优化,可以显著提升查询性能,确保系统的高效稳定运行。
633 9