【Databend】多表联结,你不会还没有掌握吧!

简介: 【Databend】多表联结,你不会还没有掌握吧!

概述和数据准备

多表联结是两个或多个表的列合并到一个结果集中。Databend 中支持的连接类型有 inner join 、cross join 、natural join 、left join 、right join 、left anti join 、right anti join 、full outer join。


在这里我们只讲最常见的几种,其中 inner join 、left join 、right join 最常用。

数据准备:

drop table if exists vip_info;
create table if not exists vip_info (
    client_id int,
    region varchar
);
drop table if exists purchase_records;
create table if not exists purchase_records (
    client_id int,
    item varchar,
    qty int
);
drop table if exists gift;
create table if not exists gift (
    gift varchar
);

insert into vip_info values
    (101, 'Toronto'),
    (102, 'Quebec'),
    (103, 'Vancouver');

insert into purchase_records values
    (100, 'Croissant', 2000),
    (102, 'Donut', 3000),
    (103, 'Coffee', 6000),
    (106, 'Soda', 4000);

insert into gift values
    ('Croissant'),
    ('Donut'),
    ('Coffee'),
    ('Soda');  

内连接

内连接使用 inner join 语法,其中 inner 可以省略,返回满足结果集中连接条件的行。当列相同时,可以将 on 转化成 using 来简化语法。

需求:根据准备的数据,返回VIP客户的购买记录。

select t2.client_id
     , t2.item
     , t2.qty
from vip_info as t1
         join purchase_records as t2
              using (client_id);

交叉连接

交叉连接使用 cross join 语法,也可以使用 inner join 不加连接条件实现,返回一个结果集,该结果集包括第一个表中的每一行,与第二个表中的每一行连接。

需求:将每个礼品选项分配给每个VIP客户。

-- 方法一:使用 cross join
select t1.*,t2.*
from vip_info as t1
         cross join gift as t2;
-- 方法二:使用 inner join 但是没有加匹配条件
select t1.*,t2.*
from vip_info as t1
         join gift as t2;

左连接

左连接使用 left join 语法,返回左表中的所有记录,以及右表中的匹配记录。如果没有匹配,结果是右侧的 NULL 记录。

需求:返回所有VIP客户的购买记录,如果VIP客户没有购买,购买记录将为 NULL。

select t1.*,t2.*
from vip_info as t1
        left join purchase_records as t2
              using (client_id); 

右连接

左连接使用 right join 语法,返回右表中的所有记录,以及左表中匹配的记录。如果没有匹配,结果是左侧的 NULL 记录。

需求:返回所有客户的购买记录,如果不是VIP客户,VIP客户信息将为 NULL。

select t1.*,t2.*
from vip_info as t1
        right join purchase_records as t2
              on t1.client_id = t2.client_id;  

左反和右反连接

左侧反连接使用 left anti join 语法,从左侧表中返回右侧表中没有匹配行的行。这是 Databend 的语法,建议使用 left join 配合 where 实现。

-- 方法一:使用 left anti join 实现,只能返回 t1 表的信息
select *
from vip_info as t1
        left anti join purchase_records as t2
              on t1.client_id = t2.client_id;   
-- 方法二:使用 left join 配合 where 实现
select t1.*, t2.*
from vip_info as t1
         left join purchase_records as t2
                   on t1.client_id = t2.client_id
where t2.client_id is null;    
+-----------+---------+-----------+------+-----+
| client_id |  region | client_id | item | qty |
+-----------+---------+-----------+------+-----+
|     101   | Toronto |    NULL   | NULL | NULL|
+-----------+---------+-----------+------+-----+ 

右反连接使用 right anti join 语法,从右表返回左表中没有匹配行的行。这是 Databend 的语法,建议使用 left join 配合 where 实现。

-- 方法一:使用 left anti join 实现,只能返回 t1 表的信息
select *
from vip_info as t1
        right anti join purchase_records as t2
              on t1.client_id = t2.client_id;   
-- 方法二:使用 left join 配合 where 实现
select t1.*, t2.*
from vip_info as t1
         right join purchase_records as t2
                   on t1.client_id = t2.client_id
where t1.client_id is null;    
+-----------+---------+-----------+-----------+-----+
| client_id |  region | client_id |    item   | qty |
+-----------+---------+-----------+-----------+-----+
|    NULL   |   NULL  |    100    | Croissant | 2000|
+-----------+---------+-----------+-----------+-----+ 
|    NULL   |   NULL  |    106    |    Soda   | 4000|
+-----------+---------+-----------+-----------+-----+

全连接

全连接使用 full outer join 返回两个表中的所有行,在可以匹配的地方匹配行,并在不存在匹配行的地方放置NULL。

-- 方法一:使用 full outer join 语法
select t1.*, t2.*
from vip_info as t1
         full outer join purchase_records as t2
                   on t1.client_id = t2.client_id;
-- 方法二:使用 left join、right join 和 union 实现
select t1.*, t2.*
from vip_info as t1
         left join purchase_records as t2
                   on t1.client_id = t2.client_id
union
select t1.*, t2.*
from vip_info as t1
         right join purchase_records as t2
                    on t1.client_id = t2.client_id;

总结

多表联结语法很简单,不同数据库可能语法不一样,但只要掌握 inner join、left join 、right join 三种语法,配合 where 或者 union 基本上可以解决所有相关的多表连接问题,赶紧实践动起来。

参考资料:

Databend JOIN :https://docs.databend.com/guides/query/join

Mysql 多表数据横向合并和纵向合并:https://blog.csdn.net/weixin_50357986/article/details/134866388

相关文章
|
分布式计算 资源调度 Hadoop
HBase表数据的读、写操作与综合操作
HBase表数据的读、写操作与综合操作
254 0
|
SQL 关系型数据库 数据库
学习分布式事务Seata看这一篇就够了,建议收藏
学习分布式事务Seata看这一篇就够了,建议收藏
18307 2
|
存储 Java 中间件
【分布式技术专题】「OSS中间件系列」Minio的文件服务的存储模型及整合Java客户端访问的实战指南
【分布式技术专题】「OSS中间件系列」Minio的文件服务的存储模型及整合Java客户端访问的实战指南
1270 110
【分布式技术专题】「OSS中间件系列」Minio的文件服务的存储模型及整合Java客户端访问的实战指南
|
存储 SQL JSON
Databend 的安装配置和使用
Databend 的安装配置和使用
462 1
|
8月前
|
开发框架 .NET 中间件
.net8 使用 license 证书授权案例解析
本文介绍了如何使用 `.NET CLI` 创建并改造一个 `ASP.NET Core Web API` 项目,以实现基于许可证的授权机制。具体步骤包括创建项目、添加必要的 NuGet 包(如 `Standard.Licensing` 和 `Swashbuckle.AspNetCore`),以及修改 `Program.cs` 文件以集成自定义的许可证验证中间件。项目结构中新增了 `LicenseController` 接口用于处理授权相关操作,并通过测试流程验证了默认天气接口在未授权和授权状态下的响应情况。整个过程确保了应用程序能够在启动时正确验证许可证,保障系统的安全性与可控性。
373 9
.net8 使用 license 证书授权案例解析
|
10月前
|
SQL 存储 Apache
基于 Flink 进行增量批计算的探索与实践
本文整理自阿里云高级技术专家、Apache Flink PMC朱翥老师在Flink Forward Asia 2024的分享,内容分为三部分:背景介绍、工作介绍和总结展望。首先介绍了增量计算的定义及其与批计算、流计算的区别,阐述了增量计算的优势及典型需求场景,并解释了为何选择Flink进行增量计算。其次,详细描述了当前的工作进展,包括增量计算流程、执行计划生成、控制消费数据量级及执行进度记录恢复等关键技术点。最后,展示了增量计算的简单示例、性能测评结果,并对未来工作进行了规划。
942 6
基于 Flink 进行增量批计算的探索与实践
|
10月前
|
人工智能 分布式计算 Cloud Native
云原生数据仓库AnalyticDB:深度智能化的数据分析洞察
云原生数据仓库AnalyticDB(ADB)是一款深度智能化的数据分析工具,支持大规模数据处理与实时分析。其架构演进包括存算分离、弹性伸缩及性能优化,提供zero-ETL和APS等数据融合功能。ADB通过多层隔离保障负载安全,托管Spark性能提升7倍,并引入AI预测能力。案例中,易点天下借助ADB优化广告营销业务,实现了30%的任务耗时降低和20%的成本节省,展示了云原生数据库对出海企业的数字化赋能。
387 3
|
12月前
|
网络安全 Windows
Windows server 2012R2系统安装远程桌面服务后无法多用户同时登录是什么原因?
【11月更文挑战第15天】本文介绍了在Windows Server 2012 R2中遇到的多用户无法同时登录远程桌面的问题及其解决方法,包括许可模式限制、组策略配置问题、远程桌面服务配置错误以及网络和防火墙问题四个方面的原因分析及对应的解决方案。
924 4
|
算法 API Apache
Flink CDC:新一代实时数据集成框架
本文源自阿里云实时计算团队 Apache Flink Committer 任庆盛在 Apache Asia CommunityOverCode 2024 的分享,涵盖 Flink CDC 的概念、版本历程、内部实现及社区未来规划。Flink CDC 是一种基于数据库日志的 CDC 技术实现的数据集成框架,能高效完成全量和增量数据的实时同步。自 2020 年以来,Flink CDC 经过多次迭代,已成为功能强大的实时数据集成工具,支持多种数据库和数据湖仓系统。未来将进一步扩展生态并提升稳定性。
3691 3
Flink CDC:新一代实时数据集成框架
|
存储 分布式计算 OLAP
Apache Paimon统一大数据湖存储底座
Apache Paimon,始于Flink Table Store,发展为独立的Apache顶级项目,专注流式数据湖存储。它提供统一存储底座,支持流、批、OLAP,优化了CDC入湖、流式链路构建和极速OLAP查询。Paimon社区快速增长,集成Flink、Spark等计算引擎,阿里巴巴在内部广泛应用,旨在打造统一湖存储,打通Serverless Flink、MaxCompute等,欢迎大家扫码参与体验阿里云上的 Flink+Paimon 的流批一体服务。
19082 8
Apache Paimon统一大数据湖存储底座
下一篇
开通oss服务