【视频】云原生数据仓库 Analyticdb MYSQL 版-解析与实践-3|学习笔记(四)

本文涉及的产品
阿里云百炼推荐规格 ADB PostgreSQL,4核16GB 100GB 1个月
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云原生数据仓库AnalyticDB MySQL版,基础版 8ACU 100GB 1个月
简介: 快速学习【视频】云原生数据仓库 Analyticdb MYSQL 版-解析与实践-3

开发者学堂课程【数据仓库 ACP 认证课程【视频】云原生数据仓库 Analyticdb MYSQL 版-解析与实践-3】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址:https://developer.aliyun.com/learning/course/928/detail/14625


【视频】云原生数据仓库 Analyticdb MYSQL 版-解析与实践-3


3.删除数据/分区/表

AnalyticDB for MySQL提供多种数据删除方式,主要语句为DELETE与TRUNCATE。推荐策略为∶

l 数据删除频率低、基于主键为条件的删除,可通过DELETE FROM WHERE PK='xx'删除数据。

l 数据删除频率低、基于任意条件的删除,可通过DELETE删除数据。

如果数据删除频率低一般都用DELETE完成,删除大量数据可以通过TRUNCATE完成,并且TRUNCATE可以删除表中某一分区。

l 通过TRUNCATE TABLE db_name.table_name PARTITION partition_name册除指定二级分区。

l 通过TRUNCATE TABLE db_name.table_name删除指定表(包括所有二级分区)数据。

4.批量导入数据

AnalyticDB for MySQL支持多种数据源,实现数据导入导出。批量导入适用于大数据量导入的场景,导入过程中可以查询旧数据,导入操作完成后一键切换新数据。导入失败时,支持回滚新数据,不影响查询旧数据。

l 从大数据系统、大存储环境导入数据,采用INSERT OVERWRITE INTO SELECT方式处理,如从MaxCompute、OSS导入数据到AnalyticDB for MySQL;

l 批量导入单个表时,导入任务会在系统中串行执行;批量导入多个表时,导入任务会在系统中并行执行,默认并行执行2个任务;

1. 实时导入数据

l AnalyticDB for MySQL实时导入适用于小数据量导入的场景。

l 从业务系统实时导入数据时采用INSERTINTO SELECT FROM,把一个表的数据导入另一个表中。

l 实时导入任务使用AnalyticDB for MySQL中的资源,如果查询数据期间需要导入数据,建议在QPS(Query Per Second,每秒查询率)较低时进行导入操作。导入会耗费资源,如果在用户查询高峰期导入数据,会对正常业务带来影响。


四、操作演示——创建数据仓库并完成数据同步

把RDS MySQL中一张表的数据导入进ADB MySQL中,实现数据导入。

过程分为6个步骤:

1. 在ADB MySQL创建高权限账号

2. 创建数据库

3创建RDS MySQL外表

4.创建AnalyticDB MySQL表

5.转储RDS MySQL的数据到AnalyticDB MySQL中

6.导入数据验证

实验以ADS官方文档进行操作。通过已经建好的ADS MySQL集群以及RDS实例,将数据从RDS中导入进ADS MySQL中。RDS MySQL实例需与AnalyticDB MySQL集群在同一个VPC下。

image.png为了保证AnalyticDB MySQL能访问RDS,需要将RDS设置白名单。默认白名单为1.27.0.1,表示禁止所有地址访问。复制专有网络的地址后修改RDS白名单

 image.png

image.pngRDS数据库创建账号登录DMS。使用root创建数据库账号,获取最高权限。设置密码。

image.png访问数据库在数据库连接中获取地址,获取地址后创建外部表可以用到。

此时需要创建两个表,一个是adb数据局的表,一个是外部表,通过外部表来实现数据的导入导出。首先需要登录到集群当中,创建账号,创建一个最高权限的账号,名称为root,同时设置密码。

image.png此时对于adb mysql集群来说,如果想要通过外表的方式导入数据,需要打开网络,然后此时可以连接集群,在集群中创建对应数据库及web的映射表。

image.png默认数据库有两个,此时需要创建一个自己的数据库,命名为adb.demo,此时可以访问它,在adb当中再创建一张外部表,创建语句为:

CREATE TABLE IF NOT EXISTS goods_external_table (

goods_id bigint(20) NOT NULL,

price double NOT NULL, class bigint(20) NOT NULL,

name varchar(32) NOT NULL,

update_time timestamp,

PRIMARY KEY (goods_id)

)

ENGINE='mysql' TABLE_PROPERTIES='{

"url":"jdbc:mysql://rm-bp1925ru5x6pzt2m3.mysql.rds.aliyuncs.com.3306/test_adb",

"tablename":"goods",

"username":"root",

"password":"zhou_123456"

}';

此时已经完成了外部表的创建,此时需要在adb mysql当中创建自己的表,代码如下:

CREATE TABLE IF NOT EXISTS mysql_import_test (

goods_id bigint(20) NOT NULL,

price double NOT NULL,

class bigint(20) NOT NULL,

name varchar(32) NOT NULL,

update_time timestamp, PRIMARY KEY (goods_id)

)

DISTRIBUTED BY HASH(goods_id);

此时有了外部表和一个adb的表,此时可以通过insert来完成数据的导入导出,此时执行代码如下:

Insert inte mysql_import_test select * from good_external_table;//导入操作

此时执行,可以看到执行一条语句成功,此时打开表,可以看到已经显示。

image.png此时完成了一次数据导入的过程。把rds mysql的数据导入到了adb mysql当中。

此时案例演示结束。

 

五、试题

1. 在AnalyticDB MySQL中,_____尽可能需要将Join的字段作为分布键。例如订单表和用户表通过user_id做join,这两张表都可用user_id做分布。

A,.本地化原则

B. 均匀性原则

C. 分布式原则

D. 复制原则

解析:

A,此种方式可以保证join在本节点完成,不需要做数据的传输,又例如提高性能。

2. 在AnalyticDB MySQL版中,冷数据指的是访问频次较低的数据,采用______存储,满足存储空间的需求。

A. SSD

B. HDD

C. SSHD

D. SHDD

解析:

B,AnalyticDB MySQL一个显著的特征是实现了冷热数据分层,在创建表时,可以指定表是以热、冷还是温数据存储。热数据是存储在SSD(准确的说是ESSD)冷数据是存在OSS。

3. 在AnalyticDB MySQL版中,为什么需要全量同步?

A. 源库历史数据的binlog可能已经删除

B. 开启同步钱源表中已有数据,必须通过全量数据同步来同步

C. 全量同步可以并行拉取和同步,大量历史数据的同步性能较好

D. AnalyticDB MySQL端的表结构需要全量同步来创建。

解析:

AC,源库历史数据的binlog可能已经删除,此时无法通过日志触放的方式来完成数据的导入,只能通过全量方式来实现。同时,全量同步根据主键来进行划分,划分之后每一部分数据可以并行来处理,具有较好的性能。

4. 在AnalyticDB MySQL版中,下列有关查询优化手段说法正确的是_______。

A. 查询过滤条件中指定分部间或分区建可以进行分区裁剪,减少扫描数据量。

B. 过滤条件中的列确保创建索引,才能支持条件下推

C. 对于筛选率比较低的过滤条件,可以指定列no-index进行调选

D. 聚集索引可以建多个,比如既要按照卖家id频繁访问,又要按照品牌id频繁访问,那可以建2个聚集索引

解析:

ABC,一个表上只能创建一个聚集索引,因为聚集索引会造成数据重分布,如果有多个聚集索引,数据不知按哪个进行分布。


六、回顾与总结

image.png

相关实践学习
阿里云云原生数据仓库AnalyticDB MySQL版 使用教程
云原生数据仓库AnalyticDB MySQL版是一种支持高并发低延时查询的新一代云原生数据仓库,高度兼容MySQL协议以及SQL:92、SQL:99、SQL:2003标准,可以对海量数据进行即时的多维分析透视和业务探索,快速构建企业云上数据仓库。 了解产品 https://www.aliyun.com/product/ApsaraDB/ads
相关文章
|
3月前
|
监控 关系型数据库 MySQL
DTS实时同步进阶:MySQL到AnalyticDB毫秒级ETL管道搭建
本方案采用“Binlog解析-数据清洗-批量写入”三级流水线架构,实现MySQL到AnalyticDB的高效同步。通过状态机解析、内存格式转换与向量化写入技术,保障毫秒级延迟(P99<300ms)、50万+ TPS吞吐及99.99%数据一致性,支持高并发、低延迟的数据实时处理场景。
106 10
|
6月前
|
缓存 监控 搜索推荐
【实战解析】smallredbook.item_get_video API:小红书视频数据获取与电商应用指南
本文介绍小红书官方API——`smallredbook.item_get_video`的功能与使用方法。该接口可获取笔记视频详情,包括无水印直链、封面图、时长、文本描述、标签及互动数据等,并支持电商场景分析。调用需提供`key`、`secret`和`num_iid`参数,返回字段涵盖视频链接、标题、标签及用户信息等。同时,文章提供了电商实战技巧,如竞品监控与个性化推荐,并列出合规注意事项及替代方案对比。最后解答了常见问题,如笔记ID获取与视频链接时效性等。
|
9月前
|
人工智能 搜索推荐 API
Cobalt:开源的流媒体下载工具,支持解析和下载全平台的视频、音频和图片,支持多种视频质量和格式,自动提取视频字幕
cobalt 是一款开源的流媒体下载工具,支持全平台视频、音频和图片下载,提供纯净、简洁无广告的体验
1274 9
Cobalt:开源的流媒体下载工具,支持解析和下载全平台的视频、音频和图片,支持多种视频质量和格式,自动提取视频字幕
|
8月前
|
人工智能 关系型数据库 MySQL
AnalyticDB MySQL版:云原生离在线一体化数据仓库支持实时业务决策
AnalyticDB MySQL版是阿里云推出的云原生离在线一体化数据仓库,支持实时业务决策。产品定位为兼具数据库应用性和大数据处理能力的数仓,适用于大规模数据分析场景。核心技术包括混合负载、异构加速、智能弹性与硬件优化及AI集成,支持流批一体架构和物化视图等功能,帮助用户实现高效、低成本的数据处理与分析。通过存算分离和智能调度,AnalyticDB MySQL可在复杂查询和突发流量下提供卓越性能,并结合AI技术提升数据价值挖掘能力。
182 16
|
8月前
|
存储 人工智能 Cloud Native
NAS深度解析:面向云原生应用的文件存储
本文深入解析了面向云原生应用的文件存储NAS,由阿里云专家分享。内容涵盖Cloud Native与AI浪潮下的技术创新,包括高性能、弹性伸缩、成本优化及数据安全等方面。针对云原生应用的特点,NAS在Serverless生态中不断演进,提供多种产品规格以满足不同需求,如极速型NAS、归档存储等,确保用户在高并发场景下获得稳定低延时的存储体验。同时,通过优化挂载参数和容器访问策略,提升整体性能与可用性。
331 11
|
8月前
|
数据采集 XML API
深入解析BeautifulSoup:从sohu.com视频页面提取关键信息的实战技巧
深入解析BeautifulSoup:从sohu.com视频页面提取关键信息的实战技巧
|
10月前
|
数据采集 JSON 数据格式
深入解析:使用Python爬取Bilibili视频
本文介绍了如何使用Python编写脚本自动化下载Bilibili视频。通过requests等库获取视频和音频URL,使用ffmpeg合并音视频文件,最终实现高效下载。注意遵守网站爬虫政策和法律法规。
1235 4
|
10月前
|
Kubernetes Cloud Native 云计算
云原生技术深度解析:重塑企业IT架构的未来####
本文深入探讨了云原生技术的核心理念、关键技术组件及其对企业IT架构转型的深远影响。通过剖析Kubernetes、微服务、容器化等核心技术,本文揭示了云原生如何提升应用的灵活性、可扩展性和可维护性,助力企业在数字化转型中保持领先地位。 ####
|
10月前
|
运维 Kubernetes Cloud Native
Kubernetes云原生架构深度解析与实践指南####
本文深入探讨了Kubernetes作为领先的云原生应用编排平台,其设计理念、核心组件及高级特性。通过剖析Kubernetes的工作原理,结合具体案例分析,为读者呈现如何在实际项目中高效部署、管理和扩展容器化应用的策略与技巧。文章还涵盖了服务发现、负载均衡、配置管理、自动化伸缩等关键议题,旨在帮助开发者和运维人员掌握利用Kubernetes构建健壮、可伸缩的云原生生态系统的能力。 ####
|
10月前
|
Kubernetes Cloud Native 调度
云原生批量任务编排引擎Argo Workflows发布3.6,一文解析关键新特性
Argo Workflows是CNCF毕业项目,最受欢迎的云原生工作流引擎,专为Kubernetes上编排批量任务而设计,本文主要对最新发布的Argo Workflows 3.6版本的关键新特性做一个深入的解析。

热门文章

最新文章

推荐镜像

更多