Terraform中DataSource的深度分析

简介: DataSource是Terraform官方提供的插件功能,各个Provider可以实现自己的DataSource能力,目的是通过DataSource中的定义过滤需要的数据,一是简化模板编写时数据过滤的复杂性,二是各个资源对Data源的引用保持一致,比如想要知道“华北2”的Region下都有哪些可用区,就可以用DataSource,如果想指定第一个可用区,就可以这样使用“${data.alicloud_zones.0.id}”。

一、DataSource功能介绍

DataSource是Terraform官方提供的插件功能,各个Provider可以实现自己的DataSource能力,目的是通过DataSource中的定义过滤需要的数据,一是简化模板编写时数据过滤的复杂性,二是各个资源对Data源的引用保持一致,比如想要知道“华北2”下CPU为1核,内存为1G的ECS实例类型是什么,就可以用DataSource,如果想引用这个数据源,就可以这样使用"${data.alicloud_instance_types.1c1g.instance_types.0.id}"。

二、阿里云DataSource的功能增强

阿里云的DataSource在Terraform原生的功能上做了增强:

  • 不仅可以作为资源引用过滤使用,还支持导出过滤结果;
  • 并且在"plan"时就可以看到文件(原生的功能只能在实"apply"时才可使用,很不方便);
  • 更强大的是在过滤ECS实例类型时如果入参没有可选的资源,会提示支持的类型都有哪些;

DataSource目前支持Region、可用区、镜像、ECS实例类型、VPC、keyPair,如果有用户想知道都有哪些镜像ID,就可以通过DataSource执行后查看导出的文件获取数据,即便是不用于Terraform中也可以做为一个小工具使用。源码详见 https://github.com/alibaba/terraform-provider/tree/master/alicloud 中以data_source开头的文件。

三、例子

下面以ECS实例类型为例,深度讲解如何使用:

需求场景:想要创建一台ECS,条件:Region是华北2,CPU为1核,内存1G,想要知道有哪些实例类型可用。

datasource的代码如下:

data "alicloud_instance_types" "1c1g" {
    cpu_core_count = 1
    memory_size = 1
    "output_file" = "instance_type.json"  //重点是这句,指明导出的文件名
}

执行“terraform plan”,即可看到输出的文件 instance_type.json的文件,我们查看文件内容如下:
image

返回字段说明如下:

  • 除了入参"cpu_core_count"和"memory_size"外,我们看到还有两个返回参数,一个是family,一个是id,family即是ECS实例类型家族,id即是具体的实例类型。

在创建ECS时可以如下引用
image

怎么样,是不是很简单?
如果你曾经被阿里云的ECS复杂约束而困扰,如果你不知道去哪里找实例类型、镜像、可用区,如果你输入的实例类型不符合要求,但又不知道怎么写是正确的,快快用起DataSource功能吧。

相关实践学习
2分钟自动化部署人生模拟器
本场景将带你借助云效流水线Flow实现人生模拟器小游戏的自动化部署
7天玩转云服务器
云服务器ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,可降低 IT 成本,提升运维效率。本课程手把手带你了解ECS、掌握基本操作、动手实操快照管理、镜像管理等。了解产品详情: https://www.aliyun.com/product/ecs
目录
相关文章
|
5月前
|
SQL 存储 JSON
DataWorks产品使用合集之没有dev环境的project,如何创建数据集成任务时完成网络与资源配置
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
7月前
|
JSON druid OLAP
OLAP 数据平台 Druid 第一步,编写 Spec 配置
OLAP 数据平台 Druid 第一步,编写 Spec 配置
84 0
|
7月前
|
分布式计算 MaxCompute
在MaxCompute中,资源(Resource)是特有的概念
在MaxCompute中,资源(Resource)是特有的概念
57 6
|
消息中间件 Java Kafka
Flink的DataSource三部曲之一:直接API
《Flink的DataSource三部曲》系列通过实战熟悉和了解flink的数据源,从内置到自定义逐步上手。
130 0
Flink的DataSource三部曲之一:直接API
|
存储 缓存 Kubernetes
带你读《云原生应用开发 Operator原理与实践》第三章 Kubebuilder 原理3.3 Controller-runtime 模块分析(四)
带你读《云原生应用开发 Operator原理与实践》第三章 Kubebuilder 原理3.3 Controller-runtime 模块分析
|
监控 Cloud Native API
带你读《云原生应用开发 Operator原理与实践》第三章 Kubebuilder 原理3.3 Controller-runtime 模块分析(六)
带你读《云原生应用开发 Operator原理与实践》第三章 Kubebuilder 原理3.3 Controller-runtime 模块分析
|
消息中间件 Kubernetes 监控
云原生日志采集管理方案--Fluent Operator
Fluent Operator是由KubeSphere 社区于2021年捐献给Fluent 社区的,最初是为了满足以云原生的方式管理 Fluent Bit 的需求。Fluentbit Operator可以灵活且方便地部署、配置及卸载 Fluent Bit 以及 Fluentd。同时, 还提供支持 Fluentd 以及 Fluent Bit 的插件,用户可以根据实际需求进行定制化配置。
1335 0
|
存储 SQL JSON
Sentry 监控 - Snuba 数据中台架构(Query Processing 简介)
Sentry 监控 - Snuba 数据中台架构(Query Processing 简介)
202 0
Sentry 监控 - Snuba 数据中台架构(Query Processing 简介)
|
缓存 Kubernetes Cloud Native
带你读《云原生应用开发 Operator原理与实践》第三章 Kubebuilder 原理3.3 Controller-runtime 模块分析(九)
带你读《云原生应用开发 Operator原理与实践》第三章 Kubebuilder 原理3.3 Controller-runtime 模块分析
带你读《云原生应用开发 Operator原理与实践》第三章 Kubebuilder 原理3.3 Controller-runtime 模块分析(九)
|
Cloud Native Perl
带你读《云原生应用开发 Operator原理与实践》第三章 Kubebuilder 原理3.3 Controller-runtime 模块分析(三)
带你读《云原生应用开发 Operator原理与实践》第三章 Kubebuilder 原理3.3 Controller-runtime 模块分析
带你读《云原生应用开发 Operator原理与实践》第三章 Kubebuilder 原理3.3 Controller-runtime 模块分析(三)