使用Flink实时发现最热Github项目
1. 实验资源方式简介及开始实验
云起实验室实验资源方式介绍
云起实验室支持开通免费试用、个人账户资源两种实验资源方式。
- 开通免费试用
- 使用个人账号开通试用,平台仅提供手册参考。
- 所有实验操作将保留至您的账号,请谨慎操作。
- 在实验页面下方卡片会展示本实验支持的试用规格,可以选择你要试用的云产品资源进行开通。您在实验过程中,可以随时用右下角icon唤起试用卡片。阿里云支持试用的产品列表、权益及具体规则说明请参考开发者试用中心。
- 说明:试用云产品开通在您的个人账号下,并占用您的试用权益。如试用超出免费试用额度,可能会产生一定费用。
- 个人账户资源
- 使用您个人的云资源进行操作,资源归属于个人。
- 所有实验操作将保留至您的账号,请谨慎操作。
- 平台仅提供手册参考,不会对资源做任何操作。
- 说明:使用个人账户资源,在创建资源时,可能会产生一定的费用,请您及时关注相关云产品资源的计费概述。
准备开始实验
在实验开始前,请您选择其中一种实验资源,单击确认开启实验。
2. 领取免费试用资源
实验前必看!
- 在创建实时计算Flink版时,需要使用到对象存储OSS和负载均衡SLB,您需要领取负载均衡SLB和对象存储OSS资源抵扣包进行抵扣(单击对应产品卡片上的立即试用,在确认并了解相关信息后,根据页面提示申请试用),否则将会产生额外费用。如果您的对象存储OSS或SLB资源抵扣包已使用完毕或无领取资格,开通Flink试用后,将正常收取费用,计费详情请参见SLB按量付费和OSS按量付费。
- 如果您的阿里云主账号符合开通免费试用实时计算Flink版的资格,建议您开通免费试用实时计算Flink版,实时计算Flink版提供的按量付费(3个月5000CUH计算资源)试用,具有时长和容量限制,使用完请及时清理相关资源。实时计算Flink版如果未及时清理资源,相关Flink工作空间将按照按量付费模式正常进行计费,涉及的其他产品服务也会正常收取费用。具体计费详情,请参见按量付费。
- 如果您的阿里云账号只能领取部分免费试用产品,请您领取符合免费试用资格的产品,然后进入实验,不满足免费试用资格的产品将会使用个人账户资源进行创建,并会产生一定的费用,请您及时关注账户扣费。
- 为了避免资源浪费并造成账号扣费的情况,请严格按照本文提供的参数进行配置。在实验完成之后,请您及时删除或禁用压测任务。
- 在实验开始前,请您选择开通免费试用。
- 开通对象存储OSS免费试用。
2.1 在实验室页面下方,选择对象存储OSS,单击立即试用。
说明:如果您的对象存储OSS资源抵扣包已使用完毕或无领取资格,请您跳过2.1-2.2步骤,请根据2.3-2.4步骤创建对象存储OSS,将正常收取费用,计费详情请参见OSS按量付费。
2.2 在对象存储OSS试用开通页面,在确认并了解相关信息后,根据页面提示申请试用。
2.3 前往对象存储OSS控制台。如果您没有开通过OSS服务,系统会提示您开通OSS服务,请按照页面提示开通OSS服务。
2.4 在左侧导航栏中,单击Bucket列表。
2.5 在Bucket列表页面,单击创建Bucket。
2.6 在创建Bucket页面,根据页面引导进行创建Bucket,其中地域选择华东1(杭州),其他配置保持默认即可,单击确定。
- 开通负载均衡SLB免费试用。
3.1 在实验室页面下方,选择传统型负载均衡CLB,单击立即试用。
说明:如果您的负载均衡SLB资源抵扣包已使用完毕或无领取资格,请您跳过此步骤,开通Flink试用后,将正常收取费用,计费详情请参见SLB按量付费。
3.2 在传统型负载均衡CLB开通页面,地域选择华东1(杭州),可用区选择华东1可用区H,选中服务协议,单击立即试用。
- 开通实时计算Flink版免费试用。
4.1 在实验室页面下方,选择实时计算Flink版,单击立即试用。
4.2 如果您第一次访问该服务,可能需要进行角色授权。请在弹出的授权请求页面,单击前往RAM进行授权后,单击同意授权,完成自动化角色授权。授权成功后,需返回实验室页面。
4.3 Flink开通页面,单击上方提示框中的领取免费的资源抵扣包,领取Flink资源抵扣包。
4.4 在Flink资源抵扣包页面,确认相关信息后,单击确认订单,根据页面提示完成领取。
4.5 领取完毕后,在Flink开通页面,刷新此页面后完成参数配置。
参数 |
说明 |
教程配置 |
付费模式 |
阿里云实时计算Flink版免费试用仅支持按量付费。 |
按量付费 |
地域 |
本教程不涉及上下游存储,所以可不与上下游存储保持一致。 |
华东1(杭州) |
可用区 |
本教程不涉及上下游存储,所以可不与上下游存储保持一致。 |
可用区H |
资源抵扣包 |
可用于抵扣中国内地公有云地域(目前仅支持上海,杭州,北京,深圳,张家口区域)按量付费模式用量,自购买资源包日起有效期三个月。领取资源包后,单击刷新按钮,即可更新此参数。 其中,本教程示例不适用于张家口地域。 |
5000CUH |
您需要领取负载均衡SLB和对象存储OSS资源抵扣包进行抵扣(即单击所给链接,单击对应产品卡片上的立即试用,在确认并了解相关信息后,根据页面提示申请试用),否则将会产生额外费用。 如果您的对象存储OSS或SLB资源抵扣包已使用完毕或无领取资格,开通Flink试用后,将正常收取费用,计费详情请参见SLB按量付费和OSS按量付费。 |
确认领取后,选中 |
|
SLB服务 |
SLB是通过浏览器访问Flink产品控制台的必要网络连接组件。在您开通阿里云实时计算Flink版服务后,会自动开通SLB服务,该SLB专用于阿里云实时计算Flink版服务。 |
选中 |
专有网络 |
选择您已创建的专有网络。如果您没有创建,请参见创建和管理专有网络进行创建。 |
选中您需要使用的VPC名称。 |
虚拟交换机 |
每个Flink作业的Task Manager和Job Manager实例都会占用一个IP,您需要至少选择1个虚拟交换机。 如果当前无可用虚拟交换机,请在当前地域当前可用区下进行创建,详情请参见创建和管理专有网络。 |
选中您需要使用的交换机名称。 |
工作空间名称 |
每个工作空间的计算资源隔离,开发控制台相互独立。 创建成功后不可修改。 |
flink-test |
OSS存储 |
OSS用于存储作业系统检查点、作业快照、日志和JAR包等信息。新建OSS存储的具体操作,请参见开通OSS服务。 不推荐对选择的Bucket开启非默认策略,例如多版本、合规保留等,可能会导致Flink作业异常。 |
选中您需要使用的OSS Bucket名称。 |
监控服务 |
如果您选中了监控服务(为您提供商业版Prometheus监控能力),则会正常进行收费,计费详情请参见ARMS按量计费。 |
不选中 |
4.6 请再次确认已了解并领取实时计算Flink版资源抵扣包。
实时计算Flink版资源抵扣包领取已在上述步骤2.3-2.4中完成。若未领取请查看对应步骤完成领取。
如果您的实时计算Flink版资源抵扣包已使用完毕或无领取资格,开通Flink试用后,将正常收取费用。
4.7 单击立即试用,并根据页面提示,完成阿里云实时计算Flink版工作空间创建。
说明:工作空间创建需要约5~10分钟,请耐心等待。5~10分钟后,请在实时计算控制台Flink全托管页签,刷新页面查看工作空间状态,当工作空间状态为运行中时,即可进入下一步。
- 领取完免费试用后,返回资源领取界面,单击我已开通,进入实验。
说明:如果您的阿里云账号只能领取部分免费试用产品,请您领取符合免费试用资格的产品,然后进入实验,不满足免费试用资格的产品将会使用个人账户资源进行创建,并会产生一定的费用,请您及时关注账户扣费。
3. 创建资源
- 创建对象存储OSS。
说明:
- 如果您已有对象存储OSS资源,您可跳过此步骤。
- 请您根据如下操作,开通对象存储OSS,会产生一定的费用,具体计费详情,请参见OSS按量付费。
1.1 前往对象存储OSS控制台。如果您没有开通过OSS服务,系统会提示您开通OSS服务,请按照页面提示开通OSS服务。
1.2 在左侧导航栏中,单击Bucket列表。
2.5 在Bucket列表页面,单击创建Bucket。
2.6 在创建Bucket页面,根据页面引导进行创建Bucket,其中地域选择华东1(杭州),其他配置保持默认即可,单击确定。
- 创建实时计算Flink版。
说明:
- 如果您已开通实时计算Flink,请您跳过本步骤。
- 请您根据如下操作,开通实时计算Flink,并会产生一定的费用,具体计费详情,请参见计费概述。在开通实时计算Flink时,需要使用到对存储OSS和负载均衡SLB,计费详情请参见SLB按量付费和OSS按量付费。
2.1 前往实时计算Flink版控制台。
2.2 在实时计算控制台页面,单击立即购买。
2.3 在Flink开通页面,按照如下提示完成参数配置。计费详情请参见实时计算 Flink版按量计费。
说明:如果您第一次访问该服务,可能需要进行角色授权。请在弹出的授权请求页面,单击前往RAM进行授权后,单击同意授权,完成自动化角色授权。
参数 |
说明 |
教程配置 |
付费模式 |
阿里云实时计算Flink版免费试用仅支持按量付费。 |
按量付费 |
地域 |
本教程不涉及上下游存储,所以可不与上下游存储保持一致。 |
华东1(杭州) |
可用区 |
本教程不涉及上下游存储,所以可不与上下游存储保持一致。 |
可用区H |
SLB服务 |
SLB是通过浏览器访问Flink产品控制台的必要网络连接组件。在您开通阿里云实时计算Flink版服务后,会自动开通SLB服务,该SLB专用于阿里云实时计算Flink版服务。SLB会产生额外付费,单个收费约3元/天,实际收费详情请参见SLB按量付费。 |
选中 |
专有网络 |
选择您已创建的专有网络。如果您没有创建,请参见创建和管理专有网络进行创建。 |
选中您需要使用的VPC名称。 |
虚拟交换机 |
每个Flink作业的Task Manager和Job Manager实例都会占用一个IP,您需要至少选择1个虚拟交换机。 如果当前无可用虚拟交换机,请在当前地域当前可用区下进行创建,详情请参见创建和管理专有网络。 |
选中您需要使用的交换机名称。 |
工作空间名称 |
每个工作空间的计算资源隔离,开发控制台相互独立。 创建成功后不可修改。 |
例如flink-test |
OSS存储 |
OSS用于存储作业系统检查点、作业快照、日志和JAR包等信息。新建OSS存储的具体操作,请参见开通OSS服务。 不推荐对选择的Bucket开启非默认策略,例如多版本、合规保留等,可能会导致Flink作业异常。 |
选中您需要使用的OSS Bucket名称。 |
监控服务 |
如果您选中了监控服务(为您提供商业版Prometheus监控能力),则会正常进行收费,计费详情请参见ARMS按量计费。 |
不选中 |
2.4 单击确认订单,并根据页面提示,完成阿里云实时计算Flink版工作空间创建。
说明:工作空间创建需要约5~10分钟,请耐心等待。5~10分钟后,请在实时计算控制台Flink全托管页签,刷新页面查看工作空间状态,当工作空间状态为运行中时,即可进入下一步。
5. 实验 1:Github 关注数排行榜
本小节实验统计从一周前起的Github关注度排行榜。
- 在左侧导航栏中,单击作业开发。
- 在作业开发页签,单击新建。
- 在新建文件对话框,文件名称输入为topn,其他保持默认即可,单击确认。
- 拷贝如下代码到SQL编辑器上。
说明:其中startTime尽量设置为当前此刻的一周前附近,如果设置的时间太早,前面无效计算时间比较长,不仅耗费资源,而且很久才能加载出计算结果。根据不同的地域设置相应的project和endPoint,在本实验中,实例为杭州的服务平台,因此设置'project' = 'github-events-hangzhou'和'endPoint' = 'https://cn-hangzhou-intranet.log.aliyuncs.com',其他地域如北京、上海、深圳更改为对应值即可。
-- 通过DDL语句创建SLS源表,SLS中存放了Github的实时数据。 CREATE TEMPORARY TABLE gh_event( id STRING, -- 每个事件的唯一ID。 created_at BIGINT, -- 事件时间,单位秒。 created_at_ts as TO_TIMESTAMP(created_at*1000), -- 事件时间戳(当前会话时区下的时间戳,如:Asia/Shanghai)。 type STRING, -- Github事件类型,如:。ForkEvent, WatchEvent, IssuesEvent, CommitCommentEvent等。 actor_id STRING, -- Github用户ID。 actor_login STRING, -- Github用户名。 repo_id STRING, -- Github仓库ID。 repo_name STRING, -- Github仓库名,如:apache/flink, apache/spark, alibaba/fastjson等。 org STRING, -- Github组织ID。 org_login STRING -- Github组织名,如: apache,google,alibaba等。 ) WITH ( 'connector' = 'sls', -- 实时采集的Github事件存放在阿里云SLS中。 'project' = 'github-events-hangzhou', -- 存放公开数据的SLS项目。例如'github-events-hangzhou'。 'endPoint' = 'https://cn-hangzhou-intranet.log.aliyuncs.com', -- 公开数据仅限VVP通过私网地址访问。例如'https://cn-hangzhou-intranet.log.aliyuncs.com'。 'logStore' = 'realtime-github-events', -- 存放公开数据的SLS logStore。 'accessId' = 'xxxxxx', -- 只读账号的AK。 'accessKey' = 'xxxxxx', -- 只读账号的SK。 'batchGetSize' = '500', -- 批量读取数据,每批最多拉取500条。 'startTime' = '2023-06-30 14:00:00' -- 开始时间,尽量设置到需要计算的时间附近,否则无效计算的时间较长。默认值为当前值 ); -- 配置开启mini-batch, 每2s处理一次。 SET 'table.exec.mini-batch.enabled'='true'; SET 'table.exec.mini-batch.allow-latency'='2s'; SET 'table.exec.mini-batch.size'='4096'; -- 作业设置4个并发,聚合更快。 SET 'parallelism.default' = '4'; -- 查看Github新增star数Top 5仓库。 SELECT DATE_FORMAT(created_at_ts, 'yyyy-MM-dd') as `date`, repo_name, COUNT(*) as num FROM gh_event WHERE type = 'WatchEvent' GROUP BY DATE_FORMAT(created_at_ts, 'yyyy-MM-dd'), repo_name ORDER BY num DESC LIMIT 5;
- 在topn页签右上角,单击验证,检查SQL是否正确,无误后单击执行。
- 配置图表。
- 选择Y Bar并且编辑标题栏为Top 5。
- 配置group by为repo_name, order by为num,即根据repo_name分组比较数量。
- 实验可以一直运行,不断消费最新的数据。但是如果当前集群的CPU数配置的较少,不足以执行两个任务,又想执行下一个实验是,可以将本实验停止。单击结果左侧的 图标,停止实验。
- 结果。
第一名:s0md3v/roop 视频换脸(最近我在b站也经常翻到)。
第二名:pengzhile/pandora 潘多拉实现了网页版 ChatGPT 的主要操作。
第三名:ClassmateLin/dm-ticket 大麦网抢票(疫情放开,估计上周演唱会很多)。
第四名:ShishirPatil/gorilla 连接海量 API 的大型语言模型。
第五名: iperov/DeepFaceLive 换脸。
由此可见最近一周最流行的 repo 就是 ai 视频换脸和大模型,最流行的领域就是 ai。
6. 实验 2:统计组织活跃度变化
本小节实验统计apache和alibaba组织开源在从 24 小时前开始的活跃度趋势变化。
- 在作业开发页签,单击新建。
- 在新建文件对话框,文件名称输入为linechart,其他保持默认即可,单击确认。
- 拷贝如下代码到SQL编辑器上。
说明:其中startTime尽量设置为当前此刻的24小时前附近,如果设置的时间太早,前面无效计算时间比较长,不仅耗费资源,而且很久才能加载出计算结果。如果想要统计alibaba, 改成org_login ='alibaba' 即可。
CREATE TEMPORARY TABLE gh_event( id STRING, -- 每个事件的唯一ID。 created_at BIGINT, -- 事件时间,单位秒。 created_at_ts as TO_TIMESTAMP(created_at*1000), -- 事件时间戳(当前会话时区下的时间戳,如:Asia/Shanghai)。 type STRING, -- Github事件类型,如:。ForkEvent, WatchEvent, IssuesEvent, CommitCommentEvent等。 actor_id STRING, -- Github用户ID。 actor_login STRING, -- Github用户名。 repo_id STRING, -- Github仓库ID。 repo_name STRING, -- Github仓库名,如:apache/flink, apache/spark, alibaba/fastjson等。 org STRING, -- Github组织ID。 org_login STRING -- Github组织名,如: apache,google,alibaba等。 ) WITH ( 'connector' = 'sls', -- 实时采集的Github事件存放在阿里云SLS中。 'project' = 'github-events-hangzhou', -- 存放公开数据的SLS项目。例如'github-events-hangzhou'。 'endPoint' = 'https://cn-hangzhou-intranet.log.aliyuncs.com', -- 公开数据仅限VVP通过私网地址访问。例如'https://cn-hangzhou-intranet.log.aliyuncs.com'。 'logStore' = 'realtime-github-events', -- 存放公开数据的SLS logStore。 'accessId' = 'xxxxxx', -- 只读账号的AK。 'accessKey' = 'xxxxxx', -- 只读账号的SK。 'batchGetSize' = '500', -- 批量读取数据,每批最多拉取500条。 'startTime' = '2023-06-30 14:00:00' -- 开始时间,尽量设置到需要计算的时间附近,否则无效计算的时间较长 ); -- 配置开启mini-batch, 每2s处理一次。 SET 'table.exec.mini-batch.enabled'='true'; SET 'table.exec.mini-batch.allow-latency'='2s'; SET 'table.exec.mini-batch.size'='4096'; -- 作业设置4个并发,聚合更快。 SET 'parallelism.default' = '4'; -- 从一天前开始统计事件总量 SELECT NOW(), max(created_at_ts) as created_ts, COUNT(*) as event_count FROM gh_event WHERE org_login ='apache' and created_at_ts >= NOW() - INTERVAL '1' DAY;
- 在linechart页签右上角,单击验证,检查SQL是否正确,无误后单击执行。
- 配置图表。
- 单击图表配置。
- 编辑标题为apache,并且选择X/Y Line。
- 配置X轴为create_ts, y 轴为event_count。
- 执行结果。
apache作为全球性的开源组织,一天内的活跃度比较均匀,而阿里巴巴开源基本由国内开发者关注和贡献,夜间增加比较平缓,在9点之后明显提升。
7. 实验 3: 统计仓库贡献时间分布情况
本小节实验统计flink和spark开源仓库在从一周前前开始的贡献分布情况。贡献包括代码提交、commit评论、issue评论、提交PR请求、PR请求的审查评论等与开发者相关的事件。
- 在作业开发页签,单击新建。
- 在新建文件对话框,文件名称输入为heatmap,其他保持默认即可,单击确认。
- 拷贝如下代码到SQL编辑器上。
说明:其中startTime尽量设置为当前此刻的一周前附近,如果设置的时间太早,前面无效计算时间比较长,不仅耗费资源,而且很久才能加载出计算结果。如果想要统计spark, 改成repo_name = 'apache/spark'' 即可。
CREATE TEMPORARY TABLE gh_event( id STRING, -- 每个事件的唯一ID。 created_at BIGINT, -- 事件时间,单位秒。 created_at_ts as TO_TIMESTAMP(created_at*1000), -- 事件时间戳(当前会话时区下的时间戳,如:Asia/Shanghai)。 type STRING, -- Github事件类型,如:。ForkEvent, WatchEvent, IssuesEvent, CommitCommentEvent等。 actor_id STRING, -- Github用户ID。 actor_login STRING, -- Github用户名。 repo_id STRING, -- Github仓库ID。 repo_name STRING, -- Github仓库名,如:apache/flink, apache/spark, alibaba/fastjson等。 org STRING, -- Github组织ID。 org_login STRING -- Github组织名,如: apache,google,alibaba等。 ) WITH ( 'connector' = 'sls', -- 实时采集的Github事件存放在阿里云SLS中。 'project' = 'github-events-hangzhou', -- 存放公开数据的SLS项目。例如'github-events-hangzhou'。 'endPoint' = 'https://cn-hangzhou-intranet.log.aliyuncs.com', -- 公开数据仅限VVP通过私网地址访问。例如'https://cn-hangzhou-intranet.log.aliyuncs.com'。 'logStore' = 'realtime-github-events', -- 存放公开数据的SLS logStore。 'accessId' = 'xxxxxx', -- 只读账号的AK。 'accessKey' = 'xxxxxx', -- 只读账号的SK。 'batchGetSize' = '500', -- 批量读取数据,每批最多拉取500条。 'startTime' = '2023-06-30 14:00:00' -- 开始时间,尽量设置到需要计算的时间附近,否则无效计算的时间较长 ); -- 配置开启mini-batch, 每2s处理一次。 SET 'table.exec.mini-batch.enabled'='true'; SET 'table.exec.mini-batch.allow-latency'='2s'; SET 'table.exec.mini-batch.size'='4096'; -- 作业设置4个并发,聚合更快。 SET 'parallelism.default' = '4'; -- 配置开启mini-batch, 每2s处理一次。 SET 'table.exec.mini-batch.enabled'='true'; SET 'table.exec.mini-batch.allow-latency'='2s'; SET 'table.exec.mini-batch.size'='4096'; -- 作业设置4个并发,聚合更快。 SET 'parallelism.default' = '4'; -- 统计从上周起的贡献量 SELECT DATE_FORMAT(created_at_ts, 'yyyy-MM-dd') as comment_date, HOUR(created_at_ts) AS comment_hour ,COUNT(*) AS comment_count FROM gh_event WHERE created_at_ts >= NOW() - INTERVAL '7' DAY AND repo_name = 'apache/flink' AND (type ='CommitCommentEvent' OR type='IssueCommentEvent' or type = 'PullRequestReviewCommentEvent'or type = 'PushEvent' or type = 'PullRequestEvent' or type = 'PullRequestReviewEvent') GROUP BY DATE_FORMAT(created_at_ts, 'yyyy-MM-dd'), HOUR(created_at_ts) ;
- 在heatmap页签右上角,单击验证,验证SQL是否正确,无误后单击执行。
- 配置图表。
选择Heatmap, 设置Group by为comment_date, Spli By为comment_hour,Color为Sum(comment_count), 即X轴为天,Y周为小时,根据总数量显示颜色深浅。
8. 清理及后续
通过简单的数据实时分析示例,您已完成了阿里云实时计算Flink版的开通、SQL查询语句的执行,以及可视化数据分析,快速体验了实时计算Flink版产品。
清理
实时计算Flink版提供的按量付费(3个月5000CUH计算资源)试用,具有时长和容量限制,使用完请及时清理相关资源。如果未及时清理资源,相关Flink工作空间将按照按量付费模式正常进行计费,涉及的其他产品服务也会正常收取费用。完成教程后,您可以按照如下场景进行处理:
- 如果您需要继续使用,此时5000CUH资源已使用完或者已经超过3个月,请随时查看欠费金额,并在规定时间内充值结清欠费账单,否则无法继续正常使用工作空间。计费详情请参见按量付费和欠费说明。
- 如果您不需要继续使用,请及时清理测试数据和试用资源:
- 实时计算Flink版资源清理
登录实时计算控制台,单击目标工作空间操作列下的更多>释放资源,单击确定。应用实时监控服务ARMS(如果您开通时选中)和负载均衡SLB会随实时计算Flink版一起被释放。
- 对象存储OSS资源清理
删除对象存储空间,详情请参见删除存储空间。
- 负载均衡SLB资源清理
删除传统型负载均衡CLB,详情请参见释放负载均衡实例。
- 专有网络VPC资源清理
删除专有网络,详情请参见删除专有网络。
后续
如果您需要将某个作业提交至生产环境运行(请勿将Session集群用于正式生产环境),需要在作业开发页面,单击上线,在弹出的确认对话框中,单击确定,然后在作业运维页面,单击启动,具体操作请参见作业开发和作业启动。
9. 清理及后续
通过简单的数据实时分析示例,您已完成了阿里云实时计算Flink版的开通、SQL查询语句的执行,以及可视化数据分析,快速体验了实时计算Flink版产品
清理
- 实时计算Flink版资源清理
登录实时计算控制台,单击目标工作空间操作列下的更多>释放资源,单击确定。应用实时监控服务ARMS(如果您开通时选中)和负载均衡SLB会随实时计算Flink版一起被释放。
- 对象存储OSS资源清理
删除对象存储空间,详情请参见删除存储空间。
- 专有网络VPC资源清理
删除专有网络,详情请参见删除专有网络。
后续
如果您需要将某个作业提交至生产环境运行(请勿将Session集群用于正式生产环境),需要在作业开发页面,单击上线,在弹出的确认对话框中,单击确定,然后在作业运维页面,单击启动,具体操作请参见作业开发和作业启动。
实验链接:https://developer.aliyun.com/adc/scenario/da1b2ec931cc4143ad22681aaaff34bb