“实”力Hackathon大赛赛道二:Serverless性能优化挑战赛 赛题任务提交说明

本文涉及的产品
函数计算FC,每月15万CU 3个月
容器镜像服务 ACR,镜像仓库100个 不限时长
简介: “实”力Hackathon大赛赛道二:Serverless性能优化挑战赛 赛题任务提交说明

1. 本地开发环境配置

本地开发环境需要安装git环境和docker环境

2.创建阿里云容器镜像服务的镜像仓库

阿里云容器镜像服务(简称 ACR)是面向容器镜像、Helm Chart 等符合 OCI 标准的云原生制品安全托管及高效分发平台。

ACR 产品页 :https://www.aliyun.com/product/acr

1.当前可以免费使用容器镜像服务 ACR 个人版,点击进入 ACR 控制台https://cr.console.aliyun.com本次练习任务请将仓库地域选择杭州,选择个人实例进入。

注意:为了避免拉取镜像引起的公网流量费用,请在创建ACR实例之前保证和已有的ASK集群在同一region,并通过VPC网络地址进行拉取。考虑到ASK的免费试用资源可选区域为:北京、杭州、深圳,我们推荐大家在以上三个区域创建ACR实例。若集群和ACR实例未处于同一region,拉取镜像需要配置公网NAT,操作可参照为已有集群开启公网访问能力

1.png

2.进入访问凭证页面,点击设置固定密码,并牢记密码便于后续镜像提交需要。

2.png

3.进入命名空间页面,创建地址唯一的镜像仓库命名空间: 例如hackathon-serverless

注意:命名空间可能存在已经占用的情况, 请自行确定命名空间的名称

3.png

4.根据任务/比赛要求选择对应的地域(本次练习选择杭州),其他的按照自己需求选择或填写。

创建一新的镜像仓库:

命名空间: 选择上文中刚创建的命名空间名字,例如: hackathon-serverless

仓库名称(固定名称): scaler

仓库类型:私有,避免其他用户公开匿名拉取使用。

image.png

5.选择代码源为本地仓库, 直接从本地直接推送至镜像仓库,灵活度更大,点击创建镜像仓库

image.png

6.页面自动跳转至对应的仓库基本信息。在操作指南的页面下,可以查看登录、拉取、推送等简单操作的指南。可直接复制公网地址,进行镜像的推送。

若命名空间为:hackathon-serverless 镜像仓库名称为:scaler , 则整个镜像的地址为:

registry.cn-hangzhou.aliyuncs.com/hackathon-serverless/scaler

为能够将本地镜像推送到刚刚创建的阿里云镜像仓库中, 需要按照第一步,使用 docker 命令登录阿里云镜像仓库。image.png

3. 代码开发

申请 https://code.alibaba-inc.com/cos/scaler 代码仓库的访问权限。

image.png

审批人 优先选择: 向先、盈楹冈仁

访问 https://code.alibaba-inc.com/cos/scaler 代码仓库, 并fork 其代码到自己的代码仓库中,并使用git 命令clone 到本地, 在scaler 代码框架基础上实现自己的业务逻辑,满足本次大赛对scaler 的要求。

选手具体如何进行本地编译打包镜像上传镜像到ACR仓库以及在ASK集群中进行测试,请详细阅读代码里的 README. md 文件。

4. 提交评测任务

点击 Serverless性能优化挑战赛,左侧提交结果,输入刚刚构建好的镜像仓库的地址,以及用户名,密码,点击确定,最后点击提交结果按钮,则会自动触发官方评测程序,进行评测。

7.png

相关实践学习
【文生图】一键部署Stable Diffusion基于函数计算
本实验教你如何在函数计算FC上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。函数计算提供一定的免费额度供用户使用。本实验答疑钉钉群:29290019867
建立 Serverless 思维
本课程包括: Serverless 应用引擎的概念, 为开发者带来的实际价值, 以及让您了解常见的 Serverless 架构模式
相关文章
|
5月前
|
监控 Serverless
在函数计算中,如果你设置了每40分钟运行一次任务
【1月更文挑战第23天】【1月更文挑战第111篇】在函数计算中,如果你设置了每40分钟运行一次任务
198 9
|
2月前
|
运维 Serverless 测试技术
函数计算产品使用问题之支持10个并发任务需要多少资源
函数计算产品作为一种事件驱动的全托管计算服务,让用户能够专注于业务逻辑的编写,而无需关心底层服务器的管理与运维。你可以有效地利用函数计算产品来支撑各类应用场景,从简单的数据处理到复杂的业务逻辑,实现快速、高效、低成本的云上部署与运维。以下是一些关于使用函数计算产品的合集和要点,帮助你更好地理解和应用这一服务。
|
4月前
|
运维 Serverless 数据库
函数计算产品使用问题之如何并行运算函数计算任务,并对任务计算后的结果再进行聚合运算
函数计算产品作为一种事件驱动的全托管计算服务,让用户能够专注于业务逻辑的编写,而无需关心底层服务器的管理与运维。你可以有效地利用函数计算产品来支撑各类应用场景,从简单的数据处理到复杂的业务逻辑,实现快速、高效、低成本的云上部署与运维。以下是一些关于使用函数计算产品的合集和要点,帮助你更好地理解和应用这一服务。
|
4月前
|
分布式计算 运维 Serverless
EMR Serverless Spark PySpark流任务体验报告
阿里云EMR Serverless Spark是一款全托管的云原生大数据计算服务,旨在简化数据处理流程,降低运维成本。测评者通过EMR Serverless Spark提交PySpark流任务,体验了从环境准备、集群创建、网络连接到任务管理的全过程。通过这次测评,可以看出阿里云EMR Serverless Spark适合有一定技术基础的企业,尤其是需要高效处理大规模数据的场景,但新用户需要投入时间和精力学习和适应。
7171 43
EMR Serverless Spark PySpark流任务体验报告
|
3月前
|
分布式计算 Java Serverless
EMR Serverless Spark 实践教程 | 通过 spark-submit 命令行工具提交 Spark 任务
本文以 ECS 连接 EMR Serverless Spark 为例,介绍如何通过 EMR Serverless spark-submit 命令行工具进行 Spark 任务开发。
369 7
EMR Serverless Spark 实践教程 | 通过 spark-submit 命令行工具提交 Spark 任务
|
3月前
|
分布式计算 运维 Serverless
EMR Serverless Spark 实践教程 | 通过 EMR Serverless Spark 提交 PySpark 流任务
在大数据快速发展的时代,流式处理技术对于实时数据分析至关重要。EMR Serverless Spark提供了一个强大而可扩展的平台,它不仅简化了实时数据处理流程,还免去了服务器管理的烦恼,提升了效率。本文将指导您使用EMR Serverless Spark提交PySpark流式任务,展示其在流处理方面的易用性和可运维性。
250 7
EMR Serverless Spark 实践教程 | 通过 EMR Serverless Spark 提交 PySpark 流任务
|
2月前
|
分布式计算 Serverless 数据处理
EMR Serverless Spark 实践教程 | 通过 Apache Airflow 使用 Livy Operator 提交任务
Apache Airflow 是一个强大的工作流程自动化和调度工具,它允许开发者编排、计划和监控数据管道的执行。EMR Serverless Spark 为处理大规模数据处理任务提供了一个无服务器计算环境。本文为您介绍如何通过 Apache Airflow 的 Livy Operator 实现自动化地向 EMR Serverless Spark 提交任务,以实现任务调度和执行的自动化,帮助您更有效地管理数据处理任务。
158 0
|
3月前
|
人工智能 运维 安全
函数计算产品使用问题之设置了每40分钟运行一次任务,没有按照预期执行,是什么原因
阿里云Serverless 应用引擎(SAE)提供了完整的微服务应用生命周期管理能力,包括应用部署、服务治理、开发运维、资源管理等功能,并通过扩展功能支持多环境管理、API Gateway、事件驱动等高级应用场景,帮助企业快速构建、部署、运维和扩展微服务架构,实现Serverless化的应用部署与运维模式。以下是对SAE产品使用合集的概述,包括应用管理、服务治理、开发运维、资源管理等方面。
|
5月前
|
消息中间件 编解码 运维
阿里云 Serverless 异步任务处理系统在数据分析领域的应用
本文主要介绍异步任务处理系统中的数据分析,函数计算异步任务最佳实践-Kafka ETL,函数计算异步任务最佳实践-音视频处理等。
175600 349
|
4月前
|
分布式计算 运维 Serverless
通过Serverless Spark提交PySpark流任务的实践体验
EMR Serverless Spark服务是阿里云推出的一种全托管、一站式的数据计算平台,旨在简化大数据计算的工作流程,让用户更加专注于数据分析和价值提炼,而非基础设施的管理和运维。下面就跟我一起通过Serverless Spark提交PySpark流任务吧。
149 1

热门文章

最新文章

下一篇
无影云桌面