通过计算巢轻松部署ROS自定义资源

简介: 阿里云资源编排服务ROS可以帮助您简化云计算资源的管理。 通过编写和使用模板,ROS可以实现自动化部署和运维。ROS不仅能够编排阿里云资源,还支持自定义资源。 使用自定义资源,您可以在模板中编写自定义配置逻辑。 计算巢“ROS自定义资源”服务可以把GitHub代码仓库(Python语言)构建和部署为ROS自定义资源,并输出ROS模块,方便后续使用。

概述

阿里云资源编排服务ROS(Resource Orchestration Service)可以帮助您简化云计算资源的管理。遵循ROS定义的模板规范,您可以定义所需云计算资源的集合及资源间的依赖关系。ROS可以自动完成所有资源的创建和配置,实现自动化部署和运维。

ROS不仅能够编排阿里云资源,还支持自定义资源。使用自定义资源,您可以在模板中编写自定义配置逻辑。当您创建、更新(如果您更改了自定义资源)或删除资源栈时,ROS会运行该逻辑。

ROS自定义资源服务可以把GitHub代码仓库(Python语言)构建和部署为ROS自定义资源,并输出ROS模块,方便后续使用。

本文向您介绍如何开通计算巢上的ROS自定义资源服务,以及部署流程和使用说明。

计费说明

ROS自定义资源服务在计算巢上的费用主要涉及:

  • 对象存储OSS费用:构建好的代码包会放在OSS中。计费项涉及存储、流量和请求。
  • 云效费用:会创建和执行流水线。基础版免费,但有限额。
  • 函数计算:部署服务不产生此项费用,后续使用构建好的自定义资源或模块时会产生此项费用。计费项涉及函数调用、资源使用、公网出流量。首次开通前3个月有试用额度。

部署架构

如下图所示,计算巢会进行如下部署:

  • 创建OSS存储桶、函数计算服务和函数、云效流水线等资源。
  • 执行云效流水线:下载GitHub代码、构建代码包、上传到OSS存储桶、部署到函数计算函数。
  • 适配函数计算函数为ROS自定义资源,把ROS自定义资源封装为ROS模块,供后续使用。

GitHub代码更新后,可以手动触发或通过GitHub Workflow自动触发云效流水线。

arch.jpg

RAM账号所需权限

ROS自定义资源服务需要对OSS、FC、RDC、ECS、RAM等服务的资源进行访问和创建操作,若您使用RAM用户创建服务实例,需要在创建服务实例前,对使用的RAM用户的账号添加相应资源的权限。添加RAM权限的详细操作,请参见为RAM用户授权。所需权限如下表所示。

权限策略名称 备注
AliyunOSSFullAccess 管理对象存储服务(OSS)权限
AliyunFCFullAccess 管理函数计算(FC)服务的权限
AliyunRDCFullAccess 管理云效(RDC)的权限
AliyunECSReadOnlyAccess 只读访问云服务器服务(ECS)的权限
AliyunRAMFullAccess 管理访问控制(RAM)的权限,即管理用户以及授权的权限。如果缺少角色AliyunFcDefaultRole、AliyunRDCDefaultRole则需要此权限创建角色。否则只需要AliyunRAMReadOnlyAccess权限。
AliyunROSFullAccess 管理资源编排服务(ROS)的权限
AliyunComputeNestUserFullAccess 管理计算巢服务(ComputeNest)的用户侧权限

部署流程

部署步骤

1.单击部署链接,进入服务实例部署界面,根据界面提示,填写参数完成部署。

2.在创建服务实例页,配置部署参数。

param-1.jpg

param-2.jpg

param-3.jpg

param-4.jpg

param-5.jpg

3.点击下一步:确认订单。

4.查看订单页,确保依赖检查全部正常,点击立即创建。

dep.jpg

部署参数说明

参数组 参数项 示例 说明
服务实例名称 ros-custom-resource-test 实例的名称
地域 华北2(北京) 选中服务实例的地域,建议就近选中,以获取更好的网络延时。
代码配置 GitHub代码仓库地址 https://github.com/aliyun-computenest/quickstart-ros-custom-resource.git 建议从示例代码仓库fork。
代码配置 GitHub代码仓库分支 main 要使用的分支。
代码配置 Python版本 python3.9 Python版本。
云效配置 云效企业 6542ffd18281** 下拉选择或者创建。
云效配置 云效GitHub服务连接 re6dh9rs** 下拉选择或者创建。
自定义资源配置 自定义资源类名 Example1 使用示例代码仓库或其fork的代码仓库构建自定义资源时,需要指定具体要使用的自定义资源类名。
自定义资源类具体指BaseCustomResource(位于common模块)的子类。
在示例代码仓库中有2个自定义资源类,Example1和Example2(位于custom_resource.example模块)。
指定模块使用的自定义资源类,后续使用模块时不可变。
自定义资源配置 模块名称 MODULE::MyOrg::MyService::Example1 把自定义资源输出为ROS模块时,需要指定模块的名称。
自定义资源配置 资源动作执行超时时间 300 包括创建、更新和删除。
默认300秒。最小1秒,最大43200秒。
更多配置 名称前缀 ros-custom-resource 用于OSS存储桶、FC服务、云效服务连接、云效流水线。
更多配置 OSS存储桶名称 my-bucket 用于存放构建好的自定义资源的代码包。
若不设置则会自动创建。
更多配置 是否删除OSS存储桶 true 删除OSS存储桶会删除里面的所有文件。
仅删除自动创建的OSS存储桶。
更多配置 流水线超时时间 5 云效流水线执行超时时间。
单位分钟,默认5分钟。

验证结果

1.查看服务实例。服务实例创建成功后,部署时间大约需要2分钟。部署完成后,页面上可以看到对应的服务实例。点击服务实例,进入服务实例详情页面。

instance-1.jpg

2.查看服务实例详情页面中的实例信息,点击ModuleURL处链接(红框处),进入模块详情页面。

instance-2.jpg

3.查看模块详情页面,选择模板示例标签页,点击创建资源栈,进入创建资源栈页面。

module.jpg

4.在创建资源栈页面点击创建按钮,进入资源栈详情页面。

stack-1.jpg

5.在资源栈详情页面,等待几秒钟,点击刷新按钮,等待资源栈创建完成。创建完成后,选择输出标签页。如果结果类似下图,则表明自定义资源模块部署成功,后续可以在其他模板中使用。

stack-2.jpg

同步仓库代码到自定义资源模块

查看服务实例详情页面中的实例信息,点击PipelineURL处链接(蓝框处),可以访问云效流水线。

instance-2.jpg

如果仓库中的代码更新了,您可以点击运行按钮运行流水线以更新自定义资源模块。

pipeline.jpg

您也可以配置GitHub Workflow,在代码更新后触发云效流水线,实现自动进行同步。

自定义资源模块使用示例

查看服务实例详情页面中的实例信息,SampleTemplate处的模板为自定义资源模块的使用示例。您可以参考使用,也可以直接复制使用。

instance-2.jpg

帮助文档

相关文章
|
9月前
|
人工智能 弹性计算 自然语言处理
从0到1部署大模型,计算巢模型市场让小白秒变专家
阿里云计算巢模型市场依托阿里云弹性计算资源,支持私有化部署,集成通义千问、通义万象、Stable Diffusion等领先AI模型,覆盖大语言模型、文生图、多模态、文生视频等场景。模型部署在用户云账号下,30分钟极速上线,保障数据安全与权限自主控制,适用于企业级私有部署及快速原型验证场景。
|
8月前
|
人工智能 弹性计算 安全
阿里云计算巢私有化MCP市场:企业级AI工具的安全部署新选择
阿里云计算巢私有化MCP市场,依托阿里云弹性计算资源,提供自主可控的私有化部署方案。支持OpenAPI、SSE、StreamableHttp等多种接入方式,结合Higress云原生网关实现高效网络控制,所有工具直接部署在用户云账号下,5分钟极速部署,保障数据安全与使用便捷性。适用于对数据安全要求高、需访问内网资源、服务隔离及统一管理多种MCP工具的企业场景。
|
12月前
|
数据可视化 JavaScript 前端开发
低代码神速开发:ToolJet 计算巢部署宝典 🚀
ToolJet 是一款开源低代码开发平台,支持可视化构建 Web 应用,提供多数据源连接、团队协作、灵活部署及自定义插件扩展等功能。基于 AGPL v3 开源协议,社区活跃度高(GitHub 25k+ Stars)。用户可通过计算巢快速部署 ToolJet 社区版。
|
弹性计算 API 开发者
DeepSeek R1上线阿里云云市场,可通过计算巢一键部署
DeepSeek R1上线阿里云云市场,可通过计算巢一键部署
|
人工智能 Kubernetes 安全
通过阿里云计算巢部署 NVIDIA NIM,加速企业大语言模型 SaaS 化
通过阿里云计算巢部署 NVIDIA NIM,加速企业大语言模型 SaaS 化
|
弹性计算 持续交付 API
基于 ROS 的Terraform托管服务轻松部署ChatGLM-6B
文章介绍了如何利用ROS和Terraform模板轻松自动化部署基于GLM架构、优化中文对话的ChatGLM-6B模型至阿里云,提高了部署效率与便捷性,适用于多种应用场景,且模型部署过程详细,彰显了基础设施即代码(IaC)的优势。
基于 ROS 的Terraform托管服务轻松部署ChatGLM-6B
|
人工智能 Kubernetes 安全
通过阿里云计算巢部署NVIDIA NIM,加速企业大语言模型SaaS化
在人工智能飞速发展的今天,大语言模型(LLM)为各个行业带来了全新的场景和机遇。诸如客户服务数字人,计算机辅助药物研发的生成式虚拟筛选,基于检索增强生成(RAG)的企业多模态PDF数据提取,网络安全流数据过滤、处理和分类优化等工作流,正在无缝集成和运行在定制化的企业AI应用,企业还能够基于专有业务数据和用户反馈数据,不断优化AI应用。
|
弹性计算 人工智能 持续交付
基于 ROS 的Terraform托管服务轻松部署Qwen-7B-Chat
文章介绍了如何利用ROS和Terraform模板轻松自动化部署阿里云的Qwen-7B-Chat大语言模型服务,提高了部署效率与便捷性,是实现云资源和服务快速上线的最佳实践。
基于 ROS 的Terraform托管服务轻松部署Qwen-7B-Chat
|
编解码 机器人 C++
ROS2教程07 ROS2自定义消息接口
这篇文章是关于如何在ROS2(Robot Operating System 2)中创建和使用自定义消息类型的教程,包括消息类型的定义、特点、命令行工具的使用,以及如何编写和测试自定义消息类型接口的步骤。
1140 0
ROS2教程07 ROS2自定义消息接口

热门文章

最新文章

相关产品

  • 资源编排
  • 推荐镜像

    更多
  • ros