Serverless 应用引擎产品使用合集之如何加载新模型到云端上

简介: 阿里云Serverless 应用引擎(SAE)提供了完整的微服务应用生命周期管理能力,包括应用部署、服务治理、开发运维、资源管理等功能,并通过扩展功能支持多环境管理、API Gateway、事件驱动等高级应用场景,帮助企业快速构建、部署、运维和扩展微服务架构,实现Serverless化的应用部署与运维模式。以下是对SAE产品使用合集的概述,包括应用管理、服务治理、开发运维、资源管理等方面。

问题一:函数计算怎么样加载新的模型到云端?


函数计算怎么样加载新的模型到云端?


参考回答:

步骤二:安装模型https://help.aliyun.com/zh/fc/use-cases/stable-diffusion-with-switchable-models?spm=a2c4g.11186623.0.i160#82634d1056pqt

步骤二:安装模型

在应用详情页面,单击初始化模型管理。

在初始化模型管理对话框,选中我已阅读,并了解上述创建资源的目的以及部分资源可能产生的费用。我已知晓对应的计费规则,并决定继续部署该应用,然后单击确认。

存储模型需要使用文件存储NAS,会产生额外的存储费用。

选择挂载NAS存储方式,然后单击确认。

自动配置:如果您从未创建过NAS或者首次部署,可选择自动配置,授权函数计算自动为您创建NAS文件系统。

手动配置:如果您已创建过NAS,可以选择手动配置,配置对应的专有网络、交换机、安全组,选择文件系统后,使用默认挂载点的NAS目录和FC目录。

模型管理初始化完成大概需要0.5分钟~2分钟左右。

在应用详情页面,单击模型管理域名对应的链接,进入模型管理工具页面。

使用模型库下载模型。

说明

模型库功能由阿里云OSS提供,模型/数据集/文件均来源于第三方,不保证合规性,请您在使用前慎重考虑。这些模型均遵循creativeml-openrail-m或cc-by-nc-sa-4.0许可,请您也遵守该许可的约定。您还应严格遵守法律法规、第三方要求等,特别是不得利用本服务从事违法违规行为,例如上传、输入、生成、下载、使用违法或不良信息等。如您发现任何模型/数据集/文件等有问题,请加入钉钉用户群(钉钉群号:11721331),联系函数计算工程师即时沟通处理。。

在左侧菜单栏,单击模型库。

选择合适的模型,单击卡片对应的下载模型,在文件下载确认对话框中,单击下载选中的模型。

您可以在模型库或者传输列表查看模型下载进度。模型将会被下载至您的文件管理NAS中,这会产生一定的文件存储费用,具体计费信息请参见计费概述。

模型下载完成后,您可以单击左侧文件管理,在/mnt/auto/sd/models/Stable-diffusion目录下查看已下载的模型文件。

(可选)您也可以通过以下方式上传自定义的模型文件。


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/576747



问题二:函数计算这个问题怎么解决?选择容器镜像,依然无法使用GPU。3.0


函数计算这个问题怎么解决?选择容器镜像,依然无法使用GPU。3.0


参考回答:

右上角切换成2.0才行。

基于函数计算一键部署Stable Diffusion进行AI绘画创作https://help.aliyun.com/zh/fc/use-cases/one-click-deployment-of-stable-diffusion-based-on-function-calculation-for?spm=a2c4g.11186623.0.i32

本文介绍如何通过函数计算搭建Stable Diffusion的WebUI框架实现文本生成图片。


关于本问题的更多回答可点击原文查看:

eloper.aliyun.com/ask/576746



问题三:函数计算显存和处理性能有关系?


用gpu处理,实际只用到2g的显存, 我用4g的gpu会比8g的gpu慢许多。函数计算显存和处理性能有关系?


参考回答:

算力是取值为vGPU显存(GB)/16。例如,配置vGPU显存为5 GB,则vGPU最高可得5/16张卡算力

GPU实例包含以下实例规格,您可以根据业务需求选择不同配置的实例。https://help.aliyun.com/zh/fc/instance-types-and-instance-modes?spm=a2c6h.13066369.question.9.6c311efaDrKOrG#section-mfv-5fb-ehw


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/576745



问题四:函数计算有调用个,但是看不到任何日志 ,可能是什么原因?


函数计算有调用个,但是看不到任何日志 ,可能是什么原因?


参考回答:

如何实时获取函数的执行日志?https://help.aliyun.com/zh/fc/support/how-to-obtain-the-execution-logs-of-a-function-in-real-time?spm=a2c4g.11186623.0.i181

函数计算控制台使用Logtail方式接入日志服务,函数执行结果和日志输出等信息支持实时查看。如果使用SDK调用函数,您需要在代码中增加相关设置才能实时获取执行日志。本文介绍使用各语言SDK调用函数时,如何设置实时获取执行日志。

您可以在阿里云OpenAPI门户网站,设置请求HeaderX-Fc-Log-Type的值为Tail,获取各语言的SDK示例,然后再发起调用。

此时,返回结果中包含Headerx-fc-log-result。此Header的值为经过Base64编码后的函数执行日志,需经过Base64解码后才能查看真实的日志信息。


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/576744



问题五:怎么讲图片穿给函数计算呢?


怎么讲图片穿给函数计算呢?


参考回答:

在阿里云函数计算(FC)中,将图片传递给函数有多种方法。以下是一些常见的方式:

  1. 通过HTTP触发器:如果你的函数有一个与API网关集成的HTTP触发器,你可以直接通过POST请求将图片作为请求体的一部分发送到函数。这通常涉及到编码图片为Base64字符串或者使用多部分表单数据。
  2. 通过OSS触发器:如果你的函数有一个与对象存储服务(OSS)集成的触发器,你可以在OSS上上传图片,然后当图片被上传时,函数会自动被触发。在这种情况下,你需要确保你的函数可以访问OSS中的图片。
  3. 通过事件消息:如果你的函数是通过事件驱动的方式调用的,你可以将图片作为事件消息的一部分发送。例如,在一个消息队列(如RocketMQ)中,你可以将图片编码为二进制数据并包含在消息中。


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/576743

相关实践学习
SAE极速部署弹性微服务商城
本实验带您体验在Serverless应用引擎SAE(Serverless App Engine)上快速部署一个弹性的在线商城微服务应用,使得终端用户可以通过公网访问访问该商城,并进行压力测试以验证其性能与稳定性。
相关文章
|
3月前
|
人工智能 运维 Kubernetes
Serverless 应用引擎 SAE:为传统应用托底,为 AI 创新加速
在容器技术持续演进与 AI 全面爆发的当下,企业既要稳健托管传统业务,又要高效落地 AI 创新,如何在复杂的基础设施与频繁的版本变化中保持敏捷、稳定与低成本,成了所有技术团队的共同挑战。阿里云 Serverless 应用引擎(SAE)正是为应对这一时代挑战而生的破局者,SAE 以“免运维、强稳定、极致降本”为核心,通过一站式的应用级托管能力,同时支撑传统应用与 AI 应用,让企业把更多精力投入到业务创新。
562 30
|
4月前
|
存储 人工智能 Serverless
函数计算进化之路:AI 应用运行时的状态剖析
AI应用正从“请求-响应”迈向“对话式智能体”,推动Serverless架构向“会话原生”演进。阿里云函数计算引领云上 AI 应用 Serverless 运行时技术创新,实现性能、隔离与成本平衡,开启Serverless AI新范式。
562 12
|
9月前
|
SQL 分布式计算 Serverless
鹰角网络:EMR Serverless Spark 在《明日方舟》游戏业务的应用
鹰角网络为应对游戏业务高频活动带来的数据潮汐、资源弹性及稳定性需求,采用阿里云 EMR Serverless Spark 替代原有架构。迁移后实现研发效率提升,支持业务快速发展、计算效率提升,增强SLA保障,稳定性提升,降低运维成本,并支撑全球化数据架构部署。
1057 56
鹰角网络:EMR Serverless Spark 在《明日方舟》游戏业务的应用
|
9月前
|
人工智能 开发框架 安全
Serverless MCP 运行时业界首发,函数计算让 AI 应用最后一公里提速
作为云上托管 MCP 服务的最佳运行时,函数计算 FC 为阿里云百炼 MCP 提供弹性调用能力,用户只需提交 npx 命令即可“零改造”将开源 MCP Server 部署到云上,函数计算 FC 会准备好计算资源,并以弹性、可靠的方式运行 MCP 服务,按实际调用时长和次数计费,欢迎你在阿里云百炼和函数计算 FC 上体验 MCP 服务。
804 30
|
7月前
|
存储 编解码 Serverless
Serverless架构下的OSS应用:函数计算FC自动处理图片/视频转码(演示水印添加+缩略图生成流水线)
本文介绍基于阿里云函数计算(FC)和对象存储(OSS)构建Serverless媒体处理流水线,解决传统方案资源利用率低、运维复杂、成本高等问题。通过事件驱动机制实现图片水印添加、多规格缩略图生成及视频转码优化,支持毫秒级弹性伸缩与精确计费,提升处理效率并降低成本,适用于高并发媒体处理场景。
402 0
|
4月前
|
人工智能 运维 安全
聚焦 AI 应用基础设施,云栖大会 Serverless AI 全回顾
2025 年 9 月 26 日,为期三天的云栖大会在杭州云栖小镇圆满闭幕。随着大模型技术的飞速发展,我们正从云原生时代迈向一个全新的 AI 原生应用时代。为了解决企业在 AI 应用落地中面临的高成本、高复杂度和高风险等核心挑战,阿里云基于函数计算 FC 发布一系列重磅服务。本文将对云栖大会期间 Serverless+AI 基础设施相关内容进行全面总结。
|
4月前
|
人工智能 Kubernetes 安全
重塑云上 AI 应用“运行时”,函数计算进化之路
回顾历史,电网的修建,深刻地改变了世界的经济地理和创新格局。今天,一个 AI 原生的云端运行时的进化,其意义也远不止于技术本身。这是一次设计哲学的升华:从“让应用适应平台”到“让平台主动理解和适应智能应用”的转变。当一个强大、易用、经济且安全的 AI 运行时成为像水电一样的基础设施时,它将极大地降低创新的门槛。一个独立的开发者、一个小型创业团队,将有能力去创造和部署世界级的 AI 应用。这才是技术平权的真谛,是激发全社会创新潜能的关键。
|
9月前
|
Serverless Python
借助 serverless 将 MCP 服务部署到云端
本文介绍了如何将 MCP 服务通过 SSE 协议部署到云端,避免本地下载和启动的麻烦。首先,使用 Python 实现了一个基于 FastMCP 的网络搜索工具,并通过设置 `transport='sse'` 启用 SSE 协议。接着,编写客户端代码测试服务功能,确保其正常运行。随后,利用阿里云函数计算服务(FC 3.0)以 Serverless 方式部署该服务,包括创建函数、配置环境变量、添加依赖层以及部署代码。最后,提供了客户端测试方法和日志排查技巧,并展示了如何在不同工具(如 Cherry-Studio、Cline 和 Cursor)中配置云端 MCP 服务。
1531 10
借助 serverless 将 MCP 服务部署到云端
|
11月前
|
自然语言处理 Serverless 测试技术
DeepSeek 模型快速体验,魔搭+函数计算一键部署模型上云
DeepSeek模型近期备受关注,其开源版本DeepSeek-V3和DeepSeek-R1在多个基准测试中表现出色,性能比肩OpenAI顶尖模型。为降低本地部署门槛,Modelscope社区推出DeepSeek-R1-Distill-Qwen模型的一键部署服务,支持函数计算FC平台的闲置GPU实例,大幅降低成本。用户可选择不同参数量的小模型进行快速部署和推理,体验DeepSeek的强大性能。
DeepSeek 模型快速体验,魔搭+函数计算一键部署模型上云
|
9月前
|
Cloud Native Serverless 流计算
云原生时代的应用架构演进:从微服务到 Serverless 的阿里云实践
云原生技术正重塑企业数字化转型路径。阿里云作为亚太领先云服务商,提供完整云原生产品矩阵:容器服务ACK优化启动速度与镜像分发效率;MSE微服务引擎保障高可用性;ASM服务网格降低资源消耗;函数计算FC突破冷启动瓶颈;SAE重新定义PaaS边界;PolarDB数据库实现存储计算分离;DataWorks简化数据湖构建;Flink实时计算助力风控系统。这些技术已在多行业落地,推动效率提升与商业模式创新,助力企业在数字化浪潮中占据先机。
516 12

相关产品

  • 函数计算
  • Serverless 应用引擎