4 个场景揭秘,如何低成本让容器化应用 Serverless 化?

本文涉及的产品
Serverless 应用引擎免费试用套餐包,4320000 CU,有效期3个月
云原生网关 MSE Higress,422元/月
性能测试 PTS,5000VUM额度
简介: 容器在可移植性和交付敏捷性上实现了颠覆式创新。围绕容器的生态沉淀非常丰富且成熟,被广泛接受使用,应用容器化正在快速成为开发和部署的事实标准。然而容器本身并没有减轻运维、扩缩容、闲置成本、和云服务集成等难题。

头图.png

作者 | changshuai

FaaS 的门槛

Serverless 形态的云服务帮助开发者承担了大量复杂的扩缩容、运维、容量规划、云产品打通集成等责任,使得开发者可以专注业务逻辑、提高交付速度 (Time-to-market) ,持续优化成本。Function-as-a-Service (FaaS) 作为云上最早也是应用最广泛的 Serverless 计算形态,在几年的时间内吸引了大批开发者,逐渐建立了 Serverless 优先的选型逻辑。然而从传统应用迁移到 FaaS 在开发者体验上还面临诸多挑战:

  1. 环境不统一:各厂商定义的交付物格式,运行环境兼容性、丰富度都不尽相同,需要开发者适配,甚至重新编译;
  2. 学习成本:打包依赖库、构建成压缩代码包和熟悉的开发部署方式不同;
  3. 服务限制:如代码包限制在百 MB 级别,迫使交付物代码依赖分离,加大管理和发布难度;
  4. 交付物缺乏版本管理:格式不标准,最佳实践不统一,需要开发者自行负责;
  5. 生态不成熟:缺少流行开源工具(如 CI/CD 流水线)的支持和集成。

另一方面,容器在可移植性和交付敏捷性上实现了颠覆式创新。围绕容器的生态沉淀非常丰富且成熟,被广泛接受使用,应用容器化正在快速成为开发和部署的事实标准。然而容器本身并没有减轻运维、扩缩容、闲置成本、和云服务集成等难题。

1.jpg

函数计算支持容器镜像

阿里云 FaaS 函数计算支持容器镜像作为函数交付物,将容器优秀的开发、部署、生态(上线前)结合函数计算自身免运维、零闲置成本、云服务集成等特性(上线后),全面升级开发者体验:

  • 简化应用 Serverless 化:无需修改代码或是重新编译二进制、共享对象(*.so),本地调试,保持开发和线上环境一致;
  • 更大函数代码限制:解压前镜像最大支持 1 GB(相比代码包最大解压前 50MB),避免代码和依赖分离,简化分发和部署;
  • 容器镜像分层缓存:增量代码上传和拉取,提高开发效率和降低冷启动延迟;
  • 镜像分享、复用:逻辑可以移植、减少重复开发建设;
  • 混合部署:同一应用 Serverfull (ECS, 容器 ACK)、Serverless (FC, ASK, SAE),不同应用混合部署或同一应用不同服务间切流,达到性能一致、资源刚性交付、快速扩容、运维最小化的平衡;
  • CI/CD:持续构建、集成测试、代码上传、存储和标准的版本管理,丰富的开源生态 CI/CD 工具可以复用。

2.png

典型客户场景

1. 事件驱动音视频处理

音视频处理有流量波动较大、对计算资源弹性要求高、监听视频上传事件以及依赖工作流和队列等服务的特性,使得 FaaS 成为自建音视频业务上云的首选。然而这类场景中最常用的软件 ffmpeg 往往需要定制编译满足不同的需求。编译的二进制依赖编译环境中的共享对象(*.so)和 glibc 等库,与 FaaS 运行环境不兼容无法运行。重新编译不仅带来了额外工作,不同的依赖和版本也给业务稳定性带来了挑战。

如下图示例,使用已有 Dockerfile 将转码逻辑以及相关依赖保持现有的安装方式和完全隔离的容器沙箱运行环境,极大降低迁移成本,稳定性风险和 FaaS 的开发部署学习成本。

3.png

2. Serverless AI/ML 模型预测、推理 serving

AI/ML 推理预测服务同样可以享受 FaaS 免运维、自动伸缩、低成本的好处。然而社区流行的框架如 TensorFlow 都默认以容器镜像的方式分享和复用。不仅官方提供了完整的版本覆盖,基于官方镜像的社区生态也非常活跃。

在离线模型训练阶段以容器镜像部署在 ECS 或 ACK/ASK GPU 集群。在服务推理/预测(serving inference/prediction)阶段,CPU 往往是性价比更高的选择。Serving 的特点是请求量驱动,既需要能快速响应突发(burst)流量,又要在波谷周期释放资源,甚至是缩容至0节省成本。而这些需求天然就是函数计算所擅长的。

在没有容器镜像支持之前,想要将一个 TensoflowFlow serving 的示例部署在函数计算上并不容易。TensorFlow 本身的库大小远超过代码包 50MB 的限制,将依赖打包进 NAS 可以绕过这个问题,然而却增大了上手和迁移的难度。不规范的依赖和版本管理也为变更引入稳定性风险。而使用容器镜像以及函数计算 HTTP server 的编程模型,简单的几行 Dockerfile 就可以在 FC 跑起来 Tensorflow Serving 的示例:

4.png

函数计算支持容器镜像帮助 AI/ML 场景平滑地混合部署容器和函数,统一 CICD 工具、流程和最佳实践。函数计算免运维、高并发、百毫秒级别的实例扩容和 100% 资源利用率进一步优化了服务质量和成本。

5.png

3. 传统 Web 单体 HTTP 应用 Serverless 演进

传统 Web 单体 (monolithic) 应用现代化有三个主要的诉求:责任拆分、减轻运维压力(资源规划、系统升级、安全补丁等运维负担)以及成本优化。虽然采用职责单一的函数是一种最佳实践,但是进行职责拆分往往需要更长时间的设计和重构。借助函数计算的镜像支持能力,单体应用可以很容易的迁移至 FaaS 服务以满足免运维,弹性水平扩展和100%成本效率的诉求。

传统 Web 应用由于历史原因或者业务复杂度,运行环境(容器镜像)和业务逻辑往往高度耦合且解耦代价较高。为了 Serverless 化改造有时不得不升级操作系统及依赖库版本,在 FaaS 厂商提供的环境中重新编译。迁移至 Serverless 架构有时间成本和稳定性风险。函数计算对容器镜像的支持帮助传统容器化 Web 应用无改造,更快地享受 Serverless 的价值,将时间和精力专注于业务逻辑创新和迭代而非重复枯燥的环境、依赖版本管理、升级维护和容量规划和伸缩。

4. 云上云下,跨云厂商混合部署

企业上云的节奏在不断加快,然而由于业务特性,私有云和公共云混合的运行方式将是未来相当长一段时间内作为常态。企业甚至需要多云厂商来保证迁移、容灾、资源刚性交付的需求。容器镜像是云上、云下的软件交付物统一的默认选择。

函数计算自定义 runtime 选择 HTTP server 标准的交互方式,函数代码编程方式不与厂商绑定,减轻企业对云厂商锁定(vendor-lockin)的顾虑,在云上可以运行的函数,在云下甚至其他云厂商同样可以作为独立的 HTTP Web 应用单独部署,服务请求。容器打包的函数可以运行在其他云服务的容器服务或 IaaS 自建服务,实现多云的容灾、弹性资源保障。

冷启动最佳实践

  • 容器镜像地址推荐使用与函数计算同地域的 VPC 镜像地址,例如 registry-vpc.cn-hangzhou.aliyuncs.com/fc-demo/helloworld:v1beta1, 以获得最优的镜像拉取延时和稳定性;
  • 镜像最小化,使用类似 docker-slim 工具仅保存必要的依赖和代码,避免不需要的文档、数据或其他文件造成的额外延迟;
  • 在资源允许和线程安全的情况下,搭配单实例多并发一同使用,可避免不必要的冷启动,同时降低成本;
  • 容器镜像配合预留实例一起使用,消除冷启动。

DevOps/GitOps 最佳实践

容器镜像的支持标准化了构建步骤和函数交付产物,让复用 CI/CD 工具成为可能。函数计算与阿里云云效 DevOps 服务集成,推出了 CI/CD 流水线。

如下图所示,当有新的代码被 push 进入代码仓库(Github/Gitlab) master 分支, 构建流水线任务被开启,按照代码中指定的 Dockerfile, 容器镜像会被构建并推送至阿里云容器镜像服务。流水线的最后一个步骤会部署发布新版本的函数,完成一次自动化的发布。

6.png

除了云效 DevOps 完整自动化的持续集成交付体验,阿里云容器镜像服务和自建开源 CICD 流水线也同样可以用下图展示的方式自动化函数发布。函数计算发布方式的标准化使得企业可以用统一的工具持续交付多个不同的服务,降低开发运维人员对部署工具的学习成本,自动化部署提高成功率和交付速度 (time-to-market)。

7.png

和 Custom Runtime 的异同

函数计算在 2019 年已经推出了自定义运行时 Custom runtime,那么这次发布的自定义容器(custom-container)和已有的运行时有和异同呢?

  • 相同的编程模型和函数计算系统的交互方式:完全相同的 HTTP server 协议,已有的 custom runtime 函数可以直接移植到环境兼容的自定义容器环境中,不需要修改代码;
  • 两个 runtime 有不同的适用场景和取舍:

    1. 对于非容器化的应用,您可以持续使用 custom runtime;
    2. 对于冷启动延迟容忍度较低的场景,推荐您使用 custom runtime 节省镜像拉取时间;
    3. 对于异步离线且已经容器化的任务(job 类型),推荐您使用 cutome-container runtime;
    4. 使用函数计算预留实例,且部署环境和业务逻辑耦合紧密的应用可以优先考虑使用 custom-container runtime。

未来规划

随着容器逐渐成为应用交付部署的标准方式,FaaS 会和容器生态做更紧密的融合,帮助容器化的应用以更低的成本 Serverless 化,包括周边配套生态例如声明式的部署方式的融合,同 K8s 相似的应用抽象,云原生可观测性软件集成。基于容器镜像拉取加速,让函数计算能兼顾可移植和快速启动的性能。

容器技术和 Serverless 的初心都是要帮助用户更快地交付(time-to-market)和持续优化成本,消除资源闲置产生的浪费,增加企业竞争力。

最终云原生的两大技术领域:Serverless 和容器技术的联系将会变得更加紧密,开发部署运维差异不断缩小,让开发者几乎不需要修改业务逻辑即能为不同的工作负载选择合适的技术方案,用开放、标准、统一的云原生技术持续创新,为客户创造更多价值。

课程推荐

为了更多开发者能够享受到 Serverless 带来的红利,这一次,我们集结了 10+ 位阿里巴巴 Serverless 领域技术专家,打造出最适合开发者入门的 Serverless 公开课,让你即学即用,轻松拥抱云计算的新范式——Serverless。

点击即可免费观看课程:https://developer.aliyun.com/learning/roadmap/serverless

阿里巴巴云原生关注微服务、Serverless、容器、Service Mesh 等技术领域、聚焦云原生流行技术趋势、云原生大规模的落地实践,做最懂云原生开发者的公众号。”

相关实践学习
【文生图】一键部署Stable Diffusion基于函数计算
本实验教你如何在函数计算FC上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。函数计算提供一定的免费额度供用户使用。本实验答疑钉钉群:29290019867
建立 Serverless 思维
本课程包括: Serverless 应用引擎的概念, 为开发者带来的实际价值, 以及让您了解常见的 Serverless 架构模式
相关文章
|
8天前
|
机器学习/深度学习 分布式计算 大数据
阿里云 EMR Serverless Spark 在微财机器学习场景下的应用
面对机器学习场景下的训练瓶颈,微财选择基于阿里云 EMR Serverless Spark 建立数据平台。通过 EMR Serverless Spark,微财突破了单机训练使用的数据规模瓶颈,大幅提升了训练效率,解决了存算分离架构下 Shuffle 稳定性和性能困扰,为智能风控等业务提供了强有力的技术支撑。
|
29天前
|
存储 监控 对象存储
ACK 容器监控存储全面更新:让您的应用运行更稳定、更透明
针对本地存储和 PVC 这两种容器存储使用方式,我们对 ACK 的容器存储监控功能进行了全新升级。此次更新完善了对集群中不同存储类型的监控能力,不仅对之前已有的监控大盘进行了优化,还针对不同的云存储类型,上线了全新的监控大盘,确保用户能够更好地理解和管理容器业务应用的存储资源。
117 21
|
1月前
|
存储 文件存储 对象存储
AI 场景下,函数计算 GPU 实例模型存储最佳实践
当前,函数计算 FC 已被广泛应用在各种 AI 场景下,函数计算支持通过使用容器镜像部署 AI 推理应用,并且提供多种选项来访问训练好的模型。为了帮助开发者高效地在函数计算上部署 AI 推理应用,并快速解决不同场景下的模型存储选型问题,本文将对函数计算的 GPU 模型存储的优缺点及适用场景进行对比分析,以期为您的模型存储决策提供帮助。
|
1月前
|
存储 监控 对象存储
ACK容器监控存储全面更新:让您的应用运行更稳定、更透明
介绍升级之后的ACK容器监控体系,包括各大盘界面展示和概要介绍。
|
1月前
|
人工智能 运维 物联网
云大使 X 函数计算 FC 专属活动上线!享返佣,一键打造 AI 应用
如今,AI 技术已经成为推动业务创新和增长的重要力量。但对于许多企业和开发者来说,如何高效、便捷地部署和管理 AI 应用仍然是一个挑战。阿里云函数计算 FC 以其免运维的特点,大大降低了 AI 应用部署的复杂性。用户无需担心底层资源的管理和运维问题,可以专注于应用的创新和开发,并且用户可以通过一键部署功能,迅速将 AI 大模型部署到云端,实现快速上线和迭代。函数计算目前推出了多种规格的云资源优惠套餐,用户可以根据实际需求灵活选择。
|
1月前
|
存储 人工智能 Serverless
7分钟玩转 AI 应用,函数计算一键部署 AI 生图大模型
人工智能生成图像(AI 生图)的领域中,Stable Diffusion WebUI 以其强大的算法和稳定的输出质量而闻名。它能够快速地从文本描述中生成高质量的图像,为用户提供了一个直观且高效的创作平台。而 ComfyUI 则以其用户友好的界面和高度定制化的选项所受到欢迎。ComfyUI 的灵活性和直观性使得即使是没有技术背景的用户也能轻松上手。本次技术解决方案通过函数计算一键部署热门 AI 生图大模型,凭借其按量付费、卓越弹性、快速交付能力的特点,完美实现低成本,免运维。
|
1月前
|
人工智能 运维 监控
容器服务Kubernetes场景下可观测体系生产级最佳实践
阿里云容器服务团队在2024年继续蝉联Gartner亚洲唯一全球领导者象限,其可观测体系是运维的核心能力之一。该体系涵盖重保运维、大规模集群稳定性、业务异常诊断等场景,特别是在AI和GPU场景下提供了全面的观测解决方案。通过Tracing、Metric和Log等技术,阿里云增强了对容器网络、存储及多集群架构的监控能力,帮助客户实现高效运维和成本优化。未来,结合AI助手,将进一步提升问题定位和解决效率,缩短MTTR,助力构建智能运维体系。
|
6天前
|
Ubuntu API 网络虚拟化
ubuntu22 编译安装docker,和docker容器方式安装 deepseek
本脚本适用于Ubuntu 22.04,主要功能包括编译安装Docker和安装DeepSeek模型。首先通过Apt源配置安装Docker,确保网络稳定(建议使用VPN)。接着下载并配置Docker二进制文件,创建Docker用户组并设置守护进程。随后拉取Debian 12镜像,安装系统必备工具,配置Ollama模型管理器,并最终部署和运行DeepSeek模型,提供API接口进行交互测试。
127 15
|
1月前
|
Ubuntu NoSQL Linux
《docker基础篇:3.Docker常用命令》包括帮助启动类命令、镜像命令、有镜像才能创建容器,这是根本前提(下载一个CentOS或者ubuntu镜像演示)、容器命令、小总结
《docker基础篇:3.Docker常用命令》包括帮助启动类命令、镜像命令、有镜像才能创建容器,这是根本前提(下载一个CentOS或者ubuntu镜像演示)、容器命令、小总结
160 6
《docker基础篇:3.Docker常用命令》包括帮助启动类命令、镜像命令、有镜像才能创建容器,这是根本前提(下载一个CentOS或者ubuntu镜像演示)、容器命令、小总结
|
1月前
|
Kubernetes Linux 虚拟化
入门级容器技术解析:Docker和K8s的区别与关系
本文介绍了容器技术的发展历程及其重要组成部分Docker和Kubernetes。从传统物理机到虚拟机,再到容器化,每一步都旨在更高效地利用服务器资源并简化应用部署。容器技术通过隔离环境、减少依赖冲突和提高可移植性,解决了传统部署方式中的诸多问题。Docker作为容器化平台,专注于创建和管理容器;而Kubernetes则是一个强大的容器编排系统,用于自动化部署、扩展和管理容器化应用。两者相辅相成,共同推动了现代云原生应用的快速发展。
202 11

相关产品

  • 函数计算