应云而生,幽灵的威胁 - 云原生应用交付与运维

本文涉及的产品
云原生网关 MSE Higress,422元/月
Serverless 应用引擎免费试用套餐包,4320000 CU,有效期3个月
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
简介: 过去十年,基础架构上云,互联网应用架构升级,研发流程敏捷化几个技术大趋势相交汇,与容器、Serverless、服务网格等技术创新相结合,共同催生了云原生的理念诞生和发展。

triangle-2136288_1920.jpg

作者:易立


本系列文章

* 第一篇 - 云原生基础设施

* 第二篇 - 云原生软件架构

* 第三篇 - 云原生应用交付与运维(本文)


过去的 2020 是充满不确定性的一年,但也是充满机遇的一年。突发的新冠疫情为全社会的数字化转型按下加速键。云计算已经不再是一种技术,而已经成为了支撑数字经济发展和业务创新的关键基础设施。在利用云计算重塑企业IT的过程中,生于云、长于云、最大化实现云价值的云原生技术都到越来越多企业的认同,成为企业IT降本提效的重要手段。然而,云原生变革也不止是基础设施和应用架构等技术层面,同时也在推进企业IT组织、流程和文化的变革。


CNCF 2020年度调研报告中,已经有 83%的组织也在生产环境中使用 Kubernetes,然而面临的前三大挑战是复杂性,文化改变与安全。

为了更好加速业务创新和解决互联网规模的挑战,云原生应用架构与开发方式应运而生,与传统单体应用架构相比,分布式微服务架构具备更好的更快的迭代速度、更低的开发复杂性,更好的可扩展性和弹性。然而,正如星战宇宙中,原力既有光明也有黑暗的一面。微服务应用在部署、运维和管理的复杂性却大大增加。DevOps文化和背后支撑的自动化工具与平台能力成为关键。

在容器技术出现之前,DevOps理论已经发展多年。但是如果”开发“与”运维“团队不能用相同的语言进行交流,一致的技术进行协作,那就永远无法打破组织和文化的藩篱。Docker容器技术的出现,实现了软件交付流程的标准化,一次构建,随处部署。结合云计算可编程基础设施和Kubernetes声明式的API。可以通过流水线去实现自动化的持续集成与持续交付应用和基础设施,大大加速了开发和运维角色的融合。

云原生也是对团队业务价值和功能的重构。传统运维团队的一些职责转移到开发团队,如应用配置和发布,降低了每次发布的人力成本,而运维职责将更加关注系统的稳定性和IT治理。Google倡导的SRE Site Reliability Engineering - 站点可靠性工程),是通过软件和自动化手段,来解决系统的运维复杂性和稳定性问题。此外,安全与成本优化也成为云上运维关注重点。

安全是企业上云的核心关切之一。云原生的敏捷性和动态性给企业安全带来新的挑战。由于云上安全是责任共担模型,需要企业理解与云服务商之间的责任边界,更要思考如何通过工具化、自动化的流程固化安全最佳实践。此外,传统安全架构通过防火墙保护边界,而内部的任何用户或服务受到完全的信任。2020 突发的新冠疫情,大量的企业需要员工和客户远程办公与协同,企业应用需要在IDC和云上部署和交互。在物理安全边界消失之后,云安全正在迎来一场深刻的变革。

此外,新冠疫情进一步让企业更加关注IT成本优化。云原生的一个重要优势是充分利用云的弹性能力,来按需提供业务所需计算资源,避免资源浪费,实现成本优化的目标。但是,与传统成本预算审核制度不同,云原生的动态性、和高密度应用部署,让IT成本管理更加复杂。

为此,云原生理念和技术也在发展,帮助用户持续降低潜在风险和系统复杂性。下面我们将介绍在云原生应用交付与运维领域的一些新趋势。

Kubernetes成为了通用的、统一的云控制平面

Kubernetes 这个单词来自于希腊语,含义是舵手或领航员,是 “控制论”英文 “cybernetic” 的词根。Kubernetes成为在容器编排的事实标准,不止得益于Google的光环和CNCF(云原生计算基金会)的努力运作。背后是Google在Borg大规模分布式资源调度和自动化运维领域的沉淀和系统化思考,认真理解Kubernetes架构设计,有助于思考在分布式系统系统调度、管理的一些本质问题。

Kubernetes架构的核心就是就是控制器循环,也是一个典型的"负反馈"控制系统。当控制器观察到期望状态与当前状态存在不一致,就会持续调整资源,让当前状态趋近于期望状态。比如,根据应用副本数变化进行扩缩容,节点宕机后自动迁移应用,等等

K8s的成功离不开3个重要的架构选择

  • 声明式(Declarative)的API:在Kubernetes之上,开发者只需定义抽象资源的目标状态,而由控制器来具体实现如何达成。比如Deployment, StatefulSet, Job等不同类型工作负载资源的抽象。让开发者可以关注于应用自身,而非系统执行细节。声明式API是云原生重要的设计理念,这样的架构方式有助于将整体运维复杂性下沉,交给基础设施实现和持续优化。此外由于分布式系统的内生稳定性挑战,基于声明式的,面向终态的 “level-triggered” 实现比基于命令式API,事件驱动的 “edge-triggered” 方式可以提供更加健壮的分布式系统实现。
  • 屏蔽底层实现:K8s通过一系列抽象如Loadbalance Service, Ingress, CNI, CSI,帮助业务应用可以更好通过业务语义使用基础设施,无需关注底层实现差异。
  • 可扩展性架构:所有K8s组件都是基于一致的、开放的API进行实现和交互。三方开发者也可通过CRD(Custom Resource Definition)/ Operator等方法提供领域相关的扩展实现,极大扩展了K8s的应用场景。

正因如此,Kubernetes 管理的资源和基础设施范围已经远超容器应用。下面是几个例子

  1. 基础架构管理:与开源的Terraform或者云供应商自身提供的Infrastructure as Code(IaC)工具如阿里云ROS, AWS CloudFormation不同,Crossplane和AWS Controllers for Kubernetes在Kubernetes基础之上扩展了对基础设施的管理和抽象。这样可以采用一致的方式进行管理和变更K8s应用和云基础设施。
  2. 虚拟机管理: K8s通过KubeVirt可以实现对虚拟机和容器的统一调度与管理,可以利用虚拟化弥补容器技术的一些局限性,比如在CI/CD场景中,可以结合Windows虚拟机进行自动化测试。
  3. IoT设备管理:KubeEdge和OpenYurt等边缘容器技术都提供了对海量边缘设备的管理能力。
  4. K8s集群管理:阿里云容器服务ACK的节点池管理,集群管理等完全都是采用Kubernetes方式进行自动化管理与运维的。ACK Infra支撑了部署在全球各地数万个Kubernetes集群,基于K8s完成自动化了扩缩容、故障发现/自愈等能力。

工作负载自动化升级

K8s 控制器 “把复杂留给自己,把简单交给别人”的理想非常美好,然而实现一个高效、健壮的控制器却充满技术挑战。

  • 由于K8s内置工作负载的局限性,一些需求无法满足企业应用迁移的需求,通过Operator framework进行扩展成为了常见的解决方案。但是一方面对重复的需求重复造轮子,会造成了资源的浪费;也会导致技术的碎片化,降低可移植性。
  • 随着越来越多的企业 IT 架构,从 on Kubernetes 到 in Kubernetes,大量的 CRD、自定义 Controller给 Kubernetes 的稳定性和性能带来大量的挑战。面向终态的自动化是一把 “双刃剑”,它既为应用带来了声明式的部署能力,同时也潜在地会将一些误操作行为被终态化放大。在发生操作故障时副本数维持、版本一致性、级联删除等机制反而很可能导致爆炸半径扩大。

OpenKruise 是阿里云开源的云原生应用自动化管理引擎,也是当前托管在 Cloud Native Computing Foundation (CNCF) 下的 Sandbox 项目。它来自阿里巴巴多年来容器化、云原生的技术沉淀,是阿里内部生产环境大规模应用的基于 Kubernetes 之上的标准扩展组件,一套紧贴上游社区标准、适应互联网规模化场景的技术理念与最佳实践。以开源项目OpenKruise的方式与社区开放、共建。一方面帮助企业客户在云原生的探索的过程中,少走弯路,减少技术碎片,提升稳定性;一方面推动上游技术社区,逐渐完善和丰富 Kubernetes的应用周期自动化能力。

更多信息可以参考:OpenKruise 2021 规划曝光:More than workloads

开发与运维新协作界面浮现。

云原生技术出现也带来了企业IT组织结构的变化。为了更好应对业务敏捷性的需要,微服务应用架构催生了 “双比萨团队”(Two-pizza teams) 。较小的、独立的、自包含的开发团队可以更好达成共识,加速业务创新。SRE团队成为了水平支撑团队,支撑上层研发效率提升和系统稳定性。而随着 Kubernetes的发展,让SRE团队可以基于K8s构建自己企业的应用平台,推进标准化和自动化,让上层应用开发团队通过自服务的方式进行资源管理和应用生命周期管理。我们看到组织方式进一步发生了变化。新的平台工程团队开始浮现。

参考

这也与K8s自身定位是非常相契合的。Kubernetes的技术定位面向应用运维的基础设施和Platform for Platform,并不是面向开发者的一体化应用平台。越来越多的企业会由平台工程团队基于Kubernetes构建自己的PaaS平台,提升研发效率和运维效率。

类似 Cloud Foundry 的经典 PaaS 实现会建立一套独立概念模型、技术实现和扩展机制,这种方式可以提供简化用户体验,但是也引入了一些缺陷。无法和快速发展的 Kubernetes 体系相结合,无法充分组合使用多种新的技术实现,比如Serverless编程模型,支持AI/数据分析等新计算业务。但是基于K8s的PaaS平台缺乏统一的架构设计和实现规划,会出现很多碎片化的技术实现,并不利于可持续的发展。

Open Application Model(OAM)开放应用模型,以及它的 Kubernetes 实现 KubeVela 项目,正是阿里云联合微软和云原生社区,共同推出的云原生应用交付与管理领域的标准模型与框架项目。其中,OAM 的设计思想是为包括 Kubernetes 在内的任何云端基础设施提供一个统一、面向最终用户的应用定义模型;而 KubeVela,则是这个统一模型在 Kubernetes 上的 PaaS 参考实现。

KubeVela/OAM 提供了面向Kubernetes的服务抽象和服务组装能力,可以将不同实现的工作负载和运维特征进行统一抽象和描述,并提供插件式的注册与发现机制,进行动态组装。平台工程团队可以采用一致的方式进行新功能扩展,并且保持与Kubernetes上新的应用框架良好的互操作性。对于应用开发和运维团队,实现了关注点分离(Separation of Concerns),可以将应用定义、运维能力与基础设施实现解构。让应用交付过程变得更加高效、可靠和自动化。

在云原生应用模型定义领域,业界也在不同方向进行探索。比如 AWS 新发布的 Proton 是面向云原生应用交付的服务,通过Proton,可以降低容器和Serverless部署、运维复杂性,并且可以和GitOps结合起来,提升整个应用交付流程的自动化和可管理性。阿里云Serverless K8s支持的Knative可以同时支持Serverless 容器和函数来实现事件驱动的应用,让开发者使用一个编程模型,可以高效选择底层不同Serverless化算力进行优化执行,等等。

无处不在的安全风险催生安全架构变革

DevSecOps成为关键因素

敏捷开发与可编程云基础设施结合在一起,大大提升了企业应用的交付效率。然而在这个过程中,如果忽视了安全风险控制,有可能造成巨大的损失。Gartner 论断,到2025年,云上基础设施99%的安全渗透问题是由于用户错误的配置和管理造成的。

在传统软件开发流程中,在系统设计开发完成后和发布交付前,安全人员才开始介入进行安全审核。这种流程无法满足业务快速迭代的诉求。”Shifting left on security“ (安全性左移)”开始得到更多的关注,这将应用程序设计、开发人员尽早与安全团队协作,并无缝地嵌入安全实践。通过左移安全性,不仅可以降低安全风险,还可以降低修复成本。IBM的研究人员发现,解决设计中的安全问题比代码开发期间能节省6倍左右的成本,比测试期间能节省15倍左右的成本。

DevOps 研发协作流程也随之扩展成为 DevSecOps。它首先是理念文化的变化,安全成为每个人的责任,而非专注安全团队的责任;其次尽早解决安全问题,将安全左移到软件设计阶段,降低整体安全治理成本;最后是通过自动化工具链而非人治方式,实现风险预防、持续监测和及时响应能力。

DevSecOps落地的技术前提是实现可验证的、可复现的构建和部署流程,这样可以保障我们在测试、预发、生产等不同环境对架构安全性进行持续验证和改进。我们可以利用云原生技术中的 immutable infrastructure (不可变基础设施) 和 声明式的策略管理 Policy as Code 结合在一起实现DevSecOps的落地实践。下图是一个最简化的容器应用DevSecOps流水线

当代码提交之后,可以通过阿里云镜像服务ACR主动扫描应用,并对镜像进行签名,当容器服务K8s集群开始部署应用时,安全策略可以对镜像进行验签,可以拒绝未通过验签的应用镜像。同理,如果我们利用 Infrastructure as Code 的方式对基础设施进行变更,我们可以通过扫描引擎在变更之前就进行风险扫描,如果发现相关的安全风险可以终止并告警。

此外,当应用部署到生产环境之后,任何变更都需通过上述自动化流程。这样的方式最小化了人为的错误配置引发的安全风险。Garter预测,到2025年60%的企业会采纳DevSecOps和不可变基础设施实践,与2020年相比,从而降低70%安全事件。

服务网格加速零信任安全架构落地

分布式微服务应用不但部署和管理复杂性提升,其安全攻击面也被放大。在传统的三层架构中,安全防护主要在南北向流量,而在微服务架构中,东西向流量防护会有更大的挑战。在传统的边界防护方式下,如果一个应用因为安全缺陷被攻陷,缺乏安全控制机制来阻止内部威胁“横向移动”。

https://www.nist.gov/blogs/taking-measure/zero-trust-cybersecurity-never-trust-always-verify

“零信任”最早由Forrester在2010年左右提出,简单地说,零信任就是假定所有威胁都可能发生, 不信任网络内部和外部的任何人/设备/应用,需要基于认证和授权重构访问控制的信任基础,引导安全体系架构从“网络中心化”走向“身份中心化”;不信任传统网络边界保护,而代之以微边界保护。

Google在大力推动云原生安全和零信任架构,比如 BeyondProd 方法论。阿里和蚂蚁集团上云过程中,也开始引入零信任架构理念和实践。其中的关键是:

  1. 统一身份标识体系:为微服务架构中每一个服务组件都提供一个独立的身份标识
  2. 统一访问的授权模型:服务间调用需要通过身份进行鉴权
  3. 统一访问控制策略:所有服务的访问控制通过标准化方向进行集中管理、和统一控制

安全架构是一种cross-cutting concern,是贯穿在整个IT架构,与所有组件相关的关注点。 如果它与具体微服务框架实现耦合,任何安全架构调整都可能对每个应用服务进行重新编译和部署,此外微服务的实现者可以绕开安全体系。而服务网格可以提供独立于应用实现的,松耦合、分布式的零信任安全架构。

下图是 Istio 服务网格的安全架构,

其中

  1. 既可以利用现有身份服务提供身份标识,也支持 SPIFFE 格式的身份标识。身份标识可以通过 X.509 证书或者 JWT格式进行传递。
  2. 通过服务网格控制平面API来统一管理,认证、授权、服务命名等安全策略。
  3. 通过 Envoy Sidecar 或者边界代理服务器作为策略执行点(PEP)来执行安全策略,可以为东西向和南北向的服务访问提供安全访问控制。而且Sidecar为每个微服务提供了应用级别的防火墙,网络微分段最小化了安全攻击面

服务网格让网络安全架构与应用实现解耦,可以独立演进,独立管理,提升安全合规保障。此外利用其对服务调用的遥测能力,可以进一步通过数据化、智能化方法对服务间通信流量进行风险分析、自动化防御。云原生零信任安全还在早期,我们期待未来更多的安全能力下沉到基础设施之中。

新一代软件交付方式开始浮现

从Infrastructure as Code到Everything as Code

基础架构即代码(Infrastructure-as-Code, IaC)是一种典型的声明式API,他改变了云上企业IT架构的管理、配置和协同方式。利用IaC工具,我们可以将云服务器、网络和数据库等云端资源,进而实现完全自动化的创建、配置和组装。

我们可以将IaC概念进行延伸,可以覆盖整个云原生软件的交付、运维流程,即 Everything as Code。下面图中涉及了应用环境中各种模型,从基础设施到应用模型定义到全局性的交付方式和安全体系,我们都可以通过声明式方式对应用配置进行创建、管理和变更。

通过这种方式,我们可以为分布式的云原生应用提供灵活的、健壮、自动化的全生命周期管理能力

  • 所有配置可被版本管理,可追溯,可审计
  • 所有配置可维护、可测试、可理解、可协作
  • 所有配置可以进行静态分析、保障变更的可预期性
  • 所有配置可以在不同环境重现,所有环境差异也需要进行显示声明,提升一致性

声明式的 CI/CD 实践逐渐受到关注

更进一步,我们可以将应用程序的所有环境配置都通过源代码控制系统进行管理,并通过自动化的流程进行面向终态地交付和变更。这样就是GitOps的核心理念。

GitOps最初由Weaveworks的Alexis Richardson提出,目标是提供一套统一部署、管理和监控应用程序的最佳实践。在GitOps中,从应用定义到基础设施配置的所有环境信息都作为源代码,通过Git进行版本管理;所有发布、审批、变更的流程都记录在 Git 的历史状态中。这样Git成为source of truth,我们可以高效地追溯历史变更、可以轻松回滚到指定版本。GitOps与Kubernetes提倡的声明式API、不可变基础设施相结合,我们可以保障相同配置的可复现性,避免线上环境由于配置漂移导致的不可预测的稳定性风险。

结合上文提到的DevSecOps自动化流程,我们可以在业务上线之前,提供一致的测试和预发环境。更早,更快地捕获系统中的稳定性风险,更完善地验证灰度、回滚措施。

GitOps改善了提升了交付效率,改进了开发者的体验,也提升了分布式应用交付的稳定性。GitOps在过去两年时间里,在阿里集团和蚂蚁都被广泛使用,成为云原生应用标准化的交付方式。目前GitOps还在发展初期,开源社区还在不断完善相关的工具和最佳实践。2020年,Weaveworks 的 Flagger项目并入 Flux, 开发者可以GitOps的方式实现灰度发布、蓝绿发布、A/B测试等渐进的交付策略,可以控制发布的爆炸半径,提升发布的稳定性。在 2020 年末,CNCF 应用交付领域小组正式宣布了 GitOps Working Group 的组建,我们可以期待未来社区将进一步推动相关领域标准化过程和技术落地。

为了更好帮助大家理解,我们也提供了一个基于GitOps和托管服务网格ASM的自动化渐进式发布示例,详见系列文章Flagger on ASM

运维体系从标准化、自动化向数据化、智能化演进

随着微服务应用规模的发展,问题定位、性能优化的复杂度呈爆炸式增长。企业在IT服务管理领域虽然已经拥有多种工具集合,比如,日志分析,性能监控,配置管理等等。但是不同管理系统之间是一个个的数据孤岛,无法提供复杂问题诊断所必需的端到端可见性。许多现有工具都采用基于规则的方法进行监视、警报。在日益复杂和动态的云原生环境中,基于规则的方法过于脆弱,维护成本高且难以扩展。

AIOps是利用大数据分析和机器学习等技术自动化IT运维流程。AIOps可以通过大量的日志和性能数据处理、系统的环境配置分析,获得对IT系统内部和外部的依赖的可见性,增强前瞻性和问题洞察,实现自治运维。

得益于云原生技术生态的发展,AIOps与Kubernetes等技术将相互促进,进一步完善企业IT的成本优化、故障检测和集群优化等方案。这里面有几个重要的助力:

  • 可观测能力的标准化:随着云原生技术社区 Prometheus、OpenTelemetry、OpenMetrics 等项目的发展,应用可观测性领域在日志、监控、链路追踪等领域进一步标准化和融合,使得多指标、根因分析的数据集更加丰富。Service Mesh 非侵入的数据遥测能力可以在不修改现有应用的前提下获取更加丰富的业务指标。从而提高 AIOPS 的 AI 层面的准确率和覆盖率。
  • 应用交付管理能力的标准化:Kubernetes 声明式API、面向终态的应用交付方式,提供了更加一致的管理运维体验。Service Mesh 非侵入的服务流量管理能力,让我们可以用透明的方式对应用进行管理和自动化运维。

在阿里集团的DevOps平台“云效”和容器平台发布变更系统相结合,可以实现应用的“无人值守发布”。在发布过程中,系统持续收集包括系统数据、日志数据、业务数据等各种指标,并通过算法比对发布前后的指标异动。一旦发现问题,就可以对发布过程进行阻断,甚至自动化回滚。有了这项技术,任何一个开发团队都可以安全的做好发布工作,而不必担心线上变更导致的重大故障了。

云原生成本优化逐渐受到关注

随着企业将更多核心业务从数据中心迁移到云上,越来越多的企业迫切需要对云上环境进行的预算制定、成本核算和成本优化。从固定的财务成本模型,转化为变化的、按需付费的云财务模型,这是一个重要的观念和技术转变。然而大多数企业尚未对云财务管理有清晰的认知和技术手段,在 FinOps 2020年调研报告中,将近一半的受访者(49%)几乎没有或没有自动化方法管理云支出。为了帮助组织更好了解云成本和IT收益,FinOps理念开始流行。

FinOps是云财务管理的方式,是企业IT运营模式的转变,目标是提升组织对云成本的理解和更好地做决策。2020年8月,Linux基金会宣布成立FinOps基金会,通过最佳实践、教育和标准推进云财务管学科。目前云厂商开始逐渐加大对FinOps的支持,帮助企业的财务流程可以更好适应云资源的可变性和动态性。比如AWS Cost Explorer, 阿里云费用中心,可以帮助企业更好进行成本分析和分摊。详见

越来越多的企业在云上通过Kubernetes平台来管理、使用基础设施资源。通过容器来提升部署密度和应用弹性,从而降低整体计算成本。 但是在Kubernetes的动态性为资源计量和成本分摊引入新的复杂性挑战。由于多个容器可以被动态部署在同一个虚拟机实例之上,可以按需弹性伸缩,我们无法简单将底层云资源与容器应用一一对应。2020年11月,CNCF基金会和FinOps基金会发布了一份新的关于Kubernetes云财务管理的白皮书 “FinOps for Kubernetes: Unpacking container cost allocation and optimization” 来帮助大家更好理解相关财务管理实践。

阿里云容器服务也在产品中内置了很多成本管理和优化的最佳实践。很多客户非常关心如何基于 Kubernetes 和资源弹性实现成本优化,通常我们建议企业更好了解自己业务类型,为K8s集群划分不同的节点池,在成本、稳定性和性能等多维度考量中寻找平衡点。

  • 日常业务:对于可预测的、相对不变的负载,我们可以利用包年包月的裸金属或者大规格虚拟机来提升资源利用率,降低成本。
  • 计划内的短期或周期性业务:比如双十一大促,跨年活动等短期业务峰值,或者月底结算等周期性业务负载变化,我们可以利用虚拟机或者弹性容器实例来应对业务高峰。
  • 非预期的突发弹性业务:比如突发新闻热点,或者临时的计算任务。弹性容器实例可以轻松实现每分钟上千实例的扩容。

更多关于Kubernetes规划问题,可以参考 https://developer.aliyun.com/article/743627

总结

过去十年,基础架构上云,互联网应用架构升级,研发流程敏捷化几个技术大趋势相交汇,与容器、Serverless、服务网格等技术创新相结合,共同催生了云原生的理念诞生和发展。云原生正在重新定义的计算基础设施,应用架构和组织流程,是云计算发展的历史的必然。感谢所有一起在云原生时代的同行者,让我们共同探索和定义云原生的未来。

片尾彩蛋,本系列三篇文章的名称向星战系列致敬 :-) 你发现了吗?

团队招聘

阿里云容器服务团队招聘啦!欢迎转岗、社招推荐! 一起创造云原生激情澎湃的未来!杭州、北京、深圳均有机会哦。

参考

https://www.kubernetes.org.cn/8921.html


扫码了解更多技术干货与客户案例:

公众号.png


相关实践学习
使用ACS算力快速搭建生成式会话应用
阿里云容器计算服务 ACS(Container Compute Service)以Kubernetes为使用界面,采用Serverless形态提供弹性的算力资源,使您轻松高效运行容器应用。本文将指导您如何通过ACS控制台及ACS集群证书在ACS集群中快速部署并公开一个容器化生成式AI会话应用,并监控应用的运行情况。
深入解析Docker容器化技术
Docker是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的Linux机器上,也可以实现虚拟化,容器是完全使用沙箱机制,相互之间不会有任何接口。Docker是世界领先的软件容器平台。开发人员利用Docker可以消除协作编码时“在我的机器上可正常工作”的问题。运维人员利用Docker可以在隔离容器中并行运行和管理应用,获得更好的计算密度。企业利用Docker可以构建敏捷的软件交付管道,以更快的速度、更高的安全性和可靠的信誉为Linux和Windows Server应用发布新功能。 在本套课程中,我们将全面的讲解Docker技术栈,从环境安装到容器、镜像操作以及生产环境如何部署开发的微服务应用。本课程由黑马程序员提供。     相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
相关文章
|
12天前
|
消息中间件 人工智能 安全
云原生进化论:加速构建 AI 应用
本文将和大家分享过去一年在支持企业构建 AI 应用过程的一些实践和思考。
181 13
|
1月前
|
机器学习/深度学习 人工智能 运维
智能运维加速交付:应用上线别再慢吞吞
智能运维加速交付:应用上线别再慢吞吞
82 2
|
1月前
|
运维 Kubernetes 测试技术
应用多、交付快,研发运维怎么管?看云效+SAE 如何一站式破局
通过在云效中创建 SAE 服务连接并关联集群,团队可将应用环境直接部署到 SAE,实现从代码提交、镜像构建到 SAE 部署的自动化流水线。该集成打通了研发与运维的壁垒,特别适用于应用数量多、团队规模大、交付节奏快的组织,助力企业实现敏捷、可靠的持续交付。
|
1月前
|
存储 弹性计算 Cloud Native
云原生数据库的演进与应用实践
随着企业业务扩展,传统数据库难以应对高并发与弹性需求。云原生数据库应运而生,具备计算存储分离、弹性伸缩、高可用等核心特性,广泛应用于电商、金融、物联网等场景。阿里云PolarDB、Lindorm等产品已形成完善生态,助力企业高效处理数据。未来,AI驱动、Serverless与多云兼容将推动其进一步发展。
125 8
|
2月前
|
运维 Dubbo Cloud Native
Dubbo 云原生重构出击:更快部署、更强控制台、更智能运维
Apache Dubbo 最新升级支持云原生,提供一键部署微服务集群与全新可视化控制台,提升全生命周期管理体验,助力企业高效构建云原生应用。
280 25
|
5月前
|
运维 Kubernetes 前端开发
传统企业如何玩转平台工程?2 个运维靠它管 50 + 应用
做了五年运维,最深刻的感悟是:技术自负是效率的天敌。以前总觉得懂 Kubectl 命令才专业,直到被平台工程打脸,真正的专业不是炫技,而是让复杂技术为业务服务。现在我常跟新人说:能让开发和厂商爽的运维,才是好运维,而 Rainbond,就是那个让所有人都爽的神器。
传统企业如何玩转平台工程?2 个运维靠它管 50 + 应用
|
3月前
|
运维 监控 应用服务中间件
运维打铁: Ruby 脚本在运维自动化中的应用探索
Ruby 是一种简洁、动态类型的编程语言,适合运维自动化任务。本文介绍了其在服务器配置管理、定时任务执行和日志分析处理中的应用,并提供了代码示例,展示了 Ruby 在运维自动化中的实际价值。
127 2
|
3月前
|
运维 监控 Cloud Native
从“守机器”到“写策略”——云原生架构把运维逼成了架构师
从“守机器”到“写策略”——云原生架构把运维逼成了架构师
72 1
|
2月前
|
运维 数据可视化 vr&ar
AR远程协作在发电领域的运维应用方案
发电厂面临设备故障频发、运维人员经验不足、远程支持困难及维护成本高昂等挑战。为提升运维效率与设备可靠性,越来越多电厂开始采用增强现实(AR)远程协作技术。通过AR设备,现场人员可与远程专家实时协作,实现快速故障诊断与修复、可视化操作指导和精准培训支持。AR技术不仅缩短停机时间,降低运维成本,还提升了应急响应能力与决策效率,助力发电行业向智能化、高效化方向发展。
|
2月前
|
人工智能 运维 监控
云+应用一体化可观测:破局“云上困境”,让运维驱动业务增长
当云计算迈入深入上云新阶段,数智化升级的关键课题已从“简单上云”演进至“精细治云”。随着企业对云计算的依赖日益加深,如何高效管理云端资源及其稳定性成为新的挑战。为此,阿里云推出云+应用一体化可观测方案,通过阿里云应用运维平台(Application Operation Platform,简称“AOP”)构建覆盖应用全生命周期一体化可观测产品体系,推动运维模式由被动响应向主动预防转变,实现故障的快速发现、定界与恢复,保障云上业务稳定运行。 目前,该方案已成功服务超过50家行业头部客户,为政务云平台、金融核心系统、能源调度中枢等关键基础设施提供全天候安全运维保障。
142 0