如何从用户视角搭建可观测体系?阿里云ECS业务团队的设计思路

本文涉及的产品
云服务器 ECS,每月免费额度200元 3个月
云服务器ECS,u1 2核4GB 1个月
简介: 本文以阿里云ECS业务为例,探讨阿里云最核心、亚太地区业务规模最大的产品之一,在极高的稳定性和性能要求下,如何基于云构建可观测性并从客户视角建立观测能力,以及在推进体系建设中的成功经验和待改进之处。

互联网平台以业务为中心,以用户为中心,平台的功能服务、质量和用户体验等是关键的目标,仅仅关注后台系统的可用性是不够的,以传统运维的视角来解决故障、做监控会比较被动。


本文以阿里云ECS业务为例,探讨阿里云最核心、亚太地区业务规模最大的产品之一,在极高的稳定性和性能要求下,如何基于云构建可观测性并从客户视角建立观测能力,以及在推进体系建设中的成功经验和待改进之处。


640.png


背景


正如大家所知的,云服务器是云厂商中最底层、最复杂的部分,而ECS弹性计算作为阿里云最核心、亚太地区业务规模最大的产品之一,其业务复杂度更是可见一斑——部署遍布国内海外的30多个地域,应用规模也达到了上百个,整体依赖复杂度可以说是阿里云云产品管控系统之最。同时,还面临着集团超级客户(如淘天集团)、OnECS云产品(如容器、存储、函数计算等)、各行业大客户的极高稳定性和性能诉求。


640.png


那么,如此超大业务规模和业务复杂度、极高稳定性&性能诉求,阿里云ECS是如何基于云构建可观测性的?以及阿里云ECS业务实践中,改善用户体验的可观测体系,是如何搭建起来的?这将是我本次分享的重点。


当然,在不同的业务和阶段,可观测性的做法可能不完全一样。这次分享的主要目的是以阿里云ECS的业务为例,分享我们在推进体系建设中的成功经验或者仍待改进的地方,以便大家在遇到类似问题时参考。


一、阿里云ECS业务带来了哪些观测挑战?


640.png


1.1 业务规模大导致运营难


建设可观测性并非最具挑战的部分,更具挑战的是如何持续运营和维护它。正如前文所述,随着系统规模、团队规模和业务复杂性的增长,当系统规模达到一定程度时,维护变得异常困难,甚至可能无法继续维护下去,从而导致系统逐渐腐化。这最终将影响研发体验和平台价值。


1.2  团队认知不足,观测能力缺失


很多人对于观测的理解仍停留在监控阶段,尤其是那些没有从事可靠性或运维工作的研发同学。在建设观测能力之初,我们团队中的大部分成员都只具备研发背景,大家普遍认为观测就是监控和告警。因此,在初期的建设中,我们的观测能力也较为薄弱,主要限于监控功能。然而,事实上,监控只是可观测能力的一小部分。


1.3  技术储备不足


作为业务研发团队,我们一直在探索如何在业务团队内部构建可观测性以解决问题。然而,这面临着巨大挑战,因为我们需要在最大限度地解决问题的同时,也要考虑业务团队的技术储备和成本因素。


二、可观测体系建设有哪些思路?


640.png


首先,团队提出了“Cloud   First”的思路,即基于云产品构建可观测性。各个云平台上都提供类似的产品能力,而我们的服务部署在阿里云上,因此选择了阿里云的产品。上云的目的是为了利用云产品的能力来构建可观测性,而不是自行开发或使用其他开源/闭源内部产品。在接下来的部分,我将详细阐述这一点。


其次,可观测性不仅仅限于运营阶段,我们认为在软件生命周期的各个阶段都应考虑可观测性问题。


第三,我们采用平台化和产品化的思路来解决可观测性问题。稳定性领域的工作不是一次性地完成,而是需要通过平台化、自动化和智能化的方式来解决问题。我们的整体稳定性均遵循这一思路,在可观测性方面也不例外。


三、阿里云ECS可观测体系是如何落地的?

3.1  基于云构建可观测能力

3.1.1 ECS观测上云背景

640.png


2016年前后:阿里云ECS将一些业务侧的基础监控搬到了阿里自研的平台上进行了完善。


2019年前后:随着业务规模的不断扩大,阿里云ECS面临着30多个部署地域和上百个应用的大规模分布式集群的管理挑战,仅依靠资源平台已无法实现制定的目标。因此,我们决定将整个监控都迁移到云上。这一决策基于以下原因:首先,我们需要管理数千个数据库以及数百个研发人员,单纯依靠自研平台无法满足需求。其次,借助云上的开放集成能力,我们能够与业务需求相结合,实现更深层次的发展。同时,基于公共云能力构建可观测性能够获得最优秀的产品和能力,并且与开源社区天然地紧密结合,具备更强的迁移能力。另外,将监控组件托管到云上,从业务角度来看,我们不需要过多关注组件本身的稳定性问题,如Prometheus集群的维护、数据存储、无损扩容和迁移等,因为云平台会帮助我们屏蔽这些问题。综合考虑,将可观测性迁移到云上的方式成本最低,因此从2019年开始,我们进行了这一改造。


2021年前后:通过采用云原生的方式,我们能够对大规模和高复杂度的业务进行数据加工和转化,并通过服务化和平台化的方式提供给更多的研发团队使用。云原生的改造是一个长期的过程,我们希望通过工程化的方式逐步推广和解决问题。目前,阿里云ECS的云原生改造已完成核心部分,但还有一部分工作尚未完成。

2023年前后:除了云原生改造,我们还在推进AIOps方向的演进以及IDP(平台工程)的建设。核心目标是解决业务研发团队规模较大时,自行开发服务的成本高和内部卷的问题。通过建立内部平台,我们可以帮助研发团队快速获取反馈,并将通用能力扩展到业务中,同时也促进内部平台的建设,将这些能力最大化地应用于业务中。


回过头看,2019年将可观测性上云的选择,我个人认为还是比较正确的。


3.1.2 确定可观测性模型


在上云之前,我们必须解决一些关键问题,例如我们需要观测什么、如何将观测能力迁移到云上以及哪些技术可以支持我们等等。换言之,我们需要确定如何实现云上的可观测性。为此,我提出了一个抽象的五层观测模型


640.png


在这个模型中,从最基层的资源和平台到应用和产品,我们都需要关注观测的指标和要点,这是大家都能达成共识的。然而,我想重点讲解一下最上面的「客户视角」,因为我们的最终目标是服务客户。无论我们自认为的SLO或SLA有多高,或者系统稳定性有多好,如果客户认为我们不稳定,那就必然存在问题。因此,在建设可观测性时,我们需要从客户的视角来看问题。


举个例子,我曾负责的核心系统出现了一个问题。所有的指标都显示正常,然而用户反馈说他们的访问速度不时地变慢。这时候我们该如何判断呢?难道要告诉客户我们的可观测性指标都正常,这是客户的问题吗?显然不可能。实际上,我们需要站在客户的视角来看问题,这要求我们的观测理念需要更高级,即关注客户的业务连续性。我们的SLO不仅仅要关注平均水平,还要关注长尾情况。不仅要关注我们软件的链路,还要关注客户端的E2E体验。比如,当一个客户调用我们的服务时,可能会跨越多个地域,网络链路不稳定可能会导致速度变慢。此时,我们需要进行拨测,从用户的视角来观察是否是由于网络连接或速率问题导致。


另外,我们也遇到过这样的情况,即单个API看起来都没有问题,但是当多个API组合起来使用时就会出现问题。对于这种情况,如果能够从用户故事的视角来观测,那就意味着我们的观测体系已经非常完善,可以说是接近完美了。然而,坦白来说,我们目前还没有达到这种程度,因为这样的观测体系需要非常高的投入,我们还在进一步加深这方面的工作。


因此,我想强调客户视角的重要性,尤其对于像我们这样的To B业务来说,更需要关注客户视角。这样的做法会带来巨大的价值。


3.1.3  根据模型选择产品能力


在确定观测模型后,接下来就是思考如何将其落地,即使用哪些云产品来构建观测体系。各个云厂商和开源社区都提供了相应的能力。我们的实践是基于阿里云来实现的,所以这里就以阿里云的云上能力为例来介绍。


640.png


首先是资源监测,我们使用了阿里云的云监控来关注机器的指标。它对业务的侵入比较小,一个Agent采集多个指标,整体开销也比较小。


另外,可观测性还涉及日志、指标和链路追踪的观测。我们使用了阿里云的日志服务(SLS)来处理日志相关的工作。当然,也可以选择ELK技术栈、AWS的CloudWatch、腾讯云的日志服务等产品来实现相同的功能。


链路追踪方面,我们选择了ARMS来监控应用链路上的指标。ARMS采用无侵入的方式,能够采集云原生指标和识别中间件流量,并且可以基于这些指标定义业务异常。当然,在选型时,除了开源产品如SkyWalking外,商业化产品也有其他选择,比如AWS的Insight和腾讯云的APM工具。


总而言之,这些都是阿里云提供的云上能力,但其他云厂商和开源社区也提供了类似的产品和解决方案,可以根据实际需求选择适合自己的工具和技术。


3.1.4  云原生可观测方案


构建观测体系离不开三板斧:日志(Log)、追踪(Trace)、指标(Metric)。在这个基础上,我还补充了事件(Event)和告警(Alert)两个部分。之所以加入这两个方面,是因为它们与观测性密切相关,后面我会详细说明。整个观测体系方案大致如下图。


640.png


3.1.4.1 数据采集到告警的闭环

Log:


在日志的统一性方面,我们选择将所有的日志统一存储到阿里云的日志服务(SLS)中。与此同时,我们还采取了另外一个策略,即统一日志格式。我们都知道不同的业务或团队可能有自己的日志格式体系。为了解决这个问题,我们开发了一个统一框架层,用于规范整个团队的日志格式。这样做的好处是显而易见的,因为在后续的工作中,我们可以基于统一的日志格式进行指标计算和其他处理。如果没有这个统一框架层,我们想要通过流式计算来处理日志将会非常昂贵,而且维护起来也会很困难。因此,在阿里云ECS中我们选择自行开发了一个抽象的统一框架来处理日志。


另外,为了解决多地域复杂性的问题,我们采用了基于开放能力的SLS的OpenAPI进行处理。如果日志平台本身没有提供开放能力,我们将无法解决多地域的复杂性。通过利用SLS的OpenAPI,我们能够实现日志的多地域复制和一致性巡检,比如确保索引的正确性和保存时长的准确性等,同时也能解决与成本相关的问题。


Trace:

在基于标准日志框架的基础上,我们使用了阿里云的一款APM工具——ARMS,来实现全链路的Trace   ID串联。这意味着我们可以将异步线程池(例如Spring的异步线程池)和中间件的线程池等都串联起来。同时,我们在框架中插入相应的代码进行连接,这也是通过SDK的集成来实现的,如果以后想要更换方案,成本也较低。


Trace的最终目的是为了方便研发人员和工单处理人员进行故障排查和性能优化。为了更好地支持这些服务,我们自行研发了一个编排引擎,将阿里云ECS自身的几千个日志存储、CMDB和应用APP模型等连接在一起。为什么要自行研发这个编排引擎,而不使用开源方案呢?因为开源方案的扩展性有限,而自行研发的编排引擎可以更好地解决这些问题。举个例子,开源平台无法集成自己的代码,而自行研发则可以实现。当某个错误码报出某个关键字时,我们可以快速定位是哪个业务、哪个应用、哪个责任人等,帮助业务团队更快地解决问题。


此外,我们的平台还提供了许多扩展性能力,例如OpenAPI和白屏化编排等。我们为不同的业务团队提供了这些能力,使他们可以基于这些能力进行自己的编排。同时,除了阿里云ECS团队之外的其他团队也可以使用这些能力,这也是我们在平台工程方面的一个重要思路。


Metric:

在处理指标方面,我们最初的做法是通过日志解析每次进行计算,这既耗时又消耗资源,成本较高。此外,得到的数据也并非统一标准化的格式,无法进一步进行服务化处理。为了解决这个问题,我们选择了标准化的开源方案Prometheus来进行云原生改造。我们使用开源的Prometheus SDK生成Metric,并将其统一存储托管在SLS的Metric Store中。


对于业务团队来说,只需要获得足够标准的数据,以便能够控制和使用即可。同时,我们基于Metric构建了后续的告警和监控大盘等,它也是我们做AIOps中重要的数据底座。


综上,我们的整体可观测性围绕着Log、Trace和Metric展开。通过采集业务日志,我们可以在可观测大盘上观测链路异常,当发生异动时则触发告警。根据告警的Trace等信息,我们可以快速定位到责任人,并按照SOP响应,从而实现从数据采集到告警处理的闭环。


3.1.4.2 观测数据底座


640.png

数据底座在可观测性方面非常重要,我这里可以深入一些分享。服务层包含了自身业务的CMDB数据,以及来自Prometheus、SLS、DAS和ARMS等平台的业务数据。这些数据在进入数据中心后,将形成一个五层观测模型。然而,仅仅依靠这些层次的数据模型对于业务团队来说还不足够。因此,我们还需要利用一些业务知识,例如业务知识图谱、故障知识库、阿里云ECS支持的领域知识以及非敏感用户数据等。


这里重点介绍一下Event。实际上,Event是"三板斧"的补充。在庞大的集群中,会出现各种各样的异动和事件,因此在故障巡检过程中很难定位到故障瓶颈。通过引入Event,我们可以将依赖的所有产品的变更数据、异动数据和配置数据等结合起来,并与指标等进行联动。这种联动方式既包括专家经验,也包括AI的应用。


值得特别提及的是,在完成数据层后,我们能够提供标准化的服务能力,即以API的形式供阿里云ECS内部和外部集成使用。这种方式非常重要,因为仅有数据层是很难进行集成的,而API则是一种标准化的方式。


3.1.4.3 智能告警平台


640.png


传统的告警往往很简单,比如CPU占用率过高或可用率下降。然而,对于研发团队来说,这些告警并没有太大用处,只是让他们知道系统有问题,但并不清楚问题出在哪里或是什么问题。在阿里云ECS中,我们也遇到了很多类似的问题,收到了大量的告警,但是告警中的信息量少,无法帮助快速排查问题。这样的告警能力,显然无法支撑业务规模化后的观测需求。


因此,我们改变了思路,统一了告警平台,将所有平台的告警集中起来。之前提到的业务侧、平台侧、应用侧的告警也全部整合到一起。我们拥有自己的网关,通过对告警进行一系列的数据层和业务层处理,来解决诸如告警信息不足、告警关联度低和告警风暴等问题。


举个例子,如果单机发生异常,会直接导致上层API抖动,我们曾经遇到过这个问题。传统的告警只会告诉你API抖动了,然后可能一大堆告警全都爆出来,很容易引发告警风暴。然而,现在我们的告警能做到什么程度呢?我们可以知道有多少个告警正在发生,告警信息归属于哪个应用,链路信息如何,告警触发后的影响面是怎样的(可以判断告警的紧急程度)。只有当告警真正能够基于数据支撑给出结果时,我们才能更快速地定位问题。


例如,当计算出某个告警可能会引起P1事故或影响核心客户时,我们可以发出高优先级的告警。同时,会基于Trace和Metric来探测异常点,并通过事件中心进行关联,查看此时ECS和相关网络是否发生了变更。将这些信息串联起来进行预警诊断后,我们会告诉相关方,已经抑制了多少条预警,然后推送出一条预警,告知可能是哪个链路出了问题,影响了哪些方面,应该由谁来处理,故障等级是多少,以及应该采取什么样的SOP流程。这样就帮助业务解决了告警信息度、影响面判断和告警风暴等问题。


在日常操作中,一些抖动和告警是不可避免的,即使使用了强大的算法也无法完全解决这个问题。因此,在这种情况下,我们需要进行一些流程管理的工作。具体而言,我们会对整个告警流程进行管控和标准化,例如通过Pipeline和SOP来定义流程。根据前面技术层面的判断,我们会采取不同的流程。


举个例子,对于一些日常工单的告警,我们的响应时间可能被定义为24小时,在这个时间范围内进行处理即可。而对于一些紧急的告警,例如P1级别的告警,我们会通过不同的渠道进行响应,比如电话、短信等。根据告警的等级,我们会有不同的响应方式,并根据SOP进行自动化处理。


通常情况下,对于一个应用来说,每天的告警最好不要超过三个。如果超过了这个数量,就需要进行治理,否则运营性能会逐步变差。特别是电话告警,频次一定要控制得很低,只有在客户真正受到影响的情况下,我们才会通过电话告警。对于其他情况,我们会通过钉钉、短信等方式进行告警推送,而且短信的使用也非常有限,一天可能只有两三条。大部分情况下,我们会通过工单来处理告警。


总之,支撑阿里云ECS数千级监控的告警平台落地后,我们发现内部研发侧监控发现率有了显著提升。


3.1.4.4 智能告警样例


变更发布是导致故障的最主要因素之一。下面以去年一个应用变更的故障场景为例说明。通过智能告警平台,我们能够及时发现异常情况,触发相应的告警并提供相关信息,包括影响面计算、Trace链路计算、运维操作和标准操作等。这些信息在应用发布期间会自动推送给发布负责人,以便快速响应和回滚。


这个功能是我们在去年版本的智能告警平台中实现的。而今年的新版本中,我们将进一步加强智能工程能力和自动化自愈的布局。


3.1.4.5 多场景观测大盘


相信有一定规模的企业一定都有自己的观测大盘,这里只分享阿里云ECS做观测大盘的两个核心。一个是开源,即把大盘迁移到Grafana上去。另一个是观测大盘需要分维度,例如全局观测大盘、重保大盘、应用观测大盘、业务观测大盘等。


3.2  SDLC:全生命周期可观测


在大多数公司中,可观测性通常用于解决稳定性领域的问题,即缩短故障发现时间(MTTR)。然而,我想和大家分享的观点是,可观测性应该贯穿整个软件生命周期,并且可观测性向左移将成为未来的趋势


640.png


在软件设计阶段,可观测性可以帮助评估容量水位,特别是在需要对应用进行扩容等操作时。此外,在CI/CD阶段,可观测性几乎可以覆盖90%的需求,对于实现研发质量控制和交付质量保障非常重要。此外,在FinOps中,可观测性在成本和安全方面也具有重要的应用,目前阿里云ECS正在积极探索这个方向。


通过全面应用可观测性,我们可以在整个软件生命周期中获得更好的掌控和洞察。这将有助于提高应用的稳定性、质量和安全性,以及降低成本和风险。因此,将可观测性作为一个关键的考虑因素,并将其融入到整个软件开发和运维过程中,是非常值得推崇的做法。


3.2.1 可观测性左移 – 故障预防


前面提到了可观测性需要更关注故障发生之前的预防。在故障领域中,变更和编码是导致故障的主要原因,因此我将重点围绕这两个方面来分享阿里云ECS的故障预防措施。


640.png


首先,在编码过程中,我们需要观测错误。我们采用了一种实践方法叫做CAD(Code  Analysis and  Deployment),通过红绿看板持续观测每次推送和代码评审(CR)的情况,并监控构建成功率、测试覆盖率以及安全合规度等指标。我们还通过白盒扫描的方式观测代码情况,并在Pipeline中的Code  Check-in设置卡点来进行监控。这些措施使得整体编码故障率显著下降


在变更领域,阿里云ECS建立了一个发布观测平台,用于观测发布过程中的异常指标并发出告警。我们还初步实现了自动化的变更拦截机制。如果在发布过程中检测到异常指标,系统将阻止发布并自动回滚。除了发布变更,我们还对其他类型的变更(如数据库变更、配置变更等)进行观测,并通过元数据识别变更与异常指标的关联性。我们会自动推荐与变更相关的信息给开发人员,以帮助他们快速识别问题并进行回滚。这些实践在过去的历史中已经成功拦截了许多潜在故障。


以上是里云ECS在CI/CD阶段采取的观测模型来降低编码故障率和发布故障率的两个思路。通过这些措施,我们能够提前发现潜在的故障风险,并采取相应的预防和回滚措施,从而提高系统的稳定性和可靠性。


3.2.2 可观测性应用于XOps


640.png


除了在DevOps领域中广泛应用的可观测性,还有许多其他领域也需要关注可观测性的应用。


成本领域,我们需要观测业务机器资源的利用率和日志利用率等指标,以便进行成本优化和降低开销。通过监控资源利用率,我们可以及时发现资源浪费或过度使用的情况,并采取相应的措施进行优化。


安全领域,我们需要观测代码、变更和机器资源的安全性。里云ECS正在与云安全团队合作,构建安全的观测能力。目前,我们已经在编码阶段实现了通过扫描和观测来识别代码库中存在的安全风险,并自动拦截不安全的代码合并。


另外,在AIOps领域,我们正在构建运维领域的知识图谱,并训练自己的模型,以实现根因定位和异常预测。可观测性在其中的价值主要体现在统一数据底座、数据洞察和运维生态打通等方面。通过建立完善的观测能力,我们可以更好地了解系统运行状态,及时发现异常情况,并采取相应的措施进行处理。


综上所述,可观测性不仅在DevOps领域中发挥重要作用,还在成本领域、安全领域和AIOps领域等方面具有广泛的应用前景。通过在这些领域中应用可观测性,我们能够提高业务的效率和安全性,并实现更好的运维管理。



3.3  Platform:观测平台化


我个人始终认为稳定性是一个平台化的事情,而观测作为稳定性的一个重要环节,也需要进行平台化的建设。


640.png


除了前面提到的数据底座,在数据丰富度、准确度和标准化方面,我们还将不断进行打磨。同时,我们还将建立自己的运维大脑,利用人工智能和算法能力进行异常预测和诊断。之前提到的告警降噪和故障预测也需要智能化的支持。


回到业务支撑本身,当业务规模增长、业务复杂度提高以及业务团队增多时,显然无法为每个业务配置一遍告警。而借助云上的统一平台,我们提供通用的平台能力,使各团队可以自行进行运维管控和编排。例如,通过编写一个SQL,就能够生成一个Metric,并通过平台能力将该Metric分发到多个地域,并针对不同地域进行差异化配置告警。此外,我们还可以通过给Metric打上标签的方式实现更高级别的功能,比如在异动场景下实现自愈能力。


当然,除了自建能力外,由于垂直领域的观测所需的专业度非常高,因此我们会借助第三方能力来实现这部分功能。这样可以更好地满足不同业务领域的观测需求。


四、总结和展望

4.1  总结


640.png


4.2  个人展望


640.png


从业务视角来看,我认为标准化是一个重要的趋势。这种标准化不仅仅指某家厂商的标准,而是整个生态的标准化,避免重复造轮子。另外,之前提到的五层模型其实适用于每个领域,都是互通互联的,只是不同的行业和应用领域会有一些差异。


面临大规模的业务问题时,智能化和平台化的思路是非常必要的。我们需要采用自助式的方式来解决问题,而不是像保姆式一样仅依赖于人力。通过智能化和平台化的手段,我们可以更好地应对复杂的业务场景,提高工作效率,同时也可以更好地实现业务的可观测性。

相关实践学习
一小时快速掌握 SQL 语法
本实验带您学习SQL的基础语法,快速入门SQL。
7天玩转云服务器
云服务器ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,可降低 IT 成本,提升运维效率。本课程手把手带你了解ECS、掌握基本操作、动手实操快照管理、镜像管理等。了解产品详情: https://www.aliyun.com/product/ecs
相关文章
|
1月前
|
Ubuntu JavaScript 关系型数据库
在阿里云Ubuntu 20.04服务器中搭建一个 Ghost 博客
在阿里云Ubuntu 20.04服务器上部署Ghost博客的步骤包括创建新用户、安装Nginx、MySQL和Node.js 18.x。首先,通过`adduser`命令创建非root用户,然后安装Nginx和MySQL。接着,设置Node.js环境,下载Nodesource GPG密钥并安装Node.js 18.x。之后,使用`npm`安装Ghost-CLI,创建Ghost安装目录并进行安装。配置过程中需提供博客URL、数据库连接信息等。最后,测试访问前台首页和后台管理页面。确保DNS设置正确,并根据提示完成Ghost博客的配置。
在阿里云Ubuntu 20.04服务器中搭建一个 Ghost 博客
|
1月前
|
存储 弹性计算 数据可视化
要将ECS中的文件直接传输到阿里云网盘与相册(
【2月更文挑战第31天】要将ECS中的文件直接传输到阿里云网盘与相册(
423 4
|
25天前
|
弹性计算
阿里云ECS使用体验
在申请高校学生免费体验阿里云ECS云服务器后的一些使用体验和感受。
|
1月前
|
弹性计算 网络协议 关系型数据库
ECS域名问题之国内实例能不能导入阿里云新加坡的ECS和RDS如何解决
ECS(Elastic Compute Service,弹性计算服务)是云计算服务提供商提供的一种基础云服务,允许用户在云端获取和配置虚拟服务器。以下是ECS服务使用中的一些常见问题及其解答的合集:
|
1天前
|
域名解析 弹性计算 Linux
阿里云购买云服务器、注册域名、备案及绑定图文教程参考
本文为大家介绍了2024年购买阿里云服务器和注册域名,绑定以及备案的教程,适合需要在阿里云购买云服务器、注册域名并备案的用户参考,新手用户可通过此文您了解在从购买云服务器到完成备案的流程。
阿里云购买云服务器、注册域名、备案及绑定图文教程参考
|
2天前
|
弹性计算 运维 Serverless
Serverless 应用引擎产品使用之在阿里函数计算中,使用阿里云API或SDK从函数计算调用ECS实例的服务如何解决
阿里云Serverless 应用引擎(SAE)提供了完整的微服务应用生命周期管理能力,包括应用部署、服务治理、开发运维、资源管理等功能,并通过扩展功能支持多环境管理、API Gateway、事件驱动等高级应用场景,帮助企业快速构建、部署、运维和扩展微服务架构,实现Serverless化的应用部署与运维模式。以下是对SAE产品使用合集的概述,包括应用管理、服务治理、开发运维、资源管理等方面。
22 4
|
3天前
|
网络协议 Serverless 应用服务中间件
Serverless 应用引擎操作报错合集之在阿里云函数计算中,服务器调用FC函数时出现 "[Errno -3] Temporary failure in name resolution)" 错误如何解决
Serverless 应用引擎(SAE)是阿里云提供的Serverless PaaS平台,支持Spring Cloud、Dubbo、HSF等主流微服务框架,简化应用的部署、运维和弹性伸缩。在使用SAE过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
22 4
|
5天前
|
弹性计算 运维 安全
阿里云ecs使用体验
整了台服务器部署项目上线
|
5天前
|
存储 小程序 数据库
阿里云学生云服务器申请,阿里云送每个大学生一台云服务器
2024年,阿里云为学生提供免费7个月的学生服务器,包括2核2G配置、1M带宽和独立IP。学生需通过学信网认证,完成任务可额外获得6个月免费时长。申请流程包括注册阿里云账号、实名认证和学生认证。此外,学生可免费领取300元无门槛优惠券,在阿里云高校计划中使用。学生服务器可用于建站、部署等多种场景。详细信息和申请入口见官方链接。
63 0
|
7天前
|
弹性计算
阿里云ECS的使用心得
本文主要讲述了我是如何了解到ECS,使用ECS的一些经验,以及自己的感悟心得

相关产品

  • 云服务器 ECS