ECS七天训练营day3

本文涉及的产品
传统型负载均衡 CLB,每月750个小时 15LCU
EMR Serverless StarRocks,5000CU*H 48000GB*H
应用型负载均衡 ALB,每月750个小时 15LCU
简介: SLB负载均衡实践

一创建资源
QQ图片20201129153355.png
二云服务器状态确认
分别访问实验提供的两台云服务器ECS,观察有什么异同点。
在浏览器中分别输入云服务器ECS-1和ECS-2的弹性IP
QQ图片20201129153923.png
QQ图片20201129153929.png
比较两台ECS的访问结果,发现部署的网站内容相同,只是显示的后端服务器IP不同。
说明:在真实场景下,负载均衡后端的服务器中部署的应用都是一致的。
三负载均衡配置
.登录阿里云管理控制台并在产品与服务中选择负载均衡
QQ图片20201129154508.png
点击左侧的 实例管理 ,然后打开实验提供的实例,在实例列表页面,点击目标实例右侧的 点我开始配置 。
QQ图片20201129154658.png
.在 协议&监听 页面,输入如下信息,完成后,点击 下一步 。
负载均衡协议:选择 HTTP
监听端口:设为 80
高级配置保持默认
QQ图片20201129154706.png
.在 后端服务器 页面,监听请求转发至 默认服务器组,在已添加服务器处点击 继续添加;并在弹出的待添加服务器页面,在预先配置好的两台云服务器前打勾选择,然后点击下一步,之后再点击 添加;
QQ图片20201129155001.png
.在后端服务器界面的已添加服务器列表中,可以看到新增的两台云服务器,分别将 端口 设置为 80,并点击 下一步 。
说明:负载均衡器将会按照输入的权重比例分发请求。
QQ图片20201129155352.png
.在 健康检查 配置中,开启健康检查按钮为绿色 开启状态,点击 下一步。
QQ图片20201129155443.png
.在 配置审核 页面,确认上述配置操作正确,点击 提交;出现如下界面,提示配置成功后,点击 知道了;
QQ图片20201129155551.png
.此时,页面将显示一个状态为 运行中 的负载均衡监听实例,后端服务器组已添加完成两台ECS服务器,且 健康检查 的状态为 正常。
注意:通常等待1分钟左右健康检查状态变为正常,可点击右侧的 刷新 查看。
QQ图片20201129155656.png
四负载均衡验证
.在浏览器中访问负载均衡的服务地址。并刷新浏览页面,显示的 后端服务器IP将发生变化,重复刷新操作,观察后端服务器IP是在两个云服务器的内网地址间轮流更换。
QQ图片20201129160126.png
QQ图片20201129160132.png
如上结果证明:负载均衡会将用户的请求发送到后端不同的服务器进行处理。这样,可以减轻单台服务器的负载压力,从而确保业务的持续性。
. 通过如下步骤,修改后端服务器权重,验证负载均衡向后端服务器发送请求的比例是按照权重的比例调整的。
返回 实例管理 页面,点击该实例的默认服务器组选中已添加的服务器,列表中,勾选下方的勾选框,然后点击修改权重。弹出对话框中,勾选 设置不同的权重 。设置两个实例的权重分别为30,90 。
说明:通过如上的权重配置,用户通过负载均衡访问的时候,1/4 的用户请求发送到一台后端服务器中,3/4 的请求发送到另一台后端服务器中。
QQ图片20201129160554.png
在浏览器中,刷新多次负载均衡服务地址的页面,并记录页面显示的 后端服务器IP 。可以发现:每 4 次刷新,将有 3 次访问权重为 90 的 ECS实例,1 次访问权重为 30 的 ECS实例。
如上结果证明:用户可以根据实际情况调整负载均衡器的请求分发,一般将配置高的服务器设置的权重调高,配置较低的服务器设置的权重调低。这样可以避免在高并发时,配置较低的服务器因为压力较大服务异常的发生。
.执行以下步骤,开启负载均衡的会话保持功能。
1)点击左侧监听,监听页面点击右侧的配置 。
QQ图片20201129161018.png
2) 配置监听页面的高级配置处,点击修改;开启会话保持,超时时间输入180。
QQ图片20201129161035.png
下面的后端服务器、健康检查和配置审核页面都采用默认值 ,依次完成配置。返回到 监听 页面 ,会话保持 状态 已开启 。
.再次在浏览器中输入 负载均衡 的 IP地址 ,多次刷新,发现在会话保持的超时时间内请求只会分发到某一台 ECS 上(究竟是哪一台 ECS 没有规定),时间超出后,重新按照权重比例分发。
. 我们关闭开启会话保持的那台ECS 。
实例详情页面 ,点击右上角处的 【停止】 ,弹窗页面点击【确定 】关闭当前ECS。
QQ图片20201129161525.png
QQ图片20201129161539.png
返回负载均衡管理控制台,在默认服务器组页面中点击右上角的【刷新】,页面刷新后被停止的 ECS 的 状态 变为 已停止。【监听】 页面,也出现 异常 提示 。返回负载均衡管理控制台主页面,异常 报警也会出现。
QQ图片20201129161543.png
QQ图片20201129161549.png
QQ图片20201129161554.png
.再次刷新浏览器中负载均衡的IP地址,此时请求发送到健康检查状态为正常的ECS上。结果证明,当某一台ECS出现异常后,负载均衡会自动将请求发送到健康检查状态正常的 ECS 上。

相关实践学习
借助OSS搭建在线教育视频课程分享网站
本教程介绍如何基于云服务器ECS和对象存储OSS,搭建一个在线教育视频课程分享网站。
7天玩转云服务器
云服务器ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,可降低 IT 成本,提升运维效率。本课程手把手带你了解ECS、掌握基本操作、动手实操快照管理、镜像管理等。了解产品详情: https://www.aliyun.com/product/ecs
相关文章
|
18天前
|
数据可视化 Linux 网络安全
如何使用服务器训练模型
本文介绍了如何使用服务器训练模型,包括获取服务器、访问服务器、上传文件、配置环境、训练模型和下载模型等步骤。适合没有GPU或不熟悉Linux服务器的用户。通过MobaXterm工具连接服务器,使用Conda管理环境,确保训练过程顺利进行。
33 0
如何使用服务器训练模型
|
28天前
服务器迁移上云训练营打卡学习领好礼
服务器迁移上云训练营打卡学习领好礼
44 4
|
2月前
服务器迁移上云训练营打卡学习领好礼
服务器迁移上云训练营打卡学习领好礼
38 6
|
6月前
|
机器学习/深度学习 弹性计算 自然语言处理
【阿里云弹性计算】深度学习训练平台搭建:阿里云 ECS 与 GPU 实例的高效利用
【5月更文挑战第28天】阿里云ECS结合GPU实例为深度学习提供高效解决方案。通过弹性计算服务满足大量计算需求,GPU加速训练。用户可按需选择实例规格,配置深度学习框架,实现快速搭建训练平台。示例代码展示了在GPU实例上使用TensorFlow进行训练。优化包括合理分配GPU资源和使用混合精度技术,应用涵盖图像识别和自然语言处理。注意成本控制及数据安全,借助阿里云推动深度学习发展。
252 2
|
5月前
使用高性能服务器训练StableDiffusion——人物模型.safetensors
使用高性能服务器训练StableDiffusion——人物模型.safetensors
48 0
|
6月前
|
存储 弹性计算 人工智能
【阿里云弹性计算】AI 训练与推理在阿里云 ECS 上的高效部署与优化
【5月更文挑战第25天】阿里云ECS为AI训练和推理提供弹性、可扩展的计算资源,确保高性能和稳定性。通过灵活配置实例类型、利用存储服务管理数据,以及优化模型和代码,用户能实现高效部署和优化。自动伸缩、任务调度和成本控制等策略进一步提升效率。随着AI技术发展,阿里云ECS将持续助力科研和企业创新,驱动人工智能新时代。
181 0
|
6月前
|
机器学习/深度学习 人工智能 TensorFlow
人工智能平台PAI产品使用合集之如何在CPU服务器上使用PAIEasyRec进行分布式训练
阿里云人工智能平台PAI是一个功能强大、易于使用的AI开发平台,旨在降低AI开发门槛,加速创新,助力企业和开发者高效构建、部署和管理人工智能应用。其中包含了一系列相互协同的产品与服务,共同构成一个完整的人工智能开发与应用生态系统。以下是对PAI产品使用合集的概述,涵盖数据处理、模型开发、训练加速、模型部署及管理等多个环节。
|
弹性计算 自然语言处理 数据安全/隐私保护
GPU实验室-通过GPU云服务器训练GPT-2
本文介绍如何使用GPU云服务器,使用Megatron-Deepspeed框架训练GPT-2模型并生成文本。
GPU实验室-通过GPU云服务器训练GPT-2
|
人工智能 弹性计算 自然语言处理
技术分享 | 如何利用GPU云服务器加速AIGC训练
阿里云GPU云服务器提供GPU加速计算能力,能够实现GPU计算资源的即开即用和弹性伸缩。同时,配备阿里云自研的弹性RDMA网络,可以实现秒级的大规模RDMA组网,满足大模型计算过程中海量数据的高效传输需求。面向开发者,阿里云还推出了AI计算部署工具FastGPU,使开发者无需关注计算、存储、网络等资源的部署操作,即可达到简单适配、一键部署、随处运行的效果。
技术分享 | 如何利用GPU云服务器加速AIGC训练
|
存储 人工智能 弹性计算
阿里云于子淇:如何利用GPU云服务器加速AIGC训练|阿里云弹性计算技术公开课直播预告
本节课程,于子淇首先会对AIGC模型的实现原理进行介绍,然后分享阿里云基于弹性RDMA的GPU云服务器的技术特性,以及使用FastGPU在GPU云服务器上进行LLaMA模型部署的流程和finetune原理。最后,于子淇将从计算图优化和通信优化两个方面,讲解基于AIACC的LLaMA模型部署性能优化,并展示优化后的实际效果。 本次课程将在阿里云官网、钉钉视频号、阿里云官方视频号、阿里云创新中心直播平台&视频号、阿里云开发者视频号等多个官方平台同步播出。