生产环境发布管理

本文涉及的产品
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
模型训练 PAI-DLC,100CU*H 3个月
交互式建模 PAI-DSW,每月250计算时 3个月
简介: 本文介绍了大型团队中多环境自动化部署的实践方法,涵盖开发(DEV)、测试(TEST)、灰度(PRE)和生产(PROD)环境的职责划分,并结合自动化部署平台实现代码发布、热更新和回滚操作,提升发布效率与稳定性。

前言

在一个大型团队中,生产发布是一件复杂的事情,从dev(前后端联调)-->test(测试集成&压力测试)-->pre(灰度测试)-->prod(生产环境)的多环境推进,以及生产环境的热更新、回滚等问题一直在困扰着各个公司,今天我将基于公司的自动化部署平台为大家讲解下我们是如何做到多环境部署。

每个环境做什么

在明确发布之前,我们需要明确一下每个环境的主要职责和角色:

DEV:也叫开发环境

  • 事项:前后端接口联调,修复代码基础缺陷
  • 角色:前端-后端

TEST:也叫测试环境

  • 事项:测试集成测试、压力测试,开发修复bug
  • 角色:开发(前端后端)、测试

PRE:也叫灰度环境

  • 事项:生产环境冒烟测试,切5个左右真实生产数据,回归流程是否有问题
  • 角色:开发(前端后端)、测试

PROD:也叫生产环境

  • 事项:发布代码,做真实环境验证,有问题第一时间修复(sql止血订正或代码回滚)
  • 角色:开发(前端后端)、测试、运维

大型公司如何管控代码发布

随着自动化部署CI/CD(DevOPS)成熟,目前大型公司都开始搭建自动化部署平台,形如下图:

图1 (自动化部署平台应用主页)

当用户进入应用主页后,会发现有不同的发布环境,每一个环境对应一台服务器、一个访问域名、一组中间件环境(即dev、test等环境的nacos-mysql等都是分环境部署的)。

图2 (自动化部署平台多环境)

同时自动化部署平台会自动整合公司的gitlab,将分支展现在发布平台,以便用户可以界面化操作和部署

图3 (自动化部署平台分支管理)

当用户需要创建分支时,不再需要像传统的那样去git创建,或者idea创建,而是可以直接在当前发布平台创建(底层是一样的,都是创建一个新的git分支)

图4 (自动化部署平台分支创建)

当用户需要发布时,只需要进入对应的环境(这里我们以test为例),勾选所需要发布的分支,即可实现自动化部署。下图可以看到test环境同时部署分支约20个。

图5 (自动化部署平台提交发布)

需要注意的是:假设我们需要对A分支进行发布,只需要勾选A分支,底层Jenkins会自动完成jar包构建,并执行底层的Docker run指令完成容器部署,这里部署的jar包每个环境都是隔离的。

即dev的jar跟test无关,每次都是新构建自己的。即使是test,点击两次发布也是构建了两个jar,只不过第二次的会覆盖第一次。这点各位需要明晰。

当测试提出我们有bug时,对应的开发人员就需要在idea中,A分支上完成代码修复并push,然后在自动化部署平台重新勾选分支,然后提交部署,完成一次重新发布,循环此过程,直至缺陷被修复。

如何排查日志

当测试提出某个环境有bug时,如果是传统Linux直接部署,我们会登录到指定的服务器用cat、grep、vim等指令进入日志文件,然后找到错误的堆栈信息。如果有结合Arthas的(Arthas排查错误)可以启动Arthas查看错误信息。但是现在一般都是会借助于Skywalking或ELK进行日志查看

图6 (自动化部署平台日志排查)

在上图中我们就可以看到:一个GET请求,请求路径是:/dict/default/staff,然后一个远程服务调用,使用的dubbo,最后查询mysql数据库,这样就完成一个完整的日志链路追踪。

如何回答相关问题

1.你们公司如何部署发布

方案一:Linux原生部署

我们公司的部署呢,还是比较原始的,就是直接部署在原生的Linux系统,我们平时dev发布就在idea构建好一个jar包,然后用XShell上传上去,用指令:nohup java -jar tj-learning.jar启动。测试环境和生产也是一样的操作

方案二:基于Jenkins的自动化部署平台

我们公司的部署都已经非常成熟了,有一套自动部署平台,底层是Jenkins+K8S实现自动化部署发布,我们只需要在dev、test、prod等环境勾选需要发布的分支就行,它全帮我们做好了自动部署。

2.你们公司怎么排查错误

方案一:Linux原生环境

我们公司的部署呢,还是比较原始的,就是直接部署在原生的Linux系统,所以排查日志也需要自己去找到error.log,然后手动找到报错的堆栈信息,分析出原因。比如有个NPE(NullPointException-空指针异常),就会显示具体哪行报错,我们就会分析、修复。

方案二:基于Docker的原生平台

我们公司目前的部署就是原生的Docker,通过docker logs命令人肉排查

方案三:基于Skywalking的日志检索平台(CI/CD平台)

对于日志排查,我们公司是有Skywalking的,只需要测试给我对应的traceId,我输入进去就可以看到完整的调用链路和报错的堆栈信息,然后就可以分析报错原因并修复了

相关文章
|
14天前
|
存储 机器学习/深度学习 人工智能
MXFP4量化:如何在80GB GPU上运行1200亿参数的GPT-OSS模型
GPT-OSS通过MXFP4量化技术实现1200亿参数模型在单个80GB GPU上的高效运行,将权重压缩至每参数4.25位,大幅降低内存需求,同时保持高精度和竞争力的基准性能,为大规模模型部署提供了新思路。
110 13
MXFP4量化:如何在80GB GPU上运行1200亿参数的GPT-OSS模型
|
4天前
|
关系型数据库 MySQL 数据库
MySQL用户创建及权限分配的步骤
通过以上步骤可以有效地在 MySQL 中管理不同层次、不同范围内对于数据与结构进行精确控制。
48 20
|
6天前
|
消息中间件 缓存 NoSQL
《分布式系统跨服务数据一致性Bug深度复盘:从现象到本质的排查与破局》
本文复盘企业级电商中台订单履约模块的跨服务数据一致性Bug,技术环境为Spring Cloud微服务架构,依赖Seata分布式事务、MySQL主从、Redis缓存等。高并发压测时出现订单与库存/物流单数据不一致、分布式事务失效等随机异常。通过排查,定位出事务边界遗漏、MySQL主从延迟+缓存更新策略不当、RabbitMQ消息自动确认致重复消费三大核心问题。针对性提出重构分布式事务、优化数据同步机制、完善消息消费策略的解决方案,并提炼出分布式系统数据一致性的五大避坑原则,为后端开发者提供高并发场景下系统稳定性优化的实践参考。
|
6天前
|
测试技术 Swift 开发者
可调节推理预算,字节Seed团队开源大型语言模型 Seed-OSS 系列!
字节跳动 Seed 团队正式发布了 Seed-OSS 系列开源大型语言模型,提供强大的长上下文、推理、代理和通用功能,以及对开发者友好的多功能特性。
110 9
|
2月前
|
数据采集 分布式计算 DataWorks
ODPS在某公共数据项目上的实践
本项目基于公共数据定义及ODPS与DataWorks技术,构建一体化智能化数据平台,涵盖数据目录、归集、治理、共享与开放六大目标。通过十大子系统实现全流程管理,强化数据安全与流通,提升业务效率与决策能力,助力数字化改革。
64 4
|
1天前
|
NoSQL Linux Shell
MongoDB单机部署
本文介绍了MongoDB的安装、配置与使用方法,涵盖Windows和Linux系统下的安装步骤、版本选择、解压配置、服务启动方式,以及使用Shell命令和图形化工具Compass连接数据库。内容还包括配置文件设置、常见问题解决方法及服务关闭方式,适用于生产环境部署和日常开发使用。
14 1
MongoDB单机部署
|
4天前
|
运维 Linux 开发者
Linux系统中使用Python的ping3库进行网络连通性测试
以上步骤展示了如何利用 Python 的 `ping3` 库来检测网络连通性,并且提供了基本错误处理方法以确保程序能够优雅地处理各种意外情形。通过简洁明快、易读易懂、实操性强等特点使得该方法非常适合开发者或系统管理员快速集成至自动化工具链之内进行日常运维任务之需求满足。
46 18
|
4天前
|
关系型数据库 MySQL BI
欧洲数字化养殖平台 Herdwatch 借力 Iceberg + StarRocks 提升分析能力
开源无国界,在本期“StarRocks 全球用户精选案例”专栏中,我们将介绍欧洲数字化养殖管理平台 Herdwatch。 Herdwatch 以用户体验为核心,致力于为欧洲各地的农场主提供一站式服务。通过简便直观的操作,农场主不仅可以轻松完成牲畜记录与合规管理,还能集中追踪健康、用药计划和产能等核心数据,从而基于完整信息做出更科学、更高效的决策,全面提升运营效率。目前,这一平台已在全球超过 20,000 个农场和牧场中应用。 本文将聚焦 Herdwatch 在构建现代化数据平台的探索历程,重点介绍其如何借助 Apache Iceberg 与 StarRocks,实现性能提升、成本优化与治理完善

热门文章

最新文章