【实测】用土话让你明白如何做测试平台的持续部署和集成 - 1 【部署到服务器】

简介: 【实测】用土话让你明白如何做测试平台的持续部署和集成 - 1 【部署到服务器】

最近,有多位粉丝和同学反应,想让我讲一讲如何把测试平台部署到服务器,并且实现自动持续部署和集成测试等。


我一开始回复说,这种没什么技术含量,随便百度个教程都可以实现的东西,而且实现的方法和工具有很多很多,为什么非要我来讲呢?大家知道我个人一直更新原创,极少去搬运什么工具教程。


but人家说:因为我讲的一定明白,我经常会是从一个小白的模糊处境出发,然后用土话来讲明白,而且大家一直很信任我。


我听后很感动,于是问他想用哪个工具实现,他说百度了一个:gitlab-runner的插件,但是他看了很久教程,也看不太懂,并且总是各种报错。于是,我自己趟了一遍,的确发现很多教程的内容并不适用于实际,并且删减了很多细节大坑。


本来,这个东西,我是放在了收费培训内容里,带着大家手把手的视频演示实现。但是我觉得应该还有很多人需要这个简单的教程,所以我用公众号文章的方式再次记录一遍。


但我写的途中发现了一个问题:就是网上从来不缺实际的代码/命令 教程!缺的是让你如何理解这个过程,不理解,哪怕你照葫芦画瓢下来,也无法做到举一反三,也无法明白报错,甚至都不明白为什么要执行某句命令。


如果一个人,一旦明白了,某件事的流程和原理,那么具体的细节命令,他随便百度也秒懂了,并且会更加游刃有余,举一反三,吸收的更好。


所以我在此写下这个简单的ci/cd教程的流程原理,而非具体的实现代码,相信你读完后,会醍醐灌顶,恍然大悟,原来那些高端的操作,其实都这么接地气啊~ 。


所谓的持续自动,并不单单只对咱自己的平台实现,对公司其他的平台产品一样可以进行自动的跑自动化等脚本,而全程,并没有用到额外的第三方平台,如jenkins,所以稳定性和效率都大幅提高。


今天是第一节,让我们跟随着一个个小白疑问,来探究这个问题。


可能你第一次做测开,第一次写了一个django平台,但是在写的过程中,总隐隐觉得有个流程自己很苦恼,那就是平台完成后,要怎么部署到服务器上?


我们先想一个问题:为什么要部署到服务器上?部署到自己电脑上不行么?


答:行,当然行,前提是你自己的电脑不打算用了,以后就常开着跑平台,然后服务于全体同事,你别上去瞎操作,容易给搞坏了。

   所以,部署到公司提供的服务器上是个很好的选择,便宜,简单,更高效。


继续想问题:服务器选什么系统?


答:最好是linux,开源免费等这些官方回答我不想多说了,就直接告诉你,windows不适合当服务器,你有mac电脑也可以当服务器,linux系统的电脑则更便宜,更耐操。全公司都用,你就老实遵守吧。服务器也别太神话,就是一个正常的电脑而已,只是人为被当做服务功能而已。


继续带着问题:什么叫部署?


答:部署这个词,简单来说,就是让你的平台能在服务器上跑起来,仅此而已。但是呢?你一定总听到一些很高大上的技术,比如什么分布式,什么负载均衡,什么zookeeper,什么nginx,什么docker等等。所以很多人会被吓得直接打退堂鼓,但是我可以明确的说,这些额外的技术都属于优化,你可以不用,如果公司人不多,你又不是很想炫耀技术,那你完全可以直接把测试平台像在你本地电脑运行一样,把代码复制到服务器上,直接启动即可。只有走出了这一步,你才可能有去学习之后部署和运维的技术需求。所以,别上火,部署很简单,最关键的第一步,就是想办法把代码复制到服务器上


继续想问题:那怎么把代码复制到服务器上呢?


答:你要是不想学git,就直接手动复制,比如用scp命令,远程传送到服务器上。当然,这样也忒low了。所以我们用的可以说,全是git。那么我们接下来的事就是选择一个git工具了。


问题:选什么git工具?


很简单,gitlab,如果公司有具体要求和内部的gitlab,那你就用。如果没有,那你就自己去注册一个gitlab账户。有的同学可能听说过github,说为什么不用这个呢? 这里明确说一下,github是面向全世界开源的工具,你是想你的测试平台和你公司的敏感数据被全世界的黑客们知道么?然后你被公司开除甚至坐牢?当然,有人也一定会说,github也可以创建私有的不公开的代码仓库,那么...看下图:

image.png

据说hub现在可以免费创建私有,但是 所以,老老实实用gitlab吧,免费,高效,还可以设置仓库访问权限。

相关文章
|
5月前
|
弹性计算 机器人 应用服务中间件
一键部署开源Qwen3并集成到钉钉、企业微信
Qwen3系列模型现已正式发布并开源,包含8款“混合推理模型”,其中涵盖两款MoE模型(Qwen3-235B-A22B与Qwen3-30B-A3B)及六个Dense模型。阿里云计算巢已支持Qwen3-235B-A22B和Qwen3-32B的私有化部署,用户可通过计算巢轻松完成部署,并借助AppFlow集成至钉钉机器人或企业微信。文档详细介绍了从模型部署、创建应用到配置机器人的全流程,帮助用户快速实现智能助手的接入与使用。
402 19
一键部署开源Qwen3并集成到钉钉、企业微信
|
3月前
|
存储 文字识别 自然语言处理
通义大模型在文档自动化处理中的高效部署指南(OCR集成与批量处理优化)
本文深入探讨了通义大模型在文档自动化处理中的应用,重点解决传统OCR识别精度低、效率瓶颈等问题。通过多模态编码与跨模态融合技术,通义大模型实现了高精度的文本检测与版面分析。文章详细介绍了OCR集成流程、批量处理优化策略及实战案例,展示了动态批处理和分布式架构带来的性能提升。实验结果表明,优化后系统处理速度可达210页/分钟,准确率达96.8%,单文档延迟降至0.3秒,为文档处理领域提供了高效解决方案。
389 0
|
4月前
|
JSON 缓存 并行计算
NVIDIA 实现通义千问 Qwen3 的生产级应用集成和部署
阿里巴巴近期开源了通义千问Qwen3大语言模型(LLM),包含两款混合专家模型(MoE)235B-A22B与30B-A3B,以及六款稠密模型(Dense)从0.6B到32B不等。开发者可基于NVIDIA GPU使用TensorRT-LLM、Ollama、SGLang、vLLM等框架高效部署Qwen3系列模型,实现快速词元生成和生产级应用开发。
|
7月前
|
人工智能 Kubernetes jenkins
容器化AI模型的持续集成与持续交付(CI/CD):自动化模型更新与部署
在前几篇文章中,我们探讨了容器化AI模型的部署、监控、弹性伸缩及安全防护。为加速模型迭代以适应新数据和业务需求,需实现容器化AI模型的持续集成与持续交付(CI/CD)。CI/CD通过自动化构建、测试和部署流程,提高模型更新速度和质量,降低部署风险,增强团队协作。使用Jenkins和Kubernetes可构建高效CI/CD流水线,自动化模型开发和部署,确保环境一致性并提升整体效率。
|
2月前
|
物联网 Linux 开发者
快速部署自己私有MQTT-Broker-下载安装到运行不到一分钟,快速简单且易于集成到自己项目中
本文给物联网开发的朋友推荐的是GMQT,让物联网开发者快速拥有合适自己的MQTT-Broker,本文从下载程序到安装部署手把手教大家安装用上私有化MQTT服务器。
802 5
|
4月前
|
物联网
(手把手)在华为云、阿里云搭建自己的物联网MQTT消息服务器,免费IOT平台
本文介绍如何在阿里云搭建自己的物联网MQTT消息服务器,并使用 “MQTT客户端调试工具”模拟MQTT设备,接入平台进行消息收发。
1801 42
|
4月前
|
物联网
如何在腾讯云等平台搭建自己的物联网MQTT服务器Broker
物联网技术及MQTT协议被广泛应用于各种场景。本文介绍物联网MQTT服务助手下载,如何搭建自己的物联网平台,并使用 “MQTT客户端调试工具”模拟MQTT设备,接入平台进行消息收发。
389 37
|
4月前
|
人工智能 安全 Shell
Jupyter MCP服务器部署实战:AI模型与Python环境无缝集成教程
Jupyter MCP服务器基于模型上下文协议(MCP),实现大型语言模型与Jupyter环境的无缝集成。它通过标准化接口,让AI模型安全访问和操作Jupyter核心组件,如内核、文件系统和终端。本文深入解析其技术架构、功能特性及部署方法。MCP服务器解决了传统AI模型缺乏实时上下文感知的问题,支持代码执行、变量状态获取、文件管理等功能,提升编程效率。同时,严格的权限控制确保了安全性。作为智能化交互工具,Jupyter MCP为动态计算环境与AI模型之间搭建了高效桥梁。
310 2
Jupyter MCP服务器部署实战:AI模型与Python环境无缝集成教程
|
5月前
|
JavaScript 数据可视化 Docker
简易制作MCP服务器并测试
本文介绍了如何简易制作并测试MCP服务器,包括环境搭建、代码实现及Docker部署。首先通过uv包创建项目,在main.py中定义MCP服务器及其工具和资源函数。接着详细说明了在Windows上安装uv、配置Docker镜像加速、生成requirements.txt文件以及编写Dockerfile的过程。最后,通过构建和运行Docker容器部署MCP服务器,并使用Node.js工具测试其功能,确保服务器正常工作。此教程适合初学者快速上手MCP服务器的开发与部署。
2314 63
|
5月前
|
存储 人工智能 项目管理
2025年GitHub平台上的十大开源MCP服务器汇总分析
本文深入解析了GitHub上十个代表性MCP(Model Context Protocol)服务器项目,探讨其在连接AI与现实世界中的关键作用。这些服务器实现了AI模型与应用程序、数据库、云存储、项目管理等工具的无缝交互,扩展了AI的应用边界。文中涵盖Airbnb、Supabase、AWS-S3、Kubernetes等领域的MCP实现方案,展示了AI在旅行规划、数据处理、云存储、容器编排等场景中的深度应用。未来,MCP技术将向标准化、安全性及行业定制化方向发展,为AI系统集成提供更强大的支持。
1233 2
2025年GitHub平台上的十大开源MCP服务器汇总分析

热门文章

最新文章