Go微服务架构实战 中篇:2. 基于k8s部署服务和注册中心,验证服务注册和发现

简介: Go微服务架构实战 中篇:2. 基于k8s部署服务和注册中心,验证服务注册和发现

本系列文章主要是针对云原生领域微服务架构的实战,包括网关,k8s,etcd以及grpc等相关技术的应用,同时也会把服务发现与注册,熔断,降级,限流以及分布式锁等加入到系列当中作为补充,课程的最后也会安排分布式链路追踪框架的学习,监控平台的搭建以及灰度发布等技术服务,所以总体来讲,课程范围涉及技术领域较广,知识面比较宽,大家下来各取所需尽量做到熟悉和应用,之后有时间了在研究下源码,乐哉!


上篇已经完成,大家可以看下,我这里贴出来了,中篇从这周开始陆续为大家产出,因为太耗费精力,所以还望大家多多支持!


Go微服务架构实战目录


1. 微服务架构上篇



1. grpc技术介绍

2. grpc+protobuf+网关实战

3. etcd技术介绍

4. 基于etcd的服务发现与注册

5. 基于etcd的分布式锁实战


2. 微服务架构中篇


1. k8s架构介绍


2. 基于pod和deployment的容器化部署



对于k8s来说,所有资源对象都有yaml文件来创建,k8s提供一个工具kubectl来和API server交互,从而创建相应的资源对象。


我们的项目有一个服务端,有一个客户端,还有一个服务发现和注册中心etcd。

我们原来就是裸机用supervisor去托管各个服务进程,比较简单直接,现在用k8s尝试去部署一下。


1. 创建server pod的步骤


  1. 首先为了让server进行容器化部署,得现有Dockerfile,我们来看看server的(Dockerfile):
FROM golang AS build-env //从Docker镜像仓库找golang镜像 
ADD . /go/src/app
WORKDIR /go/src/app
RUN GOOS=linux GOARCH=386 go build -mod vendor cmd/svr/svr.go //构建镜像
FROM alpine //构建二进制镜像
COPY --from=build-env /go/src/app/svr /usr/local/bin/svr //从golang尽享copy到二进制镜像内
CMD [ "svr", "-port", "50009"] //运行服务 指定参数是端口
  1. 用docker build构建镜像docker build -t k8s-grpc-demo -f ./Dockerfile .
  2. 用刚才的镜像创建server的yaml(server.yaml):
apiVersion: apps/v1
kind: Deployment //Deployment就是管理Pod资源的对象
metadata:
  name: k8sdemo-deploy //Pod名称
  labels:
    app: k8sdemo //Pod标签 为service提供负载均衡使用
spec:
  replicas: 1 //副本为1
  selector:
    matchLabels:
      app: k8sdemo
  template:
    metadata:
      labels:
        app: k8sdemo
    spec:
      containers:
      - name: k8sdemo //容器名称
        image: k8s-grpc-demo:latest //用刚才生成的本地镜像
        imagePullPolicy: Never //从本地构建
        ports:
        - containerPort: 50007 //容器端口
  1. 用kubectl创建podkubectl apply -f server.yaml没有指定namespace,默认是在default空间。
  2. 创建之后看下pod是否起来kubectl get pod查看发现server的pod已经running了。


为了多测试几个服务,我们复制创建相同的Dockerfile和server.yaml,比如Dockerfile1 Dockerfile2 以及server1.yaml和server2.yaml,这里就不把配置粘贴出来,可以从github地址查看哈。


2. 创建client的pod的步骤


  1. 创建Dockerfile(Dockerfile3)
FROM golang AS build-env
ADD . /go/src/app
WORKDIR /go/src/app
RUN GOOS=linux GOARCH=386 go build -mod vendor cmd/cli/cli.go
FROM alpine
COPY --from=build-env /go/src/app/cli /usr/local/bin/cli
CMD [ "cli"]
  1. 构建Dockerfiledocker build -t k8s-grpc-demo3 -f ./Dockerfile3 .
  2. 用刚才的镜像创建client的yaml(client.yaml):
apiVersion: apps/v1
kind: Deployment
metadata:
  name: k8sdemo-cli-deploy //客户端pod名称
  labels:
    app: k8sdemo
spec:
  replicas: 1
  selector:
    matchLabels:
      app: k8sdemo
  template:
    metadata:
      labels:
        app: k8sdemo
    spec:
      containers:
      - name: k8sdemocli
        image: k8s-grpc-demo3:latest //用刚才构建的镜像
        imagePullPolicy: Never
        ports:
        - containerPort: 50010
  1. 用kubectl创建podkubectl apply -f client.yaml没有指定namespace,默认是在default空间。
  2. 创建之后看下pod是否起来kubectl get pod查看
  3. 640.png
  4. 发现client的pod已经running了。


3. 创建etcd的pod的步骤


因为etcd镜像我们用Docker官网里面的,所以不用自己构建了,这里直接把创建etcd的pod的yaml贴出来。


apiVersion: apps/v1
kind: Deployment
metadata:
  name: etcd3 //etcd名称
  labels:
    name: etcd3
spec:
  replicas: 1
  selector:
    matchLabels:
      app: etcd3
  template:
    metadata:
      labels:
        app: etcd3
    spec:
      containers:
        - name: etcd3 //容器名称
          image: quay.io/coreos/etcd:latest //etcd镜像
          imagePullPolicy: IfNotPresent
          volumeMounts:
            - mountPath: /data //数据存储挂载路径
              name: etcd-data
          env:
            - name: host_ip
              valueFrom:
                fieldRef:
                  fieldPath: status.podIP
          command: ["/bin/sh","-c"]
          args: //启动etcd
            - /usr/local/bin/etcd //etcd的可执行文件
              --name etcd3 //etcd集群的名称
              --initial-advertise-peer-urls http://0.0.0.0:2380
              --listen-peer-urls http://0.0.0.0:2380
              --listen-client-urls http://0.0.0.0:2379
              --advertise-client-urls http://0.0.0.0:2379
              --initial-cluster-token etcd-cluster-1
              --initial-cluster etcd3=http://0.0.0.0:2380
              --initial-cluster-state new
              --data-dir=/data
      volumes:
        - name: etcd-data
          emptyDir: {} //当前容器作为存储路径


然后用kubectl命令直接创建pod

kubectl apply -f etc.yaml

kubectl get pod查看

640.png

发现etcd的pod是running了。


但是有pod不一定有对内提供服注册和发现能力,得需要service对内pod提供服务,因此创建etcd的service如下:


apiVersion: v1
kind: Service
metadata:
  name: etcd3 //service的名称 服务注册和发现的时候使用 很重要
spec:
  ports:
    - name: client
      port: 2379 //service对内pod的client访问端口
      targetPort: 2379
    - name: etcd3
      port: 2380 //service对内pod的server访问端口
      targetPort: 2380
  selector:
    app: etcd3 //找到需要关联的etcd pod 即上面创建的etcd pod

我们看下是否创建成功:

640.png


bingo。至此服务,客户端以及以及etcd的服务注册和发现中心部署好了。

接下来做点小改动,就可以实现服务注册和发现了。


3. 服务注册


因为我们的pod也是有ip的,所以服务注册之前得先获取pod的ip。代码如下:


//获取本地eth0 IP 大家下来在源码中可以看到实现哈
func GetLocalIP() string


然后有两个地方需要修改:


  1. 注册中心的地址(etcd address) 从原来的localhost改为http://etcd3:2379,至于为什么,我可以做个简单介绍,因为不同pod之间localhost是不通的,localhost只能在同一个Pod中的容器之间相互通信,不同pod是没有办法通信的。所以需要通信的pod必须通过etcd的svc名称去访问,k8s集群内提供了相关dns自动会解析到svc ip的,所以pod就可以访问etcd注册中心。
  2. 把原来服务默认监听的localhost改为从本地获取ip

1,2修改代码如下:

640.png


4. 客户端发现

客户端也需要修改注册中心地址:


640.png

5. 验证

等以上修改完成之后,我们还需要经历上述的重新构建步骤和部署步骤,因为代码改动了哦。

我们重新部署完成之后,在最后启动客户端的时候发现日志中有了多个服务端的请求,而且是RR轮循返回的响应,我们可以看下客户端和服务的pod列表:

640.png


客户端日志如下:

640.png


至此我们基于k8s的服务部署和服务注册中心就搭建起来了,后续为大家带来故障转移,滚动更新以及扩缩容等内容,欢迎大家关注,分享和点赞。


github地址:

https://github.com/guojiangli/k8s-grpc-demo

相关实践学习
深入解析Docker容器化技术
Docker是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的Linux机器上,也可以实现虚拟化,容器是完全使用沙箱机制,相互之间不会有任何接口。Docker是世界领先的软件容器平台。开发人员利用Docker可以消除协作编码时“在我的机器上可正常工作”的问题。运维人员利用Docker可以在隔离容器中并行运行和管理应用,获得更好的计算密度。企业利用Docker可以构建敏捷的软件交付管道,以更快的速度、更高的安全性和可靠的信誉为Linux和Windows Server应用发布新功能。 在本套课程中,我们将全面的讲解Docker技术栈,从环境安装到容器、镜像操作以及生产环境如何部署开发的微服务应用。本课程由黑马程序员提供。     相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
相关文章
|
9月前
|
运维 Kubernetes Cloud Native
智联招聘 × 阿里云 ACK One:云端弹性算力颠覆传统 IDC 架构,打造春招技术新范式
在 2025 年春季招聘季的激战中,智联招聘凭借阿里云 ACK One 注册集群与弹性 ACS 算力的深度融合,成功突破传统 IDC 机房的算力瓶颈,以云上弹性架构支撑千万级用户的高并发访问,实现招聘服务效率与稳定性的双重跃升。
|
5月前
|
Cloud Native Serverless API
微服务架构实战指南:从单体应用到云原生的蜕变之路
🌟蒋星熠Jaxonic,代码为舟的星际旅人。深耕微服务架构,擅以DDD拆分服务、构建高可用通信与治理体系。分享从单体到云原生的实战经验,探索技术演进的无限可能。
微服务架构实战指南:从单体应用到云原生的蜕变之路
|
5月前
|
存储 监控 安全
132_API部署:FastAPI与现代安全架构深度解析与LLM服务化最佳实践
在大语言模型(LLM)部署的最后一公里,API接口的设计与安全性直接决定了模型服务的可用性、稳定性与用户信任度。随着2025年LLM应用的爆炸式增长,如何构建高性能、高安全性的REST API成为开发者面临的核心挑战。FastAPI作为Python生态中最受青睐的Web框架之一,凭借其卓越的性能、强大的类型安全支持和完善的文档生成能力,已成为LLM服务化部署的首选方案。
1052 3
|
9月前
|
JSON 中间件 Go
Go 网络编程:HTTP服务与客户端开发
Go 语言的 `net/http` 包功能强大,可快速构建高并发 HTTP 服务。本文从创建简单 HTTP 服务入手,逐步讲解请求与响应对象、URL 参数处理、自定义路由、JSON 接口、静态文件服务、中间件编写及 HTTPS 配置等内容。通过示例代码展示如何使用 `http.HandleFunc`、`http.ServeMux`、`http.Client` 等工具实现常见功能,帮助开发者掌握构建高效 Web 应用的核心技能。
472 61
|
10月前
|
监控 Linux 应用服务中间件
Linux多节点多硬盘部署MinIO:分布式MinIO集群部署指南搭建高可用架构实践
通过以上步骤,已成功基于已有的 MinIO 服务,扩展为一个 MinIO 集群。该集群具有高可用性和容错性,适合生产环境使用。如果有任何问题,请检查日志或参考MinIO 官方文档。作者联系方式vx:2743642415。
3451 57
|
资源调度 前端开发 算法
鸿蒙OS架构设计探秘:从分层设计到多端部署
本文深入探讨了鸿蒙OS的架构设计,从独特的“1+8+N”分层架构到模块化设计,再到智慧分发和多端部署能力。分层架构让系统更灵活,模块化设计通过Ability机制实现跨设备一致性,智慧分发优化资源调度,多端部署提升开发效率。作者结合实际代码示例,分享了开发中的实践经验,并指出生态建设是未来的关键挑战。作为国产操作系统的代表,鸿蒙的发展值得每一位开发者关注与支持。
|
9月前
|
开发框架 安全 前端开发
Go Web开发框架实践:模板渲染与静态资源服务
Gin 是一个功能强大的 Go Web 框架,不仅适用于构建 API 服务,还支持 HTML 模板渲染和静态资源托管。它可以帮助开发者快速搭建中小型网站,并提供灵活的模板语法、自定义函数、静态文件映射等功能,同时兼容 Go 的 html/template 引擎,具备高效且安全的页面渲染能力。
|
9月前
|
开发框架 JSON 中间件
Go语言Web开发框架实践:使用 Gin 快速构建 Web 服务
Gin 是一个高效、轻量级的 Go 语言 Web 框架,支持中间件机制,非常适合开发 RESTful API。本文从安装到进阶技巧全面解析 Gin 的使用:快速入门示例(Hello Gin)、定义 RESTful 用户服务(增删改查接口实现),以及推荐实践如参数校验、中间件和路由分组等。通过对比标准库 `net/http`,Gin 提供更简洁灵活的开发体验。此外,还推荐了 GORM、Viper、Zap 等配合使用的工具库,助力高效开发。

推荐镜像

更多