Go微服务架构实战 中篇:2. 基于k8s部署服务和注册中心,验证服务注册和发现

简介: Go微服务架构实战 中篇:2. 基于k8s部署服务和注册中心,验证服务注册和发现

本系列文章主要是针对云原生领域微服务架构的实战,包括网关,k8s,etcd以及grpc等相关技术的应用,同时也会把服务发现与注册,熔断,降级,限流以及分布式锁等加入到系列当中作为补充,课程的最后也会安排分布式链路追踪框架的学习,监控平台的搭建以及灰度发布等技术服务,所以总体来讲,课程范围涉及技术领域较广,知识面比较宽,大家下来各取所需尽量做到熟悉和应用,之后有时间了在研究下源码,乐哉!


上篇已经完成,大家可以看下,我这里贴出来了,中篇从这周开始陆续为大家产出,因为太耗费精力,所以还望大家多多支持!


Go微服务架构实战目录


1. 微服务架构上篇



1. grpc技术介绍

2. grpc+protobuf+网关实战

3. etcd技术介绍

4. 基于etcd的服务发现与注册

5. 基于etcd的分布式锁实战


2. 微服务架构中篇


1. k8s架构介绍


2. 基于pod和deployment的容器化部署



对于k8s来说,所有资源对象都有yaml文件来创建,k8s提供一个工具kubectl来和API server交互,从而创建相应的资源对象。


我们的项目有一个服务端,有一个客户端,还有一个服务发现和注册中心etcd。

我们原来就是裸机用supervisor去托管各个服务进程,比较简单直接,现在用k8s尝试去部署一下。


1. 创建server pod的步骤


  1. 首先为了让server进行容器化部署,得现有Dockerfile,我们来看看server的(Dockerfile):
FROM golang AS build-env //从Docker镜像仓库找golang镜像 
ADD . /go/src/app
WORKDIR /go/src/app
RUN GOOS=linux GOARCH=386 go build -mod vendor cmd/svr/svr.go //构建镜像
FROM alpine //构建二进制镜像
COPY --from=build-env /go/src/app/svr /usr/local/bin/svr //从golang尽享copy到二进制镜像内
CMD [ "svr", "-port", "50009"] //运行服务 指定参数是端口
  1. 用docker build构建镜像docker build -t k8s-grpc-demo -f ./Dockerfile .
  2. 用刚才的镜像创建server的yaml(server.yaml):
apiVersion: apps/v1
kind: Deployment //Deployment就是管理Pod资源的对象
metadata:
  name: k8sdemo-deploy //Pod名称
  labels:
    app: k8sdemo //Pod标签 为service提供负载均衡使用
spec:
  replicas: 1 //副本为1
  selector:
    matchLabels:
      app: k8sdemo
  template:
    metadata:
      labels:
        app: k8sdemo
    spec:
      containers:
      - name: k8sdemo //容器名称
        image: k8s-grpc-demo:latest //用刚才生成的本地镜像
        imagePullPolicy: Never //从本地构建
        ports:
        - containerPort: 50007 //容器端口
  1. 用kubectl创建podkubectl apply -f server.yaml没有指定namespace,默认是在default空间。
  2. 创建之后看下pod是否起来kubectl get pod查看发现server的pod已经running了。


为了多测试几个服务,我们复制创建相同的Dockerfile和server.yaml,比如Dockerfile1 Dockerfile2 以及server1.yaml和server2.yaml,这里就不把配置粘贴出来,可以从github地址查看哈。


2. 创建client的pod的步骤


  1. 创建Dockerfile(Dockerfile3)
FROM golang AS build-env
ADD . /go/src/app
WORKDIR /go/src/app
RUN GOOS=linux GOARCH=386 go build -mod vendor cmd/cli/cli.go
FROM alpine
COPY --from=build-env /go/src/app/cli /usr/local/bin/cli
CMD [ "cli"]
  1. 构建Dockerfiledocker build -t k8s-grpc-demo3 -f ./Dockerfile3 .
  2. 用刚才的镜像创建client的yaml(client.yaml):
apiVersion: apps/v1
kind: Deployment
metadata:
  name: k8sdemo-cli-deploy //客户端pod名称
  labels:
    app: k8sdemo
spec:
  replicas: 1
  selector:
    matchLabels:
      app: k8sdemo
  template:
    metadata:
      labels:
        app: k8sdemo
    spec:
      containers:
      - name: k8sdemocli
        image: k8s-grpc-demo3:latest //用刚才构建的镜像
        imagePullPolicy: Never
        ports:
        - containerPort: 50010
  1. 用kubectl创建podkubectl apply -f client.yaml没有指定namespace,默认是在default空间。
  2. 创建之后看下pod是否起来kubectl get pod查看
  3. 640.png
  4. 发现client的pod已经running了。


3. 创建etcd的pod的步骤


因为etcd镜像我们用Docker官网里面的,所以不用自己构建了,这里直接把创建etcd的pod的yaml贴出来。


apiVersion: apps/v1
kind: Deployment
metadata:
  name: etcd3 //etcd名称
  labels:
    name: etcd3
spec:
  replicas: 1
  selector:
    matchLabels:
      app: etcd3
  template:
    metadata:
      labels:
        app: etcd3
    spec:
      containers:
        - name: etcd3 //容器名称
          image: quay.io/coreos/etcd:latest //etcd镜像
          imagePullPolicy: IfNotPresent
          volumeMounts:
            - mountPath: /data //数据存储挂载路径
              name: etcd-data
          env:
            - name: host_ip
              valueFrom:
                fieldRef:
                  fieldPath: status.podIP
          command: ["/bin/sh","-c"]
          args: //启动etcd
            - /usr/local/bin/etcd //etcd的可执行文件
              --name etcd3 //etcd集群的名称
              --initial-advertise-peer-urls http://0.0.0.0:2380
              --listen-peer-urls http://0.0.0.0:2380
              --listen-client-urls http://0.0.0.0:2379
              --advertise-client-urls http://0.0.0.0:2379
              --initial-cluster-token etcd-cluster-1
              --initial-cluster etcd3=http://0.0.0.0:2380
              --initial-cluster-state new
              --data-dir=/data
      volumes:
        - name: etcd-data
          emptyDir: {} //当前容器作为存储路径


然后用kubectl命令直接创建pod

kubectl apply -f etc.yaml

kubectl get pod查看

640.png

发现etcd的pod是running了。


但是有pod不一定有对内提供服注册和发现能力,得需要service对内pod提供服务,因此创建etcd的service如下:


apiVersion: v1
kind: Service
metadata:
  name: etcd3 //service的名称 服务注册和发现的时候使用 很重要
spec:
  ports:
    - name: client
      port: 2379 //service对内pod的client访问端口
      targetPort: 2379
    - name: etcd3
      port: 2380 //service对内pod的server访问端口
      targetPort: 2380
  selector:
    app: etcd3 //找到需要关联的etcd pod 即上面创建的etcd pod

我们看下是否创建成功:

640.png


bingo。至此服务,客户端以及以及etcd的服务注册和发现中心部署好了。

接下来做点小改动,就可以实现服务注册和发现了。


3. 服务注册


因为我们的pod也是有ip的,所以服务注册之前得先获取pod的ip。代码如下:


//获取本地eth0 IP 大家下来在源码中可以看到实现哈
func GetLocalIP() string


然后有两个地方需要修改:


  1. 注册中心的地址(etcd address) 从原来的localhost改为http://etcd3:2379,至于为什么,我可以做个简单介绍,因为不同pod之间localhost是不通的,localhost只能在同一个Pod中的容器之间相互通信,不同pod是没有办法通信的。所以需要通信的pod必须通过etcd的svc名称去访问,k8s集群内提供了相关dns自动会解析到svc ip的,所以pod就可以访问etcd注册中心。
  2. 把原来服务默认监听的localhost改为从本地获取ip

1,2修改代码如下:

640.png


4. 客户端发现

客户端也需要修改注册中心地址:


640.png

5. 验证

等以上修改完成之后,我们还需要经历上述的重新构建步骤和部署步骤,因为代码改动了哦。

我们重新部署完成之后,在最后启动客户端的时候发现日志中有了多个服务端的请求,而且是RR轮循返回的响应,我们可以看下客户端和服务的pod列表:

640.png


客户端日志如下:

640.png


至此我们基于k8s的服务部署和服务注册中心就搭建起来了,后续为大家带来故障转移,滚动更新以及扩缩容等内容,欢迎大家关注,分享和点赞。


github地址:

https://github.com/guojiangli/k8s-grpc-demo

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
相关文章
|
11天前
|
人工智能 安全 算法
Go入门实战:并发模式的使用
本文详细探讨了Go语言的并发模式,包括Goroutine、Channel、Mutex和WaitGroup等核心概念。通过具体代码实例与详细解释,介绍了这些模式的原理及应用。同时分析了未来发展趋势与挑战,如更高效的并发控制、更好的并发安全及性能优化。Go语言凭借其优秀的并发性能,在现代编程中备受青睐。
73 33
|
2月前
|
资源调度 前端开发 算法
鸿蒙OS架构设计探秘:从分层设计到多端部署
本文深入探讨了鸿蒙OS的架构设计,从独特的“1+8+N”分层架构到模块化设计,再到智慧分发和多端部署能力。分层架构让系统更灵活,模块化设计通过Ability机制实现跨设备一致性,智慧分发优化资源调度,多端部署提升开发效率。作者结合实际代码示例,分享了开发中的实践经验,并指出生态建设是未来的关键挑战。作为国产操作系统的代表,鸿蒙的发展值得每一位开发者关注与支持。
|
2月前
|
存储 Kubernetes 监控
K8s集群实战:使用kubeadm和kuboard部署Kubernetes集群
总之,使用kubeadm和kuboard部署K8s集群就像回归童年一样,简单又有趣。不要忘记,技术是为人服务的,用K8s集群操控云端资源,我们不过是想在复杂的世界找寻简单。尽管部署过程可能遇到困难,但朝着简化复杂的目标,我们就能找到意义和乐趣。希望你也能利用这些工具,找到你的乐趣,满足你的需求。
227 33
|
5月前
|
弹性计算 API 持续交付
后端服务架构的微服务化转型
本文旨在探讨后端服务从单体架构向微服务架构转型的过程,分析微服务架构的优势和面临的挑战。文章首先介绍单体架构的局限性,然后详细阐述微服务架构的核心概念及其在现代软件开发中的应用。通过对比两种架构,指出微服务化转型的必要性和实施策略。最后,讨论了微服务架构实施过程中可能遇到的问题及解决方案。
|
22天前
|
Go API 定位技术
MCP 实战:用 Go 语言开发一个查询 IP 信息的 MCP 服务器
随着 MCP 的快速普及和广泛应用,MCP 服务器也层出不穷。大多数开发者使用的 MCP 服务器开发库是官方提供的 typescript-sdk,而作为 Go 开发者,我们也可以借助优秀的第三方库去开发 MCP 服务器,例如 ThinkInAIXYZ/go-mcp。 本文将详细介绍如何在 Go 语言中使用 go-mcp 库来开发一个查询 IP 信息的 MCP 服务器。
84 0
|
2月前
|
存储 JSON Go
PHP 日志系统的最佳搭档:一个 Go 写的远程日志收集服务
为了不再 SSH 上去翻日志,我写了个 Go 小脚本,用来接收远程日志。PHP 负责记录日志,Go 负责存储和展示,按天存储、支持 API 访问、可远程管理,终于能第一时间知道项目炸了。
57 10
|
3月前
|
人工智能 Kubernetes 异构计算
大道至简-基于ACK的Deepseek满血版分布式推理部署实战
大道至简-基于ACK的Deepseek满血版分布式推理部署实战
159 5
|
3月前
|
存储 算法 Go
Go语言实战:错误处理和panic_recover之自定义错误类型
本文深入探讨了Go语言中的错误处理和panic/recover机制,涵盖错误处理的基本概念、自定义错误类型的定义、panic和recover的工作原理及应用场景。通过具体代码示例介绍了如何定义自定义错误类型、检查和处理错误值,并使用panic和recover处理运行时错误。文章还讨论了错误处理在实际开发中的应用,如网络编程、文件操作和并发编程,并推荐了一些学习资源。最后展望了未来Go语言在错误处理方面的优化方向。
|
3月前
|
Kubernetes 持续交付 数据库
阿里云ACK+GitLab企业级部署实战教程
GitLab 是一个功能强大的基于 Web 的 DevOps 生命周期平台,整合了源代码管理、持续集成/持续部署(CI/CD)、项目管理等多种工具。其一体化设计使得开发团队能够在同一平台上进行代码协作、自动化构建与部署及全面的项目监控,极大提升了开发效率和项目透明度。 GitLab 的优势在于其作为一体化平台减少了工具切换,高度可定制以满足不同项目需求,并拥有活跃的开源社区和企业级功能,如高级权限管理和专业的技术支持。借助这些优势,GitLab 成为许多开发团队首选的 DevOps 工具,实现从代码编写到生产部署的全流程自动化和优化。
|
3月前
|
人工智能 Kubernetes 异构计算
大道至简-基于ACK的Deepseek满血版分布式推理部署实战
本教程演示如何在ACK中多机分布式部署DeepSeek R1满血版。

热门文章

最新文章

推荐镜像

更多