云原生之容器编排实践-以k8s的Service方式暴露SpringBoot服务

简介: 云原生之容器编排实践-以k8s的Service方式暴露SpringBoot服务

8MQ%5[XONO$6[}FB3RUQOMA.png


背景


上一篇文章云原生之容器编排实践-SpringBoot应用以Deployment方式部署到minikube以及弹性伸缩中,我们通过 Deployment 完成了将 SpringBoot 应用部署到 minikube 并测试了其弹性伸缩的丝滑体验。但是 Deployment 部署后我们还面临以下问题:


  • 访问时需要先进行端口转发
  • 每次只能访问一个Pod,不支持负载均衡将请求路由至不同的Pod
  • Pod重新创建后IP地址与名称均发生变化,显然这在实际生产环境下是无法容忍的

这次我们使用 KubernetesService 来解决上述问题, Service 为我们带来了以下特性:


  • Service通过Label标签选择器关联对应的Pod
  • Service生命周期不跟Pod绑定,不会因为Pod重新创建改变IP
  • 提供了负载均衡功能,自动转发流量到不同Pod
  • 集群内部可通过服务名字访问(ClusterIP)
  • 可对集群外部提供访问端口(NodePort)

今天我们体验下两种类型的 Service :分别为 ClusterIPNodePort

创建服务最简单的 方式是通过 kubectl expose 命令,结合标签选择器来创建服务资源,实现通过单个 IP 和端口来访问所有的 Pod 。与 Deployment 一样,我们同样可以通过 YAML 描述文件调用 Kubernetes  API 服务来创建 Service


ClusterIP


ClusterIP 类型的 Service 只能在集群内部可以被访问。可以通过端口转发的方式可以在外面访问到集群里的服务。

H4KB)}M``$N[XFIQTS6}442.png

YAML


重点关注类型 kind: Service ,以及选择器 selector.app: cloud-native

[root@k8s0 service]# vi cloud-native-service.yaml 
apiVersion: v1
kind: Service
metadata:
  name: cloud-native-svc
spec:
  # 用来查找关联的Pod,所有标签都匹配才行
  selector:
    app: cloud-native
  # 默认 ClusterIP 集群内可访问
  type: ClusterIP
  ports:
    - port: 8080
      targetPort: 8080
# 应用配置
[root@k8s0 service]# kubectl apply -f cloud-native-service.yaml 
service/cloud-native-svc created

获取服务


service 可以简写为 svc

Note: 关于简写,在 Kubernetes 中通常会用到以下简写。


namespaces ns
nodes no
pods po
services svc
deployments deploy
replicationcontrollers rc
replicasets rs
configmaps cm
endpoints ep
events ev
cronjobs cj
persistentvolumeclaims pvc
persistentvolumes pv


[root@k8s0 service]# kubectl get service
NAME               TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)          AGE
cloud-native-svc   ClusterIP   10.105.254.130   <none>        8080/TCP         9s
hello-minikube     NodePort    10.107.201.188   <none>        8080:31061/TCP   35d
kubernetes         ClusterIP   10.96.0.1        <none>        443/TCP          35d
[root@k8s0 service]# kubectl get svc
NAME               TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)          AGE
cloud-native-svc   ClusterIP   10.105.254.130   <none>        8080/TCP         43s
hello-minikube     NodePort    10.107.201.188   <none>        8080:31061/TCP   35d
kubernetes         ClusterIP   10.96.0.1        <none>        443/TCP          35d

Service 服务的默认类型是 ClusterIP ,只能在集群内部访问。


可以进入 Pod 内访问或者通过端口转发,并且可以通过服务名称或者IP来访问。我的镜像内部没有 curl 命令(那么问题来了,镜像里面没有curl命令,怎么破?),就不测试了。


转发端口


[root@k8s0 service]# kubectl port-forward service/cloud-native-svc 8000:8080
Forwarding from 127.0.0.1:8000 -> 8080
Forwarding from [::1]:8000 -> 8080
Handling connection for 8000

测试接口


完成端口测试后,新开一个 Tab ,使用 Curl 进行接口测试。


[root@k8s0 ~]# curl http://localhost:8000/hi
Hi 127.0.0.1, I am 172.17.0.6

NodePort


使用 NodePort 类型的 Service ,可以做到直接将集群服务暴露出来。

}FG@IX(L%S[7${N)_PGTV@G.png

YAML


重点关注类型 spec.type: NodePort ,以及节点端口 spec.ports.nodePort: 30000


[root@k8s0 service]# vi cloud-native-service.yaml 
apiVersion: v1
kind: Service
metadata:
  name: cloud-native-svc
spec:
  # 用来查找关联的Pod,所有标签都匹配才行
  selector:
    app: cloud-native
  # NodePort节点可访问
  type: NodePort
  ports: 
    - port: 8080 # 本Service端口
      targetPort: 8080 # 容器端口
      nodePort: 30000   # 节点端口,范围固定30000 ~ 32767
# 应用配置
[root@k8s0 service]# kubectl apply -f cloud-native-service-nodeport.yaml 
service/cloud-native-svc configured

获取服务


cloud-native-svcNodePort 类型。当使用 kubectl describe service 命令时,我们可以观察到结果中的 Endpoints 有两个:172.17.0.5:8080, 172.17.0.6:8080,这便是我们的两个 Deployment 副本。

通过 kubectl get pods -o wide 我们可以再次验证:两个 Endpoints 正是我们的两个 Pod

[root@k8s0 service]# kubectl get svc
NAME               TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)          AGE
cloud-native-svc   NodePort    10.105.254.130   <none>        8080:30000/TCP   24m
hello-minikube     NodePort    10.107.201.188   <none>        8080:31061/TCP   35d
kubernetes         ClusterIP   10.96.0.1        <none>        443/TCP          35d
# Endpoints有两个
[root@k8s0 service]# kubectl describe service cloud-native-svc
Name:                     cloud-native-svc
Namespace:                default
Labels:                   <none>
Annotations:              <none>
Selector:                 app=cloud-native
Type:                     NodePort
IP Family Policy:         SingleStack
IP Families:              IPv4
IP:                       10.105.254.130
IPs:                      10.105.254.130
Port:                     <unset>  8080/TCP
TargetPort:               8080/TCP
NodePort:                 <unset>  30000/TCP
Endpoints:                172.17.0.5:8080,172.17.0.6:8080
Session Affinity:         None
External Traffic Policy:  Cluster
Events:                   <none>
# 两个Endpoints正是我们的两个Pod
[root@k8s0 service]# kubectl get pods -o wide
NAME                              READY   STATUS    RESTARTS       AGE     IP           NODE       NOMINATED NODE   READINESS GATES
cloud-native                      1/1     Running   3 (117m ago)   4d12h   172.17.0.4   minikube   <none>           <none>
cloud-native-7bc75f4c94-47zg7     1/1     Running   2 (117m ago)   2d4h    172.17.0.6   minikube   <none>           <none>
cloud-native-7bc75f4c94-c2php     1/1     Running   2 (117m ago)   2d4h    172.17.0.5   minikube   <none>           <none>
hello-minikube-58647b77b8-srpbq   1/1     Running   9 (117m ago)   35d     172.17.0.8   minikub

同样,可以桶过 Dashboard 以可视化的方式观测我们运行的 KubernetesService 信息。

G}9WGWH(4@IV{[EB7LPSO6J.png

进入节点


这里所谓的 节点 ,是指 Kubernetes 节点;显然,这时候我们只有一个 minikube 节点。


[root@k8s0 service]# docker ps
CONTAINER ID   IMAGE                    COMMAND                  CREATED       STATUS       PORTS  NAMES
421832f7e7c9   kicbase/stable:v0.0.32   "/usr/local/bin/entr…"   5 weeks ago   Up 2 hours   127.0.0.1:49157->22/tcp, 127.0.0.1:49156->2376/tcp, 127.0.0.1:49155->5000/tcp, 127.0.0.1:49154->8443/tcp, 127.0.0.1:49153->32443/tcp   minikube
# 进入节点内部
[root@k8s0 service]# docker exec -it 421832f7e7c9 /bin/bash

测试接口


Kubernetes 节点( minikube )内部测试接口,哇哦,我们体验到了 Service 提供的负载均衡效果。

bash

复制代码

root@minikube:/# curl http://localhost:30000/hi
Hi 172.17.0.1, I am 172.17.0.5root@minikube:/# curl http://localhost:30000/hi
Hi 172.17.0.1, I am 172.17.0.6root@minikube:/# curl http://localhost:30000/hi
Hi 172.17.0.1, I am 172.17.0.5root@minikube:/# curl http://localhost:30000/hi
Hi 172.17.0.1, I am 172.17.0.6root@minikube:/# curl http://localhost:30000/hi
Hi 172.17.0.1, I am 172.17.0.5root@minikube:/# curl http://localhost:30000/hi
Hi 172.17.0.1, I am 172.17.0.6root@minikube:/# curl http://localhost:30000/hi
Hi 172.17.0.1, I am 172.17.0.5root@minikube:/#

小总结


Kubemetes 服务是一种为一组功能相同的 Pod 提供单一不变的接入点的资源。当服务存在时,它的IP地址和端口不会改变。客户端通过IP地址和端口号建立连接,这些连接会被路由到提供该服务的任意一个 Pod 上。通过这种方式,客户端不需要知道每个单独的提供服务的 Pod 的地址,这样这些 Pod 就可以在集群中随时被创建或移除。


If you have any questions or any bugs are found, please feel free to contact me.

Your comments and suggestions are welcome!

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
目录
相关文章
|
20天前
|
人工智能 弹性计算 运维
ACK Edge与IDC:高效容器网络通信新突破
本文介绍如何基于ACK Edge以及高效的容器网络插件管理IDC进行容器化。
|
23天前
|
监控 NoSQL 时序数据库
《docker高级篇(大厂进阶):7.Docker容器监控之CAdvisor+InfluxDB+Granfana》包括:原生命令、是什么、compose容器编排,一套带走
《docker高级篇(大厂进阶):7.Docker容器监控之CAdvisor+InfluxDB+Granfana》包括:原生命令、是什么、compose容器编排,一套带走
178 77
|
10天前
|
存储 Kubernetes 开发者
容器化时代的领航者:Docker 和 Kubernetes 云原生时代的黄金搭档
Docker 是一种开源的应用容器引擎,允许开发者将应用程序及其依赖打包成可移植的镜像,并在任何支持 Docker 的平台上运行。其核心概念包括镜像、容器和仓库。镜像是只读的文件系统,容器是镜像的运行实例,仓库用于存储和分发镜像。Kubernetes(k8s)则是容器集群管理系统,提供自动化部署、扩展和维护等功能,支持服务发现、负载均衡、自动伸缩等特性。两者结合使用,可以实现高效的容器化应用管理和运维。Docker 主要用于单主机上的容器管理,而 Kubernetes 则专注于跨多主机的容器编排与调度。尽管 k8s 逐渐减少了对 Docker 作为容器运行时的支持,但 Doc
65 5
容器化时代的领航者:Docker 和 Kubernetes 云原生时代的黄金搭档
|
7天前
|
Prometheus Kubernetes 监控
OpenAI故障复盘 - 阿里云容器服务与可观测产品如何保障大规模K8s集群稳定性
聚焦近日OpenAI的大规模K8s集群故障,介绍阿里云容器服务与可观测团队在大规模K8s场景下我们的建设与沉淀。以及分享对类似故障问题的应对方案:包括在K8s和Prometheus的高可用架构设计方面、事前事后的稳定性保障体系方面。
|
22天前
|
人工智能 运维 监控
阿里云ACK容器服务生产级可观测体系建设实践
本文整理自2024云栖大会冯诗淳(花名:行疾)的演讲,介绍了阿里云容器服务团队在生产级可观测体系建设方面的实践。冯诗淳详细阐述了容器化架构带来的挑战及解决方案,强调了可观测性对于构建稳健运维体系的重要性。文中提到,阿里云作为亚洲唯一蝉联全球领导者的容器管理平台,其可观测能力在多项关键评测中表现优异,支持AI、容器网络、存储等多个场景的高级容器可观测能力。此外,还介绍了阿里云容器服务在多云管理、成本优化等方面的最新进展,以及即将推出的ACK AI助手2.0,旨在通过智能引擎和专家诊断经验,简化异常数据查找,缩短故障响应时间。
阿里云ACK容器服务生产级可观测体系建设实践
|
20天前
|
关系型数据库 MySQL Docker
《docker高级篇(大厂进阶):5.Docker-compose容器编排》包括是什么能干嘛去哪下、Compose核心概念、Compose使用三个步骤、Compose常用命令、Compose编排微服务
《docker高级篇(大厂进阶):5.Docker-compose容器编排》包括是什么能干嘛去哪下、Compose核心概念、Compose使用三个步骤、Compose常用命令、Compose编排微服务
84 24
|
22天前
|
运维 Kubernetes 调度
阿里云容器服务 ACK One 分布式云容器企业落地实践
阿里云容器服务ACK提供强大的产品能力,支持弹性、调度、可观测、成本治理和安全合规。针对拥有IDC或三方资源的企业,ACK One分布式云容器平台能够有效解决资源管理、多云多集群管理及边缘计算等挑战,实现云上云下统一管理,提升业务效率与稳定性。
|
22天前
|
关系型数据库 MySQL Docker
《docker高级篇(大厂进阶):5.Docker-compose容器编排》包括是什么能干嘛去哪下、Compose核心概念、Compose使用三个步骤、Compose常用命令、Compose编排微服务
《docker高级篇(大厂进阶):5.Docker-compose容器编排》包括是什么能干嘛去哪下、Compose核心概念、Compose使用三个步骤、Compose常用命令、Compose编排微服务
106 6
|
5天前
|
Kubernetes Ubuntu 网络安全
ubuntu使用kubeadm搭建k8s集群
通过以上步骤,您可以在 Ubuntu 系统上使用 kubeadm 成功搭建一个 Kubernetes 集群。本文详细介绍了从环境准备、安装 Kubernetes 组件、初始化集群到管理和使用集群的完整过程,希望对您有所帮助。在实际应用中,您可以根据具体需求调整配置,进一步优化集群性能和安全性。
36 12
|
10天前
|
Kubernetes 网络协议 应用服务中间件
Kubernetes Ingress:灵活的集群外部网络访问的利器
《Kubernetes Ingress:集群外部访问的利器-打造灵活的集群网络》介绍了如何通过Ingress实现Kubernetes集群的外部访问。前提条件是已拥有Kubernetes集群并安装了kubectl工具。文章详细讲解了Ingress的基本组成(Ingress Controller和资源对象),选择合适的版本,以及具体的安装步骤,如下载配置文件、部署Nginx Ingress Controller等。此外,还提供了常见问题的解决方案,例如镜像下载失败的应对措施。最后,通过部署示例应用展示了Ingress的实际使用方法。
27 2