【云原生 | 从零开始学Kubernetes】十八、Kubernetes核心技术Service实战

本文涉及的产品
传统型负载均衡 CLB,每月750个小时 15LCU
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
.cn 域名,1个 12个月
简介: service实战

service实战



创建 Service 资源


#查看定义 Service 资源需要的字段有哪些? 
[root@k8smaster node]# kubectl explain service 
KIND:     Service
VERSION:  v1
DESCRIPTION:
     Service is a named abstraction of software service (for example, mysql)
     consisting of local port (for example 3306) that the proxy listens on, and
     the selector that determines which pods will answer requests sent through
     the proxy.
FIELDS:
   apiVersion <string>  #service 资源使用的 api 组 
   kind <string>      #创建的资源类型 
   metadata <Object>    #定义元数据
   spec <Object>
   status <Object>
#查看 service 的 spec 字段如何定义? 
[root@k8smaster node]# kubectl explain service.spec 
KIND:     Service
VERSION:  v1
RESOURCE: spec <Object>
DESCRIPTION:
     Spec defines the behavior of a service.
     https://git.k8s.io/community/contributors/devel/sig-architecture/api-conventions.md#spec-and-status
     ServiceSpec describes the attributes that a user creates on a service.
FIELDS: 
 clusterIP <string>   #动态分配的地址,也可以自己在创建的时候指定,创建之后就改不了了 
 externalIPs <[]string> 
 externalName <string> 
 externalTrafficPolicy <string> 
 healthCheckNodePort <integer> 
 ipFamilies <[]string> 
 ipFamilyPolicy <string> 
 loadBalancerIP <string> 
 loadBalancerSourceRanges <[]string> 
 ports <[]Object>     #定义 service 端口,用来和后端 pod 建立联系 
 publishNotReadyAddresses <boolean> 
 selector <map[string]string> #通过标签选择器选择关联的 pod 有哪些 
 sessionAffinity <string> 
 sessionAffinityConfig <Object>   
#service 在实现负载均衡的时候还支持 sessionAffinity,sessionAffinity 什么意思?会话联系,默认是 none,随机调度的(基于 iptables 规则调度的);如果我们定义 sessionAffinity 的 client ip,那就表示把来自同一客户端的 IP 请求调度到同一个 pod 上 
 topologyKeys <[]string> 
 type <string> #定义 service 的类型


Service 的四种类型


#查看定义 Service.spec.type 需要的字段有哪些? 
[root@k8smaster node]# kubectl explain service.spec.type 
KIND:     Service
VERSION:  v1
FIELD:    type <string>
DESCRIPTION:
     type determines how the Service is exposed. Defaults to ClusterIP. Valid
     options are ExternalName, ClusterIP, NodePort, and LoadBalancer.
     "ExternalName" maps to the specified externalName. "ClusterIP" allocates a
     cluster-internal IP address for load-balancing to endpoints. Endpoints are
     determined by the selector or if that is not specified, by manual
     construction of an Endpoints object. If clusterIP is "None", no virtual IP
     is allocated and the endpoints are published as a set of endpoints rather
     than a stable IP. "NodePort" builds on ClusterIP and allocates a port on
     every node which routes to the clusterIP. "LoadBalancer" builds on NodePort
     and creates an external load-balancer (if supported in the current cloud)
     which routes to the clusterIP. More info:
     https://kubernetes.io/docs/concepts/services-networking/service/#publishing-services-service-types
1、ExternalName: 
适用于 k8s 集群内部容器访问外部资源,它没有 selector,也没有定义任何的端口和 Endpoint。 
以下 Service 定义的是将 prod 名称空间中的 my-service 服务映射到 my.database.example.com 
kind: Service 
apiVersion: v1 
metadata: 
  name: my-service 
  namespace: prod 
spec: 
  type: ExternalName 
  externalName: my.database.example.com 
当查询主机 my-service.prod.svc.cluster.local 时,群集 DNS 将返回值为 my.database.example.com 的 CNAME 记录。 
service 的 FQDN(带有主机名的域名) 是: <service_name>.<namespace>.svc.cluster.local
my-service.prod.svc.cluster.local #访问这个域名就相当于解析my.database.example.com域名对应的服务(这是个数据库)
#k8s内部的pod都可以用这个域名,用这个域名都可以访问k8s内部的pod。
2、ClusterIP: 
通过 k8s 集群内部 IP 暴露服务,选择该值,服务只能够在集群内部访问,这也是默认的 ServiceType。 
3、NodePort: 
通过每个 Node 节点上的 IP 和静态端口暴露 k8s 集群内部的服务。
通过请求<NodeIP>:<NodePort>可以把请求代理到内部的 pod,每个service端口都会在物理机映射一个端口,访问物理机的端口会代理到service内部的ip和端口,然后代理到与service关联的podip与pod里容器(pod里容器和pod共享ip)的ip。
Client----->NodeIP:NodePort----->ServiceIp:ServicePort----->PodIP:ContainerPort。 
4、LoadBalancer: 
使用云提供商的负载均衡器,可以向外部暴露服务。外部的负载均衡器可以路由到 NodePort 服务和 ClusterIP 服务。 


Service 的端口


#查看 service 的 spec.ports 字段如何定义? 
[root@k8smaster node]# kubectl explain service.spec.ports 
KIND:     Service
VERSION:  v1
RESOURCE: ports <[]Object>
DESCRIPTION:
     The list of ports that are exposed by this service. More info:
     https://kubernetes.io/docs/concepts/services-networking/service/#virtual-ips-and-service-proxies
     ServicePort contains information on service's port.
FIELDS:
   appProtocol  <string>
   name <string>    #定义端口的名字
   nodePort <integer> 
   #宿主机上映射的端口,比如一个Web应用需要被k8s集群之外的其他用户访问,那么需要配置type=NodePort,比如nodePort=30001,那么其他机器就可以通过浏览器访问scheme://k8s集群中的任何一个节点ip:30001即可访问到该服务。
#例如:http://192.168.11.139:30001。如果在 k8s 中部署 MySQL 数据库,MySQL 可能不需要被外界访问,只需被内部服务访问,那么就不需要设置 NodePort
   port <integer> -required-  #service 的端口,这个是 k8s 集群内部服务可访问的端口 
   protocol <string>      #端口协议
   targetPort <string>    #service关联的目标pod具体容器的端口,是pod上的端口,从port和nodePort上来的流量,经过kube-proxy流入到后端pod的targetPort上,最后进入容器。与制作容器时暴露的端口一致(使用DockerFile中的EXPOSE)例如官方的 nginx 暴露 80 端口,在target写80,他就会找到所关联的pod里关联80端口的容器,然后代理。


创建Service:type类型是ClusterIP


1、创建 Pod 
node1,2都下载nginx
[root@k8smaster node]# mkdir service
[root@k8smaster node]# cd service/
[root@k8smaster service]# kubectl delete deploy myapp-v1
deployment.apps "myapp-v1" deleted
[root@k8smaster service]# vim pod_test.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
  name: my-nginx
spec:
  selector:
    matchLabels:
      run: my-nginx
  replicas: 2
  template:
    metadata:
      labels:
        run: my-nginx
    spec:
      containers:
      - name: my-nginx
        image: nginx
        imagePullPolicy: IfNotPresent
        ports:
        - containerPort: 80 #pod 中的容器需要暴露的端口 
#更新资源清单文件 
[root@k8smaster service]# kubectl apply -f pod_test.yaml 
deployment.apps/my-nginx created
#查看刚才创建的 Pod ip 地址 
[root@k8smaster service]# kubectl get pods -l run=my-nginx -o wide 
NAME                        READY   STATUS    RESTARTS   AGE   IP            NODE       NOMINATED NODE  
my-nginx-5898cf8d98-kgwbg   1/1     Running   0          58s   10.244.1.35   k8snode2   <none>          
my-nginx-5898cf8d98-tgpst   1/1     Running   0          8s    10.244.1.36   k8snode2   <none>          
#请求 pod ip 地址,查看结果 
[root@k8smaster service]# curl 10.244.1.35 
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
[root@k8smaster service]# curl 10.244.1.36
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
[root@k8smaster service]# kubectl exec -it my-nginx-5898cf8d98-kgwbg -- /bin/bash 
root@my-nginx-5898cf8d98-kgwbg:/# curl 10.244.1.36
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
root@my-nginx-5898cf8d98-kgwbg:/# exit
exit
需要注意的是,pod 虽然定义了容器端口,但是不会使用调度到该节点上的 80 端口,也不会使用任何特定的 NAT 规则去路由流量到 Pod 上。 这意味着可以在同一个节点上运行多个 Pod,使用相同的容器端口,并且可以从集群中任何其他的 Pod 或节点上使用 IP 的方式访问到它们。 
误删除其中一个 Pod: 
[root@k8smaster service]# kubectl delete pods my-nginx-5898cf8d98-kgwbg
pod "my-nginx-5898cf8d98-kgwbg" deleted
[root@k8smaster service]# kubectl get pods -l run=my-nginx -o wide 
NAME                        READY   STATUS    RESTARTS   AGE     IP            NODE       NOMINATED NODE   
my-nginx-5898cf8d98-cjzs4   1/1     Running   0          6s      10.244.2.36   k8snode    <none>           
my-nginx-5898cf8d98-tgpst   1/1     Running   0          2m50s   10.244.1.36   k8snode2   <none>           
通过上面可以看到重新生成了一个 pod my-nginx-5898cf8d98-cjzs4,ip 是 10.244.2.36,在 k8s 中创建 pod,如果 pod 被删除了,重新生成的 pod ip 地址会发生变化,所以需要在 pod 前端加一个固定接入层。接下来创建 service.
查看 pod 标签: 
[root@k8smaster service]# kubectl get pods --show-labels 
NAME                        READY   STATUS    RESTARTS   AGE     LABELS
my-nginx-5898cf8d98-cjzs4   1/1     Running   0          5m29s   pod-template-hash=5898cf8d98,run=my-nginx
my-nginx-5898cf8d98-tgpst   1/1     Running   0          8m13s   pod-template-hash=5898cf8d98,run=my-nginx
2、创建 Service 
[root@xianchaomaster1 service]# vim service_test.yaml 
apiVersion: v1
kind: Service
metadata:
  name: my-nginx
  labels:
    run: my-nginx
spec:
  type: ClusterIP
  ports:
  - port: 80  #service 的端口,暴露给 k8s 集群内部服务访问 
    protocol: TCP
    targetPort: 80  #pod 容器中定义的端口 
  selector:
    run: my-nginx #选择拥有 run=my-nginx 标签的 pod 
上述 yaml 文件将创建一个 Service,具有标签 run=my-nginx 的 Pod,目标 TCP 端口 80,并且在一个抽象的 Service 端口(targetPort:容器接收流量的端口;port:抽象的 Service 端口,可以使任何其它 Pod 访问该 Service 的端口)上暴露。 
[root@k8smaster service]# kubectl apply -f service_test.yaml 
service/my-nginx created
[root@k8smaster service]# kubectl get svc -l run=my-nginx
NAME       TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)   AGE
my-nginx   ClusterIP   10.110.254.82   <none>        80/TCP    61s
[root@k8smaster service]# kubectl get endpoints
NAME         ENDPOINTS                       AGE
my-nginx     10.244.1.36:80,10.244.2.36:80   2m4s
#可以看到关联了两个pod的ip和端口
#在 k8s 控制节点访问 service 的 ip:端口就可以把请求代理到后端 pod 
[root@k8smaster service]# curl 10.110.254.82:80
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
#通过上面可以看到请求 service IP:port 跟直接访问 pod ip:port 看到的结果一样,这就说明 service 可以把请求代理到它所关联的后端 pod
注意:上面的 10.99.198.177:80 地址只能是在 k8s 集群内部可以访问,在外部无法访问,比方说我们想要通过浏览器访问,那么是访问不通的,如果想要在 k8s 集群之外访问,是需要把 service type 类型改成 nodePort 的 
#查看 service 详细信息 
[root@k8smaster service]# kubectl describe svc my-nginx
Name:              my-nginx
Namespace:         default
Labels:            run=my-nginx
Annotations:       Selector:  run=my-nginx
Type:              ClusterIP
IP:                10.110.254.82
Port:              <unset>  80/TCP
TargetPort:        80/TCP
Endpoints:         10.244.1.36:80,10.244.2.36:80
Session Affinity:  None
Events:            <none>
[root@k8smaster service]# kubectl get ep my-nginx 
NAME       ENDPOINTS                       AGE
my-nginx   10.244.1.36:80,10.244.2.36:80   11m
service 可以对外提供统一固定的 ip 地址,并将请求重定向至集群中的 pod。其中“将请求重定向至集群中的 pod”就是通过 endpoint 与 selector 协同工作实现。selector 是用于选择 pod,由selector 选择出来的 pod 的 ip 地址和端口号,将会被记录在 endpoint 中。endpoint 便记录了所有 pod的 ip 地址和端口号。当一个请求访问到 service 的 ip 地址时,就会从 endpoint 中选择出一个 ip 地址和端口号,然后将请求重定向至 pod 中。具体把请求代理到哪个 pod,需要的就是 kube-proxy 的轮询实现的。service 不会直接到 pod,service 是直接到 endpoint 资源,就是地址加端口,再由 endpoint 再关联到 pod。 
service 只要创建完成,我们就可以直接解析它的服务名,每一个服务创建完成后都会在集群 dns 中动态添加一个资源记录,添加完成后我们就可以解析了,资源记录格式是: 
SVC_NAME.NS_NAME.DOMAIN.LTD. 服务名.命名空间.域名后缀 集群默认的域名后缀是 svc.cluster.local
就像我们上面创建的 my-nginx 这个服务,它的完整名称解析就是 my-nginx.default.svc.cluster.local
[root@k8smaster service]# kubectl exec -it my-nginx-5898cf8d98-tgpst -- /bin/bash 
root@my-nginx-5898cf8d98-tgpst:/# curl my-nginx.default.svc.cluster.local
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title> 
#想让主机访问域名要配置hosts和resolv
[root@k8smaster service]# vim /etc/hosts
加一行10.110.254.82 my-nginx.default.svc.cluster.local
[root@k8smaster service]# kubectl exec -it my-nginx-5898cf8d98-tgpst -- /bin/bash 
root@my-nginx-5898cf8d98-tgpst:/# cat /etc/host
cat: /etc/host: No such file or directory
root@my-nginx-5898cf8d98-tgpst:/# cat /etc/hosts
# Kubernetes-managed hosts file.
127.0.0.1 localhost
::1 localhost ip6-localhost ip6-loopback
fe00::0 ip6-localnet
fe00::0 ip6-mcastprefix
fe00::1 ip6-allnodes
fe00::2 ip6-allrouters
10.244.1.36 my-nginx-5898cf8d98-tgpst
root@my-nginx-5898cf8d98-tgpst:/# cat /etc/resolv.conf    
nameserver 10.96.0.10
search default.svc.cluster.local svc.cluster.local cluster.local localdomain
options ndots:5
#然后要修改resolv,搜索的时候会在这个文件搜索。
[root@k8smaster service]# vim /etc/resolv.conf
nameserver 10.96.0.10
search default.svc.cluster.local svc.cluster.local cluster.local localdomain      #搜索的域名
[root@k8smaster service]# curl my-nginx.default.svc.cluster.local
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
#nameserver要把之前的注释掉,只写coredns的,然后可以在物理机访问,但是如果这么写,物理机一些dns访问会有问题,所以还是要把这个恢复原样.
相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
目录
相关文章
|
4天前
|
Cloud Native 持续交付 云计算
云原生技术:未来软件开发的航标
在数字时代的洪流中,云原生技术如同一座灯塔,引领着软件开发的未来方向。本文将深入浅出地探讨云原生的核心概念、优势以及实际应用案例,帮助读者理解云原生如何成为现代软件工程的重要支柱,并展望其在未来技术生态中的发展潜力。
|
1天前
|
Cloud Native 持续交付 API
云原生技术的未来之路:探索与实践
【8月更文挑战第19天】 本文将深入浅出地剖析云原生技术的发展趋势,并探讨其在企业数字化转型中的应用。我们将从云原生技术的基本概念出发,逐步深入到其核心组件、优势以及面临的挑战。同时,结合实际案例分析,揭示如何通过云原生技术提升企业的业务敏捷性和市场响应速度。文章旨在为读者提供一条清晰的路径,以理解并实施云原生技术,推动企业向更高效、更创新的未来发展。
7 0
|
4天前
|
Cloud Native 安全 云计算
云原生技术的未来:探索服务网格和无服务器架构
随着企业数字化转型的深入,云计算已成为推动业务创新的核心力量。本文将深入探讨云原生技术的最新发展趋势,重点分析服务网格和无服务器架构如何重塑云计算的未来。通过实际案例和技术解析,揭示这些前沿技术如何解决现代应用部署的复杂性,提高系统的可伸缩性和弹性。文章旨在为读者提供云原生领域的深度见解,并激发对云技术未来发展的思考。
18 0
|
4天前
|
Kubernetes Nacos 微服务
【技术难题破解】Nacos v2.2.3 + K8s 微服务注册:强制删除 Pod 却不消失?!7步排查法+实战代码,手把手教你解决Nacos Pod僵死问题,让服务瞬间满血复活!
【8月更文挑战第15天】Nacos作为微服务注册与配置中心受到欢迎,但有时会遇到“v2.2.3 k8s 微服务注册nacos强制删除 pod不消失”的问题。本文介绍此现象及其解决方法,帮助开发者确保服务稳定运行。首先需检查Pod状态与事件、配置文件及Nacos配置,确认无误后可调整Pod生命周期管理,并检查Kubernetes版本兼容性。若问题持续,考虑使用Finalizers、审查Nacos日志或借助Kubernetes诊断工具。必要时,可尝试手动强制删除Pod。通过系统排查,通常能有效解决此问题。
10 0
|
5天前
|
设计模式 Cloud Native 安全
云原生技术在现代企业中的应用与挑战
【8月更文挑战第15天】随着云计算技术的不断发展和成熟,云原生作为一种新兴的架构模式,正逐渐改变着企业的IT基础设施和服务交付方式。本文将探讨云原生技术的基本概念、核心价值及其在现代企业中的应用场景,同时分析企业在采用云原生技术时面临的主要挑战,并提出相应的解决策略。
12 0
|
5天前
|
机器学习/深度学习 人工智能 Cloud Native
龙蜥操作系统产品问题之云原生技术的挑战如何解决
龙蜥操作系统产品问题之云原生技术的挑战如何解决
12 0
|
7天前
|
Kubernetes Cloud Native 持续交付
云原生技术浪潮下的微服务架构实践
在数字化转型的今天,云原生技术成为推动企业IT革新的关键力量。本文将通过浅显易懂的语言和实际案例,带领读者了解云原生的核心概念、微服务架构的设计原则以及如何在云平台上高效部署和管理微服务。我们将从基础概念出发,逐步深入到微服务的生命周期管理,探讨如何在云原生生态中实现快速迭代和持续交付。无论你是云原生技术的初学者,还是希望深化理解的开发者,这篇文章都将为你提供有价值的指导和思考。
|
1天前
|
机器学习/深度学习 分布式计算 Cloud Native
云原生架构下的高性能计算解决方案:利用分布式计算资源加速机器学习训练
【8月更文第19天】随着大数据和人工智能技术的发展,机器学习模型的训练数据量和复杂度都在迅速增长。传统的单机训练方式已经无法满足日益增长的计算需求。云原生架构为高性能计算提供了新的可能性,通过利用分布式计算资源,可以在短时间内完成大规模数据集的训练任务。本文将探讨如何在云原生环境下搭建高性能计算平台,并展示如何使用 PyTorch 和 TensorFlow 这样的流行框架进行分布式训练。
6 2
|
1天前
|
Cloud Native API 云计算
云原生架构:企业数字化转型的催化剂
【8月更文挑战第18天】在数字化浪潮不断推进的今天,云原生技术已成为推动企业IT转型的核心力量。通过深入探讨云原生架构的基本原理、优势以及实施策略,本文旨在为企业提供一个清晰的云原生应用路线图,帮助它们在竞争激烈的市场环境中获得灵活性和创新能力。文章将详细阐述云原生如何助力企业实现资源的最优配置,加速产品上市时间,并提高系统的可维护性和扩展性。
|
3天前
|
运维 Cloud Native 云计算
探索云原生架构的未来趋势与挑战
【8月更文挑战第17天】随着云计算技术的不断发展和成熟,云原生架构已经成为现代软件开发的重要趋势。本文将深入探讨云原生架构的核心概念、优势以及面临的未来挑战和发展趋势,旨在为读者提供一个全面了解云原生架构的窗口,同时展望其对未来软件开发模式的影响。

推荐镜像

更多