【云原生 | 从零开始学Kubernetes】十八、Kubernetes核心技术Service实战

本文涉及的产品
传统型负载均衡 CLB,每月750个小时 15LCU
.cn 域名,1个 12个月
应用型负载均衡 ALB,每月750个小时 15LCU
简介: service实战

service实战



创建 Service 资源


#查看定义 Service 资源需要的字段有哪些? 
[root@k8smaster node]# kubectl explain service 
KIND:     Service
VERSION:  v1
DESCRIPTION:
     Service is a named abstraction of software service (for example, mysql)
     consisting of local port (for example 3306) that the proxy listens on, and
     the selector that determines which pods will answer requests sent through
     the proxy.
FIELDS:
   apiVersion <string>  #service 资源使用的 api 组 
   kind <string>      #创建的资源类型 
   metadata <Object>    #定义元数据
   spec <Object>
   status <Object>
#查看 service 的 spec 字段如何定义? 
[root@k8smaster node]# kubectl explain service.spec 
KIND:     Service
VERSION:  v1
RESOURCE: spec <Object>
DESCRIPTION:
     Spec defines the behavior of a service.
     https://git.k8s.io/community/contributors/devel/sig-architecture/api-conventions.md#spec-and-status
     ServiceSpec describes the attributes that a user creates on a service.
FIELDS: 
 clusterIP <string>   #动态分配的地址,也可以自己在创建的时候指定,创建之后就改不了了 
 externalIPs <[]string> 
 externalName <string> 
 externalTrafficPolicy <string> 
 healthCheckNodePort <integer> 
 ipFamilies <[]string> 
 ipFamilyPolicy <string> 
 loadBalancerIP <string> 
 loadBalancerSourceRanges <[]string> 
 ports <[]Object>     #定义 service 端口,用来和后端 pod 建立联系 
 publishNotReadyAddresses <boolean> 
 selector <map[string]string> #通过标签选择器选择关联的 pod 有哪些 
 sessionAffinity <string> 
 sessionAffinityConfig <Object>   
#service 在实现负载均衡的时候还支持 sessionAffinity,sessionAffinity 什么意思?会话联系,默认是 none,随机调度的(基于 iptables 规则调度的);如果我们定义 sessionAffinity 的 client ip,那就表示把来自同一客户端的 IP 请求调度到同一个 pod 上 
 topologyKeys <[]string> 
 type <string> #定义 service 的类型


Service 的四种类型


#查看定义 Service.spec.type 需要的字段有哪些? 
[root@k8smaster node]# kubectl explain service.spec.type 
KIND:     Service
VERSION:  v1
FIELD:    type <string>
DESCRIPTION:
     type determines how the Service is exposed. Defaults to ClusterIP. Valid
     options are ExternalName, ClusterIP, NodePort, and LoadBalancer.
     "ExternalName" maps to the specified externalName. "ClusterIP" allocates a
     cluster-internal IP address for load-balancing to endpoints. Endpoints are
     determined by the selector or if that is not specified, by manual
     construction of an Endpoints object. If clusterIP is "None", no virtual IP
     is allocated and the endpoints are published as a set of endpoints rather
     than a stable IP. "NodePort" builds on ClusterIP and allocates a port on
     every node which routes to the clusterIP. "LoadBalancer" builds on NodePort
     and creates an external load-balancer (if supported in the current cloud)
     which routes to the clusterIP. More info:
     https://kubernetes.io/docs/concepts/services-networking/service/#publishing-services-service-types
1、ExternalName: 
适用于 k8s 集群内部容器访问外部资源,它没有 selector,也没有定义任何的端口和 Endpoint。 
以下 Service 定义的是将 prod 名称空间中的 my-service 服务映射到 my.database.example.com 
kind: Service 
apiVersion: v1 
metadata: 
  name: my-service 
  namespace: prod 
spec: 
  type: ExternalName 
  externalName: my.database.example.com 
当查询主机 my-service.prod.svc.cluster.local 时,群集 DNS 将返回值为 my.database.example.com 的 CNAME 记录。 
service 的 FQDN(带有主机名的域名) 是: <service_name>.<namespace>.svc.cluster.local
my-service.prod.svc.cluster.local #访问这个域名就相当于解析my.database.example.com域名对应的服务(这是个数据库)
#k8s内部的pod都可以用这个域名,用这个域名都可以访问k8s内部的pod。
2、ClusterIP: 
通过 k8s 集群内部 IP 暴露服务,选择该值,服务只能够在集群内部访问,这也是默认的 ServiceType。 
3、NodePort: 
通过每个 Node 节点上的 IP 和静态端口暴露 k8s 集群内部的服务。
通过请求<NodeIP>:<NodePort>可以把请求代理到内部的 pod,每个service端口都会在物理机映射一个端口,访问物理机的端口会代理到service内部的ip和端口,然后代理到与service关联的podip与pod里容器(pod里容器和pod共享ip)的ip。
Client----->NodeIP:NodePort----->ServiceIp:ServicePort----->PodIP:ContainerPort。 
4、LoadBalancer: 
使用云提供商的负载均衡器,可以向外部暴露服务。外部的负载均衡器可以路由到 NodePort 服务和 ClusterIP 服务。 


Service 的端口


#查看 service 的 spec.ports 字段如何定义? 
[root@k8smaster node]# kubectl explain service.spec.ports 
KIND:     Service
VERSION:  v1
RESOURCE: ports <[]Object>
DESCRIPTION:
     The list of ports that are exposed by this service. More info:
     https://kubernetes.io/docs/concepts/services-networking/service/#virtual-ips-and-service-proxies
     ServicePort contains information on service's port.
FIELDS:
   appProtocol  <string>
   name <string>    #定义端口的名字
   nodePort <integer> 
   #宿主机上映射的端口,比如一个Web应用需要被k8s集群之外的其他用户访问,那么需要配置type=NodePort,比如nodePort=30001,那么其他机器就可以通过浏览器访问scheme://k8s集群中的任何一个节点ip:30001即可访问到该服务。
#例如:http://192.168.11.139:30001。如果在 k8s 中部署 MySQL 数据库,MySQL 可能不需要被外界访问,只需被内部服务访问,那么就不需要设置 NodePort
   port <integer> -required-  #service 的端口,这个是 k8s 集群内部服务可访问的端口 
   protocol <string>      #端口协议
   targetPort <string>    #service关联的目标pod具体容器的端口,是pod上的端口,从port和nodePort上来的流量,经过kube-proxy流入到后端pod的targetPort上,最后进入容器。与制作容器时暴露的端口一致(使用DockerFile中的EXPOSE)例如官方的 nginx 暴露 80 端口,在target写80,他就会找到所关联的pod里关联80端口的容器,然后代理。


创建Service:type类型是ClusterIP


1、创建 Pod 
node1,2都下载nginx
[root@k8smaster node]# mkdir service
[root@k8smaster node]# cd service/
[root@k8smaster service]# kubectl delete deploy myapp-v1
deployment.apps "myapp-v1" deleted
[root@k8smaster service]# vim pod_test.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
  name: my-nginx
spec:
  selector:
    matchLabels:
      run: my-nginx
  replicas: 2
  template:
    metadata:
      labels:
        run: my-nginx
    spec:
      containers:
      - name: my-nginx
        image: nginx
        imagePullPolicy: IfNotPresent
        ports:
        - containerPort: 80 #pod 中的容器需要暴露的端口 
#更新资源清单文件 
[root@k8smaster service]# kubectl apply -f pod_test.yaml 
deployment.apps/my-nginx created
#查看刚才创建的 Pod ip 地址 
[root@k8smaster service]# kubectl get pods -l run=my-nginx -o wide 
NAME                        READY   STATUS    RESTARTS   AGE   IP            NODE       NOMINATED NODE  
my-nginx-5898cf8d98-kgwbg   1/1     Running   0          58s   10.244.1.35   k8snode2   <none>          
my-nginx-5898cf8d98-tgpst   1/1     Running   0          8s    10.244.1.36   k8snode2   <none>          
#请求 pod ip 地址,查看结果 
[root@k8smaster service]# curl 10.244.1.35 
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
[root@k8smaster service]# curl 10.244.1.36
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
[root@k8smaster service]# kubectl exec -it my-nginx-5898cf8d98-kgwbg -- /bin/bash 
root@my-nginx-5898cf8d98-kgwbg:/# curl 10.244.1.36
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
root@my-nginx-5898cf8d98-kgwbg:/# exit
exit
需要注意的是,pod 虽然定义了容器端口,但是不会使用调度到该节点上的 80 端口,也不会使用任何特定的 NAT 规则去路由流量到 Pod 上。 这意味着可以在同一个节点上运行多个 Pod,使用相同的容器端口,并且可以从集群中任何其他的 Pod 或节点上使用 IP 的方式访问到它们。 
误删除其中一个 Pod: 
[root@k8smaster service]# kubectl delete pods my-nginx-5898cf8d98-kgwbg
pod "my-nginx-5898cf8d98-kgwbg" deleted
[root@k8smaster service]# kubectl get pods -l run=my-nginx -o wide 
NAME                        READY   STATUS    RESTARTS   AGE     IP            NODE       NOMINATED NODE   
my-nginx-5898cf8d98-cjzs4   1/1     Running   0          6s      10.244.2.36   k8snode    <none>           
my-nginx-5898cf8d98-tgpst   1/1     Running   0          2m50s   10.244.1.36   k8snode2   <none>           
通过上面可以看到重新生成了一个 pod my-nginx-5898cf8d98-cjzs4,ip 是 10.244.2.36,在 k8s 中创建 pod,如果 pod 被删除了,重新生成的 pod ip 地址会发生变化,所以需要在 pod 前端加一个固定接入层。接下来创建 service.
查看 pod 标签: 
[root@k8smaster service]# kubectl get pods --show-labels 
NAME                        READY   STATUS    RESTARTS   AGE     LABELS
my-nginx-5898cf8d98-cjzs4   1/1     Running   0          5m29s   pod-template-hash=5898cf8d98,run=my-nginx
my-nginx-5898cf8d98-tgpst   1/1     Running   0          8m13s   pod-template-hash=5898cf8d98,run=my-nginx
2、创建 Service 
[root@xianchaomaster1 service]# vim service_test.yaml 
apiVersion: v1
kind: Service
metadata:
  name: my-nginx
  labels:
    run: my-nginx
spec:
  type: ClusterIP
  ports:
  - port: 80  #service 的端口,暴露给 k8s 集群内部服务访问 
    protocol: TCP
    targetPort: 80  #pod 容器中定义的端口 
  selector:
    run: my-nginx #选择拥有 run=my-nginx 标签的 pod 
上述 yaml 文件将创建一个 Service,具有标签 run=my-nginx 的 Pod,目标 TCP 端口 80,并且在一个抽象的 Service 端口(targetPort:容器接收流量的端口;port:抽象的 Service 端口,可以使任何其它 Pod 访问该 Service 的端口)上暴露。 
[root@k8smaster service]# kubectl apply -f service_test.yaml 
service/my-nginx created
[root@k8smaster service]# kubectl get svc -l run=my-nginx
NAME       TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)   AGE
my-nginx   ClusterIP   10.110.254.82   <none>        80/TCP    61s
[root@k8smaster service]# kubectl get endpoints
NAME         ENDPOINTS                       AGE
my-nginx     10.244.1.36:80,10.244.2.36:80   2m4s
#可以看到关联了两个pod的ip和端口
#在 k8s 控制节点访问 service 的 ip:端口就可以把请求代理到后端 pod 
[root@k8smaster service]# curl 10.110.254.82:80
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
#通过上面可以看到请求 service IP:port 跟直接访问 pod ip:port 看到的结果一样,这就说明 service 可以把请求代理到它所关联的后端 pod
注意:上面的 10.99.198.177:80 地址只能是在 k8s 集群内部可以访问,在外部无法访问,比方说我们想要通过浏览器访问,那么是访问不通的,如果想要在 k8s 集群之外访问,是需要把 service type 类型改成 nodePort 的 
#查看 service 详细信息 
[root@k8smaster service]# kubectl describe svc my-nginx
Name:              my-nginx
Namespace:         default
Labels:            run=my-nginx
Annotations:       Selector:  run=my-nginx
Type:              ClusterIP
IP:                10.110.254.82
Port:              <unset>  80/TCP
TargetPort:        80/TCP
Endpoints:         10.244.1.36:80,10.244.2.36:80
Session Affinity:  None
Events:            <none>
[root@k8smaster service]# kubectl get ep my-nginx 
NAME       ENDPOINTS                       AGE
my-nginx   10.244.1.36:80,10.244.2.36:80   11m
service 可以对外提供统一固定的 ip 地址,并将请求重定向至集群中的 pod。其中“将请求重定向至集群中的 pod”就是通过 endpoint 与 selector 协同工作实现。selector 是用于选择 pod,由selector 选择出来的 pod 的 ip 地址和端口号,将会被记录在 endpoint 中。endpoint 便记录了所有 pod的 ip 地址和端口号。当一个请求访问到 service 的 ip 地址时,就会从 endpoint 中选择出一个 ip 地址和端口号,然后将请求重定向至 pod 中。具体把请求代理到哪个 pod,需要的就是 kube-proxy 的轮询实现的。service 不会直接到 pod,service 是直接到 endpoint 资源,就是地址加端口,再由 endpoint 再关联到 pod。 
service 只要创建完成,我们就可以直接解析它的服务名,每一个服务创建完成后都会在集群 dns 中动态添加一个资源记录,添加完成后我们就可以解析了,资源记录格式是: 
SVC_NAME.NS_NAME.DOMAIN.LTD. 服务名.命名空间.域名后缀 集群默认的域名后缀是 svc.cluster.local
就像我们上面创建的 my-nginx 这个服务,它的完整名称解析就是 my-nginx.default.svc.cluster.local
[root@k8smaster service]# kubectl exec -it my-nginx-5898cf8d98-tgpst -- /bin/bash 
root@my-nginx-5898cf8d98-tgpst:/# curl my-nginx.default.svc.cluster.local
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title> 
#想让主机访问域名要配置hosts和resolv
[root@k8smaster service]# vim /etc/hosts
加一行10.110.254.82 my-nginx.default.svc.cluster.local
[root@k8smaster service]# kubectl exec -it my-nginx-5898cf8d98-tgpst -- /bin/bash 
root@my-nginx-5898cf8d98-tgpst:/# cat /etc/host
cat: /etc/host: No such file or directory
root@my-nginx-5898cf8d98-tgpst:/# cat /etc/hosts
# Kubernetes-managed hosts file.
127.0.0.1 localhost
::1 localhost ip6-localhost ip6-loopback
fe00::0 ip6-localnet
fe00::0 ip6-mcastprefix
fe00::1 ip6-allnodes
fe00::2 ip6-allrouters
10.244.1.36 my-nginx-5898cf8d98-tgpst
root@my-nginx-5898cf8d98-tgpst:/# cat /etc/resolv.conf    
nameserver 10.96.0.10
search default.svc.cluster.local svc.cluster.local cluster.local localdomain
options ndots:5
#然后要修改resolv,搜索的时候会在这个文件搜索。
[root@k8smaster service]# vim /etc/resolv.conf
nameserver 10.96.0.10
search default.svc.cluster.local svc.cluster.local cluster.local localdomain      #搜索的域名
[root@k8smaster service]# curl my-nginx.default.svc.cluster.local
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
#nameserver要把之前的注释掉,只写coredns的,然后可以在物理机访问,但是如果这么写,物理机一些dns访问会有问题,所以还是要把这个恢复原样.
相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
目录
相关文章
|
3天前
|
运维 Kubernetes Cloud Native
云原生技术入门及实践
【10月更文挑战第39天】在数字化浪潮的推动下,云原生技术应运而生,它不仅仅是一种技术趋势,更是企业数字化转型的关键。本文将带你走进云原生的世界,从基础概念到实际操作,一步步揭示云原生的魅力和价值。通过实例分析,我们将深入探讨如何利用云原生技术提升业务灵活性、降低成本并加速创新。无论你是云原生技术的初学者还是希望深化理解的开发者,这篇文章都将为你提供宝贵的知识和启示。
|
3天前
|
弹性计算 Kubernetes Cloud Native
云原生技术的实践与思考
云原生技术的实践与思考
17 2
|
4天前
|
Kubernetes Cloud Native 持续交付
云原生技术在现代应用架构中的实践与思考
【10月更文挑战第38天】随着云计算的不断成熟和演进,云原生(Cloud-Native)已成为推动企业数字化转型的重要力量。本文从云原生的基本概念出发,深入探讨了其在现代应用架构中的实际应用,并结合代码示例,展示了云原生技术如何优化资源管理、提升系统弹性和加速开发流程。通过分析云原生的优势与面临的挑战,本文旨在为读者提供一份云原生转型的指南和启示。
18 3
|
3天前
|
边缘计算 Cloud Native 安全
云原生技术的未来发展趋势
云原生技术的未来发展趋势
13 1
|
4天前
|
运维 Kubernetes Cloud Native
云原生技术在现代应用架构中的实践与挑战####
本文深入探讨了云原生技术的核心概念、关键技术组件及其在实际项目中的应用案例,分析了企业在向云原生转型过程中面临的主要挑战及应对策略。不同于传统摘要的概述性质,本摘要强调通过具体实例揭示云原生技术如何促进应用的灵活性、可扩展性和高效运维,同时指出实践中需注意的技术债务、安全合规等问题,为读者提供一幅云原生技术实践的全景视图。 ####
|
3天前
|
Cloud Native 安全 数据安全/隐私保护
云原生架构下的微服务治理与挑战####
随着云计算技术的飞速发展,云原生架构以其高效、灵活、可扩展的特性成为现代企业IT架构的首选。本文聚焦于云原生环境下的微服务治理问题,探讨其在促进业务敏捷性的同时所面临的挑战及应对策略。通过分析微服务拆分、服务间通信、故障隔离与恢复等关键环节,本文旨在为读者提供一个关于如何在云原生环境中有效实施微服务治理的全面视角,助力企业在数字化转型的道路上稳健前行。 ####
|
5天前
|
运维 Kubernetes Cloud Native
云原生技术:容器化与微服务架构的完美结合
【10月更文挑战第37天】在数字化转型的浪潮中,云原生技术以其灵活性和高效性成为企业的新宠。本文将深入探讨云原生的核心概念,包括容器化技术和微服务架构,以及它们如何共同推动现代应用的发展。我们将通过实际代码示例,展示如何在Kubernetes集群上部署一个简单的微服务,揭示云原生技术的强大能力和未来潜力。
|
14天前
|
弹性计算 Kubernetes Cloud Native
云原生架构下的微服务设计原则与实践####
本文深入探讨了在云原生环境中,微服务架构的设计原则、关键技术及实践案例。通过剖析传统单体架构面临的挑战,引出微服务作为解决方案的优势,并详细阐述了微服务设计的几大核心原则:单一职责、独立部署、弹性伸缩和服务自治。文章还介绍了容器化技术、Kubernetes等云原生工具如何助力微服务的高效实施,并通过一个实际项目案例,展示了从服务拆分到持续集成/持续部署(CI/CD)流程的完整实现路径,为读者提供了宝贵的实践经验和启发。 ####
|
6天前
|
消息中间件 存储 Cloud Native
云原生架构下的数据一致性挑战与应对策略####
本文探讨了在云原生环境中,面对微服务架构的广泛应用,数据一致性问题成为系统设计的核心挑战之一。通过分析云原生环境的特点,阐述了数据不一致性的常见场景及其对业务的影响,并深入讨论了解决这些问题的策略,包括采用分布式事务、事件驱动架构、补偿机制以及利用云平台提供的托管服务等。文章旨在为开发者提供一套系统性的解决方案框架,以应对在动态、分布式的云原生应用中保持数据一致性的复杂性。 ####
|
3天前
|
Cloud Native 安全 API
云原生架构下的微服务治理策略与实践####
—透过云原生的棱镜,探索微服务架构下的挑战与应对之道 本文旨在探讨云原生环境下,微服务架构所面临的关键挑战及有效的治理策略。随着云计算技术的深入发展,越来越多的企业选择采用云原生架构来构建和部署其应用程序,以期获得更高的灵活性、可扩展性和效率。然而,微服务架构的复杂性也带来了服务发现、负载均衡、故障恢复等一系列治理难题。本文将深入分析这些问题,并提出一套基于云原生技术栈的微服务治理框架,包括服务网格的应用、API网关的集成、以及动态配置管理等关键方面,旨在为企业实现高效、稳定的微服务架构提供参考路径。 ####
20 5