K8S核心插件-coredns服务

本文涉及的产品
全局流量管理 GTM,标准版 1个月
云解析 DNS,旗舰版 1个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
简介: K8S核心插件-coredns服务

1 coredns用途

coredns github地址

coredns都做了什么:Kubernetes内部域名解析原理、弊端及优化方式

coredns在K8S中的用途,主要是用作服务发现,也就是服务(应用)之间相互定位的过程。

1.1 为什么需要服务发现

在K8S集群中,POD有以下特性:

  1. 服务动态性强
    容器在k8s中迁移会导致POD的IP地址变化
  2. 更新发布频繁
    版本迭代快,新旧POD的IP地址会不同
  3. 支持自动伸缩
    大促或流量高峰需要动态伸缩,IP地址会动态增减

service资源解决POD服务发现:

为了解决pod地址变化的问题,需要部署service资源,用service资源代理后端pod,通过暴露service资源的固定地址(集群IP),来解决以上POD资源变化产生的IP变动问题

那service资源的服务发现呢?

service资源提供了一个不变的集群IP供外部访问,但

  1. IP地址毕竟难以记忆
  2. service资源可能也会被销毁和创建
  3. 能不能将service资源名称和service暴露的集群网络IP对于
  4. 类似域名与IP关系,则只需记服务名就能自动匹配服务IP
  5. 岂不就达到了service服务的自动发现

在k8s中,coredns就是为了解决以上问题。

2 coredns的部署

从coredns开始,我们使用声明式向k8s中交付容器的方式,来部署服务

2.1 获取coredns的docker镜像

以下操作可以在任意节点上完成,推荐在7.200上做,因为接下来制作coredns的k8s配置清单也是在运维主机7.200上创建后,再到node节点上应用

docker pull docker.io/coredns/coredns:1.6.1

docker tag coredns:1.6.1 harbor.zq.com/public/coredns:v1.6.1

docker push harbor.zq.com/public/coredns:v1.6.1

2.2 创建coredns的资源配置清单

以下资源配置清单,都是参考官网改出来的

mkdir -p /data/k8s-yaml/coredns

2.2.1 rbac集群权限清单

cat >/data/k8s-yaml/coredns/rbac.yaml <<EOF

apiVersion: v1

kind: ServiceAccount

metadata:

 name: coredns

 namespace: kube-system

 labels:

     kubernetes.io/cluster-service: "true"

     addonmanager.kubernetes.io/mode: Reconcile

---

apiVersion: rbac.authorization.k8s.io/v1

kind: ClusterRole

metadata:

 labels:

   kubernetes.io/bootstrapping: rbac-defaults

   addonmanager.kubernetes.io/mode: Reconcile

 name: system:coredns

rules:

- apiGroups:

 - ""

 resources:

 - endpoints

 - services

 - pods

 - namespaces

 verbs:

 - list

 - watch

---

apiVersion: rbac.authorization.k8s.io/v1

kind: ClusterRoleBinding

metadata:

 annotations:

   rbac.authorization.kubernetes.io/autoupdate: "true"

 labels:

   kubernetes.io/bootstrapping: rbac-defaults

   addonmanager.kubernetes.io/mode: EnsureExists

 name: system:coredns

roleRef:

 apiGroup: rbac.authorization.k8s.io

 kind: ClusterRole

 name: system:coredns

subjects:

- kind: ServiceAccount

 name: coredns

 namespace: kube-system

EOF

2.2.2 configmap配置清单

cat >/data/k8s-yaml/coredns/cm.yaml <<EOF

apiVersion: v1

kind: ConfigMap

metadata:

 name: coredns

 namespace: kube-system

data:

 Corefile: |

   .:53 {

       errors

       log

       health

       ready

       kubernetes cluster.local 192.168.0.0/16  #service资源cluster地址

       forward . 10.4.7.11   #上级DNS地址

       cache 30

       loop

       reload

       loadbalance

      }

EOF

2.2.3 depoly控制器清单

cat >/data/k8s-yaml/coredns/dp.yaml <<EOF

apiVersion: apps/v1

kind: Deployment

metadata:

 name: coredns

 namespace: kube-system

 labels:

   k8s-app: coredns

   kubernetes.io/name: "CoreDNS"

spec:

 replicas: 1

 selector:

   matchLabels:

     k8s-app: coredns

 template:

   metadata:

     labels:

       k8s-app: coredns

   spec:

     priorityClassName: system-cluster-critical

     serviceAccountName: coredns

     containers:

     - name: coredns

       image: harbor.zq.com/public/coredns:v1.6.1

       args:

       - -conf

       - /etc/coredns/Corefile

       volumeMounts:

       - name: config-volume

         mountPath: /etc/coredns

       ports:

       - containerPort: 53

         name: dns

         protocol: UDP

       - containerPort: 53

         name: dns-tcp

         protocol: TCP

       - containerPort: 9153

         name: metrics

         protocol: TCP

       livenessProbe:

         httpGet:

           path: /health

           port: 8080

           scheme: HTTP

         initialDelaySeconds: 60

         timeoutSeconds: 5

         successThreshold: 1

         failureThreshold: 5

     dnsPolicy: Default

     volumes:

       - name: config-volume

         configMap:

           name: coredns

           items:

           - key: Corefile

             path: Corefile

EOF

2.2.4 service资源清单

cat >/data/k8s-yaml/coredns/svc.yaml <<EOF

apiVersion: v1

kind: Service

metadata:

 name: coredns

 namespace: kube-system

 labels:

   k8s-app: coredns

   kubernetes.io/cluster-service: "true"

   kubernetes.io/name: "CoreDNS"

spec:

 selector:

   k8s-app: coredns

 clusterIP: 192.168.0.2

 ports:

 - name: dns

   port: 53

   protocol: UDP

 - name: dns-tcp

   port: 53

 - name: metrics

   port: 9153

   protocol: TCP

EOF

2.3 创建资源并验证

在任意NODE节点执行配置都可以,先

2.3.1 验证服务能够访问`

[root@hdss7-21 ~]# dig -t A harbor.zq.com  +short

10.4.7.200

2.3.2 创建资源:

kubectl create -f http://k8s-yaml.zq.com/coredns/rbac.yaml

kubectl create -f http://k8s-yaml.zq.com/coredns/cm.yaml

kubectl create -f http://k8s-yaml.zq.com/coredns/dp.yaml

kubectl create -f http://k8s-yaml.zq.com/coredns/svc.yaml

2.3.3. 查看创建情况:

kubectl get all -n kube-system

kubectl get svc -o wide -n kube-system

dig -t A www.baidu.com @192.168.0.2 +short

2.3.4 使用dig测试解析

[root@hdss7-21 ~]# dig -t A www.baidu.com @192.168.0.2 +short

www.a.shifen.com.

39.156.66.18

39.156.66.14

[root@hdss7-21 ~]# dig -t A harbor.zq.com @192.168.0.2 +short

10.4.7.200

coredns已经能解析外网域名了,因为coredns的配置中,写了他的上级DNS为10.4.7.11,如果它自己解析不出来域名,会通过递归查询一级级查找

但coredns我们不是用来做外网解析的,而是用来做service名和serviceIP的解析

2.3.5 创建一个service资源来验证

先查看kube-public名称空间有没有pod

~]#  kubectl get pod  -n kube-public

No resources found.

# 之前我调试问题已经清理了所有的POD,所以没有

如果没有则先创建pod

kubectl create deployment nginx-dp --image=harbor.zq.com/public/nginx:v1.17.9 -n kube-public

~]# kubectl get deployments -n kube-public

NAME       READY   UP-TO-DATE   AVAILABLE   AGE

nginx-dp   1/1     1            1           35s

~]#  kubectl get pod  -n kube-public

NAME                       READY   STATUS    RESTARTS   AGE

nginx-dp-568f8dc55-rxvx2   1/1     Running   0          56s

给pod创建一个service

kubectl expose deployment nginx-dp --port=80 -n kube-public

~]# kubectl -n kube-public get service

NAME       TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)   AGE

nginx-dp   ClusterIP   192.168.63.255   <none>        80/TCP    11s

验证是否可以解析

~]# dig -t A nginx-dp @192.168.0.2 +short

# 发现无返回数据,难道解析不了

# 其实是需要完整域名:服务名.名称空间.svc.cluster.local.

~]# dig -t A nginx-dp.kube-public.svc.cluster.local. @192.168.0.2 +short

192.168.63.255

可以看到我们没有手动添加任何解析记录,我们nginx-dp的service资源的IP,已经被解析了:

进入到pod内部再次验证

~]# kubectl -n kube-public exec -it nginx-dp-568f8dc55-rxvx2 /bin/bash

-qjwmz:/# apt update && apt install curl

-qjwmz:/# ping nginx-dp

PING nginx-dp.kube-public.svc.cluster.local (192.168.191.232): 56 data bytes

64 bytes from 192.168.191.232: icmp_seq=0 ttl=64 time=0.184 ms

64 bytes from 192.168.191.232: icmp_seq=1 ttl=64 time=0.225 ms

为什么在容器中不用加全域名?

-qjwmz:/# cat /etc/resolv.conf

nameserver 192.168.0.2

search kube-public.svc.cluster.local svc.cluster.local cluster.local host.com

options ndots:5

当我进入到pod内部以后,会发现我们的dns地址是我们的coredns地址,以及搜索域中已经添加了搜索域:kube-public.svc.cluster.local

我们解决了在集群内部解析的问题,要想在集群外部访问我们的服务还需要igerss服务暴露功能

现在,我们已经解决了在集群内部解析的问题,但是我们怎么做到在集群外部访问我们的服务呢?

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
相关文章
|
6天前
|
运维 Kubernetes 容器
【Azure K8S】演示修复因AKS密钥过期而导致创建服务不成功的问题(The provided client secret keys for app ****** are expired)
【Azure K8S】演示修复因AKS密钥过期而导致创建服务不成功的问题(The provided client secret keys for app ****** are expired)
【Azure K8S】演示修复因AKS密钥过期而导致创建服务不成功的问题(The provided client secret keys for app ****** are expired)
|
2天前
|
Prometheus Kubernetes 网络协议
k8s学习笔记之CoreDNS
k8s学习笔记之CoreDNS
|
8天前
|
Kubernetes 安全 Docker
在K8S中,在服务上线的时候Pod起不来怎么进行排查?
在K8S中,在服务上线的时候Pod起不来怎么进行排查?
|
8天前
|
Kubernetes 网络安全 容器
在K8S中,有个服务使用service的nodeport进行暴露,发现访问不到如何排查?
在K8S中,有个服务使用service的nodeport进行暴露,发现访问不到如何排查?
|
8天前
|
存储 JSON Kubernetes
在K8S中,服务是如何发布的?
在K8S中,服务是如何发布的?
|
8天前
|
Kubernetes 负载均衡 网络协议
在K8S中,headless服务是什么?
在K8S中,headless服务是什么?
|
8天前
|
负载均衡 Kubernetes 开发工具
k8s相关服务与负载均衡
k8s相关服务与负载均衡
17 0
|
8天前
|
Kubernetes 网络协议 网络安全
在K8S中,容器提供一个服务,外部访问慢,到底是容器网络问题?还是容器服务问题?这种怎么排查?
在K8S中,容器提供一个服务,外部访问慢,到底是容器网络问题?还是容器服务问题?这种怎么排查?
|
6天前
|
Kubernetes Ubuntu Windows
【Azure K8S | AKS】分享从AKS集群的Node中查看日志的方法(/var/log)
【Azure K8S | AKS】分享从AKS集群的Node中查看日志的方法(/var/log)
|
6天前
|
存储 Kubernetes Go
【Azure K8S | AKS】在AKS集群中创建 PVC(PersistentVolumeClaim)和 PV(PersistentVolume) 示例
【Azure K8S | AKS】在AKS集群中创建 PVC(PersistentVolumeClaim)和 PV(PersistentVolume) 示例

推荐镜像

更多
下一篇
云函数