【云原生】Kubernetes核心技术(中)

本文涉及的产品
容器服务 Serverless 版 ACK Serverless,952元额度 多规格
容器服务 Serverless 版 ACK Serverless,317元额度 多规格
简介: Kubernetes核心技术(中)

 

博主昵称:跳楼梯企鹅

创作初心:本博客的初心为与技术朋友们相互交流,每个人的技术都存在短板,博主也是一样,虚心求教,希望各位技术友给予指导。
博主座右铭:发现光,追随光,成为光,散发光;
博主研究方向:渗透测试、机器学习 ;
博主寄语:感谢各位技术友的支持,您的支持就是我前进的动力 ;

图片.png

image.gif

本篇文章分为3次分享完

四、持久化 Volume

1.数据卷 volume

数据卷 是一个可供一个或多个容器使用的特殊目录,实现让容器中的一个目录和宿主机中的一个文件或者目录进行绑定。数据卷 是被设计用来持久化数据的。

2. 分为三类:

(1)bind mount volume

(2)Docker Management Volume

(3)Container Data (基于现有的容器)

3.分别讲解

(1)bind mount volume

1.创建本地目录
root@123  
mkdir  /webroom
root@123 ~  
echo "123" > /webroom/index.html
2.挂载和运行容器
docker run -v    # 挂载数据卷 Bind mount a volume
root123-z ~  
docker run -v /webroom:/usr/share/nginx/html -d -P nginx
root123-z ~  
docker ps -q
3.查看bind
root@123 /webroom  
docker inspect 553d7e454376|grep "Mounts" -A7
      "Mounts": [
          {
              "Type": "bind",
              "Source": "/webroom",
              "Destination": "/usr/share/nginx/html",
              "Mode": "",
              "RW": true,
              "Propagation": "rprivate"
root@123 /webroom  
docker inspect 553d7e454376|grep IPAddress       
            "SecondaryIPAddresses": null,
            "IPAddress": "ip地址",
                    "IPAddress": "ip地址",
4.验证
root@123 ~  
curl ip地址

image.gif

(2)Docker Management Volume

1.开启容器
root@123 ~  
docker run -v /usr/share/nginx/html -d -P nginx
root@123 ~  
docker ps -q
2.查看配置
root@123 ~  
docker inspect acc5955cc2db |grep "Mounts" -A7
     "Mounts": [
        {
            "Type": "volume",
            "Name": "7f9f40b822f3353819401c0dc2df116f732c1e9ae839433d3de61d03fd84eccd",
            "Source": "/var/lib/docker/volumes/7f9f40b822f3353819401c0dc2df116f732c1e9ae839433d3de61d03fd84eccd/_data",
            "Destination": "/usr/share/nginx/html",
            "Driver": "local",
            "Mode": "",
3.查看目录
root@123 ~  
ls  /var/lib/docker/volumes
4.删除容器
root@123 ~  
docker stop acc5955cc2db
acc5955cc2db
root@123 ~  
docker rm -v  acc5955cc2db
5.批量删除其他
docker volume rm $(docker volume ls -qf dangling=true)

image.gif

(3)Container Data (基于现有的容器)

1.运行容器
root@123 ~  
docker run -d --name nginx1 nginx
2.容器共享
root@123 ~  
docker run --volumes-from nginx1 -d nginxv

image.gif

4.docker volume 命令

root@123 ~  
docker volume --help
Usage:  docker volume COMMAND
Manage volumes
Commands:
  create      Create a volume
  inspect     Display detailed information on one or more volumes
  ls          List volumes
  prune       Remove all unused local volumes
  rm          Remove one or more volumes
1.创建
root@123 ~  
docker volume create vol1
root@123 ~  
ls /var/lib/docker/volumes/
2.查询列表
root@123 ~  
docker volume ls        
DRIVER              VOLUME NAME
local               vol1
3.查看配置信息
root@123 ~  
docker volume inspect vol1
[
  {
     "CreatedAt": "2019-08-15T04:48:40-04:00",
     "Driver": "local",
     "Labels": {},
     "Mountpoint": "/var/lib/docker/volumes/vol1/_data",
     "Name": "vol1",
     "Options": {},
     "Scope": "local"
  }
]
4.批量删除
docker volume rm $(docker volume ls -qf dangling=true)

image.gif

五、Ingress

1.简介

Ingress 使用开源的反向代理负载均衡器来实现对外暴漏服务,比如 Nginx、Apache、Haproxy等。Nginx Ingress 一般有三个组件组成:

    • ingress是kubernetes的一个资源对象,用于编写定义规则。
    • 反向代理负载均衡器,通常以Service的Port方式运行,接收并按照ingress定义的规则进行转发,通常为nginx,haproxy,traefik等,本文使用nginx
    • ingress-controller,监听apiserver,获取服务新增,删除等变化,并结合ingress规则动态更新到反向代理负载均衡器上,并重载配置使其生效。

    image.gif图片.png

    2.实现方案

    1、nginx:这是方式进行实现

    2、Traefik:这种设计就是为微服务这种动态生成而生的

    3.分布介绍

    (1)nginx:这是方式进行实现

    图片.png

    nginx-ingress 模块在运行时主要包括三个主体:NginxController、Store、SyncQueue

    Store 主要负责从 kubernetes APIServer 收集运行时信息,感知各类资源(如 ingress、service等)的变化,并及时将更新事件消息(event)写入一个环形管道。

    SyncQueue 协程定期扫描 syncQueue 队列,发现有任务就执行更新操作,即借助 Store 完成最新运行数据的拉取,然后根据一定的规则产生新的 nginx 配置,(有些更新必须 reload,就本地写入新配置,执行 reload),然后执行动态更新操作,即构造 POST 数据,向本地 Nginx Lua 服务模块发送 post 请求,实现配置更新。

    NginxController 作为中间的联系者,监听 updateChannel,一旦收到配置更新事件,就向同步队列 syncQueue 里写入一个更新请求。

    1.安装
    ingress https://kubernetes.github.io/ingress-nginx/
    ingress https://github.com/kubernetes/ingress-nginx
    2.部署
    $ wget https://raw.githubusercontent.com/kubernetes/ingress-nginx/controller-v1.0.0/deploy/static/provider/baremetal/deploy.yaml
    3.配置镜像
    # 修改镜像地址
    $ sed -i 's@k8s.gcr.io/ingress-nginx/controller:v1.0.0\(.*\)@willdockerhub/ingress-nginx-controller:v1.0.0@' deploy.yaml
    $ sed -i 's@k8s.gcr.io/ingress-nginx/kube-webhook-certgen:v1.0\(.*\)$@hzde0128/kube-webhook-certgen:v1.0@' deploy.yaml
    $ kubectl apply -f deploy.yaml
    $ docker image load -i hzde0128-kube-webhook-certgen-v1.0.tar
    $ docker image load -i willdockerhub-ingress-nginx-controller-v1.0.0.tar
    $ docker images
    4.运行
    $ kubectl apply -f ingress-nginx.yaml
    5.检查是否安装成功
    $ kubectl get pod -n ingress-nginx
    $ kubectl get svc -n ingress-nginx

    image.gif

    image.gif图片.png

    创建NGINX

    1.创建目录
    $ mkdir -p /opt/ingress/nginx-test
    $ cd /opt/ingress/nginx-test
    2.创建nginx-Deployment-Service.yaml文件
    $ cat << EOF > nginx-Deployment-Service.yaml
    apiVersion: apps/v1 
    kind: Deployment   
    metadata:             
      name: nginx-deployment     
      labels:       
        app: nginx  
    spec:          
      replicas: 2 
      selector:      
        matchLabels: 
          app: nginx
      minReadySeconds: 1
      progressDeadlineSeconds: 60
      revisionHistoryLimit: 2
      strategy:
        type: RollingUpdate
        rollingUpdate:
          maxSurge: 1
          maxUnavailable: 1
      template:        
        metadata:  
          labels:  
            app: nginx
        spec:         
          containers:     
          - name: nginx     
            image: nginx:1.17.1    
            imagePullPolicy: Always          
            ports:
            - containerPort: 80
            resources:
              requests:
                memory: "1Gi"
                cpu: "80m"
              limits: 
                memory: "1Gi" 
                cpu: "80m"
    ---
    apiVersion: v1
    kind: Service
    metadata:      
      name: nginx-service
      labels:      
        app: nginx
    spec:        
      selector:   
        app: nginx
      ports:
      - name: nginx-port 
        protocol: TCP      
        port: 80  
        targetPort: 80
      type: ClusterIP 
    EOF
    3.部署 nginx应用
    $ kubectl apply -f nginx-Deployment-Service.yaml
    $ kubectl get svc -o wide|grep nginx-service
    $ kubectl get pod -o wide|grep nginx-deployment-*
    4.创建 ingress yaml文件,内容如下:
    cat << EOF > nginx-Ingress.yaml
    apiVersion: networking.k8s.io/v1
    kind: Ingress
    metadata:
      name: nginx
      annotations:
        kubernetes.io/ingress.class: "nginx"
    spec:
      rules:
      - host: ingress.nginx.com
        http:
          paths:
          - path: "/"
            pathType: Prefix
            backend:
              service:
                name: nginx-service
                port:
                  number: 80
    EOF
    4.创建nginx-Ingress.yaml文件
    $ kubectl apply -f nginx-Ingress.yaml
    $ kubectl get ingress|grep nginx
    5.配置ip
    $ kubectl get ingress|grep nginx
    $ cat /etc/hosts
    $ kubectl get svc -n ingress-nginx
    6.验证
    curl -I http://ingress.nginx.com:端口号

    image.gif

    (2)Traefik:这种设计就是为微服务这种动态生成而生的

    image.gif图片.png

    traefik----系统默认提供

    [root@localhost k8sYmal]# kubectl get pods -n kube-system 
    NAME                                      READY   STATUS      RESTARTS   AGE
    helm-install-traefik-crd-gbnq4            0/1     Completed   0          54d
    helm-install-traefik-tp89r                0/1     Completed   0          54d
    metrics-server-86cbb8457f-xspd4           1/1     Running     4          54d
    svclb-traefik-m42nh                       2/2     Running     8          54d
    local-path-provisioner-5ff76fc89d-cx49l   1/1     Running     5          54d
    coredns-7448499f4d-9gzt9                  1/1     Running     4          54d
    traefik-97b44b794-dsldn                   1/1     Running     4          54d

    image.gif

    配置:

    1.安装 Traefik
    $ kubectl apply -f https://www.qikqiak.com/k8strain/network/manifests/traefik/crd.yaml
    $ kubectl apply -f https://www.qikqiak.com/k8strain/network/manifests/traefik/rbac.yaml
    $ kubectl apply -f https://www.qikqiak.com/k8strain/network/manifests/traefik/deployment.yaml
    $ kubectl apply -f https://www.qikqiak.com/k8strain/network/manifests/traefik/dashboard.yaml
    2.traefik 代理------http协议方向
    apiVersion: traefik.containo.us/v1alpha1
    kind: IngressRoute
    metadata:
      name: simpleingressroute
    spec:
      entryPoints:
        - web
      routes:
      - match: Host(`who.qikqiak.com`) && PathPrefix(`/notls`)
        kind: Rule
        services:
        - name: whoami
          port: 80
    3.traefik 代理------tcp协议方向
    [root@localhost k8sYmal]# cat traefik-tcp.yaml 
    apiVersion: traefik.containo.us/v1alpha1
    kind: IngressRouteTCP
    metadata:
      name: mongo-traefik-tcp
    spec:
      entryPoints:
        - mongo
      routes:
      - match: HostSNI(`*`)
        services:
        - name: nginx-traefik
          port: 端口号

    image.gif

    六、StatefulSet

    图片.png

    1.简介

    StatefulSet是k8s中有状态应用管理的标准实现,今天就一起来了解下其背后设计的场景与原理,从而了解其适用范围与场景。

    2.特点

    (1)有状态与无状态


    图片.png


    图片.png

    通常可以分为两大类:有状态与无状态,比如web服务通常都是无状态的,web应用数据主要来自后端存储、缓存等中间件,而本身并不保存数; 而诸如redis、es等其数据也是应用自身的一部分,由此可以看出有状态应用本身会包含两部分:应用与数据。

    (2)一致性与数据


    图片.png

    一致性是分布式系统中很常见的问题,上面提到有状态应用包含数据部分,那数据和一致性是不是一个东西呢?答案是并不一定,在诸如zookeeper等应用中,会通过zab协议保证数据写入到集群中的大多数节点,而在诸如kafka之类的应用其一致性设计要求相对较低,由此可以看出有状态应用数据的一致性,更多的是由对应场景的系统设计而决定。

    (3)单调有序

    image.gif图片.png

    通常分布式系统中都至少要保证分区容忍性,以防止部分节点故障导致整个系统不可用,在k8s中的statefulset中的 Pod的管理策略则是保证尽可能安全的逐个Pod更新,而不是并行启动或停止所有的Pod。

    3.部署命令

    ##############所有命令##############
    1.创建
    kubectl create -f test-zk-ss.yaml
    2.删除
    kubectl delete -f test-zk-ss.yaml      #删除模板
    kubectl delete statefulset test-zk-ss  #删除名称
    3.更新
    kubectl apply -f test-zk-ss-new.yaml   #更新模板
    kubectl edit statefulset test-zk-ss    #更新名称
    4.查询
    kubectl get statefulset test-zk-ss -o yaml    #查询模板
    kubectl describe statefulset test-zk-ss       #查询名称

    image.gif

    七、小结

    本篇云原生更行到第二部分----Kubernetes核心技术(中)

    后面继续分享,敬请期待

    相关实践学习
    通过Ingress进行灰度发布
    本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
    容器应用与集群管理
    欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
    相关文章
    |
    6天前
    |
    Kubernetes 安全 Serverless
    Kubernetes云原生问题之在Serverless Container中,Pod运行如何解决
    Kubernetes云原生问题之在Serverless Container中,Pod运行如何解决
    44 5
    |
    4天前
    |
    Cloud Native 持续交付 云计算
    云原生技术:未来软件开发的航标
    在数字时代的洪流中,云原生技术如同一座灯塔,引领着软件开发的未来方向。本文将深入浅出地探讨云原生的核心概念、优势以及实际应用案例,帮助读者理解云原生如何成为现代软件工程的重要支柱,并展望其在未来技术生态中的发展潜力。
    |
    6天前
    |
    Kubernetes Cloud Native 安全
    Kubernetes云原生问题之GKE Autopilot 与现有 Kubernetes 生态的兼容度如何解决
    Kubernetes云原生问题之GKE Autopilot 与现有 Kubernetes 生态的兼容度如何解决
    23 4
    |
    6天前
    |
    Kubernetes Cloud Native API
    Kubernetes云原生问题之Kubernetes帮助业务应用较少关注底层基础设施差异如何解决
    Kubernetes云原生问题之Kubernetes帮助业务应用较少关注底层基础设施差异如何解决
    22 1
    |
    1天前
    |
    Cloud Native 持续交付 API
    云原生技术的未来之路:探索与实践
    【8月更文挑战第19天】 本文将深入浅出地剖析云原生技术的发展趋势,并探讨其在企业数字化转型中的应用。我们将从云原生技术的基本概念出发,逐步深入到其核心组件、优势以及面临的挑战。同时,结合实际案例分析,揭示如何通过云原生技术提升企业的业务敏捷性和市场响应速度。文章旨在为读者提供一条清晰的路径,以理解并实施云原生技术,推动企业向更高效、更创新的未来发展。
    9 0
    |
    4天前
    |
    Cloud Native 安全 云计算
    云原生技术的未来:探索服务网格和无服务器架构
    随着企业数字化转型的深入,云计算已成为推动业务创新的核心力量。本文将深入探讨云原生技术的最新发展趋势,重点分析服务网格和无服务器架构如何重塑云计算的未来。通过实际案例和技术解析,揭示这些前沿技术如何解决现代应用部署的复杂性,提高系统的可伸缩性和弹性。文章旨在为读者提供云原生领域的深度见解,并激发对云技术未来发展的思考。
    21 0
    |
    5天前
    |
    Kubernetes Nacos 微服务
    【技术难题破解】Nacos v2.2.3 + K8s 微服务注册:强制删除 Pod 却不消失?!7步排查法+实战代码,手把手教你解决Nacos Pod僵死问题,让服务瞬间满血复活!
    【8月更文挑战第15天】Nacos作为微服务注册与配置中心受到欢迎,但有时会遇到“v2.2.3 k8s 微服务注册nacos强制删除 pod不消失”的问题。本文介绍此现象及其解决方法,帮助开发者确保服务稳定运行。首先需检查Pod状态与事件、配置文件及Nacos配置,确认无误后可调整Pod生命周期管理,并检查Kubernetes版本兼容性。若问题持续,考虑使用Finalizers、审查Nacos日志或借助Kubernetes诊断工具。必要时,可尝试手动强制删除Pod。通过系统排查,通常能有效解决此问题。
    11 0
    |
    5天前
    |
    设计模式 Cloud Native 安全
    云原生技术在现代企业中的应用与挑战
    【8月更文挑战第15天】随着云计算技术的不断发展和成熟,云原生作为一种新兴的架构模式,正逐渐改变着企业的IT基础设施和服务交付方式。本文将探讨云原生技术的基本概念、核心价值及其在现代企业中的应用场景,同时分析企业在采用云原生技术时面临的主要挑战,并提出相应的解决策略。
    13 0
    |
    5天前
    |
    机器学习/深度学习 人工智能 Cloud Native
    龙蜥操作系统产品问题之云原生技术的挑战如何解决
    龙蜥操作系统产品问题之云原生技术的挑战如何解决
    12 0
    |
    6天前
    |
    运维 Kubernetes Cloud Native
    Kubernetes云原生问题之GKE Autopilot 进行扩容和缩容如何解决
    Kubernetes云原生问题之GKE Autopilot 进行扩容和缩容如何解决
    30 0

    热门文章

    最新文章

    推荐镜像

    更多