k8s--数据存储、PV、PVC

简介: k8s--数据存储、PV、PVC

介绍


在前面学了使用 NFS 提供存储,此时就要求用户会搭建 NFS 系统,并且会在 yaml 中配置 nfs。由于 kubernetes 支持的存储系统有很多,要求客户全都掌握,显然不合理。为了能够屏蔽底层存储实现的细节,方便用户使用,kubernetes 引入 PV 和 PVC 两种资源对象

  • PV(Persistent Volume):持久化卷的意思,是对底层的存储共享的一种抽象,一般情况下 PV 由 kubernetes 管理员进行创建和配置,它与底层具体的共享存储技术有关,并通过插件完成与共享存储的对接
  • PVC(Persistent Volume Clain):持久卷声明的意思,是用户对于存储需求的一种声明,换句话说,PVC 其实就是用户向 kubernetes 系统发出的一种资源需求申请

使用了 PV 和 PVC 之后,工作可以得到进一步的细分:

  • 存储:存储工程师维护
  • PV: kubernetes 管理员维护
  • PVC:kubernetes 用户维护


PV


PV 是存储资源的抽象,下面是资源清单文件

apiVersion: v1  
kind: PersistentVolume
metadata:
  name: pv2
spec:
  nfs: # 存储类型,与底层真正存储对应
  capacity:  # 存储能力,目前只支持存储空间的设置
    storage: 2Gi
  accessModes:  # 访问模式
  storageClassName: # 存储类别
  persistentVolumeReclaimPolicy: # 回收策略

PV 的关键配置参数说明

  • 存储类型:底层实际存储的类型,kubernetes 支持多种存储类型 ,每种存储类型的配置都有所差异
  • 存储能力(capacity):目前只支持存储空间的设置(如:storage=1Gi),不过未来可能会加入 IOPS、吞吐量等指标的配置
  • 访问模式(accessModes):用于描述用户应对存储资源的访问权限,访问权限包括下面几种方式
  • ReadWriteOnce(RWO):读写权限,但是只能被单个节点挂载
  • ReadOnlyMany(ROX):只读权限,可以被多个节点挂载
  • ReadWriteMany(RWX):读写权限,可以被多个节点挂载
  • 回收策略( persistentVolumeReclaimPolicy):当 PV不在被使用了之后,对其的处理方式,目前支持三种策略
  • Retain(保留):保留数据,需要管理员手工清理数据
  • Recycle(回收):清除 PV 中的数据,效果相当于执行 rm -rf/thevolune/*
  • delete(删除):于 PV 相连的后端存储完成 volume 的删除操作,当然这常见于云服务商的存储服务
  • 存储类别:PV  可以通过 storageClassName 参数指定一个存储类别
  • 具有特定类别的 PV 只能与请求了该类别的 PVC 进行绑定
  • 未设定类别的 PV 则只能与不请求任何类别的 PVC 进行绑定
  • 状态(status):一个 PV 的生命周期中,可能会处于 4 中不同的阶段:
  • Available(可用): 表示可用状态,还未被任何 PVC 绑定
  • Bound(已绑定): 表示 PV 已经被 PVC 绑定
  • Released(已释放): 表示 PVC 被删除,但是资源还未被集群重新声明
  • Failed(失败): 表示该 PV 的自动回收失败

需要注意的是

  • 底层不同的存储类型可能支持的访问模式不同
  • 底层不同的存储系统可能支持的回收策略不同


PV 的使用


使用 NFS 作为存储,来演示 PV 的使用,创建  3 个PV,对应 NFS 中的 3 个暴露的路径。

NFS 的搭建参考之前的文章:https://www.cnblogs.com/zouzou-busy/p/16163284.html

准备 NFS 环境,我这里还是以 master 机器作为 NFS 机器

# 在 master 上创建文件夹
mkdir /tmp/data/{pv1,pv2,pv3} -pv

暴露服务,将下面的内容写入到  /etc/exports  文件中

# 以自己创建的文件夹和自己的 IP 地址为准
# 网段要是你自己的网段,我这里 master 和 node 节点的 ip 都是 10.6.215.xxx
/tmp/data/pv1     10.6.215.0/24(rw,no_root_squash)
/tmp/data/pv2     10.6.215.0/24(rw,no_root_squash)
/tmp/data/pv3     10.6.215.0/24(rw,no_root_squash)

重启 nfs 服务

# 重启 nfs 服务
systemctl restart nfs

创建 pv.yaml 文件,内容如下

apiVersion: v1
kind: PersistentVolume # 类型为 pv
metadata:
  name:  pv1 # pv 的名称,注意,pv 是没有命名空间的
spec:
  capacity: 
    storage: 1Gi # 存储大小
  accessModes: # 访问模式
  - ReadWriteMany # 多节点读写模式
  persistentVolumeReclaimPolicy: Recycle # 回收策略,这里为回收
  nfs:
    path: /tmp/data/pv1  # pv 的文件目录,和上面创建的要一样
    server: 10.6.215.215 # pv 的 ip 地址
---
apiVersion: v1
kind: PersistentVolume
metadata:
  name:  pv2
spec:
  capacity: 
    storage: 2Gi
  accessModes:
  - ReadWriteMany
  persistentVolumeReclaimPolicy: Recycle
  nfs:
    path: /tmp/data/pv2
    server: 10.6.215.215
---
apiVersion: v1
kind: PersistentVolume
metadata:
  name:  pv3
spec:
  capacity: 
    storage: 3Gi
  accessModes:
  - ReadWriteMany
  persistentVolumeReclaimPolicy: Recycle
  nfs:
    path: /tmp/data/pv3
    server: 10.6.215.215

注意:PV 是没有名称空间的,是整个集群的

创建 pv

# 创建 pv
[root@dce-10-6-215-215 pod-dir]# kubectl create -f pv.yaml
persistentvolume/pv1 created
persistentvolume/pv2 created
persistentvolume/pv3 created

查看 pv

# 可以看到,我们创建的三个 pv 都已经创建成功了
# CAPACITY 是我们分配的存储大小
# ACCESS MODES 是访问模式
# RECLAIM POLICY 是我们设置的回收策略,我们设置的是 RECYCLE,# 状态目前是 Avaliable(可用)
# CLAIM 对应的是命名空间和 PVC 的名称,左边的是命名空间
[root@dce-10-6-215-215 pod-dir]# kubectl get pv -o wide
NAME                                    CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS      CLAIM                                          STORAGECLASS   REASON   AGE    VOLUMEMODE
clusterpedia-internalstorage-postgres   20Gi       RWO            Retain           Bound       clusterpedia-system/internalstorage-postgres                           5d8h   Filesystem
dce-registry                            100Gi      RWX            Retain           Bound       kube-system/dce-registry                                               12d    Filesystem
pv1                                     1Gi        RWX            Recycle          Available                                                                          67s    Filesystem
pv2                                     2Gi        RWX            Recycle          Available                                                                          67s    Filesystem
pv3                                     3Gi        RWX            Recycle          Available                                                                          67s    Filesystem

PVC

PVC 是资源的申请,用来声明对存储空间、访问模式、存储类别需求信息。下面是资源清单文件

apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: pvc
  namespace: dev
spec:
  accessModes: # 访问模式
  selector: # 采用标签对 PV 选择
  storageClassName: # 存储类别
  resources: # 请求空间
    requests:
      storage: 5Gi # 最少要 5G

PVC 的关键配置参数说明:

  • 访问模式(accessModes):用于描述用户应用对存储资源的访问权限
  • 选择条件(selector):通过 Label Selector 的设置,可使 PVC 对于系统中己存在的 PV 进行筛选
  • 存储类别(storageClassName):PVC在定义时可以设定需要的后端存储的类别,只有设置了该 class 的 pv 才能被系统选出
  • 资源请求(Resources ):描述对存储资源的请求


PVC 的使用


创建 pvc.yaml,申请 pv,内容如下

apiVersion: v1
kind: PersistentVolumeClaim  # 类型为 pvc
metadata:
  name: pvc1 # pvc 的名称
  namespace: zouzou
spec:
  accessModes: 
  - ReadWriteMany  #  访问的模式,要和 pv 的保持一致
  resources:
    requests:
      storage: 1Gi # 存储最少 1G
---
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: pvc2
  namespace: zouzou
spec:
  accessModes: 
  - ReadWriteMany
  resources:
    requests:
      storage: 1Gi
---
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: pvc3
  namespace: zouzou
spec:
  accessModes: 
  - ReadWriteMany
  resources:
    requests:
      storage: 5Gi # pv 没有满足的,就会挂载失败

上面我们写了三个 pvc,创建 pvc

# 创建 pvc
[root@dce-10-6-215-215 pod-dir]# kubectl create -f pvc.yaml
persistentvolumeclaim/pvc1 created
persistentvolumeclaim/pvc2 created
persistentvolumeclaim/pvc3 created

查看 pvc

# 可以看到 pvc1 和 pvc2 都成功和 pv 关联上了,只有 pvc3 的状态是 Pending,因为 pvc3 我们要求的存储内存是 5Gi,没有满足的 pv
[root@dce-10-6-215-215 pod-dir]# kubectl get pvc -n zouzou -o wide
NAME   STATUS    VOLUME   CAPACITY   ACCESS MODES   STORAGECLASS   AGE   VOLUMEMODE
pvc1   Bound     pv1      1Gi        RWX                           41s   Filesystem
pvc2   Bound     pv2      2Gi        RWX                           41s   Filesystem
pvc3   Pending                                                     41s   Filesystem

在来看下我们的 pv

# 可以看到,pv1 和 pv2 的状态都是 Bound 了
# ClAIM 对应的是命名空间和 pvc 名称
[root@dce-10-6-215-215 pod-dir]# kubectl get pv -o wide
NAME                                    CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS      CLAIM                                          STORAGECLASS   REASON   AGE    VOLUMEMODE
clusterpedia-internalstorage-postgres   20Gi       RWO            Retain           Bound       clusterpedia-system/internalstorage-postgres                           5d9h   Filesystem
dce-registry                            100Gi      RWX            Retain           Bound       kube-system/dce-registry                                               12d    Filesystem
pv1                                     1Gi        RWX            Recycle          Bound       zouzou/pvc1                                                            35m    Filesystem
pv2                                     2Gi        RWX            Recycle          Bound       zouzou/pvc2                                                            35m    Filesystem
pv3                                     3Gi        RWX            Recycle          Available                                                                          35m    Filesystem
[root@dce-10-6-215-215 pod-dir]#

这样我们的 pvc 就和 pv 关联起来了,接下来创建 pod

创建 pv-pod.yaml,使用 pv,内容如下

apiVersion: v1
kind: Pod  # 类型为 pod
metadata:
  name: pv-pod1 # pod 的名称
  namespace: zouzou
spec:
  containers:
  - name: busybox
    image: busybox:1.30
    command: ["/bin/sh","-c","while true;do echo pod1 >> /root/out.txt; sleep 60; done;"] # 往 /root/out.txt 文件里每隔 60s 写入一句 pod1
    volumeMounts:
    - name: volume
      mountPath: /root/ # 容器里面的路径,会在这个路径下生成一个 out.txt 文件
  volumes:
    - name: volume
      persistentVolumeClaim: # pvc
        claimName: pvc1 # 对应的是 pvc1
        readOnly: false
---
apiVersion: v1
kind: Pod
metadata:
  name: pv-pod2
  namespace: zouzou
spec:
  containers:
  - name: busybox
    image: busybox:1.30
    command: ["/bin/sh","-c","while true;do echo pod2 >> /root/out.txt; sleep 60; done;"]
    volumeMounts:
    - name: volume
      mountPath: /root/ # 容器里面的路径,会在这个路径下生成一个 out.txt 文件
  volumes:
    - name: volume
      persistentVolumeClaim:
        claimName: pvc2 #
        readOnly: false

创建 pod

# 创建 pod
[root@dce-10-6-215-215 pod-dir]# kubectl create -f pv-pod.yaml
pod/pv-pod1 created
pod/pv-pod2 created

查看 pod

# 查看 pod,都正常运行了
[root@dce-10-6-215-215 pod-dir]# kubectl get pod -n zouzou -o wide
NAME      READY   STATUS    RESTARTS   AGE   IP             NODE               NOMINATED NODE   READINESS GATES
pv-pod1   1/1     Running   0          11s   172.29.35.62   dce-10-6-215-200   <none>           <none>
pv-pod2   1/1     Running   0          11s   172.29.35.63   dce-10-6-215-200   <none>           <none>

查看 pvc

[root@dce-10-6-215-215 pod-dir]# kubectl get pvc -n zouzou -o wide
NAME   STATUS    VOLUME   CAPACITY   ACCESS MODES   STORAGECLASS   AGE     VOLUMEMODE
pvc1   Bound     pv1      1Gi        RWX                           2m48s   Filesystem
pvc2   Bound     pv2      2Gi        RWX                           2m47s   Filesystem
pvc3   Pending                                                     2m47s   Filesystem

查看 pv,只有 pv1 和 pv2 绑定了,pv3 还是可以使用的

[root@dce-10-6-215-215 pod-dir]# kubectl get pv -o wide
NAME                                    CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS      CLAIM                                          STORAGECLASS   REASON   AGE     VOLUMEMODE
clusterpedia-internalstorage-postgres   20Gi       RWO            Retain           Bound       clusterpedia-system/internalstorage-postgres                           5d9h    Filesystem
dce-registry                            100Gi      RWX            Retain           Bound       kube-system/dce-registry                                               12d     Filesystem
pv1                                     1Gi        RWX            Recycle          Bound       zouzou/pvc1                                                            3m29s   Filesystem
pv2                                     2Gi        RWX            Recycle          Bound       zouzou/pvc2                                                            3m29s   Filesystem
pv3                                     3Gi        RWX            Recycle          Available                                                                          3m29s   Filesystem

这样我们就将 pod、pv、pvc 关联起来了,去 /tmp/data/pv1 和  /tmp/data/pv2 里面查看是否有文件产生


生命周期


PVC 和 PV是一一对应的,PV 和 PVC 之间的相互作用遵循以下生命周期:

  • 资源供应:管理员手动创建底层存储和 PV
  • 资源绑定:用户创建 PVC,kubernetes 负责根据 PVC 的声明去寻找 PV,并绑定在用户定义好 PVC 之后,系统将根据 PVC 对存储资源的请求在已存在的 PV 中选择一个满足条件的
  • 一旦找到,就将该 PV 与用户定义的 PVC 进行绑定,用户的应用就可以使用这个 PVC 了
  • 如果找不到,PV C则会无限期处于 Pending 状态,直到等到系统管理员创建了一个符合其要求的 PV
  • PV 一旦绑定到某个 PVC 上,就会被这个 PVC 独占,不能再与其他 PVC 进行绑定了
  • 资源使用:用户可在 pod 中像 volume 一样使用 pvc
    Pod 使用 Volume 的定义,将 PVC 挂载到容器内的某个路径进行使用。
  • 资源释放:用户删除 pvc 来释放 pv
    当存储资源使用完毕后,用户可以删除 PVC,与该 PVC 绑定的 PV 将会被标记为“已释放”,但还不能立刻与其他 PVC 进行绑定。通过之前 PVC 写入的数据可能还被留在存储设备上,只有在清除之后该PV才能再次使用。
  • 资源回收:kubernetes 根据 pv 设置的回收策略进行资源的回收
    对于 PV,管理员可以设定回收策略,用于设置与之绑定的 PVC 释放资源之后如何处理遗留数据的问题。只有 PV 的存储空间完成回收,才能供新的 PVC 绑定和使用


删除 pv 和 pvc


一种是通过 yaml 文件删除

kubectl delete -f yaml文件路径

还有一种是通过名称删除

# 删除 pv
kubectl delete pv pv名称 -n 命名空间
# 删除 pvc
kubectl delete pvc pvc名称 -n 命名空间

注意:删除的时候需要先删除 pod,在删除 pvc,在删除 pv。当删除了 pvc 之后,pv 下面对应生成的文件就没有了,因为我们设置的回收策略是回收


相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
相关文章
|
4月前
|
JSON Kubernetes Shell
【Azure K8S | AKS】在不丢失文件/不影响POD运行的情况下增加PVC的大小
【Azure K8S | AKS】在不丢失文件/不影响POD运行的情况下增加PVC的大小
|
4月前
|
Kubernetes Shell Perl
【Azure K8S|AKS】进入AKS的POD中查看文件,例如PVC Volume Mounts使用情况
【Azure K8S|AKS】进入AKS的POD中查看文件,例如PVC Volume Mounts使用情况
|
4月前
|
存储 Kubernetes Go
【Azure K8S | AKS】在AKS集群中创建 PVC(PersistentVolumeClaim)和 PV(PersistentVolume) 示例
【Azure K8S | AKS】在AKS集群中创建 PVC(PersistentVolumeClaim)和 PV(PersistentVolume) 示例
|
3月前
|
存储 Kubernetes 测试技术
k8s使用pvc,pv,sc关联ceph集群
文章介绍了如何在Kubernetes中使用PersistentVolumeClaim (PVC)、PersistentVolume (PV) 和StorageClass (SC) 来关联Ceph集群,包括创建Ceph镜像、配置访问密钥、删除默认存储类、编写和应用资源清单、创建资源以及进行访问测试的步骤。同时,还提供了如何使用RBD动态存储类来关联Ceph集群的指南。
190 7
|
4月前
|
存储 Kubernetes 容器
在K8S中,PV的生命周期状态有哪些?
在K8S中,PV的生命周期状态有哪些?
|
4月前
|
存储 Kubernetes 调度
在K8S中,什么是PV和PVC?
在K8S中,什么是PV和PVC?
|
9天前
|
存储 Kubernetes 关系型数据库
阿里云ACK备份中心,K8s集群业务应用数据的一站式灾备方案
本文源自2024云栖大会苏雅诗的演讲,探讨了K8s集群业务为何需要灾备及其重要性。文中强调了集群与业务高可用配置对稳定性的重要性,并指出人为误操作等风险,建议实施周期性和特定情况下的灾备措施。针对容器化业务,提出了灾备的新特性与需求,包括工作负载为核心、云资源信息的备份,以及有状态应用的数据保护。介绍了ACK推出的备份中心解决方案,支持命名空间、标签、资源类型等维度的备份,并具备存储卷数据保护功能,能够满足GitOps流程企业的特定需求。此外,还详细描述了备份中心的使用流程、控制台展示、灾备难点及解决方案等内容,展示了备份中心如何有效应对K8s集群资源和存储卷数据的灾备挑战。
|
1月前
|
Kubernetes 监控 Cloud Native
Kubernetes集群的高可用性与伸缩性实践
Kubernetes集群的高可用性与伸缩性实践
71 1
|
2月前
|
JSON Kubernetes 容灾
ACK One应用分发上线:高效管理多集群应用
ACK One应用分发上线,主要介绍了新能力的使用场景
|
2月前
|
Kubernetes 持续交付 开发工具
ACK One GitOps:ApplicationSet UI简化多集群GitOps应用管理
ACK One GitOps新发布了多集群应用控制台,支持管理Argo CD ApplicationSet,提升大规模应用和集群的多集群GitOps应用分发管理体验。