Kubernetes的Local Persistent Volumes使用小记

简介: Local Persistent Volumes使用小记

欢迎访问我的GitHub

这里分类和汇总了欣宸的全部原创(含配套源码): https://github.com/zq2599/blog_demos

关于Local Persistent Volumes

文中将Local Persistent Volumes简称为Local PV;

  1. Kubernetes的Local PV自1.7版本进行alpha发布,在1.10版本beta发布,最终的正式发布(General Availability)是在1.14版本;
  2. 一个Local PV对应指定节点上的一处本地磁盘空间;
  3. 相比NFS之类的远程存储,Local PV提供了本地IO带来的更好性能;

和HostPath Volume的区别

Local PV出现之前,使用本地磁盘的方法是HostPath Volume,同为使用本地磁盘,区别在哪呢?

  1. 最重要的区别,就是Local PV和具体节点是有关联的,这意味着使用了Local PV的pod,重启多次都会被Kubernetes scheduler调度到同一节点,而如果用的是HostPath Volume,每次重启都可能被Kubernetes scheduler调度到新的节点,然后使用同样的本地路径;
  2. 当我们要用HostPath Volume的时候,既可以在PVC声明,又可以直接写到Pod的配置中,但是Local PV只能在PVC声明,对于PV资源,通常都有专人管理,这样就避免了Pod开发者擅自使用本地磁盘带来的冲突和风险;
  3. 另外要注意的是,HostPath Volume和Local PV都是在使用本地磁盘,和常见的分布式文件系统相比,本地磁盘故障会导致数据丢失,保存重要数据请勿使用HostPath Volume和Local PV

基本概念说完了,接下来实战体验;

实战环境信息

  1. 操作系统:CentOS Linux release 7.8.2003 (Core)
  2. kubernetes:1.15.3
  3. helm:2.16.1

体验Local PV的步骤简述

本次实战的目标是快速创建Local PV,并验证该Local PV正常可用,全文由以下部分组成:

  1. 创建Local PV;
  2. 通过helm下载tomcat的chart;
  3. 修改chart,让tomcat使用刚才创建的Local PV;
  4. 部署tomcat;
  5. 在服务器上检查文件夹已正常写入;

参考文章

如果您想了解Kubernetes和helm的更多信息,请参考:

  1. 《kubespray2.11安装kubernetes1.15》
  2. 《部署和体验Helm(2.16.1版本)》

准备完毕,开始实操;

创建PV

  1. 在kubernetes工作节点创建文件夹给Local PV使用,我这是:/root/temp/202005/24/local-pv/
  2. 给上述文件夹读写权限:chmod -R a+r,a+w /root/temp/202005/24/local-pv
  3. 创建文件local-storage-pv.yaml,内容如下:
apiVersion: v1
kind: PersistentVolume
metadata:
  name: example-pv
spec:
  capacity:
    storage: 10Gi
  volumeMode: Filesystem
  accessModes:
  - ReadWriteOnce
  persistentVolumeReclaimPolicy: Delete
  storageClassName: local-storage
  local:
    path: /root/temp/202005/24/local-pv
  nodeAffinity:
    required:
      nodeSelectorTerms:
      - matchExpressions:
        - key: kubernetes.io/hostname
          operator: In
          values:
          - node1
  1. 关于local-storage-pv.yaml有以下几点需要注意:

a. spec.storageClassName等于local-storage,后面的PVC中也要指定storageClassName等于local-storage
b. spec.nodeAffinity是必填参数,用于建立Local PV和节点的关系,spec.nodeAffinity.required,nodeSelectorTerms.matchExpressions.values的值包含node1,表示该Local PV可以在主机名为node1的节点创建;

  1. 执行命令kubectl apply -f local-storage-pv.yaml,即可创建PV;
  2. 执行kubectl describe pv example-pv检查是否创建成功,如下图红框所示,此PV已经可用:

在这里插入图片描述

使用PV

接下来通过helm部署tomcat,并且让tomcat使用上述Local PV,请确保helm已经装好;

  1. 增加helm仓库(带有tomcat的仓库):helm repo add bitnami https: //charts.bitnami.com/bitnami
  2. 下载tomcat的chart:helm fetch bitnami/tomcat
  3. chart下载成功后,当前目录出现tomcat配置压缩包tomcat-6.2.4.tgz,解压:tar -zxvf tomcat-6.2.4.tgz
  4. 解压得到tomcat文件夹,进入后打开values.yaml文件,找到persistence节点,增加下图红框中的内容:

在这里插入图片描述

  1. 在tomcat目录下执行命令:helm install --name-template tomcat001 -f values.yaml . --namespace hello-storageclass
  2. 查看tomcat的pod和service情况,一切正常,并且端口映射到了宿主机的31835:

在这里插入图片描述

  1. 浏览器访问宿主机IP:31835,出现tomcat欢迎页面:

在这里插入图片描述

  1. 去目录/root/temp/202005/24/local-pv/检查磁盘使用情况,如下图,可见已分配给tomcat的PVC,并且写入了tomcat的基本数据:

在这里插入图片描述

  1. 再次查看Local PV,发现状态已经改变:

在这里插入图片描述
至此可以确认,tomcat用上了Local PV,数据被保存在宿主机的指定文件夹;

清理Local PV

  1. 一般来说,清理PV要做如下操作:

a. 删除pod,或者deployment;
b. 删除pvc;
c. 删除Local PV;

  1. 这里由于用上了helm,因此通过helm将上述步骤1和2执行掉,既命令helm delete tomcat001
  2. 再在local-storage-pv.yaml所在目录执行kubectl delete -f local-storage-pv.yaml即可删除Local PV;

至此,Local PV的学习和实践就完成了,如果您正在使用这种存储,希望本文能给您一些参考;

欢迎关注阿里云开发者社区:程序员欣宸

学习路上,你不孤单,欣宸原创一路相伴...
相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
相关文章
|
7月前
|
存储 Kubernetes 安全
k8s学习-持久化存储(Volumes、hostPath、emptyDir、PV、PVC)详解与实战
k8s学习-持久化存储(Volumes、hostPath、emptyDir、PV、PVC)详解与实战
517 0
|
存储 Kubernetes NoSQL
kubernetes之volumes使用
kubernetes之volumes使用
106 0
|
存储 Kubernetes 固态存储
Kubernetes 存储概念之Volumes介绍
Kubernetes 存储概念之Volumes介绍
197 0
|
存储 Kubernetes 容器
在阿里云容器K8S服务中使用PV为pod来Mount Volumes
容器服务可以自动将Kubernetes pods绑定到阿里云磁盘、NAS、OSS上。 下面进行OSS创建PV、PVC等操作。
658 0
在阿里云容器K8S服务中使用PV为pod来Mount Volumes
|
存储 Kubernetes 数据库
Kubernetes(k8s)v1.7新特性 新增StorageOS卷插件与Local持久存储
背景介绍 在Kubernetes中卷的作用在于提供给POD存储,这些存储可以挂载到POD中的容器上,进而给容器提供存储。 从图中可以看到结构体PodSpec有个属性是Volumes,通过这个Volumes属性可以关联到结构体Volume和结构体VolumeSource,而且这个Volumes属性是一个数组类型,就是说POD可以关联到多个不同类型的卷上面。
2471 0
|
存储 Kubernetes 关系型数据库
技术干货 | K8S如何引入Volumes?
Number1 为什么引入Volume? 当container crash的时候,kubelet将会重启它,里面之前运行的数据将会丢失,容器将以一个clean state的状态来启动。 运行在pod中的containers通常会共享数据,volumes的概念就是为了解决这些问题。
2642 0
|
9天前
|
存储 Kubernetes 关系型数据库
阿里云ACK备份中心,K8s集群业务应用数据的一站式灾备方案
本文源自2024云栖大会苏雅诗的演讲,探讨了K8s集群业务为何需要灾备及其重要性。文中强调了集群与业务高可用配置对稳定性的重要性,并指出人为误操作等风险,建议实施周期性和特定情况下的灾备措施。针对容器化业务,提出了灾备的新特性与需求,包括工作负载为核心、云资源信息的备份,以及有状态应用的数据保护。介绍了ACK推出的备份中心解决方案,支持命名空间、标签、资源类型等维度的备份,并具备存储卷数据保护功能,能够满足GitOps流程企业的特定需求。此外,还详细描述了备份中心的使用流程、控制台展示、灾备难点及解决方案等内容,展示了备份中心如何有效应对K8s集群资源和存储卷数据的灾备挑战。
|
1月前
|
Kubernetes 监控 Cloud Native
Kubernetes集群的高可用性与伸缩性实践
Kubernetes集群的高可用性与伸缩性实践
71 1
|
2月前
|
JSON Kubernetes 容灾
ACK One应用分发上线:高效管理多集群应用
ACK One应用分发上线,主要介绍了新能力的使用场景
|
2月前
|
Kubernetes 持续交付 开发工具
ACK One GitOps:ApplicationSet UI简化多集群GitOps应用管理
ACK One GitOps新发布了多集群应用控制台,支持管理Argo CD ApplicationSet,提升大规模应用和集群的多集群GitOps应用分发管理体验。