k8s学习之路【03.容器持久化存储】

简介: k8s学习之路【03.容器持久化存储】

容器持久化存储


容器的本质是进程,对于进程,Linux系统有进程组的概念来将其组织在一起。在k8s里面,使用Pod这个逻辑概念来维护容器间的关系。

5.png有了Pod后,我们的应用程序需要被创建和管理,这就引出了ReplicaSetDeployment;然后需要将部署好的应用暴露给外部进行访问,Service可以提供一个固定的 ip 和端口让外部访问。


对于有状态的应用,可以使用StatefulSet来进行状态的恢复,在上一节概念介绍[1]里面有提到,有状态的应用是离不开持久化存储的。


引子


Docker中,如果一个容器在运行过程中会产生数据并写入到文件系统,当关闭这个容器,用镜像再启动一个容器的时候,你就会意识到新容器并不会识别前一个容器写入文件系统内的任何内容。


对于有状态的应用,我们希望下次启动的应用可以保持住上次的状态;在k8s里面可以通过定义存储卷来满足这个需求,它们不像Pod这样的顶级资源,而是被定义为Pod的一部分,并和Pod共享相同的生命周期。因此在Pod里面容器重新启动期间,卷的内容是不变的,



emptyDir


Pod中如何定义卷?让我们从emptyDir开始。设想一个这样的例子,一个Pod应用由两个容器,容器 A 不断产生数据,容器 B 将 A 产生的数据作为输出。此时,这两个容器就需要使用同一个卷。


让我们实际操作一下,vim fortune-pod.yaml:

apiVersion: v1
kind: Pod
metadata:
  name: fortune
spec:
  containers:
  - image: luksa/fortune
    name: html-generator
    volumeMounts:
    - name: html
      mountPath: /var/htdocs
  - image: nginx:alpine
    name: web-server
    volumeMounts:
    - name: html
      mountPath: /usr/share/nginx/html
      readOnly: true
    ports:
    - containerPort: 80
      protocol: TCP
  volumes:
  - name: html
    emptyDir: {}

说明一下上述配置文件的含义:fortune镜像是k8s in action书中示例打包的镜像,相当于上面说的不断产生数据的容器 A,其中名为html的容器挂载在var/htdocs中;而nginx也挂载了相同的html卷,不过位置在/usr/share/nginx/html,上面两个容器共用的卷就是emptyDir: {}


启动来感受一下:

kubectl create -f fortune-pod.yaml
# 输出
pod/fortune created
# 查看状态
kubectl get pods
# 输出
NAME      READY   STATUS    RESTARTS   AGE
fortune   2/2     Running   0          2m27s
# 暂时服务化
kubectl port-forward fortune 8080:80

此时服务就处于可用状态了,在终端输入curl http://localhost:8080/,基本上每隔10s,都会返回不同的响应,如下图:

6.png

emptyDir卷是最简单的卷类型,但是其他类型的卷都是在它的基础上构建的,在创建空目录后,相应的容器会将数据写入。


gitRepo


假设你有在github上开发项目,gitRepo卷允许你定义好相关配置然后直接从github上下拉项目将数据共享给其他容器使用。


hostPath


前面说的卷都是停留在共享同一个Pod的文件,当其需要读取节点文件的时候,就需要hostPath卷出场了。和之前介绍的卷最大的不同之处是,hostPath是一个持久性存储的卷,其目录存在于对应节点主机的目录。


所以,hostPath仅仅适用于在节点上读取数据,如果你的需求是跨Pod,那么NAS才是你的解决方案。


NFS


目前相关的云商都会有一套自己的持久化方式,我目前是自己搭建的k8s,所以我只能实践一下NAS方案,新建文件vim mongodb-pod-nfs.yaml,输入以下内容:

apiVersion: v1
kind: Pod
metadata:
  name: mongodb-nfs
spec:
  volumes:
  - name: mongodb-data
    nfs:
      server: 1.2.3.4
      path: /some/path
  containers:
  - image: mongo
    name: mongodb
    volumeMounts:
    - name: mongodb-data
      mountPath: /data/db
    ports:
    - containerPort: 27017
      protocol: TCP

启动:

kubectl create -f mongodb-pod-nfs.yaml
# 查看状态
kubectl get pods
# 输出
NAME          READY   STATUS    RESTARTS   AGE
mongodb-nfs   1/1     Running   0          3m13s

我们来验证一下数据持久化是否生效,输入命令kubectl exec -it mongodb-nfs mongo进入:

> use test_data
switched to db test_data
# 插入
> db.test.insert({"name": "howie"})
WriteResult({ "nInserted" : 1 })
# 查询
> db.test.find({})
{ "_id" : ObjectId("6041f5bc0c893dc3bb362e75"), "name" : "howie" }

接下来重新创建Pod看一下数据是不是还在:

kubectl delete pod mongodb-nfs
# 重新创建
kubectl create -f mongodb-pod-nfs.yaml
# 输出
pod/mongodb-nfs created
# 查看
kubectl get pods
# 输出
NAME          READY   STATUS    RESTARTS   AGE
mongodb-nfs   1/1     Running   0          28s

进入Pod内的mongo容器,输入命令kubectl exec -it mongodb-nfs mongo进入:

> use test_data
switched to db test_data
# 查询
> db.test.find({})
{ "_id" : ObjectId("6041f5bc0c893dc3bb362e75"), "name" : "howie" }

虽然我们成功让多个Pod享用了同一份数据,但这样做法有点问题,让开发人员在配置里面写具体NFS地址是很不友好的事情,我们可以使用持久卷来解决此问题。


持久卷&持久卷声明


介绍


前面NFS用来做持久化存储是一个反面的例子,对于真实的基础设施,其详细配置应该是被隐藏的;但是k8s又实实在在需要对一些基础设施进行访问,怎么办?引入新的资源:


  • 持久卷(PersistentVolume)

  • 持久卷声明(PersistentVolumeClaim)

持久卷由管理员创建(各种配置信息),然后用户创建持久卷声明,提交后k8s就会找到匹配的持久卷并将其绑定到持久卷声明。

7.png

这样做的好处在于,对于用户只需要关注声明一下需要多大的存储、需要什么权限(读写)等,然后 pod 通过其中一个卷的名称来引用声明就可以了,将细节完美地进行了隐藏。


实践


首先建立一个NFS类型的PV(一般是管理员进行创建),在终端输入vim mongodb-pv-nfs.yaml

apiVersion: v1
kind: PersistentVolume
metadata:
  name: nfs-pv
spec:
  capacity:
    storage: 10Mi
  accessModes:
    - ReadWriteMany
  nfs:
    server: 1.2.3.4
    path: "/"

接下来创建持久卷:

kubectl create -f mongodb-pv-nfs.yaml
# 输出
persistentvolume/nfs created
# 查看
kubectl get pv
# 输出
NAME     CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS      CLAIM   STORAGECLASS   REASON   AGE
nfs-pv   10Mi       RWX            Retain           Available                                   6s
# 关于删除
# kubectl delete pv nfs-pv

可以看到状态已经生效。


接下来就轮到使用者随意使用PV了,如果作为使用者,部署的Pod需要持久化存储,那么其需要做的就是创建PVC,在终端输入vim mongodb-pvc-nfs.yaml

apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: nfs-pvc
spec:
  accessModes:
    - ReadWriteMany
  resources:
    requests:
      storage: 10Mi
  storageClassName: ""

然后创建持久化声明:

kubectl create -f mongodb-pvc-nfs.yaml
# 输出
persistentvolumeclaim/nfs created
# 查看 pvc
kubectl get pvc
# 输出,注意状态是绑定
NAME      STATUS   VOLUME   CAPACITY   ACCESS MODES   STORAGECLASS   AGE
nfs-pvc   Bound    nfs-pv   10Mi       RWX                           6s
# 查看 pv
kubectl get pv
# 输出,状态是绑定
NAME     CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS   CLAIM             STORAGECLASS   REASON   AGE
nfs-pv   10Mi       RWX            Retain           Bound    default/nfs-pvc                           3m6s
# 关于删除
# kubectl delete pvc nfs-pvc

对于ACCESS MODES,主要分为以下几种:


  • RWO:ReadWriteOnce(仅允许单个节点挂载读写)

  • ROX:ReadOnlyMany(允许多个节点挂载只读)


  • RWX:ReadWriteMany(允许多个节点挂载读写这个卷)

现在,准备工作就绪,在Pod中使用持久卷就是引用持久卷名称,在终端输入vim mongo-pod-pvc.yaml

apiVersion: v1
kind: Pod
metadata:
  name: mongodb
spec:
  containers:
  - image: mongo
    name: mongodb
    volumeMounts:
    - name: mongodb-data
      mountPath: /data/db
    ports:
    - containerPort: 27017
      protocol: TCP
  volumes:
  - name: mongodb-data
    persistentVolumeClaim:
      claimName: nfs-pvc

创建Pod

# 先删除原先创建的 mongo Pod
kubectl delete pod mongodb-nfs
# 创建引用持久卷声明的 Pod
kubectl create -f mongodb-pod-pvc.yaml
# 输出
pod/mongodb created

进入Pod内的mongo容器,输入命令kubectl exec -it mongodb mongo进入:

> use test_data
switched to db test_data
# 查询
> db.test.find({})
{ "_id" : ObjectId("6041f5bc0c893dc3bb362e75"), "name" : "howie" }

没问题,引用了之前的NFS下的对应目录。


动态卷


前面提到,PV需要管理人员进行创建,在实际生产环境下,这个PV的需求量可能是非常大的,所以这种协调方式是不合理的。所以,k8s提供了一套可以自动创建PV的机制——动态卷

8.png

这张图将使用StorageClass的流程描述地很清楚,管理员创建一个或多个StorageClass,用户创建Pod引用PVC声明相关的storageClassName就会通过管理员创建的StorageClass自动创建PV


参考


本章关于容器持久化就介绍到这里了,谢谢!本部分内容有参考如下文章:


  • 深入剖析 Kubernetes[2]:持久化存储部分

  • Kubernetes in Action[3]中文版:可以算是第 6 章的读书笔记
相关实践学习
深入解析Docker容器化技术
Docker是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的Linux机器上,也可以实现虚拟化,容器是完全使用沙箱机制,相互之间不会有任何接口。Docker是世界领先的软件容器平台。开发人员利用Docker可以消除协作编码时“在我的机器上可正常工作”的问题。运维人员利用Docker可以在隔离容器中并行运行和管理应用,获得更好的计算密度。企业利用Docker可以构建敏捷的软件交付管道,以更快的速度、更高的安全性和可靠的信誉为Linux和Windows Server应用发布新功能。 在本套课程中,我们将全面的讲解Docker技术栈,从环境安装到容器、镜像操作以及生产环境如何部署开发的微服务应用。本课程由黑马程序员提供。     相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
相关文章
|
5月前
|
NoSQL 算法 Redis
【Docker】(3)学习Docker中 镜像与容器数据卷、映射关系!手把手带你安装 MySql主从同步 和 Redis三主三从集群!并且进行主从切换与扩容操作,还有分析 哈希分区 等知识点!
Union文件系统(UnionFS)是一种**分层、轻量级并且高性能的文件系统**,它支持对文件系统的修改作为一次提交来一层层的叠加,同时可以将不同目录挂载到同一个虚拟文件系统下(unite several directories into a single virtual filesystem) Union 文件系统是 Docker 镜像的基础。 镜像可以通过分层来进行继承,基于基础镜像(没有父镜像),可以制作各种具体的应用镜像。
691 6
|
6月前
|
存储 Kubernetes 网络安全
关于阿里云 Kubernetes 容器服务(ACK)添加镜像仓库的快速说明
本文介绍了在中国大陆地区因网络限制无法正常拉取 Docker 镜像的解决方案。作者所在的阿里云 Kubernetes 集群使用的是较旧版本的 containerd(1.2x),且无法直接通过 SSH 修改节点配置,因此采用了一种无需更改 Kubernetes 配置文件的方法。通过为 `docker.io` 添加 containerd 的镜像源,并使用脚本自动修改 containerd 配置文件中的路径错误(将错误的 `cert.d` 改为 `certs.d`),最终实现了通过多个镜像站点拉取镜像。作者还提供了一个可重复运行的脚本,用于动态配置镜像源。虽然该方案能缓解镜像拉取问题,
687 2
|
11月前
|
Kubernetes 调度 异构计算
生产环境 K8S + Deepseek 实现大模型部署 和 容器调度(图解+史上最全)
生产环境 K8S + Deepseek 实现大模型部署 和 容器调度(图解+史上最全)
生产环境 K8S + Deepseek 实现大模型部署 和 容器调度(图解+史上最全)
|
11月前
|
数据采集 消息中间件 Kubernetes
容器化爬虫部署:基于K8s的任务调度与自动扩缩容设计
随着业务复杂度提升,传统定时任务和手工扩缩容难以满足高并发与实时性需求。本文对比两种基于 Kubernetes 的爬虫调度与扩缩容方案:CronJob+HPA 和 KEDA。从调度灵活性、扩缩容粒度、实现难度等维度分析,并提供 YAML+Python 示例。方案 A(CronJob+HPA)适合固定定时任务,配置简单;方案 B(KEDA)支持事件驱动,适合高并发与异步触发场景。根据实际需求可混合使用,优化资源利用与效率。
390 4
|
存储 监控 对象存储
ACK 容器监控存储全面更新:让您的应用运行更稳定、更透明
ACK 容器监控存储全面更新:让您的应用运行更稳定、更透明
360 0
ACK 容器监控存储全面更新:让您的应用运行更稳定、更透明
|
存储 监控 对象存储
ACK 容器监控存储全面更新:让您的应用运行更稳定、更透明
ACK 容器监控存储全面更新:让您的应用运行更稳定、更透明
282 1
|
12月前
|
存储 运维 Kubernetes
容器数据保护:基于容器服务 Kubernetes 版(ACK)备份中心实现K8s存储卷一键备份与恢复
阿里云ACK备份中心提供一站式容器化业务灾备及迁移方案,减少数据丢失风险,确保业务稳定运行。
|
监控 Cloud Native Java
基于阿里云容器服务(ACK)的微服务架构设计与实践
本文介绍如何利用阿里云容器服务Kubernetes版(ACK)构建高可用、可扩展的微服务架构。通过电商平台案例,展示基于Java(Spring Boot)、Docker、Nacos等技术的开发、容器化、部署流程,涵盖服务注册、API网关、监控日志及性能优化实践,帮助企业实现云原生转型。
|
5月前
|
人工智能 算法 调度
阿里云ACK托管集群Pro版共享GPU调度操作指南
本文介绍在阿里云ACK托管集群Pro版中,如何通过共享GPU调度实现显存与算力的精细化分配,涵盖前提条件、使用限制、节点池配置及任务部署全流程,提升GPU资源利用率,适用于AI训练与推理场景。
508 1
|
5月前
|
弹性计算 监控 调度
ACK One 注册集群云端节点池升级:IDC 集群一键接入云端 GPU 算力,接入效率提升 80%
ACK One注册集群节点池实现“一键接入”,免去手动编写脚本与GPU驱动安装,支持自动扩缩容与多场景调度,大幅提升K8s集群管理效率。
349 89

推荐镜像

更多