k8s--数据存储、HostPath、NFS 存储

简介: k8s--数据存储、HostPath、NFS 存储

HostPath


在使用 EmptyDir 的时候,EmptyDir 中数据不会被持久化,它会随着 pod 的结束而销毁,如果想简单的将数据持久化到主机中,可以选择 HostPath

HostPath 就是将 Node 主机中一个实际目录挂载到 pod 中,以供容器使用,这样的设计就可以保证 pod 销毁了,但是数据依然可以存在于 Node 主机上

创建一个 volume-hostpath.yaml,内容如下

apiVersion: v1
kind: Pod # 类型为 pod
metadata:
  name: volume-hostpath # pod 的名称
  namespace: zouzou
spec:
  containers:
  - name: nginx
    image: nginx:1.14
    ports:
    - containerPort: 80 # 暴露容器的端口
    volumeMounts: # 挂载
    - name: logs-volume # 要和 volumes 的name 一致
      mountPath: /var/log/nginx
  - name: busybox
    image: busybox:1.30
    command: ["/bin/sh","-c","tail -f /logs/access.log"]
    volumeMounts:
    - name: logs-volume
      mountPath: /logs
  volumes:
  - name: logs-volume  #
    hostPath: 
      path: /tmp/logs # 挂载到 node 主机上的 /tmp/log 目录下
      type: DirectoryOrCreate  # 目录存在就使用,不存在就先创建后使用

关于type的值的一点说明:

  • DirectoryOrCreate:目录存在就使用,不存在就先创建后使用
  • Directory:目录必须存在
  • FileOrCreate:文件存在就使用,不存在就先创建后使用
  • File:文件必须存在
  • Socket:unix 套接字必须存在
  • CharDevice:字符设备必须存在
  • BlockDevice:块设备必须存在

创建 pod

# 创建 pod
[root@dce-10-6-215-215 pod-dir]# kubectl apply -f volume-hostpath.yaml
pod/volume-hostpath created

查看 pod

# pod 的 ip 地址为 172.29.35.63,并且在 dce-10-6-215-200 的节点上创建了
[root@dce-10-6-215-215 pod-dir]# kubectl get pod -n zouzou -o wide
NAME              READY   STATUS    RESTARTS   AGE   IP             NODE               NOMINATED NODE   READINESS GATES
volume-hostpath   2/2     Running   0          32s   172.29.35.63   dce-10-6-215-200   <none>           <none>

我们登录到 dce-10-6-215-200 的 node 节点上,看 /tmp/logs 目录存在不

可以看到,目录自动创建了,并且创建了两个日志文件,我们打印下 access.log 文件里的内容

# 实时查看日志,在 node 节点上查看
tail -f access.log

因为 pod 是我们刚创建的,还没有访问 nginx,所以还没有日志产生,接下来,我们访问下 nginx

# ip 换成你自己的 ip
curl 172.29.35.63:80

访问几次后,在 node 节点上去查看日志,这时候发现已经有日志输出了

然后我们删除 pod,查看文件里里面的内容是否还存在

# 删除 pod
kubectl delete -f volume-hostpath.yaml

删除 pod 之前在去 dce-10-6-215-200 的 node 节点上查看,发现文件和文件里面的内容还是存在的。当我们重新创建 pod 时,在访问,日志会接着往里面写入,不会删除之前的日志


NFS


HostPath 可以解决数据持久化的问题,但是一旦 Node 节点故障了,pod 如果转移到了别的节点,又会出现问题了,此时需要准备单独的网络存储系统,比较常用的是 NFS、CIFS

NFS 是一个网络文件存储系统,可以搭建一台 NFS 服务器,然后将 pod 中的存储直接连接到 NFS 系统上,这样的话,无论 pod 在节点上怎么转移,只要 Node 跟 NFS 的对接没问题,数据就可以访问成功

首先要准备 nfs 的服务器,这里为了简单,直接是 master 节点做 nfs 服务器

在 master 机器上安装 nfs 服务

# 安装 nfs 服务
yum install nfs-utils -y

在 master 上准备一个共享目录

# 创建一个共享目录,-p 递归创建,-v 显示创建信息
[root@dce-10-6-215-215 ~]# mkdir /root/data/nfs -pv
mkdir: created directory ‘/root/data’
mkdir: created directory ‘/root/data/nfs’

将共享目录以读写权限暴露给 10.6.215.0/24 网段中的所有主机(注意,网段要是你自己的网段,我这里 master 和 node 节点的 ip 都是 10.6.215.xxx

# 在 /etc 创建个 exports 文件
vim /etc/exports

将下面内容写入到文件里

/root/data/nfs     10.6.215.0/24(rw,no_root_squash)
  • rw :表示读写模式
  • no_root_squash :登入 NFS 主机使用分享目录的使用者,如果是 root 的话,那么对于这个分享的目录来说,他就具有 root 的权限

启动 nfs 服务

systemctl restart nfs

接下来,要在每 个node 节点上都安装下 nfs,这样的目的是为了 node 节点可以驱动 nfs 设备。只安装就可以了,不需要启动 nfs 服务

# 在所有 node 节点上安装 nfs,不需要启动
yum install nfs-utils -y

接下来,就可以编写 pod 的配置文件了,创建 volume-nfs.yaml,内容如下

apiVersion: v1
kind: Pod # 类型为 pod
metadata:
  name: volume-nfs # pod 的名称
  namespace: zouzou
spec:
  containers:
  - name: nginx
    image: nginx:1.14
    ports:
    - containerPort: 80 # 暴露容器里面的 80 端口
    volumeMounts: # 挂载
    - name: logs-volume # 名字要和 volumes 里的一致
      mountPath: /var/log/nginx
  - name: busybox
    image: busybox:1.30
    command: ["/bin/sh","-c","tail -f /logs/access.log"] 
    volumeMounts:
    - name: logs-volume
      mountPath: /logs
  volumes:
  - name: logs-volume
    nfs: # nfs 类型
      server: 10.6.215.215  # nfs 服务器地址
      path: /root/data/nfs # 共享文件路径

创建 pod

# 创建 pod
[root@dce-10-6-215-215 nfs]# kubectl apply -f volume-nfs.yaml
pod/volume-nfs created

查看 pod

# 查看 pod,pod 的 ip 为 172.29.35.63
[root@dce-10-6-215-215 nfs]# kubectl get pods volume-nfs -n zouzou -o wide
NAME         READY   STATUS    RESTARTS   AGE   IP             NODE               NOMINATED NODE   READINESS GATES
volume-nfs   2/2     Running   0          98s   172.29.35.63   dce-10-6-215-200   <none>           <none>

查看 nfs 服务器上的共享目录,发现已经有文件了

查看下 access.log 文件里的内容

tail -f access.log

刚开始是没有的,用 pod 的 ip 访问下 nginx

curl 172.29.35.63:80


相关实践学习
容器服务Serverless版ACK Serverless 快速入门:在线魔方应用部署和监控
通过本实验,您将了解到容器服务Serverless版ACK Serverless 的基本产品能力,即可以实现快速部署一个在线魔方应用,并借助阿里云容器服务成熟的产品生态,实现在线应用的企业级监控,提升应用稳定性。
云原生实践公开课
课程大纲 开篇:如何学习并实践云原生技术 基础篇: 5 步上手 Kubernetes 进阶篇:生产环境下的 K8s 实践 相关的阿里云产品:容器服务&nbsp;ACK 容器服务&nbsp;Kubernetes&nbsp;版(简称&nbsp;ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情:&nbsp;https://www.aliyun.com/product/kubernetes
相关文章
|
4月前
|
存储 Kubernetes Linux
解决Linux中/var/lib/docker/磁盘空间过大及k8s存储卷磁盘空间使用率过高的问题
解决Linux中/var/lib/docker/磁盘空间过大及k8s存储卷磁盘空间使用率过高的问题
147 0
|
1月前
|
存储 运维 Kubernetes
K8S基于NFS来动态创建PV【亲测可用】
K8S基于NFS来动态创建PV【亲测可用】
73 2
|
4月前
|
存储 Kubernetes Docker
k8s持久化储存:pv,pvc和nfs等相关技术
k8s持久化储存:pv,pvc和nfs等相关技术
|
4月前
|
存储 Kubernetes 关系型数据库
kubernetes学习之持久化存储StorageClass(4---nfs存储服务)
kubernetes学习之持久化存储StorageClass(4---nfs存储服务)
47 0
|
4月前
|
存储 网络协议 Linux
哇~真的是你呀!哎呀!今天是LINUX中的NFS存储服务
NFS(Network File System)是一种用于共享文件系统的协议,常用于Linux系统中。它允许在网络上共享文件和目录,使得多台计算机可以共享和访问相同的文件资源。以下是关于Linux中的NFS服务的简要介绍。
56 0
|
4月前
|
存储 网络协议 Unix
小白带你学习Linux的NFS存储(二十五)
小白带你学习Linux的NFS存储(二十五)
60 0
|
4月前
|
存储 Kubernetes API
k8s实战系列:3-存储的花样玩法(下)
k8s实战系列:3-存储的花样玩法(下)
28 0
|
4月前
|
存储 Kubernetes Cloud Native
k8s实战系列:3-存储的花样玩法(上)
k8s实战系列:3-存储的花样玩法(上)
43 0
|
4月前
|
存储 Kubernetes 对象存储
Kubernetes存储:Ceph架构,部署和使用
Kubernetes存储:Ceph架构,部署和使用
78 0
|
4月前
|
存储 Kubernetes Unix
k8s教程(Volume篇)-CSI存储机制详解
k8s教程(Volume篇)-CSI存储机制详解
278 0
k8s教程(Volume篇)-CSI存储机制详解