写在前面
K8s本质上是一个容器的编排工具,无论是service、pod最终数据都是落在countainer层面的;玩过docker的朋友都知道,docker一旦删除容器,所有的数据都会没掉,所以如果要保存数据的话当时是通过volumn的方式挂载到宿主机上的,同理,宿主机里面的文件也可以挂载到容器里面去。我们把这种挂载的过程称为数据持久化。
那么到k8s里面来呢?如何实现的持久化呢?那么就要谈到存储了,从分类上来讲,有两类分类,一类是动态、一类是静态。
从挂载模式上来看,可以分为网络存储与本地存储;网络存储的话,阿里云可以用的就几类:NAS、OSS、Disk;本地通过volumn挂载的话只能通过disk了,而且只有分布在特定节点上的pod上的数据才可以volumn,这就类似于把本地块存储里面的数据通过namespace的方式共享给了容器存储。
开源社区里面目前解决kubernetes集群大概有两种比较主流的方案:
1.nfs,开箱即用,搭建简单,但是性能比较一般
2.glusterfs or ceph 其实都是一个集群内所有节点都可以共享的分布式文件系统,比nfs可靠地方就在于分布式。
搭建过程
1.搭建nfs共享存储
服务端,选择master作为服务端
#master节点安装nfs
yum -y install nfs-utils
#创建nfs目录
mkdir -p /nfs/data/
#修改权限
chmod -R 777 /nfs/data
#编辑export文件
vim /etc/exports
/nfs/data *(rw,no_root_squash,sync)
#配置生效
exportfs -r
#查看生效
exportfs
#启动rpcbind、nfs服务
systemctl restart rpcbind && systemctl enable rpcbind
systemctl restart nfs && systemctl enable nfs
#查看 RPC 服务的注册状况
rpcinfo -p localhost
#showmount测试
showmount -e 192.168.0.242
所有节点安装nfs客户端
ansible k8s -m yum -a "name=nfs-utils "
/usr/lib/python2.7/site-packages/requests/__init__.py:80: RequestsDependencyWarning: urllib3 (1.22) or chardet (2.2.1) doesn't match a supported version!
RequestsDependencyWarning)
192.168.0.243 | CHANGED => {
"ansible_facts": {
"pkg_mgr": "yum"
},
"changed": true,
"msg": "",
"rc": 0,
作为准备工作,我们已经在 k8s-master 节点上搭建了一个 NFS 服务器,目录为 /nfs/data.
2.静态申请PV卷
添加pv卷对应目录,这里创建2个pv卷,则添加2个pv卷的目录作为挂载点。
#创建pv卷对应的目录
mkdir -p /nfs/data/pv001
mkdir -p /nfs/data/pv002
#配置exportrs
vim /etc/exports
/nfs/data *(rw,no_root_squash,sync)
/nfs/data/pv001 *(rw,no_root_squash,sync)
/nfs/data/pv002 *(rw,no_root_squash,sync)
#配置生效
exportfs -r
#重启rpcbind、nfs服务
systemctl restart rpcbind && systemctl restart nfs
pv和pvc的关系可以简单的理解成pvgroup和lvgroup的关系
下面创建2个名为pv001和pv002的PV卷,配置文件 nfs-pv001.yaml 如下:
nfs-pv002.yaml文件如下:
配置说明:
① capacity 指定 PV 的容量为 1G。
② accessModes 指定访问模式为 ReadWriteOnce,支持的访问模式有:
ReadWriteOnce – PV 能以 read-write 模式 mount 到单个节点。
ReadOnlyMany – PV 能以 read-only 模式 mount 到多个节点。
ReadWriteMany – PV 能以 read-write 模式 mount 到多个节点。
③ persistentVolumeReclaimPolicy 指定当 PV 的回收策略为 Recycle,支持的策略有:
Retain – 需要管理员手工回收。
Recycle – 清除 PV 中的数据,效果相当于执行 rm -rf /thevolume/*。
Delete – 删除 Storage Provider 上的对应存储资源,例如 AWS EBS、GCE PD、Azure
Disk、OpenStack Cinder Volume 等。
④ storageClassName 指定 PV 的 class 为 nfs。相当于为 PV 设置了一个分类,PVC 可以指定 class 申请相应 class 的 PV。
⑤ 指定 PV 在 NFS 服务器上对应的目录。
创建pv
STATUS 为 Available,表示 pv就绪,可以被 PVC 申请。
创建PVC
接下来创建一个名为pvc001和pvc002的PVC,配置文件 nfs-pvc001{2}.yaml 如下:
[centos@k8s-master ~]$ for i in ./*pvc*; do kubectl apply -f $i; done
persistentvolumeclaim/nfs-pvc001 unchanged
persistentvolumeclaim/nfs-pvc002 unchanged
从 kubectl get pvc 和 kubectl get pv 的输出可以看到 pvc001 和pvc002分别绑定到pv001和pv002,申请成功。注意pvc绑定到对应pv通过labels标签方式实现,也可以不指定,将随机绑定到pv。
接下来就可以在 Pod 中使用存储了,Pod 配置文件 nfs-pod001.yaml 如下: