k8s对接ceph集群的分布式文件系统CephFS

简介: 文章介绍了如何在Kubernetes集群中使用CephFS作为持久化存储,包括通过secretFile和secretRef两种方式进行认证和配置。

一.k8s使用cephFS指定加密文件之secretFile

1.k8s集群的所有worker节点安装ceph软件包

CentOS系统:
[root@master231 ~]# yum -y install ceph
[root@worker232 ~]# yum -y install ceph
[root@worker233 ~]# yum -y install ceph


Ubuntu系统:
[root@master231 ~]# apt -y install ceph-common
[root@worker232 ~]# apt -y install ceph-common
[root@worker233 ~]# apt -y install ceph-common

温馨提示:
    - 1.Ubuntu默认安装的最新版本是17.2.7
[root@master231 ~]# ceph -v
ceph version 17.2.7 (b12291d110049b2f35e32e0de30d70e9a4c060d2) quincy (stable)
[root@master231 ~]# 

    - 2.如果想要安装最新版本的18.2.4,可参考我之前的笔记
推荐阅读:
https://www.cnblogs.com/yinzhengjie/p/18372796#二ceph的管理节点配置

2.ceph节点将认证文件拷贝到K8S的所有worker节点

[root@ceph141 ~]# ceph auth print-key client.admin > admin.secret
[root@ceph141 ~]# 
[root@ceph141 ~]# more admin.secret
AQDjFrplyvFCDhAApJg111YMIGQ6/F/x/Y+qpQ==
[root@ceph141 ~]# 
[root@ceph141 ~]# 
[root@ceph141 ~]# scp admin.secret 10.0.0.231:/etc/ceph/
[root@ceph141 ~]# scp admin.secret 10.0.0.232:/etc/ceph/
[root@ceph141 ~]# scp admin.secret 10.0.0.233:/etc/ceph/

3.编写资源清单

[root@master231 cephfs]# cat 01-deploy-svc-volume-cephfs-admin-secretFile.yaml 
apiVersion: apps/v1
kind: Deployment
metadata:
  name: deploy-volume-cephfs-admin-secretfile
spec:
  replicas: 3
  selector:
    matchLabels:
      apps: ceph-fs
  template:
    metadata:
      labels:
        apps: ceph-fs
    spec:
      volumes:
      - name: data
        # 指定存储卷的类型是cephFS
        cephfs:
          monitors:
          - 10.0.0.141:6789
          - 10.0.0.142:6789
          - 10.0.0.143:6789
          # 指定引用的cephFS的路径,若不指定默认为"/"
          path: /
          # 对于Pod而言,无需修改文件,因此设置为true
          readOnly: true
          # 指定连接ceph集群的用户,若不指定,默认为admin
          user: admin
          # 指定admin用户对应的认证文件所在路径
          secretFile: "/etc/ceph/admin.secret"
      containers:
      - name: c1
        image: registry.cn-hangzhou.aliyuncs.com/yinzhengjie-k8s/apps:v1
        volumeMounts:
        - name: data
          mountPath: /yinzhengjie-data
        ports:
        - containerPort: 80

---

apiVersion: v1
kind: Service
metadata:
  name: svc-cephfs-secretfile
spec:
  type: NodePort
  selector:
    apps: ceph-fs
  ports:
  - protocol: TCP
    port: 80
    targetPort: 80
    nodePort: 20090
[root@master231 cephfs]#

4.创建资源

[root@master231 cephfs]# kubectl apply -f 01-deploy-svc-volume-cephfs-admin-secretFile.yaml 
deployment.apps/deploy-volume-cephfs-admin-secretfile unchanged
service/svc-cephfs-secretfile created
[root@master231 cephfs]# 
[root@master231 cephfs]# kubectl get pods -o wide
NAME                                                     READY   STATUS    RESTARTS   AGE   IP             NODE        NOMINATED NODE   READINESS GATES
deploy-volume-cephfs-admin-secretfile-6b847b7d84-9bf2n   1/1     Running   0          37s   10.100.1.177   worker232   <none>           <none>
deploy-volume-cephfs-admin-secretfile-6b847b7d84-tsbv6   1/1     Running   0          37s   10.100.2.34    worker233   <none>           <none>
deploy-volume-cephfs-admin-secretfile-6b847b7d84-vmdhk   1/1     Running   0          37s   10.100.2.33    worker233   <none>           <none>
[root@master231 cephfs]# 
[root@master231 cephfs]# kubectl get svc,ep svc-cephfs-secretfile 
NAME                            TYPE       CLUSTER-IP       EXTERNAL-IP   PORT(S)        AGE
service/svc-cephfs-secretfile   NodePort   10.200.110.202   <none>        80:20090/TCP   15s

NAME                              ENDPOINTS                                       AGE
endpoints/svc-cephfs-secretfile   10.100.1.177:80,10.100.2.33:80,10.100.2.34:80   15s
[root@master231 cephfs]#

5.访问测试

http://10.0.0.233:20090/

6.推荐阅读

参考链接:
    https://github.com/kubernetes/examples/blob/master/volumes/cephfs/README.md
    https://www.cnblogs.com/yinzhengjie/p/14305987.html

二.k8s使用cephFS指定秘钥之secretRef

1.将K8S所有的worker节点的对应的认证文件全部删除

[root@master231 ~]# rm -f /etc/ceph/admin.secret 
[root@worker232 ~]# rm -f /etc/ceph/admin.secret 
[root@worker233 ~]# rm -f /etc/ceph/admin.secret

2.对ceph集群的admin用户的KEY进行base64编码

[root@ceph141 ~]# grep key /etc/ceph/ceph.client.admin.keyring | awk '{printf "%s", $NF}' | base64 
QVFEakZycGx5dkZDRGhBQXBKZzExMVlNSUdRNi9GL3gvWStxcFE9PQ==
[root@ceph141 ~]#

3.编写资源清单

[root@master231 cephfs]# cat 02-deploy-svc-ing-secrets-volume-cephfs-admin-secretRef.yaml 
apiVersion: v1
kind: Secret
metadata:
  name: ceph-admin-secret
type: "kubernetes.io/rbd"
data:
  # 指定ceph的admin的KEY,将其进行base64编码,此处需要修改! 
  key: QVFEakZycGx5dkZDRGhBQXBKZzExMVlNSUdRNi9GL3gvWStxcFE9PQ==

---

apiVersion: apps/v1
kind: Deployment
metadata:
  name: deploy-volume-cephfs-admin-secretref
spec:
  replicas: 3
  selector:
    matchLabels:
      apps: ceph-fs
  template:
    metadata:
      labels:
        apps: ceph-fs
    spec:
      volumes:
      - name: data
        cephfs:
          monitors:
          - 10.0.0.141:6789
          - 10.0.0.142:6789
          - 10.0.0.143:6789
          readOnly: true
          user: admin
          secretRef:
            name: ceph-admin-secret
      containers:
      - name: c1
        image: registry.cn-hangzhou.aliyuncs.com/yinzhengjie-k8s/apps:v2
        volumeMounts:
        - name: data
          mountPath: /yinzhengjie-data
        ports:
        - containerPort: 80

---

apiVersion: v1
kind: Service
metadata:
  name: svc-cephfs-secrets
spec:
  selector:
    apps: ceph-fs
  ports:
  - protocol: TCP
    port: 80
    targetPort: 80

---

apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
  name: apps-ingress-secrets
  annotations:
    # 指定Ingress controller的类型
    kubernetes.io/ingress.class: traefik
spec:
  # 指定Ingress controller的名称
  # ingressClassName: mytraefik
  rules:
  - host: v2.yinzhengjie.com
    http:
      paths:
      - backend:
          service:
            name: svc-cephfs-secrets
            port:
              number: 80
        path: /
        pathType: ImplementationSpecific
[root@master231 cephfs]#

4.创建资源

[root@master231 cephfs]# kubectl apply -f 02-deploy-svc-ing-secrets-volume-cephfs-admin-secretRef.yaml 
secret/ceph-admin-secret created
deployment.apps/deploy-volume-cephfs-admin-secretref created
service/svc-cephfs-secrets created
ingress.networking.k8s.io/apps-ingress-secrets created
[root@master231 cephfs]# 
[root@master231 cephfs]# kubectl get pods -o wide
NAME                                                     READY   STATUS        RESTARTS   AGE   IP             NODE        NOMINATED NODE   READINESS GATES
deploy-volume-cephfs-admin-secretref-84555b8b8f-8d4jp    1/1     Running       0          4s    10.100.2.38    worker233   <none>           <none>
deploy-volume-cephfs-admin-secretref-84555b8b8f-cdxng    1/1     Running       0          4s    10.100.2.37    worker233   <none>           <none>
deploy-volume-cephfs-admin-secretref-84555b8b8f-lxmrb    1/1     Running       0          4s    10.100.1.179   worker232   <none>           <none>
[root@master231 cephfs]# 
[root@master231 cephfs]# 
[root@master231 cephfs]# kubectl get svc,ep 
kubernetes          svc-cephfs-secrets  
[root@master231 cephfs]# kubectl get svc,ep svc-cephfs-secrets 
NAME                         TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)   AGE
service/svc-cephfs-secrets   ClusterIP   10.200.163.115   <none>        80/TCP    12s

NAME                           ENDPOINTS                                       AGE
endpoints/svc-cephfs-secrets   10.100.1.179:80,10.100.2.37:80,10.100.2.38:80   12s
[root@master231 cephfs]# 
[root@master231 cephfs]# kubectl get ing apps-ingress-secrets 
NAME                   CLASS    HOSTS              ADDRESS   PORTS   AGE
apps-ingress-secrets   <none>   v2.yinzhengjie.com             80      26s
[root@master231 cephfs]# 
[root@master231 cephfs]# 
[root@master231 cephfs]# kubectl describe ing apps-ingress-secrets 
Name:             apps-ingress-secrets
Labels:           <none>
Namespace:        default
Address:          
Default backend:  default-http-backend:80 (<error: endpoints "default-http-backend" not found>)
Rules:
  Host              Path  Backends
  ----              ----  --------
  v2.yinzhengjie.com  
                    /   svc-cephfs-secrets:80 (10.100.1.179:80,10.100.2.37:80,10.100.2.38:80)
Annotations:        kubernetes.io/ingress.class: traefik
Events:             <none>
[root@master231 cephfs]# 
[root@master231 cephfs]# kubectl -n yinzhengjie-traefik get po,svc 
NAME                             READY   STATUS    RESTARTS   AGE
pod/mytraefik-5f6bd48975-6w8gm   1/1     Running   0          3d

NAME                TYPE           CLUSTER-IP      EXTERNAL-IP   PORT(S)                      AGE
service/mytraefik   LoadBalancer   10.200.205.77   10.0.0.189    80:18238/TCP,443:13380/TCP   12d
[root@master231 cephfs]#

5.添加windows主机解析

10.0.0.189  v2.yinzhengjie.com

6.访问测试

http://v2.yinzhengjie.com/

7.推荐阅读

参考链接:
    https://github.com/kubernetes/examples/blob/master/volumes/cephfs/README.md
    https://www.cnblogs.com/yinzhengjie/p/14305987.html
相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
目录
相关文章
|
9天前
|
存储 Kubernetes 关系型数据库
阿里云ACK备份中心,K8s集群业务应用数据的一站式灾备方案
本文源自2024云栖大会苏雅诗的演讲,探讨了K8s集群业务为何需要灾备及其重要性。文中强调了集群与业务高可用配置对稳定性的重要性,并指出人为误操作等风险,建议实施周期性和特定情况下的灾备措施。针对容器化业务,提出了灾备的新特性与需求,包括工作负载为核心、云资源信息的备份,以及有状态应用的数据保护。介绍了ACK推出的备份中心解决方案,支持命名空间、标签、资源类型等维度的备份,并具备存储卷数据保护功能,能够满足GitOps流程企业的特定需求。此外,还详细描述了备份中心的使用流程、控制台展示、灾备难点及解决方案等内容,展示了备份中心如何有效应对K8s集群资源和存储卷数据的灾备挑战。
|
1月前
|
Kubernetes 监控 Cloud Native
Kubernetes集群的高可用性与伸缩性实践
Kubernetes集群的高可用性与伸缩性实践
71 1
|
2月前
|
JSON Kubernetes 容灾
ACK One应用分发上线:高效管理多集群应用
ACK One应用分发上线,主要介绍了新能力的使用场景
|
1月前
|
存储 分布式计算 负载均衡
分布式计算模型和集群计算模型的区别
【10月更文挑战第18天】分布式计算模型和集群计算模型各有特点和优势,在实际应用中需要根据具体的需求和条件选择合适的计算架构模式,以达到最佳的计算效果和性能。
61 2
|
2月前
|
Kubernetes 持续交付 开发工具
ACK One GitOps:ApplicationSet UI简化多集群GitOps应用管理
ACK One GitOps新发布了多集群应用控制台,支持管理Argo CD ApplicationSet,提升大规模应用和集群的多集群GitOps应用分发管理体验。
|
2月前
|
Kubernetes Ubuntu Linux
Centos7 搭建 kubernetes集群
本文介绍了如何搭建一个三节点的Kubernetes集群,包括一个主节点和两个工作节点。各节点运行CentOS 7系统,最低配置为2核CPU、2GB内存和15GB硬盘。详细步骤包括环境配置、安装Docker、关闭防火墙和SELinux、禁用交换分区、安装kubeadm、kubelet、kubectl,以及初始化Kubernetes集群和安装网络插件Calico或Flannel。
202 4
|
2月前
|
Kubernetes 应用服务中间件 nginx
搭建Kubernetes v1.31.1服务器集群,采用Calico网络技术
在阿里云服务器上部署k8s集群,一、3台k8s服务器,1个Master节点,2个工作节点,采用Calico网络技术。二、部署nginx服务到k8s集群,并验证nginx服务运行状态。
915 1
|
2月前
|
Kubernetes Cloud Native 流计算
Flink-12 Flink Java 3分钟上手 Kubernetes云原生下的Flink集群 Rancher Stateful Set yaml详细 扩容缩容部署 Docker容器编排
Flink-12 Flink Java 3分钟上手 Kubernetes云原生下的Flink集群 Rancher Stateful Set yaml详细 扩容缩容部署 Docker容器编排
91 3
|
2月前
|
分布式计算 Hadoop
Hadoop-27 ZooKeeper集群 集群配置启动 3台云服务器 myid集群 zoo.cfg多节点配置 分布式协调框架 Leader Follower Observer
Hadoop-27 ZooKeeper集群 集群配置启动 3台云服务器 myid集群 zoo.cfg多节点配置 分布式协调框架 Leader Follower Observer
52 1
|
2月前
|
分布式计算 Hadoop 网络安全
Hadoop-08-HDFS集群 基础知识 命令行上机实操 hadoop fs 分布式文件系统 读写原理 读流程与写流程 基本语法上传下载拷贝移动文件
Hadoop-08-HDFS集群 基础知识 命令行上机实操 hadoop fs 分布式文件系统 读写原理 读流程与写流程 基本语法上传下载拷贝移动文件
41 1