云原生|kubernetes |部署k8s图形化管理组件 kuboard v3

简介: 云原生|kubernetes |部署k8s图形化管理组件 kuboard v3

前言


kubernetes的图形化管理工具是非常多的,比较常用的比如官方的kubernetes dashboard,青云的kubesphere,私有化部署的rancher等等。官方的dashboard比较中规中矩,你不能说它差,但也可以说没有什么特别亮眼的地方,kubesphere这个玩意是比较重型的图形化工具,部署以及维护会比较费劲,rancher对资源的占用比较高。

那么,kuboard这个图形化管理界面可能会适用于大部分人了,Kuboard 完全采用场景化的设计,操作过程更适合人们的思考方式。例如,集群概览的展示方式、名称空间的展示方式。

部署

kuboard这个图形化工具部署起来也非常的简单,也就几条命令就可以了,不需要太多的技巧:

wget https://addons.kuboard.cn/kuboard/kuboard-v3.yaml --no-check-certificate
kubectl apply  -f kuboard-v3.yaml 

在apply文件之前,需要给node打上标签:

查询node的名称

[root@master ~]# kubectl get no
NAME         STATUS   ROLES    AGE   VERSION
k8s-master   Ready    <none>   24d   v1.18.3
k8s-node1    Ready    <none>   24d   v1.18.3
k8s-node2    Ready    <none>   24d   v1.18.3

现有三个节点,就全部打上etcd标签,标签打完后就可以apply 文件了:

 kubectl label nodes k8s-master  k8s.kuboard.cn/role=etcd
 kubectl label nodes k8s-node1  k8s.kuboard.cn/role=etcd
 kubectl label nodes k8s-node2  k8s.kuboard.cn/role=etcd

关于标签的简要说明


kuboard-v3.yaml 这个文件内有做nodeselectorterms,也就是节点选择,相关代码如下:

    spec:
      affinity:
        nodeAffinity:
          requiredDuringSchedulingIgnoredDuringExecution:
            nodeSelectorTerms:
              - matchExpressions:
                  - key: node-role.kubernetes.io/master
                    operator: Exists
              - matchExpressions:
                  - key: node-role.kubernetes.io/control-plane
                    operator: Exists
              - matchExpressions:
                  - key: k8s.kuboard.cn/role
                    operator: In
                    values:
                      - etcd

稍等片刻后,查看kuboard这个namespace里的pod状态,running即可。

[root@master ~]# k get po -n kuboard -owide
NAME                               READY   STATUS    RESTARTS   AGE    IP               NODE         NOMINATED NODE   READINESS GATES
kuboard-etcd-4nsqv                 1/1     Running   0          105m   192.168.217.17   k8s-node1    <none>           <none>
kuboard-etcd-spfdc                 1/1     Running   0          105m   192.168.217.16   k8s-master   <none>           <none>
kuboard-etcd-wj2bs                 1/1     Running   0          105m   192.168.217.18   k8s-node2    <none>           <none>
kuboard-v3-695f6bd686-p9pwb        1/1     Running   0          105m   10.244.1.28      k8s-node1    <none>           <none>

此时应该是有4个pod,注意一哈,kuboard-v3-695f6bd686-p9pwb这个pod是在node1节点的,本例中,node1节点的IP地址是192.168.217.17,一哈会用到这个IP哦。

OK,这样的一个简单的kuboard就基本部署完成了,但还差最后一哆嗦,此工具需要客户端。

安装客户端


获取kuboard的客户端部署文件:

curl -k 'http://192.168.217.17:30080/kuboard-api/cluster/default/kind/KubernetesCluster/default/resource/installAgentToKubernetes?token=Yx9WHCgfAL8zzxVmK5TEljCqJjEmfRqS' > kuboard-agent.yaml
kubectl apply -f kuboard-agent.yaml

apply这个文件,将会多出两个pod,可以看到这两个pod是在node1节点的哦:

[root@master ~]# kubectl  get po -n kuboard -o wide
NAME                               READY   STATUS    RESTARTS   AGE    IP               NODE         NOMINATED NODE   READINESS GATES
kuboard-agent-2-5546cbdd74-ctgc5   1/1     Running   0          81m    10.244.1.29      k8s-node1    <none>           <none>
kuboard-agent-69fd468b5b-w9mrz     1/1     Running   0          81m    10.244.1.30      k8s-node1    <none>           <none>
kuboard-etcd-4nsqv                 1/1     Running   0          115m   192.168.217.17   k8s-node1    <none>           <none>
kuboard-etcd-spfdc                 1/1     Running   0          115m   192.168.217.16   k8s-master   <none>           <none>
kuboard-etcd-wj2bs                 1/1     Running   0          115m   192.168.217.18   k8s-node2    <none>           <none>
kuboard-v3-695f6bd686-p9pwb        1/1     Running   0          115m   10.244.1.28      k8s-node1    <none>           <none>

使用方法


打开浏览器,输入任意节点IP:30080即可登录kuboard(注意哈,不是htttps)

账号:admin

密码:Kuboard123

6b5df1296d63491fb59fe9c7cf4b8e21.png

进入后,有一个界面是集群导入的,如果前面的agent没有安装,将看不到集群的哦。

d003d8d787b94289aa2209e283f1207a.png

5b07828ddbb74a02b424ea9f554c98e1.png

ba95300a299a44608019593062e3f2b1.png



相关实践学习
深入解析Docker容器化技术
Docker是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的Linux机器上,也可以实现虚拟化,容器是完全使用沙箱机制,相互之间不会有任何接口。Docker是世界领先的软件容器平台。开发人员利用Docker可以消除协作编码时“在我的机器上可正常工作”的问题。运维人员利用Docker可以在隔离容器中并行运行和管理应用,获得更好的计算密度。企业利用Docker可以构建敏捷的软件交付管道,以更快的速度、更高的安全性和可靠的信誉为Linux和Windows Server应用发布新功能。 在本套课程中,我们将全面的讲解Docker技术栈,从环境安装到容器、镜像操作以及生产环境如何部署开发的微服务应用。本课程由黑马程序员提供。 &nbsp; &nbsp; 相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
目录
相关文章
|
24天前
|
存储 Kubernetes 网络安全
关于阿里云 Kubernetes 容器服务(ACK)添加镜像仓库的快速说明
本文介绍了在中国大陆地区因网络限制无法正常拉取 Docker 镜像的解决方案。作者所在的阿里云 Kubernetes 集群使用的是较旧版本的 containerd(1.2x),且无法直接通过 SSH 修改节点配置,因此采用了一种无需更改 Kubernetes 配置文件的方法。通过为 `docker.io` 添加 containerd 的镜像源,并使用脚本自动修改 containerd 配置文件中的路径错误(将错误的 `cert.d` 改为 `certs.d`),最终实现了通过多个镜像站点拉取镜像。作者还提供了一个可重复运行的脚本,用于动态配置镜像源。虽然该方案能缓解镜像拉取问题,
184 3
|
6月前
|
存储 Kubernetes 异构计算
Qwen3 大模型在阿里云容器服务上的极简部署教程
通义千问 Qwen3 是 Qwen 系列最新推出的首个混合推理模型,其在代码、数学、通用能力等基准测试中,与 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 等顶级模型相比,表现出极具竞争力的结果。
|
7月前
|
存储 Kubernetes 监控
K8s集群实战:使用kubeadm和kuboard部署Kubernetes集群
总之,使用kubeadm和kuboard部署K8s集群就像回归童年一样,简单又有趣。不要忘记,技术是为人服务的,用K8s集群操控云端资源,我们不过是想在复杂的世界找寻简单。尽管部署过程可能遇到困难,但朝着简化复杂的目标,我们就能找到意义和乐趣。希望你也能利用这些工具,找到你的乐趣,满足你的需求。
642 33
|
7月前
|
Kubernetes 开发者 Docker
集群部署:使用Rancher部署Kubernetes集群。
以上就是使用 Rancher 部署 Kubernetes 集群的流程。使用 Rancher 和 Kubernetes,开发者可以受益于灵活性和可扩展性,允许他们在多种环境中运行多种应用,同时利用自动化工具使工作负载更加高效。
369 19
|
7月前
|
存储 运维 Kubernetes
容器数据保护:基于容器服务 Kubernetes 版(ACK)备份中心实现K8s存储卷一键备份与恢复
阿里云ACK备份中心提供一站式容器化业务灾备及迁移方案,减少数据丢失风险,确保业务稳定运行。
|
5月前
|
资源调度 Kubernetes 调度
从单集群到多集群的快速无损转型:ACK One 多集群应用分发
ACK One 的多集群应用分发,可以最小成本地结合您已有的单集群 CD 系统,无需对原先应用资源 YAML 进行修改,即可快速构建成多集群的 CD 系统,并同时获得强大的多集群资源调度和分发的能力。
177 9
|
5月前
|
资源调度 Kubernetes 调度
从单集群到多集群的快速无损转型:ACK One 多集群应用分发
本文介绍如何利用阿里云的分布式云容器平台ACK One的多集群应用分发功能,结合云效CD能力,快速将单集群CD系统升级为多集群CD系统。通过增加分发策略(PropagationPolicy)和差异化策略(OverridePolicy),并修改单集群kubeconfig为舰队kubeconfig,可实现无损改造。该方案具备多地域多集群智能资源调度、重调度及故障迁移等能力,帮助用户提升业务效率与可靠性。
|
7月前
|
人工智能 分布式计算 调度
打破资源边界、告别资源浪费:ACK One 多集群Spark和AI作业调度
ACK One多集群Spark作业调度,可以帮助您在不影响集群中正在运行的在线业务的前提下,打破资源边界,根据各集群实际剩余资源来进行调度,最大化您多集群中闲置资源的利用率。
|
10月前
|
Prometheus Kubernetes 监控
OpenAI故障复盘 - 阿里云容器服务与可观测产品如何保障大规模K8s集群稳定性
聚焦近日OpenAI的大规模K8s集群故障,介绍阿里云容器服务与可观测团队在大规模K8s场景下我们的建设与沉淀。以及分享对类似故障问题的应对方案:包括在K8s和Prometheus的高可用架构设计方面、事前事后的稳定性保障体系方面。
|
7月前
|
Prometheus Kubernetes 监控
OpenAI故障复盘丨如何保障大规模K8s集群稳定性
OpenAI故障复盘丨如何保障大规模K8s集群稳定性
214 0
OpenAI故障复盘丨如何保障大规模K8s集群稳定性

热门文章

最新文章

推荐镜像

更多