云原生|kubernetes|k8s集群测试时的一些基本操作

简介: 云原生|kubernetes|k8s集群测试时的一些基本操作

前言:

kubernetes集群作为一个能够明显提升生产力的工具,还是需要多多练习一些基本操作的,我说的基本操作主要是针对基本的测试环节而不是生产环境下的操作。例如,在生产环境下用命令行启动一个pod并通过NodePort把这个pod运行的服务暴露到集群外,这很明显是不允许的操作,或者直接set一个新镜像到原有的pod内,比如,某个pod使用的是MySQL5.6,直接去命令行set镜像到8.0,这些操作无疑是违规的。

但,我们需要这些基本操作,比如,在测试环境快速的测试一哈某个pod是否能正常使用,这个时候expose一哈端口是正常的。简单来说,kubernetes集群需要规范操作,而命令行通常不属于规范的行列,正儿八经的管理还是使用yaml资源清单文件比较好,纯属快速测试以及装逼炫技海得是命令行。

OK,废话就不多了,下面开始正题,如何做好kubernetes的测试工作?

一,

快速更换pod使用的镜像

新建一个deploy部署的nginx,镜像使用1.18(省略了-n namespace,如果不是default这个namespace,需要增加 -n)

k create deploy nginx --image=nginx:1.18

更换镜像为nginx1.20

k set image deployments/nginx  nginx=nginx:1.20

此时会有两个pod:

[root@k8s-master ~]# k get po -A
NAMESPACE     NAME                                       READY   STATUS              RESTARTS   AGE
default       nginx-755c56db9f-vlzsz                     0/1     ContainerCreating   0          2s
default       nginx-f54648c68-bklhn                      1/1     Running             0          12m

或者是这个命令(省略了-n namespace,如果不是default这个namespace,需要增加 -n):

k set image pod/nginx-755c56db9f-vlzsz  nginx=nginx:1.20

此时是原地更换,查看镜像是否更换:

[root@k8s-master ~]# k describe pod nginx-755c56db9f-vlzsz |grep image
  Normal  Pulling    4m16s                  kubelet, k8s-node2  Pulling image "nginx:1.20"
  Normal  Pulled     3m32s                  kubelet, k8s-node2  Successfully pulled image "nginx:1.20"

二,

模拟快速发布,NodePort上面的nginx:

--port指的是service的端口,--target-port 指的是pod的端口,因为是nginx容器嘛,所以肯定需要填写80,模式是NodePort(省略了-n namespace,如果不是default这个namespace,需要增加 -n)。

k expose deploy nginx --port=8011 --target-port=80 --type=NodePort --name=test

要是在选择模式的时候忘记了咋拼写的,写一个错误的,系统会自动提示你(省略了-n namespace,如果不是default这个namespace,需要增加 -n)(type的值是4个"ClusterIP", "ExternalName", "LoadBalancer", "NodePort"):

root@k8s-master ~]# k expose rs  nginx-755c56db9f  --port=8011 --target-port=80 --type=ClusterIp --name=test2
The Service "test2" is invalid: spec.type: Unsupported value: "ClusterIp": supported values: "ClusterIP", "ExternalName", "LoadBalancer", "NodePort"

 

此时查询service(省略了-n namespace,如果不是default这个namespace,需要增加 -n):

[root@k8s-master ~]# k get svc
NAME         TYPE        CLUSTER-IP    EXTERNAL-IP   PORT(S)          AGE
kubernetes   ClusterIP   10.0.0.1      <none>        443/TCP          2d5h
test         NodePort    10.0.244.35   <none>        8011:32570/TCP   96s

浏览器可以访问这个服务了,端口是32570:

当然也可以使用其它的控制器,不止deployment(省略了-n namespace,如果不是default这个namespace,需要增加 -n)(rs控制器是deployment控制器的底层):

[root@k8s-master ~]# k get rs
NAME               DESIRED   CURRENT   READY   AGE
nginx-755c56db9f   1         1         1       3h31m
[root@k8s-master ~]# k expose rs  nginx-755c56db9f  --port=8011 --target-port=80 --type=NodePort --name=test1

三,

宿主机文件复制到pod的指定路径下

例如:复制网站首页文件到上面的示例pod中的nginx发布项目的路径下(这里省略了-n namespace,如果不是default,需要-n一哈):

规则:kubectl cp 宿主机文件绝对路径+文件名(这里是执行命令的地方就有这个文件,因此不需要指定路径) pod名称:pod内的文件存放路径

[root@k8s-master ~]# cat index.html 
this is a test page!!!!!
[root@k8s-master ~]# k get po
NAME                     READY   STATUS    RESTARTS   AGE
nginx-755c56db9f-pgrzd   1/1     Running   0          31m
[root@k8s-master ~]# k cp index.html nginx-755c56db9f-pgrzd:/usr/share/nginx/html/
[root@k8s-master ~]# k get svc
NAME         TYPE        CLUSTER-IP    EXTERNAL-IP   PORT(S)          AGE
kubernetes   ClusterIP   10.0.0.1      <none>        443/TCP          2d6h
test         NodePort    10.0.244.35   <none>        8011:32570/TCP   53m

验证:

注:如何知道上面的这个nginx的pod的发布路径?

查找nginx的首页文件在哪就可以知道了,如果是tomcat的pod也是这样查询就清楚啦,或者查看default.conf 这个配置文件

[root@k8s-master ~]# k exec -it nginx-755c56db9f-pgrzd -- /bin/bash
root@nginx-755c56db9f-pgrzd:/# find / -name index.html
find: '/proc/31/map_files': Permission denied
/usr/share/nginx/html/index.html
root@nginx-755c56db9f-pgrzd:/etc/nginx/conf.d# cat default.conf 
server {
    listen       80;
    listen  [::]:80;
    server_name  localhost;
    #charset koi8-r;
    #access_log  /var/log/nginx/host.access.log  main;
    location / {
        root   /usr/share/nginx/html;
        index  index.html index.htm;
    }
    #error_page  404              /404.html;
    # redirect server error pages to the static page /50x.html
    #
    error_page   500 502 503 504  /50x.html;
    location = /50x.html {
        root   /usr/share/nginx/html;
    }

四,

抓取pod内的文件到宿主机内

上面的那个复制本地文件到pod,两者位置对调就可以了,那个警告可以无视,只是说没有根而已。

[root@k8s-master ~]# k get po
NAME                     READY   STATUS    RESTARTS   AGE
nginx-755c56db9f-pgrzd   1/1     Running   0          50m
[root@k8s-master ~]# k cp nginx-755c56db9f-pgrzd:/etc/passwd  passwd
tar: Removing leading `/' from member names
[root@k8s-master ~]# cat passwd 
root:x:0:0:root:/root:/bin/bash
daemon:x:1:1:daemon:/usr/sbin:/usr/sbin/nologin
bin:x:2:2:bin:/bin:/usr/sbin/nologin
sys:x:3:3:sys:/dev:/usr/sbin/nologin
sync:x:4:65534:sync:/bin:/bin/sync
games:x:5:60:games:/usr/games:/usr/sbin/nologin
man:x:6:12:man:/var/cache/man:/usr/sbin/nologin
lp:x:7:7:lp:/var/spool/lpd:/usr/sbin/nologin
mail:x:8:8:mail:/var/mail:/usr/sbin/nologin
news:x:9:9:news:/var/spool/news:/usr/sbin/nologin
uucp:x:10:10:uucp:/var/spool/uucp:/usr/sbin/nologin
proxy:x:13:13:proxy:/bin:/usr/sbin/nologin
www-data:x:33:33:www-data:/var/www:/usr/sbin/nologin
backup:x:34:34:backup:/var/backups:/usr/sbin/nologin
list:x:38:38:Mailing List Manager:/var/list:/usr/sbin/nologin
irc:x:39:39:ircd:/var/run/ircd:/usr/sbin/nologin
gnats:x:41:41:Gnats Bug-Reporting System (admin):/var/lib/gnats:/usr/sbin/nologin
nobody:x:65534:65534:nobody:/nonexistent:/usr/sbin/nologin
_apt:x:100:65534::/nonexistent:/usr/sbin/nologin
nginx:x:101:101:nginx user,,,:/nonexistent:/bin/false

如果pod内的文件不存在,会真的报错:

[root@k8s-master ~]# k cp nginx-755c56db9f-pgrzd:/var/log/messages  passwd
tar: Removing leading `/' from member names
tar: /var/log/messages: Cannot stat: No such file or directory
tar: Exiting with failure status due to previous errors

五,

pod运行的某个程序映射端口到宿主机直接使用:

k create deploy tomcat --image=tomcat:8.5.70

此时,这个命令是前台运行的

kubectl  port-forward --address 0.0.0.0 deploy/tomcat 8080:8080 -n default
Forwarding from 0.0.0.0:8080 -> 8080
Handling connection for 8080
Handling connection for 8080

可以看到宿主机的8080端口确实是开启状态:

[root@k8s-node1 ~]# netstat -antup |grep 8080
tcp        0      0 0.0.0.0:8080            0.0.0.0:*               LISTEN      16984/kubectl   
[root@k8s-node1 ~]# curl -I localhost:8080/index.html
HTTP/1.1 404 
Content-Type: text/html;charset=utf-8
Content-Language: en
Transfer-Encoding: chunked
Date: Thu, 06 Oct 2022 10:51:53 GMT

总结:

以上操作都是基本的kubernetes测试方法,不建议在实际生产中使用,正式环境还是需要用清单文件规范。

相关实践学习
深入解析Docker容器化技术
Docker是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的Linux机器上,也可以实现虚拟化,容器是完全使用沙箱机制,相互之间不会有任何接口。Docker是世界领先的软件容器平台。开发人员利用Docker可以消除协作编码时“在我的机器上可正常工作”的问题。运维人员利用Docker可以在隔离容器中并行运行和管理应用,获得更好的计算密度。企业利用Docker可以构建敏捷的软件交付管道,以更快的速度、更高的安全性和可靠的信誉为Linux和Windows Server应用发布新功能。 在本套课程中,我们将全面的讲解Docker技术栈,从环境安装到容器、镜像操作以及生产环境如何部署开发的微服务应用。本课程由黑马程序员提供。 &nbsp; &nbsp; 相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
目录
相关文章
|
6月前
|
人工智能 算法 调度
阿里云ACK托管集群Pro版共享GPU调度操作指南
本文介绍在阿里云ACK托管集群Pro版中,如何通过共享GPU调度实现显存与算力的精细化分配,涵盖前提条件、使用限制、节点池配置及任务部署全流程,提升GPU资源利用率,适用于AI训练与推理场景。
595 1
|
8月前
|
人工智能 测试技术 芯片
AMD Ryzen AI Max+ 395四机并联:大语言模型集群推理深度测试
本文介绍了使用四块Framework主板构建AI推理集群的过程,并基于AMD Ryzen AI Max+ 395处理器进行大语言模型推理性能测试,重点评估其并行推理能力及集群表现。
856 0
AMD Ryzen AI Max+ 395四机并联:大语言模型集群推理深度测试
|
6月前
|
弹性计算 监控 调度
ACK One 注册集群云端节点池升级:IDC 集群一键接入云端 GPU 算力,接入效率提升 80%
ACK One注册集群节点池实现“一键接入”,免去手动编写脚本与GPU驱动安装,支持自动扩缩容与多场景调度,大幅提升K8s集群管理效率。
416 89
|
11月前
|
资源调度 Kubernetes 调度
从单集群到多集群的快速无损转型:ACK One 多集群应用分发
ACK One 的多集群应用分发,可以最小成本地结合您已有的单集群 CD 系统,无需对原先应用资源 YAML 进行修改,即可快速构建成多集群的 CD 系统,并同时获得强大的多集群资源调度和分发的能力。
816 9
|
11月前
|
资源调度 Kubernetes 调度
从单集群到多集群的快速无损转型:ACK One 多集群应用分发
本文介绍如何利用阿里云的分布式云容器平台ACK One的多集群应用分发功能,结合云效CD能力,快速将单集群CD系统升级为多集群CD系统。通过增加分发策略(PropagationPolicy)和差异化策略(OverridePolicy),并修改单集群kubeconfig为舰队kubeconfig,可实现无损改造。该方案具备多地域多集群智能资源调度、重调度及故障迁移等能力,帮助用户提升业务效率与可靠性。
|
存储 Kubernetes 监控
K8s集群实战:使用kubeadm和kuboard部署Kubernetes集群
总之,使用kubeadm和kuboard部署K8s集群就像回归童年一样,简单又有趣。不要忘记,技术是为人服务的,用K8s集群操控云端资源,我们不过是想在复杂的世界找寻简单。尽管部署过程可能遇到困难,但朝着简化复杂的目标,我们就能找到意义和乐趣。希望你也能利用这些工具,找到你的乐趣,满足你的需求。
1143 33
|
Kubernetes 开发者 Docker
集群部署:使用Rancher部署Kubernetes集群。
以上就是使用 Rancher 部署 Kubernetes 集群的流程。使用 Rancher 和 Kubernetes,开发者可以受益于灵活性和可扩展性,允许他们在多种环境中运行多种应用,同时利用自动化工具使工作负载更加高效。
739 19
|
人工智能 分布式计算 调度
打破资源边界、告别资源浪费:ACK One 多集群Spark和AI作业调度
ACK One多集群Spark作业调度,可以帮助您在不影响集群中正在运行的在线业务的前提下,打破资源边界,根据各集群实际剩余资源来进行调度,最大化您多集群中闲置资源的利用率。
|
Prometheus Kubernetes 监控
OpenAI故障复盘丨如何保障大规模K8s集群稳定性
OpenAI故障复盘丨如何保障大规模K8s集群稳定性
530 0
OpenAI故障复盘丨如何保障大规模K8s集群稳定性
|
运维 分布式计算 Kubernetes
ACK One多集群Service帮助大批量应用跨集群无缝迁移
ACK One多集群Service可以帮助您,在无需关注服务间的依赖,和最小化迁移风险的前提下,完成跨集群无缝迁移大批量应用。

热门文章

最新文章

推荐镜像

更多