云原生|kubernetes|k8s集群测试时的一些基本操作

简介: 云原生|kubernetes|k8s集群测试时的一些基本操作

前言:

kubernetes集群作为一个能够明显提升生产力的工具,还是需要多多练习一些基本操作的,我说的基本操作主要是针对基本的测试环节而不是生产环境下的操作。例如,在生产环境下用命令行启动一个pod并通过NodePort把这个pod运行的服务暴露到集群外,这很明显是不允许的操作,或者直接set一个新镜像到原有的pod内,比如,某个pod使用的是MySQL5.6,直接去命令行set镜像到8.0,这些操作无疑是违规的。

但,我们需要这些基本操作,比如,在测试环境快速的测试一哈某个pod是否能正常使用,这个时候expose一哈端口是正常的。简单来说,kubernetes集群需要规范操作,而命令行通常不属于规范的行列,正儿八经的管理还是使用yaml资源清单文件比较好,纯属快速测试以及装逼炫技海得是命令行。

OK,废话就不多了,下面开始正题,如何做好kubernetes的测试工作?

一,

快速更换pod使用的镜像

新建一个deploy部署的nginx,镜像使用1.18(省略了-n namespace,如果不是default这个namespace,需要增加 -n)

k create deploy nginx --image=nginx:1.18

更换镜像为nginx1.20

k set image deployments/nginx  nginx=nginx:1.20

此时会有两个pod:

[root@k8s-master ~]# k get po -A
NAMESPACE     NAME                                       READY   STATUS              RESTARTS   AGE
default       nginx-755c56db9f-vlzsz                     0/1     ContainerCreating   0          2s
default       nginx-f54648c68-bklhn                      1/1     Running             0          12m

或者是这个命令(省略了-n namespace,如果不是default这个namespace,需要增加 -n):

k set image pod/nginx-755c56db9f-vlzsz  nginx=nginx:1.20

此时是原地更换,查看镜像是否更换:

[root@k8s-master ~]# k describe pod nginx-755c56db9f-vlzsz |grep image
  Normal  Pulling    4m16s                  kubelet, k8s-node2  Pulling image "nginx:1.20"
  Normal  Pulled     3m32s                  kubelet, k8s-node2  Successfully pulled image "nginx:1.20"

二,

模拟快速发布,NodePort上面的nginx:

--port指的是service的端口,--target-port 指的是pod的端口,因为是nginx容器嘛,所以肯定需要填写80,模式是NodePort(省略了-n namespace,如果不是default这个namespace,需要增加 -n)。

k expose deploy nginx --port=8011 --target-port=80 --type=NodePort --name=test

要是在选择模式的时候忘记了咋拼写的,写一个错误的,系统会自动提示你(省略了-n namespace,如果不是default这个namespace,需要增加 -n)(type的值是4个"ClusterIP", "ExternalName", "LoadBalancer", "NodePort"):

root@k8s-master ~]# k expose rs  nginx-755c56db9f  --port=8011 --target-port=80 --type=ClusterIp --name=test2
The Service "test2" is invalid: spec.type: Unsupported value: "ClusterIp": supported values: "ClusterIP", "ExternalName", "LoadBalancer", "NodePort"

 

此时查询service(省略了-n namespace,如果不是default这个namespace,需要增加 -n):

[root@k8s-master ~]# k get svc
NAME         TYPE        CLUSTER-IP    EXTERNAL-IP   PORT(S)          AGE
kubernetes   ClusterIP   10.0.0.1      <none>        443/TCP          2d5h
test         NodePort    10.0.244.35   <none>        8011:32570/TCP   96s

浏览器可以访问这个服务了,端口是32570:

当然也可以使用其它的控制器,不止deployment(省略了-n namespace,如果不是default这个namespace,需要增加 -n)(rs控制器是deployment控制器的底层):

[root@k8s-master ~]# k get rs
NAME               DESIRED   CURRENT   READY   AGE
nginx-755c56db9f   1         1         1       3h31m
[root@k8s-master ~]# k expose rs  nginx-755c56db9f  --port=8011 --target-port=80 --type=NodePort --name=test1

三,

宿主机文件复制到pod的指定路径下

例如:复制网站首页文件到上面的示例pod中的nginx发布项目的路径下(这里省略了-n namespace,如果不是default,需要-n一哈):

规则:kubectl cp 宿主机文件绝对路径+文件名(这里是执行命令的地方就有这个文件,因此不需要指定路径) pod名称:pod内的文件存放路径

[root@k8s-master ~]# cat index.html 
this is a test page!!!!!
[root@k8s-master ~]# k get po
NAME                     READY   STATUS    RESTARTS   AGE
nginx-755c56db9f-pgrzd   1/1     Running   0          31m
[root@k8s-master ~]# k cp index.html nginx-755c56db9f-pgrzd:/usr/share/nginx/html/
[root@k8s-master ~]# k get svc
NAME         TYPE        CLUSTER-IP    EXTERNAL-IP   PORT(S)          AGE
kubernetes   ClusterIP   10.0.0.1      <none>        443/TCP          2d6h
test         NodePort    10.0.244.35   <none>        8011:32570/TCP   53m

验证:

注:如何知道上面的这个nginx的pod的发布路径?

查找nginx的首页文件在哪就可以知道了,如果是tomcat的pod也是这样查询就清楚啦,或者查看default.conf 这个配置文件

[root@k8s-master ~]# k exec -it nginx-755c56db9f-pgrzd -- /bin/bash
root@nginx-755c56db9f-pgrzd:/# find / -name index.html
find: '/proc/31/map_files': Permission denied
/usr/share/nginx/html/index.html
root@nginx-755c56db9f-pgrzd:/etc/nginx/conf.d# cat default.conf 
server {
    listen       80;
    listen  [::]:80;
    server_name  localhost;
    #charset koi8-r;
    #access_log  /var/log/nginx/host.access.log  main;
    location / {
        root   /usr/share/nginx/html;
        index  index.html index.htm;
    }
    #error_page  404              /404.html;
    # redirect server error pages to the static page /50x.html
    #
    error_page   500 502 503 504  /50x.html;
    location = /50x.html {
        root   /usr/share/nginx/html;
    }

四,

抓取pod内的文件到宿主机内

上面的那个复制本地文件到pod,两者位置对调就可以了,那个警告可以无视,只是说没有根而已。

[root@k8s-master ~]# k get po
NAME                     READY   STATUS    RESTARTS   AGE
nginx-755c56db9f-pgrzd   1/1     Running   0          50m
[root@k8s-master ~]# k cp nginx-755c56db9f-pgrzd:/etc/passwd  passwd
tar: Removing leading `/' from member names
[root@k8s-master ~]# cat passwd 
root:x:0:0:root:/root:/bin/bash
daemon:x:1:1:daemon:/usr/sbin:/usr/sbin/nologin
bin:x:2:2:bin:/bin:/usr/sbin/nologin
sys:x:3:3:sys:/dev:/usr/sbin/nologin
sync:x:4:65534:sync:/bin:/bin/sync
games:x:5:60:games:/usr/games:/usr/sbin/nologin
man:x:6:12:man:/var/cache/man:/usr/sbin/nologin
lp:x:7:7:lp:/var/spool/lpd:/usr/sbin/nologin
mail:x:8:8:mail:/var/mail:/usr/sbin/nologin
news:x:9:9:news:/var/spool/news:/usr/sbin/nologin
uucp:x:10:10:uucp:/var/spool/uucp:/usr/sbin/nologin
proxy:x:13:13:proxy:/bin:/usr/sbin/nologin
www-data:x:33:33:www-data:/var/www:/usr/sbin/nologin
backup:x:34:34:backup:/var/backups:/usr/sbin/nologin
list:x:38:38:Mailing List Manager:/var/list:/usr/sbin/nologin
irc:x:39:39:ircd:/var/run/ircd:/usr/sbin/nologin
gnats:x:41:41:Gnats Bug-Reporting System (admin):/var/lib/gnats:/usr/sbin/nologin
nobody:x:65534:65534:nobody:/nonexistent:/usr/sbin/nologin
_apt:x:100:65534::/nonexistent:/usr/sbin/nologin
nginx:x:101:101:nginx user,,,:/nonexistent:/bin/false

如果pod内的文件不存在,会真的报错:

[root@k8s-master ~]# k cp nginx-755c56db9f-pgrzd:/var/log/messages  passwd
tar: Removing leading `/' from member names
tar: /var/log/messages: Cannot stat: No such file or directory
tar: Exiting with failure status due to previous errors

五,

pod运行的某个程序映射端口到宿主机直接使用:

k create deploy tomcat --image=tomcat:8.5.70

此时,这个命令是前台运行的

kubectl  port-forward --address 0.0.0.0 deploy/tomcat 8080:8080 -n default
Forwarding from 0.0.0.0:8080 -> 8080
Handling connection for 8080
Handling connection for 8080

可以看到宿主机的8080端口确实是开启状态:

[root@k8s-node1 ~]# netstat -antup |grep 8080
tcp        0      0 0.0.0.0:8080            0.0.0.0:*               LISTEN      16984/kubectl   
[root@k8s-node1 ~]# curl -I localhost:8080/index.html
HTTP/1.1 404 
Content-Type: text/html;charset=utf-8
Content-Language: en
Transfer-Encoding: chunked
Date: Thu, 06 Oct 2022 10:51:53 GMT

总结:

以上操作都是基本的kubernetes测试方法,不建议在实际生产中使用,正式环境还是需要用清单文件规范。

相关实践学习
深入解析Docker容器化技术
Docker是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的Linux机器上,也可以实现虚拟化,容器是完全使用沙箱机制,相互之间不会有任何接口。Docker是世界领先的软件容器平台。开发人员利用Docker可以消除协作编码时“在我的机器上可正常工作”的问题。运维人员利用Docker可以在隔离容器中并行运行和管理应用,获得更好的计算密度。企业利用Docker可以构建敏捷的软件交付管道,以更快的速度、更高的安全性和可靠的信誉为Linux和Windows Server应用发布新功能。 在本套课程中,我们将全面的讲解Docker技术栈,从环境安装到容器、镜像操作以及生产环境如何部署开发的微服务应用。本课程由黑马程序员提供。 &nbsp; &nbsp; 相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
目录
相关文章
|
2月前
|
存储 Kubernetes 网络安全
关于阿里云 Kubernetes 容器服务(ACK)添加镜像仓库的快速说明
本文介绍了在中国大陆地区因网络限制无法正常拉取 Docker 镜像的解决方案。作者所在的阿里云 Kubernetes 集群使用的是较旧版本的 containerd(1.2x),且无法直接通过 SSH 修改节点配置,因此采用了一种无需更改 Kubernetes 配置文件的方法。通过为 `docker.io` 添加 containerd 的镜像源,并使用脚本自动修改 containerd 配置文件中的路径错误(将错误的 `cert.d` 改为 `certs.d`),最终实现了通过多个镜像站点拉取镜像。作者还提供了一个可重复运行的脚本,用于动态配置镜像源。虽然该方案能缓解镜像拉取问题,
305 2
|
8月前
|
存储 Kubernetes 监控
K8s集群实战:使用kubeadm和kuboard部署Kubernetes集群
总之,使用kubeadm和kuboard部署K8s集群就像回归童年一样,简单又有趣。不要忘记,技术是为人服务的,用K8s集群操控云端资源,我们不过是想在复杂的世界找寻简单。尽管部署过程可能遇到困难,但朝着简化复杂的目标,我们就能找到意义和乐趣。希望你也能利用这些工具,找到你的乐趣,满足你的需求。
776 33
|
8月前
|
存储 人工智能 Kubernetes
ACK Gateway with AI Extension:面向Kubernetes大模型推理的智能路由实践
本文介绍了如何利用阿里云容器服务ACK推出的ACK Gateway with AI Extension组件,在Kubernetes环境中为大语言模型(LLM)推理服务提供智能路由和负载均衡能力。文章以部署和优化QwQ-32B模型为例,详细展示了从环境准备到性能测试的完整实践过程。
|
8月前
|
存储 运维 Kubernetes
容器数据保护:基于容器服务 Kubernetes 版(ACK)备份中心实现K8s存储卷一键备份与恢复
阿里云ACK备份中心提供一站式容器化业务灾备及迁移方案,减少数据丢失风险,确保业务稳定运行。
|
存储 Kubernetes API
在K8S集群中,如何正确选择工作节点资源大小? 2
在K8S集群中,如何正确选择工作节点资源大小?
|
Kubernetes Serverless 异构计算
基于ACK One注册集群实现IDC中K8s集群以Serverless方式使用云上CPU/GPU资源
在前一篇文章《基于ACK One注册集群实现IDC中K8s集群添加云上CPU/GPU节点》中,我们介绍了如何为IDC中K8s集群添加云上节点,应对业务流量的增长,通过多级弹性调度,灵活使用云上资源,并通过自动弹性伸缩,提高使用率,降低云上成本。这种直接添加节点的方式,适合需要自定义配置节点(runtime,kubelet,NVIDIA等),需要特定ECS实例规格等场景。同时,这种方式意味您需要自行
基于ACK One注册集群实现IDC中K8s集群以Serverless方式使用云上CPU/GPU资源
|
Kubernetes API 调度
在K8S集群中,如何正确选择工作节点资源大小?1
在K8S集群中,如何正确选择工作节点资源大小?
|
弹性计算 运维 Kubernetes
本地 IDC 中的 K8s 集群如何以 Serverless 方式使用云上计算资源
本地 IDC 中的 K8s 集群如何以 Serverless 方式使用云上计算资源
|
Kubernetes Ubuntu Shell
shell 脚本实现 k8s 集群环境下指定 ns 资源的 yaml 文件备份
在基于 `k8s` 平台的容器化部署环境中,有时候需要快速的实现部署文件的迁移备份,当 `k8s` 平台部署一个 `app` 时,都会相应的产生一堆 `yaml` 文件,如果 `yaml` 文件数量较少,我们可以人工手动的方式进行拷贝,但是当 `yaml` 文件数量多,并且该 `k8s` 平台部署了多个 `app` 时,如果在采用...
749 0
shell 脚本实现 k8s 集群环境下指定 ns 资源的 yaml 文件备份
|
Prometheus Kubernetes 监控
k8s集群监控(2)-部署kube-state-metrics对资源对象监控
kube-state-metrics对k8s集群中的资源对象监控,包括 pod 、 deployment, service
k8s集群监控(2)-部署kube-state-metrics对资源对象监控

推荐镜像

更多