腾讯云私有云平台运维面试

简介: 根据会议将面试问题进行总结,很多问题感觉当时没回答好,这是为啥呢?应该还是不熟练吧,或者不善于表达。将次经历分享出来,大家多练练。

概述

根据会议将面试问题进行总结,很多问题感觉当时没回答好,这是为啥呢?应该还是不熟练吧,或者不善于表达。将次经历分享出来,大家多练练。

JD 岗位描述

私有云平台运维 JD 腾讯云智研发子公司

1.私有云产品的自动化部署及运维交付管理;2.赋能和培养合作伙伴团队,支撑私有云产品部署;


3.产品故障定位和排查,以及维护工作;


4.备注:此岗位为腾讯集团旗下子公司编制岗位。


岗位要求


1.熟练掌握Linux常用命令,熟悉IaaS和常用云产品运维部署,有常见问题的排查经验;


2.掌握shell/python脚本开发,有云平台自动化运维开发经验为加分项;


3.熟悉docker/容器日常运维;熟练掌握K8S运维及故障排查,熟悉其工作机制,熟悉tcs为加分项;


4.熟悉大数据相关服务或者即时通讯领域,大数据要求熟悉hadoop核心组件和框架,熟悉clickhouse使用;即时通讯要求对网络及相关排障比较熟悉;

5.有一定带人或者团队管理经验;

6.备注:此岗位为腾讯集团旗下子公司编制岗位。

一面

HR没有提前约,我只是给了简历。

广东深圳的一个座机打过来就开始问了。


1.你了解虚拟化技术吗?

2.kvm virtualbox

3.你主要做什么运维工作?

4.k8s的有哪些组间?都是什么关系?

5.etcd你了解吗?k8s怎么用?一般存的什么东西?

6.etcd 有30gb数据, follower节点同步数据只有3gb。为什么会这么少呢?(例如有个用了很久的集群etcd member大小超过30g,这时候用一个新的etcd学习那个节点只有3g 是什么原因呢)

7.会不会有一些脏数据呢?

8.k8s遇到最复杂的故障是什么?

9.两个节点上的pod不通可能是什么原因呢?

10.k8s的网络插件有几种?有什么区别和不同?

11.dockerfile编写有哪些注意点?

12.容器的启动命令?

13.helm file原理?有实际写过吗?

14.k8s都有哪些对象?什么场景使用?

15.mysql 集群怎么同步数据?

16.mysql有哪些锁?

17.python有开发哪些脚本?

18.prometheus语法了解多少?

19.cicd 用了哪些组间?

20.ansible playbook会用吗?

21.coredump分析过没有?

22linux内核有没有编译过?

23.tcpdump解决过什么问题?

24.linux 性能优化印象最深刻的是什么?

25.你最大的优点和缺点?

26.最近在看什么书?


结束的很突然,感觉已经挂了

二面

06、21 19:30

面试了27分钟。

江XX


1.自我介绍?

2.k8s master 几个节点?我: 三个,高可用节点?面: 为什么是3个?

3.etcd 的运维?优化?

4.k8s 组件的介绍?关系? <>

5.k8s做过什么优化?


有什么要问的呢?


该岗位的工作职责是什么?


腾讯云 产品交付。侧重于TOB


感受:


这位面试官感觉不是很善言谈。问问题也吞吞吐吐的。遇到这种面试官应该主动出击。


例如谈到master 高可用,为什么要三个节点,因为自建的k8s集群是堆叠式的部署方式,etcd 和 k8s 的master共用。k8s master 高可用主要就是kube-apiserver组件的高可用。因为kube-apiserver是有状态的一个应用。只有它才会和后端etcd进行交互保存数据。之所以要用三个节点,这样有利于etcd的故障恢复。etcd 是一个分布式的KV 键值存储系统,基于raft共识协议,当leader节点挂掉之后,follower会以超过半数为原则进行选主。 如果是两个节点也可以做到高可用,但是raft协议的选主过程可能会经历多轮选举才有结果,这段时间etcd 拒绝写入任何数据。


这时候可以说一些关于如何选主的过程? 面试官没问不代表不能说。就是把整个问题的相关的你知道的都倒出来,这样才有利于面试官对你的理解。


这时候你可以说具体是如何选主的?


etcd leader 节点会不停的和follower节点发送心跳,follower节点有一个election_timeout。多个follower的election_timeout 不会同时开始计时, 当leader 节点发送的心跳follower节点未收到,这时follower节点就开始进行选主,拉取选票,多数同意即可成为leader。这是就会把不通的member踢掉。


加入网络发生了分区?会影响数据写入吗?


3个节点和5个节点如何选择呢?


主要看集群规模,100节点以下建议3个节点,否则5个节点。


为了让运维压力小一点,建议5个节点,这样就允许可以同时down掉两个节点,也不会影响分布式系统的运作。


CAP? 可用性 、 一致性、分区容任性

三面

2023年6月25日19:30:00


谭XX 面试官


问题


共27分钟,面试官有准备几个题目让现场回答。


问答题:


1.你做了和k8s相关的运维工作?面试官让具体说说(我balabala了3分钟)

2.使用的哪个版本?为什么 1.22.10? 有什么考量?

3.master 几个节点 ? 高可用是如何做的?

4.haproxy如何检测节点是否正常?(health check 6443端口)haproxy需要配置vip吗?keepalived 作用?

5.网络插件使用的什么?作用主要是什么?SVC-CIDR / POD-CIDR 在哪里配置?calico 如何给pod分配IP?(这块竟然不深入calico细节…….)

6.监控用什么(prometheus operator)?都配置了哪些指标?pod的内存和cpu是什么组件上报的(kubelet)?


笔试题目:

一共四道题,第一个题目整蒙了,一直没理解面试官的意图


请用kubectl 查询下每个节点CPU剩余的可以调度的资源

k  get node
k describe node master1
request:
cpu: 1000m
k top node
]# k top node
NAME               CPU(cores)   CPU%   MEMORY(bytes)   MEMORY%
k8s-master-node1   487m         13%    5305Mi          35%
k8s-worker-node1   247m         7%     3173Mi          21%
k8s-worker-node2   269m         7%     3455Mi          23%

这里的cpu cores 指的是什么意思?

58941c6c0b8e4531bbce4a412ff198a2.png

实例:


有五个节点每个节点8 个cpu core,创建100个pod,每个pod的request cpu=1000m。


创建这些pod后 调度器如何调度?


request 的资源是启动的时候必须有这么多资源才能调度成功。cpu是可压缩资源,理论上是可以调度上去的。 实验结果表明这个猜想是错误的。


下面但是没答出来,面试官请我去查。

做一个实验: 创建100个pod 每个pod申请一个1core。


实验结果:只设定request的情况下,只能调度成功4个pod。其余pod都无法调度,具体报错为:


Warning FailedScheduling 4m20s (x46 over 65m) default-scheduler 0/3 nodes are available: 1 node(s) had taint {master: nos}, that the pod didn’t tolerate, 2 Insufficient cpu.


这是什么原因呢? cpu不足?


insufficient cpu经过计算之后确实不够了,我的集群是3个节点,每个节点四个cpu。


查询所有pod的requests字段的总和。

#  kubectl get pods --all-namespaces -o jsonpath="{range .items[*]}{.metadata.name}{'\t'}{.spec.containers[*].resources.requests.cpu}{'\n'}{end}"
busyboxtest
ingress-demo-app-5967f8fd7d-p8rt7
ingress-demo-app-5967f8fd7d-qsvgz
multi-con
my-static-pod-k8s-master-node1  10m
nginx-app-5ccd894fcb-6k8hj
nginx-app-5ccd894fcb-cfpkf
nginx-app-5ccd894fcb-wqrmp
nginx-dns-8lc8b
nginx-dns-k7ldh
nginx-dns-wd6ff
nginx-test
po      100m
pod-secrets-via-env
pod-secrets-via-file
schedule-test-6cdbf894bd-62l8z  1
schedule-test-6cdbf894bd-6cw8c  1
schedule-test-6cdbf894bd-bm4vv  1
schedule-test-6cdbf894bd-cjnkd  1
schedule-test-6cdbf894bd-m9nl6  1
schedule-test-6cdbf894bd-pzhwl  1
schedule-test-6cdbf894bd-wj7mh  1
schedule-test-6cdbf894bd-wt2t6  1
schedule-test-6cdbf894bd-xnx4c  1
schedule-test-6cdbf894bd-xtskv  1
secret-pod
test
web-server
web-server-f7fcbdc98-rdl6d
web-server-f7fcbdc98-rjmn8
web-server-f7fcbdc98-rw4hr
web-server-f7fcbdc98-xblsj
ingress-nginx-admission-create-n9588
ingress-nginx-admission-patch-rdc86
ingress-nginx-controller-5d886544c7-4rgxp       100m
ingress-nginx-controller-5d886544c7-cjk76       100m
ingress-nginx-controller-5d886544c7-qgbvw       100m
calico-kube-controllers-dcb6dbf69-rdsfn
calico-node-66dw6       250m
calico-node-dz4vc       250m
calico-node-k4tbl       250m
calicoctl
coredns-b9bf78846-rnxpd 100m
coredns-b9bf78846-rvk2b 100m
default-http-backend-5b59f64f64-qf722   10m
etcd-k8s-master-node1   100m
kube-apiserver-k8s-master-node1 250m
kube-controller-manager-k8s-master-node1        200m
kube-proxy-4fqlp
kube-proxy-fglrn
kube-proxy-v9rm6
kube-scheduler-k8s-master-node1 100m
metrics-server-765d987858-q7l7b 100m
tigera-operator-7d7795c47f-2zz8t

计算这些pod的总的requests.cpu 共12120m。

这已经超过了节点cpu的总和。12120m > 12000m。所以shcedule-test pod最多只能调度成功4个。这个实验结果应该是面试官想要的。


突然发现资源真的好浪费呀,节点的cpu资源还有很多。节点cpu 使用不到10%。


这个cpu sum requests其实prometheus也可以看到(这是另外一个集群的.)

sum(namespace_cpu:kube_pod_container_resource_requests:sum{cluster="$cluster"}) / sum(kube_node_status_allocatable{job="kube-state-metrics",resource="cpu",cluster="$cluster"})

a6d63f6128e84f4fb778215f94ca55ca.pngf8b98879ea1d4d509955fb43b492b078.png

3970bd7220df45aaabe2a5f806433f73.png

引申问题?


既然schedule-test pod是guaranteed pod,那么就应该优先调度,besteffort qos的pod不应该被驱逐么?

QoS是当节点承压pod 被驱逐时,kubelet会考虑的事情,而不是调度的时候。


注意: 只写requests.cpu和limit.cpu ,pod的qosClass竟然还是burstable. 同时设定cpu和memory的memory 和limit才会是guaranteed pod。

2.如何查看当前的k8s 都占用了那些网段?

k get po controller-manager -n kube-system

查看controller-manager 的svc CIDR/ pod CIDR . 一般svc 是10.96.0.0/24

pod 的cidr 是10.244/0.0/24

3.shell 找出当前 哪个进程 向 /data 中写入或者读取的 的数据 最多?

iostat -p pid

iotop by 进程的io


ls -l /data 查看是最大的文件

lsof 文件名

查看对应的进程

4.用ansible 批量重启每个节点的kubelet 服务

ansibel k8s-all -m shell -a ‘systemctl restart kubelet’ -k

HR面

最终定级二线中级2. 我觉得表现好一点会是中级3或者高级1.

等我修炼一段时间再面面。

内核? linux 性能调优?网络?etcd? go?

如果懂一些go ,我想定级和薪资应该都有所提升。


相关实践学习
深入解析Docker容器化技术
Docker是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的Linux机器上,也可以实现虚拟化,容器是完全使用沙箱机制,相互之间不会有任何接口。Docker是世界领先的软件容器平台。开发人员利用Docker可以消除协作编码时“在我的机器上可正常工作”的问题。运维人员利用Docker可以在隔离容器中并行运行和管理应用,获得更好的计算密度。企业利用Docker可以构建敏捷的软件交付管道,以更快的速度、更高的安全性和可靠的信誉为Linux和Windows Server应用发布新功能。 在本套课程中,我们将全面的讲解Docker技术栈,从环境安装到容器、镜像操作以及生产环境如何部署开发的微服务应用。本课程由黑马程序员提供。 &nbsp; &nbsp; 相关的阿里云产品:容器服务 ACK 容器服务 Kubernetes 版(简称 ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情: https://www.aliyun.com/product/kubernetes
目录
相关文章
|
3月前
|
数据采集 安全 API
VMware Cloud Foundation Operations 9.0.1.0 发布 - 私有云运维管理
VMware Cloud Foundation Operations 9.0.1.0 发布 - 私有云运维管理
173 4
VMware Cloud Foundation Operations 9.0.1.0 发布 - 私有云运维管理
|
4月前
|
运维 监控 自动驾驶
低代码运维平台:是“运维福音”,还是“甩手掌柜”?
低代码运维平台:是“运维福音”,还是“甩手掌柜”?
141 29
|
8月前
|
物联网
如何在腾讯云等平台搭建自己的物联网MQTT服务器Broker
物联网技术及MQTT协议被广泛应用于各种场景。本文介绍物联网MQTT服务助手下载,如何搭建自己的物联网平台,并使用 “MQTT客户端调试工具”模拟MQTT设备,接入平台进行消息收发。
642 37
|
机器学习/深度学习 人工智能 运维
VMware Cloud Foundation Operations 9.0 发布 - 私有云运维管理
VMware Cloud Foundation Operations 9.0 发布 - 私有云运维管理
94 0
|
7月前
|
运维 监控 Linux
WGCLOUD运维平台的分布式计划任务功能介绍
WGCLOUD是一款免费开源的运维监控平台,支持主机与服务器性能监控,具备实时告警和自愈功能。本文重点介绍其计划任务功能模块,可统一管理Linux和Windows主机的定时任务。相比手动配置crontab或Windows任务计划,WGCLOUD提供直观界面,通过添加cron表达式、执行指令或脚本并选择主机,即可轻松完成任务设置,大幅提升多主机任务管理效率。
|
10月前
|
存储 人工智能 运维
阿里云操作系统控制台评测:国产AI+运维 一站式运维管理平台
本文详细评测了阿里云操作系统控制台,作为一款集运维管理、智能助手和系统诊断于一体的工具,它为企业提供了高效管理云资源的解决方案。文章涵盖登录与服务开通、系统管理与实例纳管、组件管理与扩展功能、系统诊断与问题排查以及实时热点分析与性能优化等内容。通过实际操作展示,该平台显著提升了运维效率,并借助AI智能助手简化了复杂操作。建议进一步完善组件库并增强第三方兼容性,以满足更多高级运维需求。
668 2
|
运维 监控 Cloud Native
构建深度可观测、可集成的网络智能运维平台
本文介绍了构建深度可观测、可集成的网络智能运维平台(简称NIS),旨在解决云上网络运维面临的复杂挑战。内容涵盖云网络运维的三大难题、打造云原生AIOps工具集的解决思路、可观测性对业务稳定的重要性,以及产品发布的亮点,包括流量分析NPM、网络架构巡检和自动化运维OpenAPI,助力客户实现自助运维与优化。
|
运维 Kubernetes 关系型数据库
云计算运维工程师面试技巧
【8月更文挑战第6天】
1304 1

热门文章

最新文章