腾讯云私有云平台运维面试

简介: 根据会议将面试问题进行总结,很多问题感觉当时没回答好,这是为啥呢?应该还是不熟练吧,或者不善于表达。将次经历分享出来,大家多练练。

概述

根据会议将面试问题进行总结,很多问题感觉当时没回答好,这是为啥呢?应该还是不熟练吧,或者不善于表达。将次经历分享出来,大家多练练。

JD 岗位描述

私有云平台运维 JD 腾讯云智研发子公司

1.私有云产品的自动化部署及运维交付管理;2.赋能和培养合作伙伴团队,支撑私有云产品部署;


3.产品故障定位和排查,以及维护工作;


4.备注:此岗位为腾讯集团旗下子公司编制岗位。


岗位要求


1.熟练掌握Linux常用命令,熟悉IaaS和常用云产品运维部署,有常见问题的排查经验;


2.掌握shell/python脚本开发,有云平台自动化运维开发经验为加分项;


3.熟悉docker/容器日常运维;熟练掌握K8S运维及故障排查,熟悉其工作机制,熟悉tcs为加分项;


4.熟悉大数据相关服务或者即时通讯领域,大数据要求熟悉hadoop核心组件和框架,熟悉clickhouse使用;即时通讯要求对网络及相关排障比较熟悉;

5.有一定带人或者团队管理经验;

6.备注:此岗位为腾讯集团旗下子公司编制岗位。

一面

HR没有提前约,我只是给了简历。

广东深圳的一个座机打过来就开始问了。


1.你了解虚拟化技术吗?

2.kvm virtualbox

3.你主要做什么运维工作?

4.k8s的有哪些组间?都是什么关系?

5.etcd你了解吗?k8s怎么用?一般存的什么东西?

6.etcd 有30gb数据, follower节点同步数据只有3gb。为什么会这么少呢?(例如有个用了很久的集群etcd member大小超过30g,这时候用一个新的etcd学习那个节点只有3g 是什么原因呢)

7.会不会有一些脏数据呢?

8.k8s遇到最复杂的故障是什么?

9.两个节点上的pod不通可能是什么原因呢?

10.k8s的网络插件有几种?有什么区别和不同?

11.dockerfile编写有哪些注意点?

12.容器的启动命令?

13.helm file原理?有实际写过吗?

14.k8s都有哪些对象?什么场景使用?

15.mysql 集群怎么同步数据?

16.mysql有哪些锁?

17.python有开发哪些脚本?

18.prometheus语法了解多少?

19.cicd 用了哪些组间?

20.ansible playbook会用吗?

21.coredump分析过没有?

22linux内核有没有编译过?

23.tcpdump解决过什么问题?

24.linux 性能优化印象最深刻的是什么?

25.你最大的优点和缺点?

26.最近在看什么书?


结束的很突然,感觉已经挂了

二面

06、21 19:30

面试了27分钟。

江XX


1.自我介绍?

2.k8s master 几个节点?我: 三个,高可用节点?面: 为什么是3个?

3.etcd 的运维?优化?

4.k8s 组件的介绍?关系? <>

5.k8s做过什么优化?


有什么要问的呢?


该岗位的工作职责是什么?


腾讯云 产品交付。侧重于TOB


感受:


这位面试官感觉不是很善言谈。问问题也吞吞吐吐的。遇到这种面试官应该主动出击。


例如谈到master 高可用,为什么要三个节点,因为自建的k8s集群是堆叠式的部署方式,etcd 和 k8s 的master共用。k8s master 高可用主要就是kube-apiserver组件的高可用。因为kube-apiserver是有状态的一个应用。只有它才会和后端etcd进行交互保存数据。之所以要用三个节点,这样有利于etcd的故障恢复。etcd 是一个分布式的KV 键值存储系统,基于raft共识协议,当leader节点挂掉之后,follower会以超过半数为原则进行选主。 如果是两个节点也可以做到高可用,但是raft协议的选主过程可能会经历多轮选举才有结果,这段时间etcd 拒绝写入任何数据。


这时候可以说一些关于如何选主的过程? 面试官没问不代表不能说。就是把整个问题的相关的你知道的都倒出来,这样才有利于面试官对你的理解。


这时候你可以说具体是如何选主的?


etcd leader 节点会不停的和follower节点发送心跳,follower节点有一个election_timeout。多个follower的election_timeout 不会同时开始计时, 当leader 节点发送的心跳follower节点未收到,这时follower节点就开始进行选主,拉取选票,多数同意即可成为leader。这是就会把不通的member踢掉。


加入网络发生了分区?会影响数据写入吗?


3个节点和5个节点如何选择呢?


主要看集群规模,100节点以下建议3个节点,否则5个节点。


为了让运维压力小一点,建议5个节点,这样就允许可以同时down掉两个节点,也不会影响分布式系统的运作。


CAP? 可用性 、 一致性、分区容任性

三面

2023年6月25日19:30:00


谭XX 面试官


问题


共27分钟,面试官有准备几个题目让现场回答。


问答题:


1.你做了和k8s相关的运维工作?面试官让具体说说(我balabala了3分钟)

2.使用的哪个版本?为什么 1.22.10? 有什么考量?

3.master 几个节点 ? 高可用是如何做的?

4.haproxy如何检测节点是否正常?(health check 6443端口)haproxy需要配置vip吗?keepalived 作用?

5.网络插件使用的什么?作用主要是什么?SVC-CIDR / POD-CIDR 在哪里配置?calico 如何给pod分配IP?(这块竟然不深入calico细节…….)

6.监控用什么(prometheus operator)?都配置了哪些指标?pod的内存和cpu是什么组件上报的(kubelet)?


笔试题目:

一共四道题,第一个题目整蒙了,一直没理解面试官的意图


请用kubectl 查询下每个节点CPU剩余的可以调度的资源

k  get node
k describe node master1
request:
cpu: 1000m
k top node
]# k top node
NAME               CPU(cores)   CPU%   MEMORY(bytes)   MEMORY%
k8s-master-node1   487m         13%    5305Mi          35%
k8s-worker-node1   247m         7%     3173Mi          21%
k8s-worker-node2   269m         7%     3455Mi          23%

这里的cpu cores 指的是什么意思?

58941c6c0b8e4531bbce4a412ff198a2.png

实例:


有五个节点每个节点8 个cpu core,创建100个pod,每个pod的request cpu=1000m。


创建这些pod后 调度器如何调度?


request 的资源是启动的时候必须有这么多资源才能调度成功。cpu是可压缩资源,理论上是可以调度上去的。 实验结果表明这个猜想是错误的。


下面但是没答出来,面试官请我去查。

做一个实验: 创建100个pod 每个pod申请一个1core。


实验结果:只设定request的情况下,只能调度成功4个pod。其余pod都无法调度,具体报错为:


Warning FailedScheduling 4m20s (x46 over 65m) default-scheduler 0/3 nodes are available: 1 node(s) had taint {master: nos}, that the pod didn’t tolerate, 2 Insufficient cpu.


这是什么原因呢? cpu不足?


insufficient cpu经过计算之后确实不够了,我的集群是3个节点,每个节点四个cpu。


查询所有pod的requests字段的总和。

#  kubectl get pods --all-namespaces -o jsonpath="{range .items[*]}{.metadata.name}{'\t'}{.spec.containers[*].resources.requests.cpu}{'\n'}{end}"
busyboxtest
ingress-demo-app-5967f8fd7d-p8rt7
ingress-demo-app-5967f8fd7d-qsvgz
multi-con
my-static-pod-k8s-master-node1  10m
nginx-app-5ccd894fcb-6k8hj
nginx-app-5ccd894fcb-cfpkf
nginx-app-5ccd894fcb-wqrmp
nginx-dns-8lc8b
nginx-dns-k7ldh
nginx-dns-wd6ff
nginx-test
po      100m
pod-secrets-via-env
pod-secrets-via-file
schedule-test-6cdbf894bd-62l8z  1
schedule-test-6cdbf894bd-6cw8c  1
schedule-test-6cdbf894bd-bm4vv  1
schedule-test-6cdbf894bd-cjnkd  1
schedule-test-6cdbf894bd-m9nl6  1
schedule-test-6cdbf894bd-pzhwl  1
schedule-test-6cdbf894bd-wj7mh  1
schedule-test-6cdbf894bd-wt2t6  1
schedule-test-6cdbf894bd-xnx4c  1
schedule-test-6cdbf894bd-xtskv  1
secret-pod
test
web-server
web-server-f7fcbdc98-rdl6d
web-server-f7fcbdc98-rjmn8
web-server-f7fcbdc98-rw4hr
web-server-f7fcbdc98-xblsj
ingress-nginx-admission-create-n9588
ingress-nginx-admission-patch-rdc86
ingress-nginx-controller-5d886544c7-4rgxp       100m
ingress-nginx-controller-5d886544c7-cjk76       100m
ingress-nginx-controller-5d886544c7-qgbvw       100m
calico-kube-controllers-dcb6dbf69-rdsfn
calico-node-66dw6       250m
calico-node-dz4vc       250m
calico-node-k4tbl       250m
calicoctl
coredns-b9bf78846-rnxpd 100m
coredns-b9bf78846-rvk2b 100m
default-http-backend-5b59f64f64-qf722   10m
etcd-k8s-master-node1   100m
kube-apiserver-k8s-master-node1 250m
kube-controller-manager-k8s-master-node1        200m
kube-proxy-4fqlp
kube-proxy-fglrn
kube-proxy-v9rm6
kube-scheduler-k8s-master-node1 100m
metrics-server-765d987858-q7l7b 100m
tigera-operator-7d7795c47f-2zz8t

计算这些pod的总的requests.cpu 共12120m。

这已经超过了节点cpu的总和。12120m > 12000m。所以shcedule-test pod最多只能调度成功4个。这个实验结果应该是面试官想要的。


突然发现资源真的好浪费呀,节点的cpu资源还有很多。节点cpu 使用不到10%。


这个cpu sum requests其实prometheus也可以看到(这是另外一个集群的.)

sum(namespace_cpu:kube_pod_container_resource_requests:sum{cluster="$cluster"}) / sum(kube_node_status_allocatable{job="kube-state-metrics",resource="cpu",cluster="$cluster"})

a6d63f6128e84f4fb778215f94ca55ca.pngf8b98879ea1d4d509955fb43b492b078.png

3970bd7220df45aaabe2a5f806433f73.png

引申问题?


既然schedule-test pod是guaranteed pod,那么就应该优先调度,besteffort qos的pod不应该被驱逐么?

QoS是当节点承压pod 被驱逐时,kubelet会考虑的事情,而不是调度的时候。


注意: 只写requests.cpu和limit.cpu ,pod的qosClass竟然还是burstable. 同时设定cpu和memory的memory 和limit才会是guaranteed pod。

2.如何查看当前的k8s 都占用了那些网段?

k get po controller-manager -n kube-system

查看controller-manager 的svc CIDR/ pod CIDR . 一般svc 是10.96.0.0/24

pod 的cidr 是10.244/0.0/24

3.shell 找出当前 哪个进程 向 /data 中写入或者读取的 的数据 最多?

iostat -p pid

iotop by 进程的io


ls -l /data 查看是最大的文件

lsof 文件名

查看对应的进程

4.用ansible 批量重启每个节点的kubelet 服务

ansibel k8s-all -m shell -a ‘systemctl restart kubelet’ -k

HR面

最终定级二线中级2. 我觉得表现好一点会是中级3或者高级1.

等我修炼一段时间再面面。

内核? linux 性能调优?网络?etcd? go?

如果懂一些go ,我想定级和薪资应该都有所提升。


相关实践学习
容器服务Serverless版ACK Serverless 快速入门:在线魔方应用部署和监控
通过本实验,您将了解到容器服务Serverless版ACK Serverless 的基本产品能力,即可以实现快速部署一个在线魔方应用,并借助阿里云容器服务成熟的产品生态,实现在线应用的企业级监控,提升应用稳定性。
云原生实践公开课
课程大纲 开篇:如何学习并实践云原生技术 基础篇: 5 步上手 Kubernetes 进阶篇:生产环境下的 K8s 实践 相关的阿里云产品:容器服务&nbsp;ACK 容器服务&nbsp;Kubernetes&nbsp;版(简称&nbsp;ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情:&nbsp;https://www.aliyun.com/product/kubernetes
目录
相关文章
|
1月前
|
运维 监控 Java
java乡镇卫生院、二甲医院云HIS运维平台源码
运营管理是综合管理系统的核心部分,由运营商和医疗机构管理人员使用,运营管理包括:机构管理、药品目录管理、用户管理、角色管理、字典管理、模板管理、参数设置、消息管理、售后服务、运营配置、外部系统11个子模块,实现机构、用户、角色管理、药品目录管理以及通用的字典管理;可以根据业务需要为各医疗机构定制病历模板和报表模板;可以对医疗机构收费外接设备进行参数设置,对业务进行配置;可以管理消息及售后信息等。
41 3
|
5月前
|
Java Linux 程序员
Linux平台中调试C/C++内存泄漏方法 (腾讯和MTK面试的时候问到的)
Linux平台中调试C/C++内存泄漏方法 (腾讯和MTK面试的时候问到的)
|
3月前
|
运维 算法 Java
springboot医院信息化云HIS运维平台源码
1、门诊部分 挂号及预约、划价及收费、门诊处方及病历、医生排班... 2、住院部分 入院及出院登记、住院收费、住院清单、出院结算、住院医生工作站、住院护士工作站... 3、电子病历 医嘱管理、护嘱管理、电子病历、护理病历、病历质控...
44 0
|
3天前
|
运维 前端开发 JavaScript
运维管理平台实现与学习心得
运维管理平台实现与学习心得
|
3月前
|
消息中间件 缓存 运维
云HIS运维运营平台 云HIS解决方案
云HIS重建统一的信息架构体系,重构管理服务流程,重造病人服务环境,向不同类型的医疗机构提供SaaS化HIS服务解决方案。
63 2
|
3月前
|
SQL 数据挖掘 数据处理
「SQL面试题库」 No_65 用户购买平台
「SQL面试题库」 No_65 用户购买平台
|
4月前
|
SQL 运维 安全
客户说|享道出行 x DMS,构建一站式高效、安全的数据运维管理平台
享道出行通过引入一站式运维管理系统DMS,有效地降低数据运维的复杂性,提升运维团队的工作效率,同时保障IT系统的稳定性和安全性,最终实现业务的持续性和稳定发展。
|
6月前
|
存储 运维 监控
运维面试必看的22个项目经验(真实) 学会薪资翻倍
运维面试必看的22个项目经验(真实) 学会薪资翻倍
232 0
|
6月前
|
存储 运维 DataWorks
DataWorks是阿里云推出的一款云数据集成、数据开发、数据运维一体化的数据开发平台
DataWorks是阿里云推出的一款云数据集成、数据开发、数据运维一体化的数据开发平台
125 4
|
6月前
|
运维 Kubernetes jenkins
【Kubernetes测试生产环境整体部署及全链路测试、自动化运维平台Jenkins与Devops环境搭建】
【Kubernetes测试生产环境整体部署及全链路测试、自动化运维平台Jenkins与Devops环境搭建】
221 0