【DockerCon2017技术解读】如何在阿里云一键部署高可用的Kubernetes集群

本文涉及的产品
传统型负载均衡 CLB,每月750个小时 15LCU
应用型负载均衡 ALB,每月750个小时 15LCU
资源编排,不限时长
简介: DockerCon2017的技术解读中,阿里云的容器服务团队技术专家谢瑶瑶做了题为《Kubernetes on Alibaba Cloud》的分享,主要介绍了Kubernetes的基本概念,如何在阿里云快速一键部署高可用安全的Kubernetes集群以及阿里云的Cloud Provider提供的能力

以下内容根据演讲嘉宾现场视频以及速记整理而成。

今天主要会分享三个方面的问题:
Kubernetes的基本概念介绍
如何在阿里云快速一键部署高可用安全的Kubernetes集群
Kubernetes在阿里巴巴的Cloud Provider,也就是云厂商的集成提供的一些能力

首先简单介绍一下Kubernetes。Kubernetes简称K8S,这是社区的一种叫法。Kubernetes是整个CaaS工作流中的一环,CaaS是什么呢?就是Container As A Service——容器即服务,下图中的右图是一个简化版的CaaS的架构图,从最底层是一个基础服务,其上层主要提供的是物理机、网络、存储等一些比较硬件化的基础设施。再往上一层会构建PaaS平台,PaaS平台里头主要交付的对象是一些虚拟机,或者逻辑的结构,比如逻辑的VPC网络、存储等,让你可以方便地一键去创建这些资源,而不需要再去机房里头自己去运维管理这些东西。然后在PaaS平台上面会构建一层容器平台,这一层中主要的交互单元就是容器。
1.png

对于容器服务来讲,在这一层的时候,就更不需要关心于底层的PaaS平台所具有的特性了,比如在创建应用的时候,不需要关心底层使用的虚拟机是什么,或者是否需要手动创建一个虚拟机网络以及存储,然后去构建并放置应用去运行,这个时候只需要首先声明应用,然后告诉它说我需要在这个CaaS平台里运行我的应用,然后其他的事情你就不用操心了。平台会主动地帮你去寻找最合适的机器以及最合适的环境,把应用布置上去,并帮你解决好应用的故障恢复,网络的访问情况,以及资源分配问题。Kubernetes的这个层次之上是上图绿色部分,它属于编排系统,可以很方便地把应用按照系统合适的方式分布到各个节点上去,然后由它来处理故障恢复、副本保证等资源调度问题。另外它还提供容器的生命周期管理,比如启停一个应用、当应用失败之后重新拉起,或者不需要这个应用后执行删除等操作。

接下来分享一下Kubernetes的一些基本的概念,一个比较核心的概念就是Pod,Pod是一组容器的统称,就是它把一组容器作为一个最基础的调度单元,这组容器会被协同调度到一起,比如说有两个属于同一个Pod的容器,那么它们会被调度到同一个节点,一起调度,一起Fail Over。Service是一组Pod的抽象,比如在创建应用的时候可能需要创建很多个Pod来同时对外界提供服务,那么这一组Pod是同一个层次的东西,具有同等的地位,在前面提供一个Services对这一组Pod做负载均衡,当访问这个Services的时候,就会从后端随意挑出一个Pod来为前端提供服务,相当于负载均衡的概念,不过Services是集群内部的,它的网络只会局限于集群内部。

另外一个是Deployment概念,这是一个描述性的概念,就是当描述一个应用的时候就需要声明这个应用需要达到的状态,比如需要它有三个副本一直运行,需要它在故障的时候能够自动拉起来。用Deployment来描述它,然后系统就会自动保证这些东西,一旦出现了不符合预期的情况,系统会自动把这个状态转化到正常,无论是通过重新创建一组Pod或者是拉起原来的Pod。在K8S里面还有一个另外比较重要的概念就是持久化卷,通常来讲容器在创建的时候是没有数据卷的,对于存储在容器中的数据,如果把容器删掉了,那么这个数据也就会丢失。K8S提供一个持久化卷的概念,就是在创建服务的时候,可以先创建出这个卷,然后把这个卷挂载到容器里头去。通过这样的方式,在删除容器时,持久化卷是不会被删除的,数据也就可以保留下来。

下图是K8S的架构示意图,这是一个典型的无状态、多Master的分布式架构图。K8S主要功能组件:Kubelet,相当于Agent,在每一个节点上提供一个守护进程的服务,上报节点状态、运行Controller等。aplserver是一个Master,它是无状态的,所有的数据都存在后端的一致性存储中。Scheduler负责调度所有的Pod,也就是应用,为应用找一个合适的位置并运行起来。
1.png

这里前端使用一个Load Balancer来提供一个高可用的负载均衡的服务,其中一个Master挂了之后,仍然会有其他的几个Master会提供服务,所以不用担心会有几个Master 挂掉了。

在使用K8S当中遇到的一个比较大的问题就是部署问题。众所周知K8S一直在业界被诟病的就是太难用了,组件太多,概念太多,导致无法理解。对于开发者来讲,不希望去操心如何把集群快速地部署起来,如何去理解底层的东西,只需在用到的时候能够部署一个集群出来,这是需要达到最终的目标,就是部署简单。
1.png

看一下现在比较流行的一些部署工具,Kubeup是最早期的一种部署工具,它支持多种的环境,CentOS、Ubuntu,J2EE以及AWS等等,但是目前没有办法直接在阿里云上面部署起来,需要一些手工的改动。Kargo的底层主要使用的是Ansible,适合对Ansible比较熟悉的人去部署使用。Kops与AWS等云厂商集成度比较高,所以在AWS下面比较好用。Kubeadm主要是K8S原生支持的,也是未来官方主推的一种方式,它的特点就是简单易用,但是目前还处在α阶段,还不支持HA。但是这并不妨碍我们去使用它部署出一个HA的K8S集群。

那么阿里云的选择是什么呢?ROS + Kubeadm,原因只有一个:简单。首先简单介绍一下ROS,ROS是阿里云的资源编排服务,它可以非常方便的在阿里云一键创建出来所需要的各种资源比如ECS、VPC网络、SLB以及其他资源等等,相关的文档大家可以去阿里云官网查看。

一键部署主要分为三个步骤:
进入到ROS的控制台,这里有一个Kubernetes for chinese版本的,然后去点击创建。
选一个创建的区域。
填写创建的集群名称,填写节点的密码,点击创建。
这就是一键创建,非常简单。

主要的部署过程分为三个步骤:第一个是创建集群需要提供阿里云的KeyID跟KeySecret,首先需要设置这两个环境变量,然后需要从阿里云官方网站上下载一个脚本,执行一个node-type=Master命令,这个命令要在Master上执行,这样执行完了之后就在这台机器上初始化了一个Master了,然后它会返回一个Token和节点的IP。第二步再到node节点上面去把node-type改为node,然后带上KeyID跟KeySecre以及刚才返回的End Point和Token,就可以把这个结点加入到刚才创建的Master集群当中,如此反复,就可以把更多的节点加入到集群中去。当不想要某个节点的时候,还可以通过node-type = down的命令销毁掉这个节点。
1.png

注意的地方就是在创建集群的过程中一定要保证hostname的一致性,CP的规范是使用hostname作为校验ECS一致性的参数,所以一定要保证hostname与传给CP的值是一样的。另外一个是阿里云的安全组设置问题,安全组默认禁止了所有非VPC地址的访问,因此需要根据最小需求设置来开放安全组,CP使用了172.16以及172.19网段,需要把这两个网段开放出来,同时还需要开放30000到32768的主机端口,用来给Service提供服务。第三个比较重要的是CentOS默认的内核配置的问题,这个要求配置内核的net.bridge.bridge-nf-call-iptables=1参数,否则所有主机上网桥的数据流量都不会经过iptables规则的转化,从而导致服务没有办法互相访问。如果这些还没有办法解决问题,那可以祭出终极大杀器——tcpdump,然后抓包分析数据。
1.png

接下来介绍一下K8S的阿里巴巴Cloud Provider,阿里云的Cloud Provider支持如下的一些特性:比如在网络支持方面,支持VPC的网络、阿里云的SLB以及Ingress network;存储方面,支持NAS、OSS。支持跨Region的单集群部署方案,可以把集群部署在多个可用区,甚至多个Region上,这样当出现单可用区fail的时候,集群仍然是可用的,提供了一种高可用的方案。还可以在K8S上使用原生的ELK作为日志方案,也可以使用阿里云提供的Fluentd-pilot开源解决方案,这个可以和阿里云的日志服务提供完整的对接,也是非常不错的选择;然后监控方面也可以通过阿里云监控来监控node节点的状态,也可以选择使用原生的Heapster + inluxdb来做网络监控方案;在应用仓库方面,可以使用现在开源的Helm/tiller的方式。
1.png

然后我们来看一下我们的VPC网络支持,Kubernetes支持非常丰富的网络形态,如VXLAN、Calico以及VPC网络等,VXLAN主要是一种Overlay,它通过对IP层然数据进行二次封装,封装完了之后在通过宿主机的网络路由到对端主机之后,然后再进行解封装,解封装之后再放到主机的内核栈里头,处理这些协议然后解码出来,传到另外Container容器里的网络里头,这个过程涉及到了一个数据包的封装与解封装,所以它的性能会有稍微的损耗。
1.png

Calico网络是通过3层路由的方式实现的,它直接把网关指向了对端节点的主机IP,这样所有发送到对端节点上面的容器IP的数据包都可以直接先发到对端节点上,然后由对端节点直接路由给容器。这种方式的好处是没有数据包的额外封装,所以性能损耗非常小。但是它要求所有的主机之间是二层可达的,这个要求通常对于许多云厂商来说是无法满足的,但是自建机房一般是都可以用的。然后就是VPC网络,阿里云VPC的方案跟Calico非常类似,也是通过路由的方式,然后把一个节点的容器的数据包导到另一个节点上的容器中去,所以性能损耗非常小,推荐大家使用VPC网络,而且现在阿里云支持的K8S也是仅仅支持这一种网络。当然你也可以使用VXLAN网络,但是VPC网络会提供给你的更好的性能,而且它还提供租户隔离级别的网络环境,网段也可以自由划分,而且如果把多个交换机创建在不同的可用区之内,还可以提供一种可用区级别的Fail Over。

实践过程中比较多的问题都来自于客户想了解VPC网络的性能究竟如何。在这里通过几种不同的方案来测试了一下VPC性能,主要有netprof、iprof以及qprof,下图是得出来的结果。从这些结果来看,容器的VPC网络跟主机VPC网络差距是非常小的,性能损耗是几乎是没有的,当然不同的人在不同的环境下测出来的结果会有略微的差异,大家可以自己测试一下。
1.png

阿里云的CP还支持自己的LSB,前面提到的Service的访问范围只是在集群内部,如果想要从集群外部来访问集群内部所提供的服务,那就需要一个入口点。阿里云Load Balancer可以支持这样的功能,这个功能也集成到了阿里云的Cloud Provider中,使用的时候只需要在创建应用的yaml File中指定service 的type = Load Balancer,然后就可以创建一个阿里云Load Balancer,然后它会自动地把Load Balancer关联到后端应用服务器,然后提供给用户一个静态的IP外网接入口,这样就可以通过IP来访问到集群内部的服务了,并且还提供了HTTPS的支持,用户可以上传自己的证书来提供HTTPS服务,还可以自定义SLB的带宽、健康检查类型以及URL、收费类型等。
1.png

K8S的Service是集群范围内的,同时阿里云现在提供另一套解决方案就是使用Ingress。Ingress可以把外部的流量引入进来,那么这与上面提到的LSB有什么区别呢?其实LSB是一个四层的东西,在IP层做负载均衡,而Ingress支持七层的负载均衡,它可以提供一种简单的路由服务,比如把某个域名的url定向一个Service的后端,也可以提供一种简单的服务的Fanout,就是可以用一个域名来提供服务,并根据不同的URL来定位到后端不同服务上去。用户也可以使用多个域名来提供服务,这类似于虚拟主机路由的方式,不同的域名会被路由到不同的后端服务上去。
1.png

然后右边这个是一个简单的架构图,最上层是阿里云的SLB,阿里云的SLB它的流量会被定位到两个Ingress Controller Pod里头去,这两个是一个简单的Nginx实现,通过这个Nginx做7层负载均衡,然后把这些流量再定位到你的应用Pod里面。另外一个特点它支持丰富的Annotation,可以支持SSL,第三方授权,ORL的Rewrite白名单管理等等这些功能。

阿里云的Cloud Provider还支持各种存储,比如NAS存储、OSS存储等。NAS存储是由原生的K8S的NFS驱动支持的。在这里简单介绍一下KBS的Volume的使用机制,K8S的PV就是一个持久化的卷,这需要由集群管理员首先在集群中创建出来作为一个集群内的资源,如果应用方想要在应用中使用,要先创建一个PVC,并要宣称要使用集群的存储资源,然后K8S会从所有的集群Volume里面去挑选出最合适、最匹配的,把它们绑定起来,绑定就意味着你可以使用这个PVC了。对于应用来讲,需要在Pod里面去声明需要使用PVC,然后应用就和PVC绑定起来了,这样在创建应用的时候,K8S就会把这个挂载到应用Pod里去,这样就可以像写本地磁盘一样去写Persistent-Volume。
1.png

阿里云还支持多可用区,主要是为了实现可用区的Fail Over。让用户可以在多个可用区之中创建集群,即使其他可用区Fail了,服务仍然是可用的。
1.png

阿里云还提供跨Region的支持。可用区级别是在各个可用区之间的,而同一个Region下的各个可用区的网络是连通的,所以部署起来非常简单。但是各个Region之间的网络是不通的,需要通过阿里云的高速通道把各个Region的网络首先打通,然后再部署应用。那么这里有一些限制,就是默认情况下,跨Region的阿里云资源是无法通用的,就是说在Region里面只能使用这个Region的资源,所以通常建议在每一个Region里面创建相同的资源,比如说SLB,创建一个应用之后,把这些应用的Pod平铺调度到多个Region当中,然后在每个Region中创建出一个SLB,把它绑定到应用上去。这样的好处是什么呢?绑定到SLB,然后在最外端提供一个智能DNS解析,把流量分别导入到这两个Region中,这样做可以支持一种邻近用户路由,比如说在杭州有一个Region,一些用户也在杭州,那么就会把杭州的用户导到杭州的Pod节点上面去,这样它的用户响应速度是非常快的,然后欧洲的用户就可以全部导到欧洲的集群里面去,所以这个对邻近用户选择是非常有帮助的。下图展现的就是跨Region支持的细节图。
1.png

本文为云栖社区原创内容,未经允许不得转载,如需转载请发送邮件至yqeditor@list.alibaba-inc.com;如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件至:yqgroup@service.aliyun.com 进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容。

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
目录
相关文章
|
23天前
|
JSON Kubernetes 容灾
ACK One应用分发上线:高效管理多集群应用
ACK One应用分发上线,主要介绍了新能力的使用场景
|
24天前
|
Kubernetes 持续交付 开发工具
ACK One GitOps:ApplicationSet UI简化多集群GitOps应用管理
ACK One GitOps新发布了多集群应用控制台,支持管理Argo CD ApplicationSet,提升大规模应用和集群的多集群GitOps应用分发管理体验。
|
1月前
|
Kubernetes Cloud Native 云计算
云原生之旅:Kubernetes 集群的搭建与实践
【8月更文挑战第67天】在云原生技术日益成为IT行业焦点的今天,掌握Kubernetes已成为每个软件工程师必备的技能。本文将通过浅显易懂的语言和实际代码示例,引导你从零开始搭建一个Kubernetes集群,并探索其核心概念。无论你是初学者还是希望巩固知识的开发者,这篇文章都将为你打开一扇通往云原生世界的大门。
122 17
|
1月前
|
Kubernetes 应用服务中间件 nginx
搭建Kubernetes v1.31.1服务器集群,采用Calico网络技术
在阿里云服务器上部署k8s集群,一、3台k8s服务器,1个Master节点,2个工作节点,采用Calico网络技术。二、部署nginx服务到k8s集群,并验证nginx服务运行状态。
471 1
|
1月前
|
Kubernetes Cloud Native 微服务
微服务实践之使用 kube-vip 搭建高可用 Kubernetes 集群
微服务实践之使用 kube-vip 搭建高可用 Kubernetes 集群
105 1
|
1月前
|
负载均衡 应用服务中间件 nginx
基于Ubuntu-22.04安装K8s-v1.28.2实验(二)使用kube-vip实现集群VIP访问
基于Ubuntu-22.04安装K8s-v1.28.2实验(二)使用kube-vip实现集群VIP访问
51 1
|
1月前
|
Kubernetes Ubuntu Linux
Centos7 搭建 kubernetes集群
本文介绍了如何搭建一个三节点的Kubernetes集群,包括一个主节点和两个工作节点。各节点运行CentOS 7系统,最低配置为2核CPU、2GB内存和15GB硬盘。详细步骤包括环境配置、安装Docker、关闭防火墙和SELinux、禁用交换分区、安装kubeadm、kubelet、kubectl,以及初始化Kubernetes集群和安装网络插件Calico或Flannel。
141 0
|
1月前
|
Kubernetes Cloud Native 流计算
Flink-12 Flink Java 3分钟上手 Kubernetes云原生下的Flink集群 Rancher Stateful Set yaml详细 扩容缩容部署 Docker容器编排
Flink-12 Flink Java 3分钟上手 Kubernetes云原生下的Flink集群 Rancher Stateful Set yaml详细 扩容缩容部署 Docker容器编排
73 0
|
1月前
|
弹性计算 Kubernetes Linux
如何使用minikube搭建k8s集群
如何使用minikube搭建k8s集群
|
1月前
|
Kubernetes 应用服务中间件 nginx
k8s学习--k8s集群使用容器镜像仓库Harbor
本文介绍了在CentOS 7.9环境下部署Harbor容器镜像仓库,并将其集成到Kubernetes集群的过程。环境中包含一台Master节点和两台Node节点,均已部署好K8s集群。首先详细讲述了在Harbor节点上安装Docker和docker-compose,接着通过下载Harbor离线安装包并配置相关参数完成Harbor的部署。随后介绍了如何通过secret和serviceaccount两种方式让Kubernetes集群使用Harbor作为镜像仓库,包括创建secret、配置节点、上传镜像以及创建Pod等步骤。最后验证了Pod能否成功从Harbor拉取镜像运行。
109 0