Kubernetes使用集群联邦实现多集群管理

简介: Kubernetes在1.3版本之后,增加了“集群联邦”Federation的功能。这个功能使企业能够快速有效的、低成本的跨区跨域、甚至在不同的云平台上运行集群。这个功能可以按照地理位置创建一个复制机制,将多个kubernetes集群进行复制,即使遇到某个区域连接中断或某个数据中心故障,也会保持最关键的服务运行。

Kubernetes在1.3版本之后,增加了“集群联邦”Federation的功能。这个功能使企业能够快速有效的、低成本的跨区跨域、甚至在不同的云平台上运行集群。这个功能可以按照地理位置创建一个复制机制,将多个kubernetes集群进行复制,即使遇到 某个区域连接中断或某个数据中心故障,也会保持最关键的服务运行。在1.7版以后支持本地多个集群联邦管理,不需要使用依赖云平台。

一、Kubernetes集群联邦介绍

1、管理多個kubernetes集群

“集群联邦”在架构上同kubernetes集群很相似。有一个“集群联邦”的API server提供一个标准的Kubernetes API,并且通过etcd来存储状态。不同的是,一个通常的Kubernetes只是管理节点计算,而“集群联邦”管理所有的kubernetes集群。

2、跨集群服务发现

Kubernetes有一个标准的插件:kube-dns,这个插件可以在集群内部提供DNS服务,通过DNS解析service名字来访问kubernetes服务。Kubernetes服务是由一组kubernetesPOD组成的,这些POD是一些已经容器化了的应用,这些POD前面使用到了负载均衡器。假如我们有一个kubernetes集群,这个集群裡面有一个服务叫做mysql,这个服务是由一组mysql POD组成的。在这个kubernetes集群中,其他应用可以通过DNS来访问这个mysql服务。

集群联邦federation/v1beta1 API扩展基于DNS服务发现的功能。利用DNS,让POD可以跨集群、透明的解析服务。

3、跨集群调度

为了追求高可用性和更高的性能,集群联邦能够把不同POD指定给不同的Kubernetes集群中。集群联邦调度器将决定如何在不同kubernetes集群中分配工作负载。

通过跨集群调度,我们可以:

  • 跨kubernetes集群均匀的调度任务负载
  • 将各个kubernetes集群的工作负载进行最大化,如果当前kubernetes集群超出了承受能力,那麽将额外的工作负载路由到另一个比较空闲的kubernetes集群中
  • 根据应用地理区域需求,调度工作负载到不同的kubernetes集群中,对于不同的终端用户,提供更高的带宽和更低的延迟。

4、集群高可用,故障自动迁移

集群联邦可以跨集群冗馀部署,当某个集群所在区域出现故障时,并不影响整个服务。集群联邦还可以检测集群是否为不可用状态,如果发现某个集群为不可用状态时,可以将失败的任务重新分配给集群联邦中其他可用状态的集群上。

二、Kubernetes使用集群联邦实现多集群管理

1、系统环境及初始化

1.1 系统环境

功能组件 系统组件 系统版本 推荐配置 设备数量 备注
联邦集群控制平面 K8S+Federation CentOS 7.2 4核/8G/80G 2台 联邦集群控制平面
K8s集群01 Kubernetes master+node CentOS 7.2 4核/8G/80G 2台 联邦集群节点
K8s集群02 Kubernetes master+node CentOS 7.2 4核/8G/80G 2台 联邦集群节点

1.2 安装前准备

1.2.1 准备kubernetes组件镜像

Kubernetes1.7版本的集群与联邦集群功能的安装方式均为镜像安装,所有组件功能都使用官方提供的镜像来实现,由于官方镜像国内无法正常下载,需要提前准备好镜像或科学上。

网,具体镜像列表如下

序号 Kubernetes镜像 版本
1 gcr.io/google_containers/kube-proxy-amd64 v1.7.0
2 gcr.io/google_containers/kube-apiserver-amd64 v1.7.0
3 gcr.io/google_containers/kube-controller-manager-amd64 v1.7.0
4 gcr.io/google_containers/kube-scheduler-amd64 v1.7.0
5 gcr.io/google_containers/kube-aggregator v1.7.0
6 gcr.io/google_containers/k8s-dns-sidecar-amd64 1.14.4
7 gcr.io/google_containers/k8s-dns-kube-dns-amd64 1.14.4
8 gcr.io/google_containers/k8s-dns-dnsmasq-nanny-amd64 1.14.4
9 gcr.io/google_containers/etcd-amd64 3.0.17
10 quay.io/coreos/flannel v0.7.1-amd64
11 gcr.io/google_containers/pause-amd64 3.0
联邦集群镜像
1 gcr.io/google_containers/hyperkube-amd64 v1.7.0
2 docker.io/coredns/coredns 006
3 gcr.io/kubernetes-helm/tiller v2.1.3

1.2.2 安装Docker 1.12

Kubernetes 1.7还没有针对docker 1.13上做测试和验证,所以这里安装Kubernetes官方推荐的Docker 1.12版本。

1.2.3 修改系统配置

创建/etc/sysctl.d/k8s.conf文件,添加如下内容:

net.bridge.bridge-nf-call-ip6tables = 1

net.bridge.bridge-nf-call-iptables = 1

执行sysctl -p /etc/sysctl.d/k8s.conf使修改生效。

在/etc/hostname中修改各节点的hostname,在/etc/hosts设置hostname对应ip:

192.168.5.13 test01.example.com

192.168.5.14 test02.example.com

关闭防火墙服务与禁用开机启动项

systemctl stop firewalld

systemctl disable firewalld

关闭SELINUX选项

setenforce 0

sed -i 's/SELINUX=enforcing/SELINUX=disabled/g'/etc/sysconfig/selinux

1.2.4 安装Kuberadm与Kubelet

注意:该yum源需要科学才能正常安装

在每个节点安装kubeadm和kubelet:

cat <<EOF > /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=http://yum.kubernetes.io/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=1
repo_gpgcheck=1
gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg
EOF

安装kubeadm, kubelet, kubectl, kubernets-cni

yum install -y kubelet kubeadm kubectl kubernetes-cni

kubelet服务设置开机启动

systemctl enable kubelet.service

安装完成后初始化环境准备完成。

2、安装kubernetes集群

首先在一个节点上安装kubernetes作为master节点,将master节点参与集群调度.然后在该节点上安装联邦集群功能,作为联邦集群的控制平面。

2.1 初始化集群

使用kubeadm初始化集群,选择node1作为Master,在node1上执行下面的命令:

注:因为我们选择flannel作为Pod网络插件,所以命令指定–pod-network-cidr=10.240.0.0/16

kubeadm init --kubernetes-version=v1.7.0 --pod-network-cidr=10.240.0.0/16 --apiserver-advertise-address=192.168.5.13

kubeadm init执行成功后输出下面的信息:

注:请保存好该信息,后续节点加入集群需要使用该命令.

You can now join any number of machines by running the following on each node
as root:
kubeadm join --token e7986d.e440de5882342711 192.168.5.13:6443

为了使用kubectl访问apiserver,在~/.bash_profile中追加下面的环境变量:

echo "export KUBECONFIG=/etc/kubernetes/admin.conf" >> /etc/profile
source /etc/profile

此时kubectl命令在master node上就好用了,查看一下当前机器中的Node:

kubectl get nodes
 NAME STATUS AGE VERSION
 node0 Ready 3m v1.7.0

2.2 安装Pod网络组件

接下来安装flannel network add-on:

wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel-rbac.yml

wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

目前需要在kube-flannel.yml中使用–iface参数指定集群主机内网网卡的名称,否则可能会出现dns无法解析。需要将kube-flannel.yml下载到本地,flanneld启动参数加上–iface=<iface-name>

vi kube-flannel.yml
 command: [ "/opt/bin/flanneld", "--ip-masq", "--kube-subnet-mgr", "--iface=eth1" ] //改为本机网卡名称

部署网络组件:

kubectl create -f kube-flannel-rbac.yml
kubectl apply -f kube-flannel.yml

确保所有的Pod都处于Running状态。

kubectl get pod --all-namespaces -o wide

使用下面的命令使Master Node参与工作负载:

kubectl taint nodes --all node-role.kubernetes.io/master-

三、安装联邦集群组件

3.1安装前配置修改

修改前先停止kubelet服务

vi /etc/kubernetes/manifests/etcd.yaml
 - --listen-client-urls=http://0.0.0.0:2379 - --advertise-client-urls=http://0.0.0.0:2379
vi /etc/kubernetes/manifests/kube-apiserver.yaml
 - --insecure-port=8080 - --insecure-bind-address=0.0.0.0

重启kubelet服务让etcd与apiserver监听端口生效

systemctl restart kubelet

3.2安装helm工具部署Coredns

curl https://raw.githubusercontent.com/kubernetes/helm/master/scripts/get > get_helm.sh
chmod 700 get_helm.sh
./get_helm.sh

修改RBAC临时访问权限

kubectl create clusterrolebinding add-on-cluster-admin --clusterrole=cluster-admin --serviceaccount=kube-system:default

创建coredns键值文件

cat <<EOF > /opt/Values.yaml
isClusterService: false
serviceType: "NodePort"
middleware:
 kubernetes:
 enabled: false
 etcd:
 enabled: true
 zones: - "example.com."
 endpoint: "http://192.168.5.13:2379"
EOF

初始化helm,并使用helm安装coredns组件

helm init
helm install --namespace default --name coredns -f /opt/Values.yaml stable/coredns

新建coredns配置文件

vi /root/coredns-provider.conf
[Global]
etcd-endpoints = http://192.168.0.51:2379
zones = example.com.

3.3添加kubernetes从节点

在kubernetes工作节点上初始安装后执行以下命令

kubeadm join --token e7986d.e440de5882342711 192.168.5.13:6443

在master节点查看节点状态

kubectl get nodes

重复上述步骤创建多个kubernetes集群,为联邦集群添加集群节点做准备。

3.4初始化联邦集群

kubefed init fellowship \
 --host-cluster-context=kubernetes-admin@kubernetes \
 --dns-provider="coredns" \
 --dns-zone-name="example.com." \
 --dns-provider-config="/root/coredns-provider.conf" \
 --apiserver-enable-basic-auth=true \
 --apiserver-enable-token-auth=true \
 --apiserver-arg-overrides="--anonymous-auth=false,--v=4" \
 --api-server-service-type="NodePort" \
 --api-server-advertise-address="192.168.5.13" \
--etcd-persistent-storage=false

初始化完成后集群联邦会在federation-system命名空间中创建两个POD

3.5其他kubernetes集群加入联邦集群

选择集群的context

kubectl config use-context fellowship //fellowship为联邦初始化时创建

添加联邦集群文件

cat /home/tmp/c1.yaml
 apiVersion: federation/v1beta1
 kind: Cluster
 metadata:
 name: c1
 spec:
 serverAddressByClientCIDRs: - clientCIDR: 0.0.0.0/0
 serverAddress: http://192.168.15.53:8080
 cat /home/tmp/c2.yaml
 apiVersion: federation/v1beta1
 kind: Cluster
 metadata:
 name: c2
 spec:
serverAddressByClientCIDRs: - clientCIDR: 0.0.0.0/0
 serverAddress: http://192.168.8.12:8080

添加集群到联邦

kubectl create -f c1.yaml
kubectl create -f c2.yaml

查看联邦集群状态

[root@test01 ~]# kubectl get cluster
NAME STATUS AGE
c1 Ready 2d
c2 Ready 2d

3.6通过联邦集群部署应用

通过联邦集群部署应用,需要在联邦集群控制平面的节点上,切换到联邦的context

kubectl config use-context fellowship //fellowship为联邦初始化时创建

配置应用在分布在2个集群中

vi tomcat.yaml
apiVersion: exensions/v1beta1
kind: ReplicaSet
metadata:
 name: tomcat
 lables:
 app: tomcat
 annotaions:
 federation.kubernetes.io/replica-set-preferences: { "rebalance": true, "clusters": { "c1": { "weight": 1 }, "c2": { "weight": 1 } } }
spec:
 replicas: 4 template:
 metadata:
 labels: #region: tomcat
 app: tomcat
 spec:
 containers: - name: fed-tomcat
 image: 192.168.18.250:5002/admin/tomcat:v0.0.5
 resourcces:
 requests:
 cpu: 200M
 memory: 500Mi
 ports: - containerPort: 80

通过联邦创建应用,应用的4个实例按比例分布到2个集群中

[root@test01 ~]# kubectl create namespace default namespace "default" created

[root@test01 ~]# kubectl create -f tomcat.yaml
replicaset "tomcat" created

[root@test01 ~]# kubectl get rs
NAME DESIRED CURRENT AGE
tomcat 4 4 <invalid> [root@test01 ~]# kubectl -s 192.168.15.53:8080 get pod
NAME READY STATUS RESTARTS AGE
tomcat-juywx 1/1 Running 0 33s
tomcat-siidb 1/1 Running 0 33s [root@test01 ~]# kubectl -s 192.168.8.12:8080 get pod
NAME READY STATUS RESTARTS AGE
tomcat-sw437 1/1 Running 0 33s
tomcat-n7z74 1/1 Running 0 33s

集群联邦只支持以下几种类型资源的创建:

Cluster

ConfigMap

DaemonSets

Deployment

Events

Ingress

Namespaces

ReplicaSets

Secrets

Services

本文转自kubernetes中文社区- Kubernetes使用集群联邦实现多集群管理
相关实践学习
容器服务Serverless版ACK Serverless 快速入门:在线魔方应用部署和监控
通过本实验,您将了解到容器服务Serverless版ACK Serverless 的基本产品能力,即可以实现快速部署一个在线魔方应用,并借助阿里云容器服务成熟的产品生态,实现在线应用的企业级监控,提升应用稳定性。
云原生实践公开课
课程大纲 开篇:如何学习并实践云原生技术 基础篇: 5 步上手 Kubernetes 进阶篇:生产环境下的 K8s 实践 相关的阿里云产品:容器服务&nbsp;ACK 容器服务&nbsp;Kubernetes&nbsp;版(简称&nbsp;ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情:&nbsp;https://www.aliyun.com/product/kubernetes
相关文章
|
1天前
|
Kubernetes 安全 API
Kubernetes学习-集群搭建篇(三) Node配置完善和API概述
Kubernetes学习-集群搭建篇(三) Node配置完善和API概述
Kubernetes学习-集群搭建篇(三) Node配置完善和API概述
|
1天前
|
Kubernetes 应用服务中间件 Docker
Kubernetes学习-集群搭建篇(二) 部署Node服务,启动JNI网络插件
Kubernetes学习-集群搭建篇(二) 部署Node服务,启动JNI网络插件
|
1天前
|
存储 运维 Kubernetes
Kubernetes学习-集群搭建篇(一) 搭建Master结点
Kubernetes学习-集群搭建篇(一) 搭建Master结点
|
1天前
|
Kubernetes API 调度
Kubernetes学习-核心概念篇(二) 集群架构与组件
Kubernetes学习-核心概念篇(二) 集群架构与组件
|
3天前
|
存储 运维 监控
Kubernetes 集群的持续监控与性能优化策略
【5月更文挑战第11天】在微服务架构日益普及的当下,Kubernetes 已成为容器编排的事实标准。随着其在不同规模企业的广泛采用,如何确保 Kubernetes 集群的高效稳定运行变得至关重要。本文将探讨一套系统的 Kubernetes 集群监控方法,并结合实践经验分享针对性能瓶颈的优化策略。通过实时监控、日志分析与定期审计的结合,旨在帮助运维人员快速定位问题并提出解决方案,从而提升系统的整体表现。
|
5天前
|
Kubernetes Java API
Kubernetes详解(三)——Kubernetes集群组件
Kubernetes详解(三)——Kubernetes集群组件
16 1
|
10天前
|
运维 监控 Kubernetes
Kubernetes 集群的监控与维护策略
【5月更文挑战第4天】 在当今微服务架构盛行的时代,容器化技术已成为软件开发和部署的标准实践。Kubernetes 作为一个开源的容器编排平台,因其强大的功能和灵活性而广受欢迎。然而,随着 Kubernetes 集群规模的扩大,集群的监控和维护变得日益复杂。本文将探讨 Kubernetes 集群监控的重要性,分析常见的监控工具,并提出一套有效的集群维护策略,以帮助运维人员确保集群的健康运行和高可用性。
41 10
|
11天前
|
存储 运维 监控
Kubernetes 集群的持续监控与优化策略
【5月更文挑战第3天】在微服务架构和容器化部署日益普及的背景下,Kubernetes 已成为众多企业的首选容器编排平台。然而,随着集群规模的增长和业务复杂度的提升,有效的集群监控和性能优化成为确保系统稳定性和提升资源利用率的关键。本文将深入探讨针对 Kubernetes 集群的监控工具选择、监控指标的重要性解读以及基于数据驱动的性能优化实践,为运维人员提供一套系统的持续监控与优化策略。
|
14天前
|
运维 Kubernetes 监控
Kubernetes 集群的监控与维护策略
【4月更文挑战第30天】 在现代云计算环境中,容器化技术已成为应用程序部署和管理的重要手段。其中,Kubernetes 作为一个开源的容器编排平台,以其强大的功能和灵活性受到广泛欢迎。然而,随之而来的是对 Kubernetes 集群监控和维护的复杂性增加。本文将探讨针对 Kubernetes 集群的监控策略和维护技巧,旨在帮助运维人员确保集群的稳定性和高效性。通过分析常见的性能瓶颈、故障诊断方法以及自动化维护工具的应用,我们将提供一套实用的解决方案,以优化 Kubernetes 环境的性能和可靠性。
|
14天前
|
运维 Kubernetes 监控
Kubernetes集群的持续性能优化策略
【4月更文挑战第30天】 在动态且不断扩展的云计算环境中,保持应用性能的稳定性是一个持续的挑战。本文将探讨针对Kubernetes集群的持续性能优化策略,旨在为运维工程师提供一套系统化的性能调优框架。通过分析集群监控数据,我们将讨论如何诊断常见问题、实施有效的资源管理和调度策略,以及采用自动化工具来简化这一过程。