Kubernetes(K8S)集群管理Docker容器(部署篇)

本文涉及的产品
容器镜像服务 ACR,镜像仓库100个 不限时长
容器服务 Serverless 版 ACK Serverless,317元额度 多规格
容器服务 Serverless 版 ACK Serverless,952元额度 多规格
简介:

一、架构拓扑图

53e0a846f89d2cdcd6b194b90e852f76.png

二、环境规划

角色

IP

组件

master

192.168.0.211

etcd

kube-apiserver

kube-controller-manager

kube-scheduler

node01

192.168.0.212

kubelet

kube-proxy

docker

node02

192.168.0.213

kubelet

kube-proxy

docker

环境说明:

操作系统:Ubuntu16.04 or CentOS7

Kubernetes版本:v1.8.3

Docker版本:v17.09-ce

均采用当前最新稳定版本。

关闭selinux。

三、部署集群

3.1 下载二进制包

打开下面网址,下载下面两个红色框框的包。

https://github.com/kubernetes/kubernetes/blob/master/CHANGELOG-1.8.md#v183

 1e610818c915f4f97dafc14a19aa94fc.png

27ff88ecd5201140479dda9b02033c83.png

下载完成后,上传到服务器:

kubernetes-server-linux-amd64.tar.gz上传到master节点。

kubernetes-node-linux-amd64.tar.gz 上传到node节点。

3.2  安装etcd3

1
2
3
4
5
6
7
8
k8s-master # yum install etcd –y
k8s-master # vi /etc/etcd/etcd.conf 
ETCD_NAME= "default"
ETCD_DATA_DIR= "/var/lib/etcd/default"
ETCD_LISTEN_CLIENT_URLS= "http://0.0.0.0:2379"
ETCD_ADVERTISE_CLIENT_URLS=http: //0 .0.0.0:2379
k8s-master # systemctl enable etcd
k8s-master # systemctl start etcd


注意:Ubuntu系统etcd配置文件在/etc/default/etcd。

3.3 运行Master节点组件

1
2
3
k8s-master # tar zxvf kubernetes-server-linux-amd64.tar.gz
k8s-master # mkdir -p /opt/kubernetes/{bin,cfg}
k8s-master # mv kubernetes/server/bin/{kube-apiserver,kube-scheduler,kube-controller-manager,kubectl} /opt/kubernetes/bin

3.3.1 apiserver

创建配置文件:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
# vi /opt/kubernetes/cfg/kube-apiserver
# 启用日志标准错误
KUBE_LOGTOSTDERR= "--logtostderr=true"
# 日志级别
KUBE_LOG_LEVEL= "--v=4"
# Etcd服务地址
KUBE_ETCD_SERVERS= "--etcd-servers=http://192.168.0.211:2379"
# API服务监听地址
KUBE_API_ADDRESS= "--insecure-bind-address=0.0.0.0"
# API服务监听端口
KUBE_API_PORT= "--insecure-port=8080"
# 对集群中成员提供API服务地址
KUBE_ADVERTISE_ADDR= "--advertise-address=192.168.0.211"
# 允许容器请求特权模式,默认false
KUBE_ALLOW_PRIV= "--allow-privileged=false"
# 集群分配的IP范围
KUBE_SERVICE_ADDRESSES= "--service-cluster-ip-range=10.10.10.0/24"

创建systemd服务文件:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
# vi /lib/systemd/system/kube-apiserver.service 
[Unit]
Description=Kubernetes API Server
Documentation=https: //github .com /kubernetes/kubernetes
[Service]
EnvironmentFile=- /opt/kubernetes/cfg/kube-apiserver
#ExecStart=/opt/kubernetes/bin/kube-apiserver ${KUBE_APISERVER_OPTS}
ExecStart= /opt/kubernetes/bin/kube-apiserver  \
${KUBE_LOGTOSTDERR} \
${KUBE_LOG_LEVEL} \
${KUBE_ETCD_SERVERS} \
${KUBE_API_ADDRESS} \
${KUBE_API_PORT} \
${KUBE_ADVERTISE_ADDR} \
${KUBE_ALLOW_PRIV} \
${KUBE_SERVICE_ADDRESSES}
Restart=on-failure
[Install]
WantedBy=multi-user.target

启动服务,并设置开机启动:

1
2
3
# systemctl daemon-reload
# systemctl enable kube-apiserver
# systemctl restart kube-apiserver

注意:apiserver默认支持etcd3,如果是etcd2,需启动时指定版本选项--storage-backend=etcd2

3.3.2 scheduler

创建配置文件:

1
2
3
4
5
# vi /opt/kubernetes/cfg/kube-scheduler
KUBE_LOGTOSTDERR= "--logtostderr=true"
KUBE_LOG_LEVEL= "--v=4"
KUBE_MASTER= "--master=192.168.0.211:8080"
KUBE_LEADER_ELECT= "--leader-elect"

创建systemd服务文件:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
# vi /lib/systemd/system/kube-scheduler.service
[Unit]
Description=Kubernetes Scheduler
Documentation=https: //github .com /kubernetes/kubernetes
[Service]
EnvironmentFile=- /opt/kubernetes/cfg/kube-scheduler
ExecStart= /opt/kubernetes/bin/kube-scheduler  \
${KUBE_LOGTOSTDERR} \
${KUBE_LOG_LEVEL} \
${KUBE_MASTER} \
${KUBE_LEADER_ELECT}
Restart=on-failure
[Install]
WantedBy=multi-user.target

启动服务,并设置开机启动:

1
2
3
# systemctl daemon-reload
# systemctl enable kube-scheduler
# systemctl restart kube-scheduler

3.3.3 controller-manager

创建配置文件:

1
2
3
4
# vi /opt/kubernetes/cfg/kube-controller-manager
KUBE_LOGTOSTDERR= "--logtostderr=true"
KUBE_LOG_LEVEL= "--v=4"
KUBE_MASTER= "--master=192.168.0.211:8080"

创建systemd服务文件:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
# vi /lib/systemd/system/kube-controller-manager.service
[Unit]
Description=Kubernetes Controller Manager
Documentation=https: //github .com /kubernetes/kubernetes
[Service]
EnvironmentFile=- /opt/kubernetes/cfg/kube-controller-manager
ExecStart= /opt/kubernetes/bin/kube-controller-manager  \
${KUBE_LOGTOSTDERR} \
${KUBE_LOG_LEVEL} \
${KUBE_MASTER} \
${KUBE_LEADER_ELECT}
Restart=on-failure
[Install]
WantedBy=multi-user.target

启动服务,并设置开机启动:

1
2
3
# systemctl daemon-reload
# systemctl enable kube-controller-manager
# systemctl restart kube-controller-manager

3.3.4 小结

Master节点组件就全部启动了,需要注意的是服务启动顺序有依赖,先启动etcd,再启动apiserver,其他组件无顺序要求。

查看Master节点组件进程状态:

0fd14ce58c9dfe66a4802e64e02aff8b.png

说明组件都在运行。

如果启动失败,请查看启动日志,例如:

#journalctl -u kube-apiserver

3.4  运行Node节点组件

1
2
3
k8s-node01 # tar zxvf kubernetes-node-linux-amd64.tar.gz
k8s-node01 # mkdir -p /opt/kubernetes/{bin,cfg}
k8s-node01 # mv kubernetes/node/bin/{kubelet,kube-proxy} /opt/kubernetes/bin/

3.4.1 kubelet

创建kubeconfig配置文件:

1
2
3
4
5
6
7
8
9
10
11
12
# vi /opt/kubernetes/cfg/kubelet.kubeconfig
apiVersion: v1
kind: Config
clusters:
   - cluster:
       server: http: //192 .168.0.211:8080
     name:  local
contexts:
   - context:
       cluster:  local
     name:  local
current-context:  local

kubeconfig文件用于kubelet连接master apiserver。

创建配置文件:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
# vi /opt/kubernetes/cfg/kubelet            
# 启用日志标准错误
KUBE_LOGTOSTDERR= "--logtostderr=true"
# 日志级别
KUBE_LOG_LEVEL= "--v=4"
# Kubelet服务IP地址
NODE_ADDRESS= "--address=192.168.0.212"
# Kubelet服务端口
NODE_PORT= "--port=10250"
# 自定义节点名称
NODE_HOSTNAME= "--hostname-override=192.168.0.212"
# kubeconfig路径,指定连接API服务器
KUBELET_KUBECONFIG= "--kubeconfig=/opt/kubernetes/cfg/kubelet.kubeconfig"
# 允许容器请求特权模式,默认false
KUBE_ALLOW_PRIV= "--allow-privileged=false"
# DNS信息
KUBELET_DNS_IP= "--cluster-dns=10.10.10.2"
KUBELET_DNS_DOMAIN= "--cluster-domain=cluster.local"
# 禁用使用Swap
KUBELET_SWAP= "--fail-swap-on=false"

创建systemd服务文件:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
# vi /lib/systemd/system/kubelet.service
[Unit]
Description=Kubernetes Kubelet
After=docker.service
Requires=docker.service
[Service]
EnvironmentFile=- /opt/kubernetes/cfg/kubelet
ExecStart= /opt/kubernetes/bin/kubelet  \
${KUBE_LOGTOSTDERR} \
${KUBE_LOG_LEVEL} \
${NODE_ADDRESS} \
${NODE_PORT} \
${NODE_HOSTNAME} \
${KUBELET_KUBECONFIG} \
${KUBE_ALLOW_PRIV} \
${KUBELET_DNS_IP} \
${KUBELET_DNS_DOMAIN} \
${KUBELET_SWAP}
Restart=on-failure
KillMode=process
[Install]
WantedBy=multi-user.target

启动服务,并设置开机启动:

1
2
3
# systemctl daemon-reload
# systemctl enable kubelet
# systemctl restart kubelet

3.4.2 proxy

创建配置文件:

1
2
3
4
5
6
7
8
9
# vi /opt/kubernetes/cfg/kube-proxy            
# 启用日志标准错误
KUBE_LOGTOSTDERR= "--logtostderr=true"
# 日志级别
KUBE_LOG_LEVEL= "--v=4"
# 自定义节点名称
NODE_HOSTNAME= "--hostname-override=192.168.0.212"
# API服务地址
KUBE_MASTER= "--master=http://192.168.0.211:8080"

创建systemd服务文件:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
# vi /lib/systemd/system/kube-proxy.service
[Unit]
Description=Kubernetes Proxy
After=network.target
[Service]
EnvironmentFile=- /opt/kubernetes/cfg/kube-proxy
ExecStart= /opt/kubernetes/bin/kube-proxy  \
${KUBE_LOGTOSTDERR} \
${KUBE_LOG_LEVEL} \
${NODE_HOSTNAME} \
${KUBE_MASTER}
Restart=on-failure
[Install]
WantedBy=multi-user.target

启动服务,并设置开机启动:

1
2
3
# systemctl daemon-reload
# systemctl enable kube-proxy
# systemctl restart kube-proxy

3.4.3 小结

其他节点加入集群与node01方式相同,但需修改kubelet的--address和--hostname-override选项为本机IP。

查看Node节点组件进程状态:

02979dd7adf52d863fbaaf356a421cdf.png

说明组件都在运行。

如果启动失败,请查看启动日志,例如:

#journalctl -u kubelet

3.5 验证集群是否部署成功

设置可执行文件到系统变量,方便使用:

1
2
# echo "export PATH=$PATH:/opt/kubernetes/bin" >> /etc/profile
# source /etc/profile

查看集群节点状态:

a0ff4d58486157275e9adf01a26d5f72.png

两个节点都加入到了kubernetes集群,就此部署完成。



本文转自 李振良OK 51CTO博客,原文链接:http://blog.51cto.com/lizhenliang/1983392,如需转载请自行联系原作者

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
相关文章
|
30天前
|
Prometheus Kubernetes 监控
k8s部署针对外部服务器的prometheus服务
通过上述步骤,您不仅成功地在Kubernetes集群内部署了Prometheus,还实现了对集群外服务器的有效监控。理解并实施网络配置是关键,确保监控数据的准确无误传输。随着监控需求的增长,您还可以进一步探索Prometheus生态中的其他组件,如Alertmanager、Grafana等,以构建完整的监控与报警体系。
118 60
|
1月前
|
Prometheus Kubernetes 监控
k8s部署针对外部服务器的prometheus服务
通过上述步骤,您不仅成功地在Kubernetes集群内部署了Prometheus,还实现了对集群外服务器的有效监控。理解并实施网络配置是关键,确保监控数据的准确无误传输。随着监控需求的增长,您还可以进一步探索Prometheus生态中的其他组件,如Alertmanager、Grafana等,以构建完整的监控与报警体系。
181 62
|
1天前
|
存储 运维 Kubernetes
Kubernetes集群管理:从基础到进阶
Kubernetes集群管理:从基础到进阶
|
9天前
|
Kubernetes 负载均衡 Cloud Native
云原生应用:Kubernetes在容器编排中的实践与挑战
【10月更文挑战第27天】Kubernetes(简称K8s)是云原生应用的核心容器编排平台,提供自动化、扩展和管理容器化应用的能力。本文介绍Kubernetes的基本概念、安装配置、核心组件(如Pod和Deployment)、服务发现与负载均衡、网络配置及安全性挑战,帮助读者理解和实践Kubernetes在容器编排中的应用。
36 4
|
10天前
|
Kubernetes 监控 Cloud Native
云原生应用:Kubernetes在容器编排中的实践与挑战
【10月更文挑战第26天】随着云计算技术的发展,容器化成为现代应用部署的核心趋势。Kubernetes(K8s)作为容器编排领域的佼佼者,以其强大的可扩展性和自动化能力,为开发者提供了高效管理和部署容器化应用的平台。本文将详细介绍Kubernetes的基本概念、核心组件、实践过程及面临的挑战,帮助读者更好地理解和应用这一技术。
38 3
|
1天前
|
Kubernetes 负载均衡 调度
Kubernetes集群管理与编排实践
Kubernetes集群管理与编排实践
|
18天前
|
存储 Kubernetes 负载均衡
掌握Kubernetes:从零到一的集群管理之旅
【10月更文挑战第18天】掌握Kubernetes:从零到一的集群管理之旅
45 0
|
29天前
|
NoSQL 关系型数据库 Redis
高可用和性能:基于ACK部署Dify的最佳实践
本文介绍了基于阿里云容器服务ACK,部署高可用、可伸缩且具备高SLA的生产可用的Dify服务的详细解决方案。
|
9天前
|
Kubernetes 监控 开发者
掌握容器化:Docker与Kubernetes的最佳实践
【10月更文挑战第26天】本文深入探讨了Docker和Kubernetes的最佳实践,涵盖Dockerfile优化、数据卷管理、网络配置、Pod设计、服务发现与负载均衡、声明式更新等内容。同时介绍了容器化现有应用、自动化部署、监控与日志等开发技巧,以及Docker Compose和Helm等实用工具。旨在帮助开发者提高开发效率和系统稳定性,构建现代、高效、可扩展的应用。
|
5天前
|
关系型数据库 MySQL API

相关产品

  • 容器服务Kubernetes版
  • 下一篇
    无影云桌面