[云原生] [kubernetes] K8S安装常见问题

简介: [云原生] [kubernetes] K8S安装常见问题

简介

1、对master节点:系统初始化,包括修改主机名,配置yum源,安装依赖包,设置防火墙,关闭selinux,调整内核参数,升级内核等。

2、对master节点:部署K8s,包括配置kube-proxy,安装docker,配置docker镜像源,安装kubeadm,配置各个虚拟机的静态ip,

3、把master节点拷贝为node1和node2

初始化主节点,加入主节点以及其余节点,部署网络

方法 / 步骤

🌟 Node节点 NotReady 主节点 Ready

kubectl get pods -n kube-system
再选择一个node节点去查看一下kubelet启动日志

journalctl -f -u kubelet

failed to find plugin "flannel" in path [/opt/cni/bin]

# 首先驱逐要删除节点(假设节点名为k8s-node1)上的pods(master节点执行)
kubectl drain k8s-node1 --delete-local-data --force --ignore-daemonsets
# 然后执行删除(master节点执行)
kubectl delete node k8s-node1
# 最后在删除的节点机器上执行
kubeadm reset

🌟 coredns 一直处于 Pending 或者 ContainerCreating 状态

kubectl get pods -n kube-system 查看 coredns 一直处于 Pending 或者 ContainerCreating 状态
首先需要说明一下,coredns的状态和flannel有着必然的联系,所以首先使用describe查看pods的错误信息。
kubectl describe pods -n kube-system coredns-5bfd685c78-mmjxc

报错: network: open /run/flannel/subnet.env: no such file or directory

subnet.env: no such file or directory 解决方法

在每个节点创建文件/run/flannel/subnet.env写入以下内容。注意每个节点都要加哦,不是主节点

FLANNEL_NETWORK=10.244.0.0/16
FLANNEL_SUBNET=10.244.0.1/24
FLANNEL_MTU=1450
FLANNEL_IPMASQ=true

🌟 The connection to the server localhost:8080 was refused

Master节点出现这个报错

首先需要检查Master安装完Kubernetes后是否执行了下面命令。需要注意到是:如果整个过程都是在普通用户下使用sudo安装,则仍然需要在普通用户下执行了下面命令;如果整个过程都在root用户下安装,则还在root用户下执行了下面命令。

mkdir -p $HOME/.kube
#root用户下执行不需要加sudo
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

如果执行了,就到用户目录下检查是否有.kube文件夹,文件夹中是否有config文件,如果都有还是报错,就需要执行下面命令把它加入到环境变量中:

export KUBECONFIG=$HOME/.kube/config

Node节点出现这个报错

kubectl命令需要使用kubernetes-admin来运行,所以需要将主节点中的/etc/kubernetes/admin.conf文件拷贝到从节点用户目录下,然后配置环境变量:

#在Master节点运行下面命令将admin.conf文件拷贝到从节点
#在Node节点运行下面命令配置环境变量
export KUBECONFIG=$HOME/admin.conf

🌟 安装helm 2.14.3 出现错误

  这个主要是兼容性问题 helm2.14.3支持 k8s的1.15和之前的版本,对最新的1.16是支持不是很好,出新版本之后应该就解决了

$ helm init --service-account tiller
  $HELM_HOME has been configured at /Users/xxxx/.helm.
  Error: error installing: the server could not find the requested resourc

   解决方法:
   helm init --output yaml > tiller.yaml 
  使用命令:
       helm init --service-account tiller --override spec.selector.matchLabels.'name'='tiller',spec.selector.matchLabels.'app'='helm' --output yaml | sed 's@apiVersion: extensions/v1beta1@apiVersion: apps/v1@' | kubectl apply -f -

🌟 kubernetes-dashboard 安装错误

cannot list resource "" in API group "" at the cluster scope 错误于此类似.属于权限错误
解决方法 :https://kubernetes.io/docs/tasks/access-application-cluster/web-ui-dashboard/ 按照官网的去安装

   kubectl apply -f https://raw.githubusercontent.com/kubernetes/dashboard/v2.0.0-beta4/aio/deploy/recommended.yaml

第二步:创建用户 dashboard-adminuser.yaml

piVersion: v1
kind: ServiceAccount
metadata:
  name: admin-user
  namespace: kubernetes-dashboard

  然后kubectl apply -f dashboard-adminuser.yaml
  第三步:加入权限dashboard-adminuser1.yaml

🌟 etcd集群部署遇到的问题

  1. etcd.serverice启动报错,显示–logger=zap有问题

解决:修改配置文件,去掉该参数,重新启动服务

  1. publish error: etcdserver: request timed out,由于etcd集群没有同时启动导致

解决:在部署了etcd的节点上,同时启动etcd服务systemctl start etcd

  1. error #1: dial tcp 127.0.0.1:2379: connect: connection refused,由于参数ETCD_LISTEN_CLIENT_URLS没有将172.0.0.1:2379包含在内

解决:ETCD_LISTEN_CLIENT_URLS添加https://172.0.0.1:2379或者直接改成0.0.0.0:2379

  1. error #1: dial tcp 127.0.0.1:4001: connect: connection refused,由于低版本的peer的监听端口是否4001

解决:ETCD_LISTEN_CLIENT_URLS和ETCD_ADVERTISE_CLIENT_URLS参数上配置4001的监听端口

  1. error #1: net/http: HTTP/1.x transport connection broken: malformed HTTP response “\x15\x03\x01\x00\x02\x02”,由于配置信息监听地址写成了http://

解决:将监听地址改成https://

参考资料 & 致谢

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
目录
相关文章
|
1月前
|
存储 运维 Kubernetes
正式开源,Doris Operator 支持高效 Kubernetes 容器化部署方案
飞轮科技推出了 Doris 的 Kubernetes Operator 开源项目(简称:Doris Operator),并捐赠给 Apache 基金会。该工具集成了原生 Kubernetes 资源的复杂管理能力,并融合了 Doris 组件间的分布式协同、用户集群形态的按需定制等经验,为用户提供了一个更简洁、高效、易用的容器化部署方案。
正式开源,Doris Operator 支持高效 Kubernetes 容器化部署方案
|
2月前
|
存储 Kubernetes 开发者
容器化时代的领航者:Docker 和 Kubernetes 云原生时代的黄金搭档
Docker 是一种开源的应用容器引擎,允许开发者将应用程序及其依赖打包成可移植的镜像,并在任何支持 Docker 的平台上运行。其核心概念包括镜像、容器和仓库。镜像是只读的文件系统,容器是镜像的运行实例,仓库用于存储和分发镜像。Kubernetes(k8s)则是容器集群管理系统,提供自动化部署、扩展和维护等功能,支持服务发现、负载均衡、自动伸缩等特性。两者结合使用,可以实现高效的容器化应用管理和运维。Docker 主要用于单主机上的容器管理,而 Kubernetes 则专注于跨多主机的容器编排与调度。尽管 k8s 逐渐减少了对 Docker 作为容器运行时的支持,但 Doc
178 5
容器化时代的领航者:Docker 和 Kubernetes 云原生时代的黄金搭档
|
2月前
|
存储 Kubernetes Docker
Kubernetes(k8s)和Docker Compose本质区别
理解它们的区别和各自的优势,有助于选择合适的工具来满足特定的项目需求。
232 19
|
2月前
|
Kubernetes 应用服务中间件 nginx
二进制安装Kubernetes(k8s)v1.32.0
本指南提供了一个详细的步骤,用于在Linux系统上通过二进制文件安装Kubernetes(k8s)v1.32.0,支持IPv4+IPv6双栈。具体步骤包括环境准备、系统配置、组件安装和配置等。
686 10
|
3月前
|
Kubernetes Cloud Native 微服务
云原生入门与实践:Kubernetes的简易部署
云原生技术正改变着现代应用的开发和部署方式。本文将引导你了解云原生的基础概念,并重点介绍如何使用Kubernetes进行容器编排。我们将通过一个简易的示例来展示如何快速启动一个Kubernetes集群,并在其上运行一个简单的应用。无论你是云原生新手还是希望扩展现有知识,本文都将为你提供实用的信息和启发性的见解。
|
3月前
|
Kubernetes Cloud Native API
深入理解Kubernetes——容器编排的王者之道
深入理解Kubernetes——容器编排的王者之道
71 1
|
3月前
|
运维 Kubernetes Cloud Native
云原生技术入门:Kubernetes和Docker的协同工作
【10月更文挑战第43天】在云计算时代,云原生技术成为推动现代软件部署和运行的关键力量。本篇文章将带你了解云原生的基本概念,重点探讨Kubernetes和Docker如何协同工作以支持容器化应用的生命周期管理。通过实际代码示例,我们将展示如何在Kubernetes集群中部署和管理Docker容器,从而为初学者提供一条清晰的学习路径。
|
3月前
|
Kubernetes Cloud Native 持续交付
深入理解Kubernetes:容器编排的基石
深入理解Kubernetes:容器编排的基石
|
3月前
|
Kubernetes Cloud Native 云计算
云原生入门:Kubernetes 和容器化基础
在这篇文章中,我们将一起揭开云原生技术的神秘面纱。通过简单易懂的语言,我们将探索如何利用Kubernetes和容器化技术简化应用的部署和管理。无论你是初学者还是有一定经验的开发者,本文都将为你提供一条清晰的道路,帮助你理解和运用这些强大的工具。让我们从基础开始,逐步深入了解,最终能够自信地使用这些技术来优化我们的工作流程。
|
1月前
|
缓存 容灾 网络协议
ACK One多集群网关:实现高效容灾方案
ACK One多集群网关可以帮助您快速构建同城跨AZ多活容灾系统、混合云同城跨AZ多活容灾系统,以及异地容灾系统。

热门文章

最新文章