kubernetes搭建EFK日志管理系统(上)

本文涉及的产品
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
简介: kubernetes搭建EFK日志管理系统

前言

在生产环境中,日志对于排查问题至关重要,我们需要有一个日志管理系统,如efk就是目前最受欢迎的日志管理系统。kubernetes可以实现efk的快速部署和使用,通过statefulset控制器部署elasticsearch组件,用来存储日志数据,还可通过volumenclaimtemplate动态生成pv实现es数据的持久化。通过deployment部署kibana组件,实现日志的可视化管理。通过daemonset控制器部署fluentd组件,来收集各节点和k8s集群的日志。这篇文章会带领大家去安装配置EFK组件,这又是一篇万字长文,纯干货,无需踩坑,保证100%完成实验环境部署,内容较多,可先关注收藏,在慢慢学习,愿和大家共同进步和成长~

EFK组件介绍

在Kubernetes集群上运行多个服务和应用程序时,日志收集系统可以帮助你快速分类和分析由Pod生成的大量日志数据。Kubernetes中比较流行的日志收集解决方案是Elasticsearch、Fluentd和Kibana(EFK)技术栈,也是官方推荐的一种方案。

 

Elasticsearch是一个实时的,分布式的,可扩展的搜索引擎,它允许进行全文本和结构化搜索以及对日志进行分析。它通常用于索引和搜索大量日志数据,也可以用于搜索许多不同种类的文档。

 

Elasticsearch通常与Kibana一起部署,kibana是Elasticsearch 的功能强大的数据可视化的dashboard(仪表板)。Kibana允许你通过Web界面浏览Elasticsearch日志数据,也可自定义查询条件快速检索出elasticccsearch中的日志数据。

 

Fluentd是一个流行的开源数据收集器,我们将在Kubernetes 集群节点上安装 Fluentd,通过获取容器日志文件、过滤和转换日志数据,然后将数据传递到 Elasticsearch 集群,在该集群中对其进行索引和存储。

 

我们先来配置启动一个可扩展的 Elasticsearch 集群,然后在Kubernetes集群中创建一个Kibana应用,最后通过DaemonSet来运行Fluentd,以便它在每个Kubernetes工作节点上都可以运行一个 Pod。

资料下载

1.下文需要的yaml文件所在的github地址如下:

https://github.com/luckylucky421/efk


下面实验用到yaml文件大家需要从上面的github上clone和下载到本地,解压,然后把解压后的yaml文件传到k8s集群的master节点上,如果直接复制粘贴格式可能会有问题。


2.下文里提到的efk组件需要的镜像获取方式在百度网盘,链接如下:

链接:https://pan.baidu.com/s/1lsP2_NrXwOzGMIsVCUHtPw

提取码:kpg2


3.实验之前需要把镜像上传到k8s集群的各个节点,通过docker load -i 解压,这样可以保证下面的yaml文件可以正常执行,否则会存在镜像拉取失败问题:

docker  load -i busybox.tar.gz

docker load -i elasticsearch_7_2_0.tar.gz

docker load -i fluentd.tar.gz

docker load -i  kibana_7_2_0.tar.gz

docker load -i  nfs-client-provisioner.tar.gz

docker load -i nginx.tar.gz


4.需要k8s环境,如果没有k8s环境,可参考如下链接部署:

    https://mp.weixin.qq.com/s?__biz=MzU0NjEwMTg4Mg==&mid=2247484160&idx=1&sn=894b777d522176291065655afd976178&chksm=fb638c15cc1405033be46c1d81803d7fd49f33751e37a9ef25a028c018b081ac82c9b60ab6c7&token=1570124030&lang=zh_CN#rd


    正文-安装efk组件

    下面的步骤在k8s集群的master1节点操作

    #创建名称空间

    在安装Elasticsearch集群之前,我们先创建一个名称空间,在这个名称空间下安装日志收工具elasticsearch、fluentd、kibana。我们创建一个kube-logging名称空间,将EFK组件安装到该名称空间中。 

    1.创建kube-logging名称空间

    cat kube-logging.yaml

    kind: Namespace
    apiVersion: v1
    metadata:
     name: kube-logging

    kubectl apply -f kube-logging.yaml 

    2.查看kube-logging名称空间是否创建成功

    kubectl get namespaces | grep kube-logging

    显示如下,说明创建成功


      kube-logging   Active    1m


      #安装elasticsearch组件

      通过上面步骤已经创建了一个名称空间kube-logging,在这个名称空间下去安装日志收集组件efk,首先,我们将部署一个3节点的Elasticsearch集群。我们使用3个Elasticsearch Pods可以避免高可用中的多节点群集中发生的“裂脑”的问题。Elasticsearch脑裂可参考https://www.elastic.co/guide/en/elasticsearch/reference/current/modules-node.html#split-brain

      1.创建一个headless service(无头服务)

      创建一个headless service的Kubernetes服务,服务名称是elasticsearch,这个服务将为3个Pod定义一个DNS域。headless service不具备负载均衡也没有IP。要了解有关headless service的更多信息,可参考https://kubernetes.io/docs/concepts/services-networking/service/#headless-services


      cat elasticsearch_svc.yaml

      kind: Service
      apiVersion: v1
      metadata:
        name: elasticsearch
        namespace: kube-logging
        labels:
          app: elasticsearch
      spec:
        selector:
          app: elasticsearch
        clusterIP: None
        ports:
          - port: 9200
            name: rest
          - port: 9300
            name: inter-node

      在kube-logging名称空间定义了一个名为 elasticsearch 的 Service服务,带有app=elasticsearch标签,当我们将 ElasticsearchStatefulSet 与此服务关联时,服务将返回带有标签app=elasticsearch的 Elasticsearch Pods的DNS A记录,然后设置clusterIP=None,将该服务设置成无头服务。最后,我们分别定义端口9200、9300,分别用于与 REST API 交互,以及用于节点间通信。使用kubectl直接创建上面的服务资源对象:


      kubectl apply -f elasticsearch_svc.yaml


      查看elasticsearch的service是否创建成功

      kubectl get services --namespace=kube-logging

       

      看到如下,说明在kube-logging名称空间下创建了一个名字是elasticsearch的headless service:

      NAME            TYPE        CLUSTER-IP   EXTERNAL-IP  PORT(S)             AGE
      elasticsearch   ClusterIP   None        <none>       9200/TCP,9300/TCP   2m

      现在我们已经为 Pod 设置了无头服务和一个稳定的域名.elasticsearch.kube-logging.svc.cluster.local,接下来我们通过 StatefulSet来创建具体的 Elasticsearch的Pod 应用。

       

      2.通过statefulset创建elasticsearch集群

      Kubernetes statefulset可以为Pods分配一个稳定的标识,让pod具有稳定的、持久的存储。Elasticsearch需要稳定的存储才能通过POD重新调度和重新启动来持久化数据。更多关于kubernetes StatefulSet可参考https://kubernetes.io/docs/concepts/workloads/controllers/statefulset/


      1)下面将定义一个资源清单文件elasticsearch_statefulset.yaml,首先粘贴以下内容:

      apiVersion: apps/v1
      kind: StatefulSet
      metadata:
        name: es-cluster
        namespace: kube-logging
      spec:
        serviceName: elasticsearch
        replicas: 3
        selector:
          matchLabels:
            app: elasticsearch
        template:
          metadata:
            labels:
              app: elasticsearch

      上面内容的解释:在kube-logging的名称空间中定义了一个es-cluster的StatefulSet。然后,我们使用serviceName 字段与我们之前创建的ElasticSearch服务相关联。这样可以确保可以使用以下DNS地址访问StatefulSet中的每个Pod:,es-cluster-[0,1,2].elasticsearch.kube-logging.svc.cluster.local,其中[0,1,2]与Pod分配的序号数相对应。我们指定3个replicas(3个Pod副本),将matchLabels selector 设置为app: elasticseach,然后在该.spec.template.metadata中指定pod需要的镜像。该.spec.selector.matchLabels和.spec.template.metadata.labels字段必须匹配。

       

      2)statefulset中定义pod模板,内容如下:

      . . .
          spec:
            containers:
            - name: elasticsearch
              image: docker.elastic.co/elasticsearch/elasticsearch:7.2.0
              resources:
                  limits:
                    cpu: 1000m
                  requests:
                    cpu: 100m
              ports:
              - containerPort: 9200
                name: rest
                protocol: TCP
              - containerPort: 9300
                name: inter-node
                protocol: TCP
              volumeMounts:
              - name: data
                mountPath: /usr/share/elasticsearch/data
              env:
                - name: cluster.name
                  value: k8s-logs
                - name: node.name
                  valueFrom:
                    fieldRef:
                      fieldPath: metadata.name
                - name: discovery.seed_hosts
                  value: "es-cluster-0.elasticsearch,es-cluster-1.elasticsearch,es-cluster-2.elasticsearch"
                - name: cluster.initial_master_nodes
                  value: "es-cluster-0,es-cluster-1,es-cluster-2"
                - name: ES_JAVA_OPTS
                  value: "-Xms512m -Xmx512m"

      上面内容解释:在statefulset中定义了pod,容器的名字是elasticsearch,镜像是docker.elastic.co/elasticsearch/elasticsearch:7.2.0。使用resources字段来指定容器需要保证至少有0.1个vCPU,并且容器最多可以使用1个vCPU(这在执行初始的大量提取或处理负载高峰时限制了Pod的资源使用)。了解有关资源请求和限制,可参考https://kubernetes.io/docs/concepts/configuration/manage-resources-containers/。暴漏了9200和9300两个端口,名称要和上面定义的 Service 保持一致,通过volumeMount声明了数据持久化目录,定义了一个data数据卷,通过volumeMount把它挂载到容器里的/usr/share/elasticsearch/data目录。我们将在以后的YAML块中为此StatefulSet定义VolumeClaims。


      最后,我们在容器中设置一些环境变量:

      • cluster.name
      Elasticsearch     集群的名称,我们这里是 k8s-logs。


      • node.name
      节点的名称,通过metadata.name来获取。这将解析为 es-cluster-[0,1,2],取决于节点的指定顺序。


      • discovery.zen.ping.unicast.hosts
      此字段用于设置在Elasticsearch集群中节点相互连接的发现方法。
      我们使用 unicastdiscovery方式,它为我们的集群指定了一个静态主机列表。
      由于我们之前配置的无头服务,我们的 Pod 具有唯一的DNS域es-cluster-[0,1,2].elasticsearch.logging.svc.cluster.local,
      因此我们相应地设置此变量。由于都在同一个 namespace 下面,所以我们可以将其缩短为es-cluster-[0,1,2].elasticsearch。
      要了解有关 Elasticsearch 发现的更多信息,请参阅 Elasticsearch 官方文档:https://www.elastic.co/guide/en/elasticsearch/reference/current/modules-discovery.html。
      • discovery.zen.minimum_master_nodes
      我们将其设置为(N/2) + 1,N是我们的群集中符合主节点的节点的数量。
      我们有3个Elasticsearch 节点,因此我们将此值设置为2(向下舍入到最接近的整数)。
      要了解有关此参数的更多信息,请参阅官方 Elasticsearch 文档:https://www.elastic.co/guide/en/elasticsearch/reference/current/modules-node.html#split-brain。

      • ES_JAVA_OPTS
      这里我们设置为-Xms512m -Xmx512m,告诉JVM使用512MB的最小和最大堆。
      你应该根据群集的资源可用性和需求调整这些参数。
      要了解更多信息,请参阅设置堆大小的相关文档:https://www.elastic.co/guide/en/elasticsearch/reference/current/heap-size.html。

      3)initcontainer内容

      . . .
            initContainers:
            - name: fix-permissions
              image: busybox
              command: ["sh", "-c", "chown -R 1000:1000 /usr/share/elasticsearch/data"]
              securityContext:
                privileged: true
              volumeMounts:
              - name: data
                mountPath: /usr/share/elasticsearch/data
            - name: increase-vm-max-map
              image: busybox
              command: ["sysctl", "-w", "vm.max_map_count=262144"]
              securityContext:
                privileged: true
            - name: increase-fd-ulimit
              image: busybox
              command: ["sh", "-c", "ulimit -n 65536"]
              securityContext:
                privileged: true

      这里我们定义了几个在主应用程序之前运行的Init 容器,这些初始容器按照定义的顺序依次执行,执行完成后才会启动主应用容器。第一个名为 fix-permissions 的容器用来运行 chown 命令,将 Elasticsearch 数据目录的用户和组更改为1000:1000(Elasticsearch 用户的 UID)。因为默认情况下,Kubernetes 用 root 用户挂载数据目录,这会使得 Elasticsearch 无法方法该数据目录,可以参考 Elasticsearch 生产中的一些默认注意事项相关文档说明:https://www.elastic.co/guide/en/elasticsearch/reference/current/docker.html#_notes_for_production_use_and_defaults

      第二个名为increase-vm-max-map 的容器用来增加操作系统对mmap计数的限制,默认情况下该值可能太低,导致内存不足的错误,要了解更多关于该设置的信息,可以查看 Elasticsearch 官方文档说明:https://www.elastic.co/guide/en/elasticsearch/reference/current/vm-max-map-count.html。最后一个初始化容器是用来执行ulimit命令增加打开文件描述符的最大数量的。此外 Elastisearch Notes for Production Use 文档还提到了由于性能原因最好禁用 swap,当然对于 Kubernetes 集群而言,最好也是禁用 swap 分区的。现在我们已经定义了主应用容器和它之前运行的Init Containers 来调整一些必要的系统参数,接下来我们可以添加数据目录的持久化相关的配置。

      4)在 StatefulSet 中,使用volumeClaimTemplates来定义volume 模板即可:

      . . .
        volumeClaimTemplates:
        - metadata:
            name: data
            labels:
              app: elasticsearch
          spec:
            accessModes: [ "ReadWriteOnce" ]
            storageClassName: do-block-storage
            resources:
              requests:
                storage: 10Gi

      我们这里使用 volumeClaimTemplates 来定义持久化模板,Kubernetes 会使用它为 Pod 创建 PersistentVolume,设置访问模式为ReadWriteOnce,这意味着它只能被 mount到单个节点上进行读写,然后最重要的是使用了一个名为do-block-storage的 StorageClass 对象,所以我们需要提前创建该对象,我们这里使用的 NFS 作为存储后端,所以需要安装一个对应的 provisioner驱动。


      5)创建storageclass,实现nfs做存储类的动态供给
      #安装nfs服务,选择k8s集群的master1节点,k8s集群的master1节点的ip是192.168.0.6:

      yum安装nfs

      yum install nfs-utils -y

      systemctl start nfs

      chkconfig nfs on

      在master1上创建一个nfs共享目录

      mkdir /data/v1 -p

      cat /etc/exports

      /data/v1 192.168.0.0/24(rw,no_root_squash)

      exportfs -arv

      使配置文件生效

      systemctl restart nfs

      #实现nfs做存储类的动态供给

      创建运行nfs-provisioner的sa账号

      cat serviceaccount.yaml

      apiVersion: v1
      kind: ServiceAccount
      metadata:
        name: nfs-provisioner

      kubectl apply -f serviceaccount.yaml

      对sa账号做rbac授权

      cat rbac.yaml

      kind: ClusterRole
      apiVersion: rbac.authorization.k8s.io/v1
      metadata:
        name: nfs-provisioner-runner
      rules:
        - apiGroups: [""]
          resources: ["persistentvolumes"]
          verbs: ["get", "list", "watch", "create", "delete"]
        - apiGroups: [""]
          resources: ["persistentvolumeclaims"]
          verbs: ["get", "list", "watch", "update"]
        - apiGroups: ["storage.k8s.io"]
          resources: ["storageclasses"]
          verbs: ["get", "list", "watch"]
        - apiGroups: [""]
          resources: ["events"]
          verbs: ["create", "update", "patch"]
        - apiGroups: [""]
          resources: ["services", "endpoints"]
          verbs: ["get"]
        - apiGroups: ["extensions"]
          resources: ["podsecuritypolicies"]
          resourceNames: ["nfs-provisioner"]
          verbs: ["use"]
      ---
      kind: ClusterRoleBinding
      apiVersion: rbac.authorization.k8s.io/v1
      metadata:
        name: run-nfs-provisioner
      subjects:
        - kind: ServiceAccount
          name: nfs-provisioner
          namespace: default
      roleRef:
        kind: ClusterRole
        name: nfs-provisioner-runner
        apiGroup: rbac.authorization.k8s.io
      ---
      kind: Role
      apiVersion: rbac.authorization.k8s.io/v1
      metadata:
        name: leader-locking-nfs-provisioner
      rules:
        - apiGroups: [""]
          resources: ["endpoints"]
          verbs: ["get", "list", "watch", "create", "update", "patch"]
      ---
      kind: RoleBinding
      apiVersion: rbac.authorization.k8s.io/v1
      metadata:
        name: leader-locking-nfs-provisioner
      subjects:
        - kind: ServiceAccount
          name: nfs-provisioner
          namespace: default
      roleRef:
        kind: Role
        name: leader-locking-nfs-provisioner
        apiGroup: rbac.authorization.k8s.io

      kubectl apply -f rbac.yaml


      通过deployment创建pod用来运行nfs-provisioner

      cat deployment.yaml

      kind: Deployment
      apiVersion: apps/v1
      metadata:
        name: nfs-provisioner
      spec:
        selector:
          matchLabels:
            app: nfs-provisioner
        replicas: 1
        strategy:
          type: Recreate
        template:
          metadata:
            labels:
              app: nfs-provisioner
          spec:
            serviceAccount: nfs-provisioner
            containers:
              - name: nfs-provisioner
                image: registry.cn-hangzhou.aliyuncs.com/open-ali/nfs-client-provisioner:latest
                imagePullPolicy: IfNotPresent
                volumeMounts:
                  - name: nfs-client-root
                    mountPath: /persistentvolumes
                env:
                  - name: PROVISIONER_NAME
                    value: example.com/nfs
                  - name: NFS_SERVER
                    value: 192.168.0.6
                  - name: NFS_PATH
                    value: /data/v1
            volumes:
              - name: nfs-client-root
                nfs:
                  server: 192.168.0.6
                  path: /data/v1


      kubectl apply -f deployment.yaml

      kubectl get pods

      看到如下,说明上面的yaml文件创建成功:

      NAME                               READY   STATUS   RESTARTS   AGE
      nfs-provisioner-595dcd6b77-rkvjl   1/1    Running   0          6s

      注:上面yaml文件说明:

       

                 - name: PROVISIONER_NAME

                  value: example.com/nfs

      #PROVISIONER_NAMEexample.com/nfs,example.com/nfs需要跟后面的storageclass的provisinoer保持一致

                 - name: NFS_SERVER

                  value: 192.168.0.6  

      #这个需要写nfs服务端所在的ip地址,大家需要写自己的nfs地址

                 - name: NFS_PATH

                  value: /data/v1    

      #这个是nfs服务端共享的目录

             volumes:

             - name: nfs-client-root

               nfs:

                 server: 192.168.0.6        

      #这个是nfs服务端的ip,大家需要写自己的nfs地址

                 path: /data/v1                #这个是nfs服务端的共享目录


      创建storageclass

      cat class.yaml

      apiVersion: storage.k8s.io/v1
      kind: StorageClass
      metadata:
        name: do-block-storage
      provisioner: example.com/nfs

      kubectl apply -f class.yaml


      注:

        provisioner:example.com/nfs   #该值需要和provisioner配置的保持一致




        相关实践学习
        容器服务Serverless版ACK Serverless 快速入门:在线魔方应用部署和监控
        通过本实验,您将了解到容器服务Serverless版ACK Serverless 的基本产品能力,即可以实现快速部署一个在线魔方应用,并借助阿里云容器服务成熟的产品生态,实现在线应用的企业级监控,提升应用稳定性。
        云原生实践公开课
        课程大纲 开篇:如何学习并实践云原生技术 基础篇: 5 步上手 Kubernetes 进阶篇:生产环境下的 K8s 实践 相关的阿里云产品:容器服务&nbsp;ACK 容器服务&nbsp;Kubernetes&nbsp;版(简称&nbsp;ACK)提供高性能可伸缩的容器应用管理能力,支持企业级容器化应用的全生命周期管理。整合阿里云虚拟化、存储、网络和安全能力,打造云端最佳容器化应用运行环境。 了解产品详情:&nbsp;https://www.aliyun.com/product/kubernetes
        相关文章
        |
        1月前
        |
        Shell Linux C语言
        【Shell 命令集合 网络通讯 】Linux 查看系统中的UUCP日志文件 uulog命令 使用指南
        【Shell 命令集合 网络通讯 】Linux 查看系统中的UUCP日志文件 uulog命令 使用指南
        29 0
        |
        1月前
        |
        Prometheus 监控 Kubernetes
        Kubernetes 集群监控与日志管理实践
        【2月更文挑战第29天】 在微服务架构日益普及的当下,Kubernetes 已成为容器编排的事实标准。然而,随着集群规模的扩大和业务复杂度的提升,有效的监控和日志管理变得至关重要。本文将探讨构建高效 Kubernetes 集群监控系统的策略,以及实施日志聚合和分析的最佳实践。通过引入如 Prometheus 和 Fluentd 等开源工具,我们旨在为运维专家提供一套完整的解决方案,以保障系统的稳定性和可靠性。
        |
        4月前
        |
        存储 监控 安全
        带你读《Apache Doris 案例集》——07查询平均提速700% ,奇安信基于 Apache Doris 升级日志安全分析系统(1)
        带你读《Apache Doris 案例集》——07查询平均提速700% ,奇安信基于 Apache Doris 升级日志安全分析系统(1)
        |
        9天前
        |
        JavaScript Java 测试技术
        基于Java的公司员工工作日志办公系统的设计与实现(源码+lw+部署文档+讲解等)
        基于Java的公司员工工作日志办公系统的设计与实现(源码+lw+部署文档+讲解等)
        32 3
        |
        26天前
        |
        C++
        QT实现一个简单的日志打印系统
        QT实现一个简单的日志打印系统
        |
        1月前
        |
        Prometheus 监控 Kubernetes
        Kubernetes 集群的监控与日志管理实践
        【2月更文挑战第31天】 在微服务架构日益普及的今天,容器编排工具如Kubernetes已成为部署、管理和扩展容器化应用的关键平台。然而,随着集群规模的扩大和业务复杂性的增加,如何有效监控集群状态、及时响应系统异常,以及管理海量日志信息成为了运维人员面临的重要挑战。本文将深入探讨 Kubernetes 集群监控的最佳实践和日志管理的高效策略,旨在为运维团队提供一套系统的解决思路和操作指南。
        27 0
        |
        1月前
        |
        Kubernetes Cloud Native Devops
        云原生技术落地实现之二KubeSphere DevOps 系统在 Kubernetes 集群上实现springboot项目的自动部署和管理 CI/CD (2/2)
        云原生技术落地实现之二KubeSphere DevOps 系统在 Kubernetes 集群上实现springboot项目的自动部署和管理 CI/CD (2/2)
        52 1
        |
        1月前
        |
        弹性计算 运维 Kubernetes
        云原生K8S场景自动化响应ECS系统事件
        客户云原生K8S场景下,通过社区开源NPD+Draino+Autoscaler零开发,对接响应ECS主动运维事件,通过自动响应事件减少非预期宕机。
        |
        2月前
        |
        调度 数据库 数据安全/隐私保护
        ABAP 系统里使用事务码 SM21 查看系统日志的技巧介绍
        ABAP 系统里使用事务码 SM21 查看系统日志的技巧介绍
        48 0
        |
        3月前
        |
        存储 JSON 运维
        【运维】Powershell 服务器系统管理信息总结(进程、线程、磁盘、内存、网络、CPU、持续运行时间、系统账户、日志事件)
        【运维】Powershell 服务器系统管理信息总结(进程、线程、磁盘、内存、网络、CPU、持续运行时间、系统账户、日志事件)
        51 0