Flink Native Kubernetes实战

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
简介: Flink Native Kubernetes是1.10版本才有的新功能,通过bin目录下的工具控制kubernetes环境下的flink操作

欢迎访问我的GitHub

这里分类和汇总了欣宸的全部原创(含配套源码):https://github.com/zq2599/blog_demos

回顾Flink Kubernetes

Flink KubernetesFlink Native Kubernetes是不同的概览,先回顾一下Flink Kubernetes:

  1. 如下图,从1.2版本到目前最新的1.10,Flink官方都给出了Kubernetes上部署和运行Flink的方案:
    在这里插入图片描述
  2. 在kubernetes上有两种方式运行flink:session clusterjob cluster,其中session cluster是一套服务可以提交多个任务,而job cluster则是一套服务只对应一个任务;
  3. 下图是典型的session cluster部署操作,可见关键是准备好service、deployment等资源的yaml文件,再用kubectl命令创建:
    在这里插入图片描述

    关于Flink Native Kubernetes

  4. 先对比官方的1.9和1.10版本文档,如下图和红框和蓝框所示,可见Flink Native Kubernetes是1.10版本才有的新功能:
    在这里插入图片描述
  5. 看看Native Kubernetes是如何运行的,如下图,创建session cluster的命令来自Flink安装包:
    在这里插入图片描述
  6. 更有趣的是,提交任务的命令也来自Flink安装包,就是我们平时提交任务用到flink run命令,如下图:
    在这里插入图片描述
  7. 结合官方给出的提交和部署流程图就更清晰了:kubernetes上部署了Flink Master,由Flink Client来提交session cluster和job的请求:
    在这里插入图片描述

    Flink Kubernetes和Flink Native Kubernetes的区别

    至此,可以小结Flink Kubernetes和Flink Native Kubernetes的区别:
  8. Flink Kubernetes1.2版本首次出现,Flink Native Kubernetes1.10版本首次出现;
  9. Flink Kubernetes是把JobManager和TaskManager等进程放入容器,在kubernetes管理和运行,这和我们把java应用做成docker镜像再在kubernetes运行是一个道理,都是用kubectl在kubernetes上操作;
  10. Flink Native Kubernetes是在Flink安装包中有个工具,此工具可以向kubernetes的Api Server发送请求,例如创建Flink Master,并且可以和Flink Master通讯,用于提交任务,我们只要用好Flink安装包中的工具即可,无需在kubernetes上执行kubectl操作;

    Flink Native Kubernetes在Flink-1.10版本中的不足之处

  11. Flink Native Kubernetes只是Beta版,属于实验性质(官方原话:still experimental),请勿用于生产环境!
  12. 只支持session cluster模式(一个常驻session执行多个任务),还不支持Job clusters模式(一个任务对应一个session)

尽管还没有进入Release阶段,但这种操作模式对不熟悉kubernetes的开发者来说还是很友好的,接下来通过实战来体验吧;

官方要求

为了体验Native Kubernetes,flink官方提出了下列前提条件:

  1. kubernetes版本不低于1.9
  2. kubernetes环境的DNS是正常的
  3. KubeConfig文件,并且这个文件是有权对pod和service资源做增删改查的(kubectl命令有权对pod和service做操作,也是因为它使用了对应的KubeConfig文件),这个文件一般在kubernetes环境上,全路径:~/.kube/config
  4. pod执行时候的身份是service account,这个service account已经通过RBAC赋予了pod的增加和删除权限;

前面两点需要您自己保证已达到要求,第三和第四点现在先不必关心,后面有详细的步骤来完成;

实战环境信息

本次实战的环境如下图所示,一套kubernetes环境(版本是1.15.3),另外还有一台CentOS7电脑,上面已部署了flink-1.10(这里的部署是说把安装包解压,不启动任何服务):
在这里插入图片描述
准备完毕,开始实战了~

实战内容简介

本次实战是在kubernetes环境创建一个session cluster,然后提交任务到这个sessionc cluster运行,与官方教程不同的是本次实战使用自定义namespace和service account,毕竟生产环境一般是不允许使用default作为namespace和service account的;

实战

  1. 在CetnOS7电脑上操作时使用的是root账号;
  2. 在kubernetes的节点上,确保有权执行kubectl命令对pod和service进行增删改查,将文件~/.kube/config复制到CentOS7电脑的~/.kube/目录下;
  3. 在kubernetes的节点上,执行以下命令创建名为flink-session-cluster的namespace:
    kubectl create namespace flink-session-cluster
    
  4. 执行以下命令创建名为flink的serviceaccount:

    kubectl create serviceaccount flink -n flink-session-cluster
    
  5. 执行以下命令做serviceaccount和角色的绑定:

    kubectl create clusterrolebinding flink-role-binding-flink \
    --clusterrole=edit \
    --serviceaccount=flink-session-cluster:flink
    
  6. SSH登录部署了flink的CentOS7电脑,在flink目录下执行以下命令,即可创建名为session001的session cluster,其中-Dkubernetes.namespace参数指定了namespace,另外还指定了一个TaskManager实例使用一个CPU资源、4G内存、内含6个slot:

    ./bin/kubernetes-session.sh \
    -Dkubernetes.namespace=flink-session-cluster \
    -Dkubernetes.jobmanager.service-account=flink \
    -Dkubernetes.cluster-id=session001 \
    -Dtaskmanager.memory.process.size=8192m \
    -Dkubernetes.taskmanager.cpu=1 \
    -Dtaskmanager.numberOfTaskSlots=4 \
    -Dresourcemanager.taskmanager-timeout=3600000
    
  7. 如下图,控制台提示创建成功,并且红框中提示了flink web UI的访问地址是http://192.168.50.135:31753
    在这里插入图片描述

  8. 下载镜像和启动容器需要一定的时间,可以用kubectl getkubectl describe命令观察对应的deployment和pod的状态:

Flink Native Kubernetes实战

  1. pod启动成功后访问flink web,如下图,此时还没有创建TaskManager,因此Slot为零:
    在这里插入图片描述
  2. 回到CentOS7电脑,在flink目录下执行以下命令,将官方自带的WindowJoin任务提交到session cluster:

    ./bin/flink run -d \
    -e kubernetes-session \
    -Dkubernetes.namespace=flink-session-cluster \
    -Dkubernetes.cluster-id=session001 \
    examples/streaming/WindowJoin.jar
    
  3. 控制台提示提交任务成功:
    在这里插入图片描述

  4. 页面上也会同步显示增加了一个TaskManager,对应6个slot,已经用掉了一个:
    在这里插入图片描述
  5. 再连续提交5次相同的任务,将此TaskManager的slot用光:
    在这里插入图片描述
  6. 这时候再提交一次任务,按理来说应该增加一个TaskManager,可是页面如下图所示,TaskManager数量还是1,并没有增加,并且红框中显示新增的任务并没有正常运行起来:
    在这里插入图片描述
  7. 在kubernetes环境查看pod情况,如下图红框所示,有个新建的pod状态是Pending,看来这就是第七个任务不能执行就是因为这个新建的pod无法正常工作导致的:
    在这里插入图片描述
  8. 再看看这个namespace的事件通知,如下图红框所示,名为session001-taskmanager-1-2的pod有一条通知信息:由于CPU资源不足导致pod创建失败
    在这里插入图片描述
  9. 穷到没钱配置kubernetes环境,连一核CPU都凑不齐:
    在这里插入图片描述
  10. 一时半会儿也找不出多余的CPU资源,唯一能做的就是降低TaskManager的CPU要求,刚才配置的是一个TaskManager使用一核CPU,我打算降低一半,即0.5核,这样就够两个TaskManager用了;
  11. 您可能会疑惑:怎么会有0.5个CPU这样的配置?这个和kubernetes的资源限制有关,kubernetes对pod的CPU限制粒度是千分之一个CPU,也是就是在kubernetes中,配置1000单位的CPU表示使用1核,我们配置0.5核,不过是配置了500单位而已(所以我还可以更穷....)
  12. 接下来的操作是先停掉当前的session cluster,再重新创建一个,创建的时候参数-Dkubernetes.taskmanager.cpu的值从1改为0.5
  13. 在CentOS7电脑上执行以下命令,将session cluster停掉,释放所有资源:

    echo 'stop' | \
    ./bin/kubernetes-session.sh \
    -Dkubernetes.namespace=flink-session-cluster \
    -Dkubernetes.cluster-id=session001 \
    -Dexecution.attached=true
    
  14. 控制台提示操作成功:
    在这里插入图片描述

  15. 稍等一分钟左右,再去查看pod,发现已经全部不见了:
    在这里插入图片描述
  16. 在CentOS7电脑的flink目录下,执行以下命令,和之前相比,唯一变化就是-Dkubernetes.taskmanager.cpu参数的值:

    ./bin/kubernetes-session.sh \
    -Dkubernetes.namespace=flink-session-cluster \
    -Dkubernetes.jobmanager.service-account=flink \
    -Dkubernetes.cluster-id=session001 \
    -Dtaskmanager.memory.process.size=4096m \
    -Dkubernetes.taskmanager.cpu=0.5 \
    -Dtaskmanager.numberOfTaskSlots=6 \
    -Dresourcemanager.taskmanager-timeout=3600000
    
  17. 从控制台提示得到新的flink web UI端口值,再访问网页,发现启动成功了:
    在这里插入图片描述

  18. 像之前那样提交任务,连续提交7个,这一次很顺利,在提交了第七个任务后,新的TaskManager创建成功,7个任务都成功执行了:
    在这里插入图片描述
  19. kubectl describe pod命令查看TaskManager的pod,如下图红框所示,可见该pod的CPU用量是500单位,符合之前的推测:
    在这里插入图片描述
    这里再提醒一下,降低CPU用量,意味着该pod中的进程获取的CPU执行时间被降低,会导致任务执行变慢,所以这种方法不可取,正确的思路是确保硬件资源能满足业务需求(像我这样穷到一核CPU都凑不齐的情况还是不多的....)

    清理资源

    如果已完成Flink Native Kubernetes体验,想彻底清理掉前面的所有资源,请按照以下步骤操作:
  20. 在web页面点击Cancel Job停止正在运行的任务,如下图红框:
    在这里插入图片描述
  21. 在CentOS7电脑上停止session cluster:

    echo 'stop' | \
    ./bin/kubernetes-session.sh \
    -Dkubernetes.namespace=flink-session-cluster \
    -Dkubernetes.cluster-id=session001 \
    -Dexecution.attached=true
    
  22. 在kubernetes节点清理service、clusterrolebinding、serviceaccount、namespace:

    kubectl delete service session001 -n flink-session-cluster
    kubectl delete clusterrolebinding flink-role-binding-flink
    kubectl delete serviceaccount flink -n flink-session-cluster
    kubectl delete namespace flink-session-cluster
    
  23. 所有cluster session相关的ConfigMap、Service、Deployment、Pod等资源,都通过kubernetes的ownerReferences配置与service关联,因此一旦service被删除,其他资源被被自动清理掉,无需处理;

至此,Flink Native Kubernetes相关的实战就完成了,如果您也在关注这个技术,希望本文能给您一些参考。

欢迎关注阿里云开发者社区:程序员欣宸

学习路上,你不孤单,欣宸原创一路相伴...

相关实践学习
通过Ingress进行灰度发布
本场景您将运行一个简单的应用,部署一个新的应用用于新的发布,并通过Ingress能力实现灰度发布。
容器应用与集群管理
欢迎来到《容器应用与集群管理》课程,本课程是“云原生容器Clouder认证“系列中的第二阶段。课程将向您介绍与容器集群相关的概念和技术,这些概念和技术可以帮助您了解阿里云容器服务ACK/ACK Serverless的使用。同时,本课程也会向您介绍可以采取的工具、方法和可操作步骤,以帮助您了解如何基于容器服务ACK Serverless构建和管理企业级应用。 学习完本课程后,您将能够: 掌握容器集群、容器编排的基本概念 掌握Kubernetes的基础概念及核心思想 掌握阿里云容器服务ACK/ACK Serverless概念及使用方法 基于容器服务ACK Serverless搭建和管理企业级网站应用
相关文章
|
1月前
|
分布式计算 大数据 Apache
ClickHouse与大数据生态集成:Spark & Flink 实战
【10月更文挑战第26天】在当今这个数据爆炸的时代,能够高效地处理和分析海量数据成为了企业和组织提升竞争力的关键。作为一款高性能的列式数据库系统,ClickHouse 在大数据分析领域展现出了卓越的能力。然而,为了充分利用ClickHouse的优势,将其与现有的大数据处理框架(如Apache Spark和Apache Flink)进行集成变得尤为重要。本文将从我个人的角度出发,探讨如何通过这些技术的结合,实现对大规模数据的实时处理和分析。
130 2
ClickHouse与大数据生态集成:Spark & Flink 实战
|
1月前
|
Kubernetes 监控 安全
容器化技术:Docker与Kubernetes的实战应用
容器化技术:Docker与Kubernetes的实战应用
|
1月前
|
存储 Kubernetes Devops
Kubernetes集群管理和服务部署实战
Kubernetes集群管理和服务部署实战
49 0
|
2月前
|
Kubernetes Cloud Native 流计算
Flink-12 Flink Java 3分钟上手 Kubernetes云原生下的Flink集群 Rancher Stateful Set yaml详细 扩容缩容部署 Docker容器编排
Flink-12 Flink Java 3分钟上手 Kubernetes云原生下的Flink集群 Rancher Stateful Set yaml详细 扩容缩容部署 Docker容器编排
92 3
|
3月前
|
存储 Kubernetes 负载均衡
CentOS 7.9二进制部署K8S 1.28.3+集群实战
本文详细介绍了在CentOS 7.9上通过二进制方式部署Kubernetes 1.28.3+集群的全过程,包括环境准备、组件安装、证书生成、高可用配置以及网络插件部署等关键步骤。
614 3
CentOS 7.9二进制部署K8S 1.28.3+集群实战
|
3月前
|
Kubernetes 负载均衡 前端开发
二进制部署Kubernetes 1.23.15版本高可用集群实战
使用二进制文件部署Kubernetes 1.23.15版本高可用集群的详细教程,涵盖了从环境准备到网络插件部署的完整流程。
125 2
二进制部署Kubernetes 1.23.15版本高可用集群实战
|
2月前
|
Kubernetes 网络协议 Docker
Kubernetes入门到进阶实战
Kubernetes入门到进阶实战
100 0
|
3月前
|
Kubernetes Ubuntu 网络安全
Ubuntu基于kubeadm快速部署K8S实战
关于如何在Ubuntu系统上使用kubeadm工具快速部署Kubernetes集群的详细实战指南。
223 2
|
3月前
|
存储 Kubernetes Docker
深入探索容器化技术:Docker 实战与 Kubernetes 管理
深入探索容器化技术:Docker 实战与 Kubernetes 管理
90 0
|
3月前
|
Kubernetes Linux API
CentOS 7.6使用kubeadm部署k8s 1.17.2测试集群实战篇
该博客文章详细介绍了在CentOS 7.6操作系统上使用kubeadm工具部署kubernetes 1.17.2版本的测试集群的过程,包括主机环境准备、安装Docker、配置kubelet、初始化集群、添加节点、部署网络插件以及配置k8s node节点管理api server服务器。
151 0
CentOS 7.6使用kubeadm部署k8s 1.17.2测试集群实战篇
下一篇
DataWorks