实时计算 Flink版产品使用合集之nk任务在k8s上运行,数据量大时经常失败,并且某个TaskManager被cgroup杀掉,该如何处理

简介: 实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。

问题一:Flink CDC读貌似是有符号的-128---127?


Flink CDC读貌似是有符号的-128---127?sqlserver的tinyint是0-255


参考回答:

Flink CDC 读取的 tinyint 类型数据是有符号的,范围是 -128 到 127。而 SQL Server 中的 tinyint 类型数据是无符号的,范围是 0 到 255。因此,在使用 Flink CDC 读取 SQL Server 数据库中的 tinyint 类型数据时,需要注意转换数据类型。可以使用如下代码将 tinyint 类型转换为 Java 中的 byte 类型:

byte tinyIntValue = (byte) ((short) sourceRecord[index]);

其中,sourceRecord 是 Flink CDC 读取到的数据记录,index 是 tinyint 类型字段在记录中的下标。


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/575258



问题二:flink sql写累积窗口 开一天 每5分钟输出一次数据,为啥最后没有触发计算啊?


flink sql写累积窗口 开一天 每5分钟输出一次数据,为啥最后没有触发计算啊?


参考回答:

Flink SQL中的累积窗口(Cumulative Window)是一种特殊的窗口类型,它可以用来计算从窗口开始到当前时间点的累积值。例如,你可以使用累积窗口来计算过去24小时内的累积流量。

在你的描述中,你似乎是在使用累积窗口来计算过去24小时内的累积值,每5分钟输出一次结果。然而,你没有提到你是否正确地配置了窗口的时间属性(如窗口的开始时间、结束时间等)。

如果你的窗口配置不正确,可能会导致窗口的计算逻辑出现问题。例如,如果你的窗口的开始时间设置为当前时间减去24小时,而结束时间设置为当前时间,那么在最后一个5分钟的间隔内,窗口的计算逻辑可能无法正确地计算累积值,从而导致最后没有触发计算。

另外,你也可以检查一下你的计算逻辑是否正确。例如,你应该确保你的计算逻辑可以正确地处理窗口的起始值(即窗口开始时的累积值)和增量值(即每个时间间隔内的累积值)。


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/575029



问题三:Flink任务就是简单的导数据任务,不太理解为什会有这么多 none heap 的内存被消耗掉?


Flink任务就是简单的导数据任务,从湖里面的一个表到另一个表

不太理解为什会有这么多 none heap 的内存被消耗掉?


参考回答:

当执行Flink任务时,确实可能出现一些"none heap"内存被消耗的情况。这是因为Flink任务在执行过程中使用了不同类型的内存。

除了Java虚拟机(JVM)的堆内存(heap),Flink任务还使用了Off-Heap内存、JVM堆外内存(Native Memory)、操作系统缓存等。

  1. Off-Heap内存:Flink使用Off-Heap内存来管理内部数据结构和状态,例如网络缓冲区、排序和哈希表等。Off-Heap内存由Flink自己进行管理,不依赖于JVM的堆内存管理。这些内存通常属于"none heap"内存。
  2. JVM堆外内存(Native Memory):有些特定的操作,如网络IO和序列化,需要使用JVM堆外内存。这部分内存也属于"none heap"内存。
  3. 操作系统缓存:Flink任务执行过程中,操作系统会将一些数据缓存在文件系统或磁盘缓存中,这些缓存也可能占用一部分"none heap"内存。

所以,在Flink任务执行期间,除了JVM堆内存(即Java堆)之外,其他类型的内存消耗可能会被归类为"none heap"内存。

如果您发现大量的"none heap"内存被消耗,可以尝试以下措施:

  • 调整Flink任务的内存配置:根据具体情况,可以增加或减少Flink任务的总内存大小,包括堆内存和Off-Heap内存的比例。可以通过调整taskmanager.memory.process.sizetaskmanager.memory.task.heap.size等配置参数进行调整。
  • 使用更高效的算子和数据结构:优化Flink任务中使用的算子和数据结构,避免不必要的内存消耗。例如,使用合适的数据结构、减少对象创建和拷贝、避免大对象等。
  • 调整操作系统缓存策略:如果"none heap"内存主要被操作系统缓存占用,可以尝试调整操作系统的文件系统缓存策略,限制缓存大小,以释放内存供Flink任务使用。


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/575028



问题四:请教个 flink 跑批任务的问题 我们的集群跑在 k8s 上面,想请教下为什么会出现这种问题?


请教个 flink 跑批任务的问题

我们的集群跑在 k8s 上面,跑某些数据量大的批任务的时候几乎 100% 会失败,查原因都是某个 taskmanager 被 cgroup 杀掉了,看 gc 日志 heap 这些内存的占用并不高

想请教下为什么会出现这种问题? 有没有什么参数可以控制内存的使用?


参考回答:

Flink任务在Kubernetes上运行,可能会因为资源管理或者其他原因导致TaskManager被cgroup杀掉。首先需要理解Flink的TaskManager内存模型。Flink框架不仅会包含JVM管理的Heap内存,还会申请自己管理Off-Heap的Native和Direct内存。

对于内存的使用,您可以考虑以下建议:

  1. 配置Flink的总内存。可以通过调整taskmanager.memory.flink.sizejobmanager.memory.flink.size来控制Flink应用使用的内存大小。
  2. 如果遇到Metaspace不足的问题,可以适当调整JVM Metaspace的大小。
  3. 考虑Flink on Kubernetes的架构,确保Master和Worker的Container正确启动,并且TaskManager已经成功向ResourceManager注册。

此外,为了更稳定地在Kubernetes上运行Flink任务,建议对Kubernetes、Container、Operator有一定的了解,并确保Flink能够顺利申请和释放资源。如果问题仍然存在,可以考虑查看Flink的日志和Kubernetes的资源使用情况,以便进一步定位问题。


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/575027



问题五:Flink按主键hash 发往不同分区,我同事没实现,说是负载严重不均衡,不知道还有没有其他办法?


Flink按主键hash 发往不同分区,我同事没实现,说是负载严重不均衡,不知道还有没有其他办法,就是0分区一直没数据, 都发到2分区了,不知道怎么回事?


参考回答:

在Apache Flink中,KeyBy算子是一种根据指定Key将数据流分区的算子。在使用KeyBy算子时,需要指定一个或多个Key,Flink会根据这些Key将数据流分成不同的分区,以便并行处理。具体来说,Flink中的KeyBy底层其实就是通过Hash实现的,通过对Key的值进行Hash,再做一次murmurHash,取模运算。

你提到的问题,可能是由于Key的分布不均匀导致的。如果大部分的数据都分配到了同一个分区,那么这个分区的处理压力就会非常大,从而导致负载严重不均衡。为了解决这个问题,你可以尝试以下方法:

  1. 调整并行度:你可以根据实际情况调整并行度,使得每个并行度处理的数据量相对均匀。例如,你可以使用取模运算来平衡Kafka partition与并行度关系。
  2. 使用自定义分区器:如果默认的分区方式不能满足你的需求,你也可以实现自己的分区器,根据实际业务需求来分配数据到不同的分区。
  3. 优化任务调度:你可以尝试优化任务调度策略,例如为ExecutionSlotSharingGroup申请slot时先对其按包含Task个数排序,优先调度Task个数多的分组。


关于本问题的更多回答可点击原文查看:

https://developer.aliyun.com/ask/575023

相关实践学习
基于Hologres+Flink搭建GitHub实时数据大屏
通过使用Flink、Hologres构建实时数仓,并通过Hologres对接BI分析工具(以DataV为例),实现海量数据实时分析.
实时计算 Flink 实战课程
如何使用实时计算 Flink 搞定数据处理难题?实时计算 Flink 极客训练营产品、技术专家齐上阵,从开源 Flink功能介绍到实时计算 Flink 优势详解,现场实操,5天即可上手! 欢迎开通实时计算 Flink 版: https://cn.aliyun.com/product/bigdata/sc Flink Forward Asia 介绍: Flink Forward 是由 Apache 官方授权,Apache Flink Community China 支持的会议,通过参会不仅可以了解到 Flink 社区的最新动态和发展计划,还可以了解到国内外一线大厂围绕 Flink 生态的生产实践经验,是 Flink 开发者和使用者不可错过的盛会。 去年经过品牌升级后的 Flink Forward Asia 吸引了超过2000人线下参与,一举成为国内最大的 Apache 顶级项目会议。结合2020年的特殊情况,Flink Forward Asia 2020 将在12月26日以线上峰会的形式与大家见面。
相关文章
|
SQL 运维 Java
蚂蚁 Flink 实时计算编译任务 Koupleless 架构改造
本文介绍了对Flink实时计算编译任务的Koupleless架构改造。为解决进程模型带来的响应慢、资源消耗大等问题,团队将进程模型改为线程模型,并借助Koupleless的类加载隔离能力实现版本和包的隔离。通过动态装配Plugin及其Classpath,以及Biz运行时仅对依赖Plugin可见的设计,大幅优化了编译任务的性能。结果表明,新架构使编译耗时降低50%,吞吐量提升5倍以上。
蚂蚁 Flink 实时计算编译任务 Koupleless 架构改造
|
Prometheus Kubernetes 监控
OpenAI故障复盘 - 阿里云容器服务与可观测产品如何保障大规模K8s集群稳定性
聚焦近日OpenAI的大规模K8s集群故障,介绍阿里云容器服务与可观测团队在大规模K8s场景下我们的建设与沉淀。以及分享对类似故障问题的应对方案:包括在K8s和Prometheus的高可用架构设计方面、事前事后的稳定性保障体系方面。
|
Java Shell Maven
Flink-11 Flink Java 3分钟上手 打包Flink 提交任务至服务器执行 JobSubmit Maven打包Ja配置 maven-shade-plugin
Flink-11 Flink Java 3分钟上手 打包Flink 提交任务至服务器执行 JobSubmit Maven打包Ja配置 maven-shade-plugin
1041 4
|
Kubernetes Linux 调度
【赵渝强老师】K8s的周期性任务控制器CronJob
本文介绍了K8s中的CronJob控制器,它类似于Linux的crontab命令,用于管理和调度定时作业。CronJob可以设置在未来某一时间运行作业一次或在指定时间点重复运行作业。文章通过一个示例展示了如何创建和使用CronJob控制器,包括创建配置文件、应用配置、查看Pod信息和日志等步骤。同时,还解释了CronJob的时间表示方式及其限制。
395 0
|
资源调度 分布式计算 大数据
大数据-111 Flink 安装部署 YARN部署模式 FlinkYARN模式申请资源、提交任务
大数据-111 Flink 安装部署 YARN部署模式 FlinkYARN模式申请资源、提交任务
579 0
|
流计算 Java 缓存
Flink运行时之TaskManager执行Task
TaskManager执行任务 当一个任务被JobManager部署到TaskManager之后,它将会被执行。本篇我们将分析任务的执行细节。 submitTask方法分析 一个任务实例被部署所产生的实际影响就是JobManager会将一个TaskDeploymentDescriptor对象封装在SubmitTask消息中发送给TaskManager。
1787 1
|
9月前
|
存储 分布式计算 数据处理
「48小时极速反馈」阿里云实时计算Flink广招天下英雄
阿里云实时计算Flink团队,全球领先的流计算引擎缔造者,支撑双11万亿级数据处理,推动Apache Flink技术发展。现招募Flink执行引擎、存储引擎、数据通道、平台管控及产品经理人才,地点覆盖北京、杭州、上海。技术深度参与开源核心,打造企业级实时计算解决方案,助力全球企业实现毫秒洞察。
792 0
「48小时极速反馈」阿里云实时计算Flink广招天下英雄
|
运维 数据处理 数据安全/隐私保护
阿里云实时计算Flink版测评报告
该测评报告详细介绍了阿里云实时计算Flink版在用户行为分析与标签画像中的应用实践,展示了其毫秒级的数据处理能力和高效的开发流程。报告还全面评测了该服务在稳定性、性能、开发运维及安全性方面的卓越表现,并对比自建Flink集群的优势。最后,报告评估了其成本效益,强调了其灵活扩展性和高投资回报率,适合各类实时数据处理需求。
|
存储 分布式计算 流计算
实时计算 Flash – 兼容 Flink 的新一代向量化流计算引擎
本文介绍了阿里云开源大数据团队在实时计算领域的最新成果——向量化流计算引擎Flash。文章主要内容包括:Apache Flink 成为业界流计算标准、Flash 核心技术解读、性能测试数据以及在阿里巴巴集团的落地效果。Flash 是一款完全兼容 Apache Flink 的新一代流计算引擎,通过向量化技术和 C++ 实现,大幅提升了性能和成本效益。
4451 74
实时计算 Flash – 兼容 Flink 的新一代向量化流计算引擎

相关产品

  • 实时计算 Flink版
  • 推荐镜像

    更多