开发者社区> 问答> 正文

【Flink Join内存问题】

我看源码里写到JoinedStreams:

也就是说join时候都是走内存计算的,那么如果某个stream的key值过多,会导致oom

那么有什么预防措施呢?

将key值多的一边进行打散?

Right now, the join is being evaluated in memory so you need to ensure that the number

  • of elements per key does not get too high. Otherwise the JVM might crash. *来自志愿者整理的flink邮件归档

展开
收起
彗星halation 2021-12-07 16:04:25 538 0
1 条回答
写回答
取消 提交回答
  • regular join确实是这样,所以量大的话可以用interval join 、temporal join*来自志愿者整理的flink邮件归档

    2021-12-07 16:10:09
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Flink峰会 - 李佳林 立即下载
内存取证与IaaS云平台恶意行 为的安全监控 立即下载
云服务器ECS内存增强型实例re6全新发布 立即下载