开发者社区> 问答> 正文

flink的算子没有类似于spark的cache操作吗?

请问当一个算子会被多次使用时,怎么把他缓存住,类似于spark的cache操作

val env = getBatchEnv val ds = env.fromElements("a","b","c")

val ds2 = ds.map(x=>{ println("map op") x.charAt(0).toInt+1 })

//此操作会打印三遍map op ds2.print()

//此操作又会打印三遍map op ds2.filter(_>100).print()*来自志愿者整理的flink邮件归档

展开
收起
毛毛虫雨 2021-12-08 11:45:28 1101 0
1 条回答
写回答
取消 提交回答
  • 对的是我!

    保存中间变量可以用状态存*来自志愿者整理的flink邮件归档

    2021-12-08 17:20:09
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载