开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

flink 1.15.4 /tmp目录,看每天都会生成10多个flink-这个是什么情况呢?

flink 1.15.4 /tmp目录,看每天都会生成10多个flink-table-planner_xxx.jar,这个是什么情况呢?

展开
收起
真的很搞笑 2024-01-09 12:23:28 124 0
1 条回答
写回答
取消 提交回答
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    这个现象可能是由于Flink的Table Planner在执行计划生成时,会将生成的临时文件存储在/tmp目录下。这些文件通常是以"flink-table-planner_xxx.jar"命名的,其中"xxx"是一个随机生成的唯一标识符。

    这些临时文件主要用于存储Flink Table Planner在执行计划生成过程中产生的中间结果和临时数据。当任务完成后,这些临时文件会被自动删除,因此每天生成10多个这样的文件是正常的。

    如果你希望减少这些临时文件的数量,可以尝试调整Flink的配置参数,例如增加或减少JVM堆内存大小,或者调整其他与资源管理相关的参数。

    2024-01-09 14:30:09
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Flink CDC Meetup PPT - 龚中强 立即下载
    Flink CDC Meetup PPT - 王赫 立即下载
    Flink CDC Meetup PPT - 覃立辉 立即下载