开发者社区> 问答> 正文

使用flink读取批量读取ES装入paimon,必须全部读取完才能装库?

ES数据量大概2亿条,定制CustomElasticsearchSource extends RichParallelSourceFunction作为数据源,用于翻页读取ES数据,然后通过flink的api输出到paimon+hadoop中,通过IDEA环境调试,现在发现程序一直在读取数据,hadoop中直到任务执行完成,才能被写入文件数据?能否读取1w条后即输出到hadoop?
另外,我发现table.executeInsert(tableName);和env.excute()会导致程序运行2次,那么到底应不应该加env.excute(),到底什么情况下才能加?

展开
收起
游客pspmw6ifuifys 2024-12-30 10:17:12 18 0
0 条回答
写回答
取消 提交回答
问答排行榜
最热
最新

相关电子书

更多
Flink CDC Meetup PPT - 龚中强 立即下载
Flink CDC Meetup PPT - 王赫 立即下载
Flink CDC Meetup PPT - 覃立辉 立即下载