开发者社区> 问答> 正文

flink,50000条数据写入mysql太慢怎么办啊,除了多线程还有其他方法吗,已经是批量写入了

问一个关于flink和hadoop版本的问题。目前我们生产环境是hadoop3.0+的版本,现在官网上flink1.9+没有直接打包好的捆绑的hadoop3.0+的版本。 但是我自己下载flink1.9.1版本,然后下载了 可选组件里的 Pre-bundled Hadoop 2.8.3 (asc, sha1) ,并且将这个包放到flink的lib下,也是可以正常操作hadoop的。 请问这样有什么影响吗? 因为自己下载flink源码打包一直没有编译成功。麻烦告知!

*来自志愿者整理的flink邮件归档

展开
收起
EXCEED 2021-12-08 12:12:21 2388 0
1 条回答
写回答
取消 提交回答
  • 没有什么问题的,只是hadoop2.8和hadoop3.0在一些特性上存在不一样,对于你正常使用flink不受影响

    下载flink源码打包一直没有编译成功,需要看下问题的原因,可能是一些maven的源的问题

    *来自志愿者整理的flink邮件归档

    2021-12-08 14:35:47
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
One Box: 解读事务与分析一体化数据库 HybridDB for MySQL 立即下载
One Box:解读事务与分析一体化数据库HybridDB for MySQL 立即下载
如何支撑HTAP场景-HybridDB for MySQL系统架构和技术演进 立即下载

相关镜像