开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

我想使用FlinkSink写hdfs使用snappy压缩代码是这样写(参考下列)提交后报错是为什么?

我想使用FlinkSink写hdfs。使用snappy压缩。 代码是这样写的: CompressWriterFactory writer = CompressWriters.forExtractor(new DefaultExtractor()) .withHadoopCompression(codec, conf);

    FileSink<JSONObject> sink = FileSink
            .forBulkFormat(new Path(outputPath), writer)

提交到yarn上后报错:ca581fdd36272f7094c5ab906ab3b0e9.png请问是什原因?

展开
收起
圆葱猪肉包 2023-03-08 11:07:54 514 0
1 条回答
写回答
取消 提交回答
  • 缺少so? 高低版本混用? 基本就是依赖的问题。你的包里是不是打了啥不该打的jar。遇到这种问题得分析你自己的依赖引用关系 大概率是高低版本混用。大概率你的jar打包有问题。感觉你是不看第三方库依赖树 疯狂引用依赖 不分运行时和编译时依赖 觉得本地运行没问题 集群运行就没问题了。此答案出自钉群“【③群】Apache Flink China社区”

    2023-03-08 12:00:38
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关电子书

更多
海量数据分布式存储——Apache HDFS之最新进展 立即下载
低代码开发师(初级)实战教程 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载