我想使用FlinkSink写hdfs使用snappy压缩代码是这样写(参考下列)提交后报错是为什么?

我想使用FlinkSink写hdfs。使用snappy压缩。 代码是这样写的: CompressWriterFactory writer = CompressWriters.forExtractor(new DefaultExtractor()) .withHadoopCompression(codec, conf);

    FileSink<JSONObject> sink = FileSink
            .forBulkFormat(new Path(outputPath), writer)

提交到yarn上后报错:ca581fdd36272f7094c5ab906ab3b0e9.png请问是什原因?

展开
收起
圆葱猪肉包 2023-03-08 11:07:54 602 分享 版权
1 条回答
写回答
取消 提交回答
  • 缺少so? 高低版本混用? 基本就是依赖的问题。你的包里是不是打了啥不该打的jar。遇到这种问题得分析你自己的依赖引用关系 大概率是高低版本混用。大概率你的jar打包有问题。感觉你是不看第三方库依赖树 疯狂引用依赖 不分运行时和编译时依赖 觉得本地运行没问题 集群运行就没问题了。此答案出自钉群“【③群】Apache Flink China社区”

    2023-03-08 12:00:38
    赞同 展开评论

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

收录在圈子:
实时计算 Flink 版(Alibaba Cloud Realtime Compute for Apache Flink,Powered by Ververica)是阿里云基于 Apache Flink 构建的企业级、高性能实时大数据处理系统,由 Apache Flink 创始团队官方出品,拥有全球统一商业化品牌,完全兼容开源 Flink API,提供丰富的企业级增值功能。
还有其他疑问?
咨询AI助理