Flink这边有个问题 hive中的分桶表 通过flink sqlgateway 在k8s容器里处理完 trino去查询 这个分桶的算法 文件数 命名规则等各方不太统一。 导致最终使用方trino无法查出来
能帮我们看看么 感谢 Hive table 'ro_jp.dwd_itemflow_log_dyy3' is corrupt. File 'part-84a62185-32e5-4c69-9e90-5bf3f581a981-task-0-file-0' does not match the standard naming pattern, and the number of files in the directory (29) does not match the declared bucket count (32) for partition: date=2024-03-31
我改了trino session的一些hive分桶相关的参数 没啥用
hive.bucket_execution_enabled
hive.create_empty_bucket_files
hive.parallel_partitioned_bucketed_writes
hive.validate_bucketing
我之前好像在flink文档中看到分桶版本的一些文档了 现在无法找到?
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。