我现在用flink1.10.1版本在研究那个sql-client共hive集成,目前遇到这样一个问题想请教一下: standalone部署,3台机器,hive用的是cdh5版本 hive1.1.0 按官方文档,进行了集成,hive建的表在flink sql-client下能查询,但反过来,flink sql-client下建的表无法查询。(sql-client与hive都不能查) Could not find a suitable table factory for 'org.apache.flink.table.factories.TableSourceFactory' in the classpath. Reason: Required context properties mismatch. The following properties are requested: schema.0.data-type=INT schema.0.name=id The following factories have been considered: org.apache.flink.table.sources.CsvBatchTableSourceFactory org.apache.flink.table.sources.CsvAppendTableSourceFactory 好象是少什么包,我查了一下,好象这个包里有flink-table-common-1.10.1.jar,放上去还不行。不知什么问题(详见附件)? 集成要求用的包也都放到了lib下: flink-connector-hive_2.11-1.10.0.jar flink-shaded-hadoop-2-uber-2.6.5-8.0.jar hive-metastore-1.1.0.jar hive-exec-1.1.0.jar libfb303-0.9.2.jar
*来自志愿者整理的flink邮件归档
这个报错通常是缺少了 connector 相关的jar包,或者 connector 的with参数填写错误。
*来自志愿者整理的flink邮件归档
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。