开发者社区> 问答> 正文

flink sql-client下建的表无法查询怎么办?(sql-client与hive都不能查)

我现在用flink1.10.1版本在研究那个sql-client共hive集成,目前遇到这样一个问题想请教一下: standalone部署,3台机器,hive用的是cdh5版本 hive1.1.0 按官方文档,进行了集成,hive建的表在flink sql-client下能查询,但反过来,flink sql-client下建的表无法查询。(sql-client与hive都不能查) Could not find a suitable table factory for 'org.apache.flink.table.factories.TableSourceFactory' in the classpath. Reason: Required context properties mismatch. The following properties are requested: schema.0.data-type=INT schema.0.name=id The following factories have been considered: org.apache.flink.table.sources.CsvBatchTableSourceFactory org.apache.flink.table.sources.CsvAppendTableSourceFactory 好象是少什么包,我查了一下,好象这个包里有flink-table-common-1.10.1.jar,放上去还不行。不知什么问题(详见附件)? 集成要求用的包也都放到了lib下: flink-connector-hive_2.11-1.10.0.jar flink-shaded-hadoop-2-uber-2.6.5-8.0.jar hive-metastore-1.1.0.jar hive-exec-1.1.0.jar libfb303-0.9.2.jar

*来自志愿者整理的flink邮件归档

展开
收起
毛毛虫雨 2021-12-06 16:24:57 1883 0
1 条回答
写回答
取消 提交回答
  • 这个报错通常是缺少了 connector 相关的jar包,或者 connector 的with参数填写错误。

    *来自志愿者整理的flink邮件归档

    2021-12-06 17:03:54
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
SQL Server在电子商务中的应用与实践 立即下载
GeoMesa on Spark SQL 立即下载
原生SQL on Hadoop引擎- Apache HAWQ 2.x最新技术解密malili 立即下载