DataGrip连接Hive执行DDL操作报错:「FAILED: ParseException line 1:5 cannot recognize input near 'show' 'indexes' 'on' in ddl statement」

简介: DataGrip连接Hive执行DDL操作报错:「FAILED: ParseException line 1:5 cannot recognize input near 'show' 'indexes' 'on' in ddl statement」

DataGrip连接Hive执行DDL操作报错:「FAILED: ParseException line 1:5 cannot recognize input near 'show' 'indexes' 'on' in ddl statement」


d93b307106c147e29b4eb4e0f8eae2a0.jpeg



写在前面

搭建离线数仓项目中用DataGrip连接Hive,建立ODS业务表在hiveservice2客户端控制台报错


  • 报错信息:
FAILED: ParseExceptionline1:5cannotrecognizeinputnear'show''indexes''on'inddlstatementNoViableAltException(153@[917:1: ddlStatement : ( createDatabaseStatement|switchDatabaseStatement|dropDatabaseStatement|createTableStatement|dropTableStatement|truncateTableStatement|alterStatement|descStatement|showStatement|metastoreCheck|createViewStatement|createMaterializedViewStatement|dropViewStatement|dropMaterializedViewStatement|createFunctionStatement|createMacroStatement|dropFunctionStatement|reloadFunctionStatement|dropMacroStatement|analyzeStatement|lockStatement|unlockStatement|lockDatabase|unlockDatabase|createRoleStatement|dropRoleStatement| ( grantPrivileges )=>grantPrivileges| ( revokePrivileges )=>revokePrivileges|showGrants|showRoleGrants|showRolePrincipals|showRoles|grantRole|revokeRole|setRole|showCurrentRole|abortTransactionStatement|killQueryStatement|resourcePlanDdlStatements );])
atorg.antlr.runtime.DFA.noViableAlt(DFA.java:158)
atorg.antlr.runtime.DFA.predict(DFA.java:116)
atorg.apache.hadoop.hive.ql.parse.HiveParser.ddlStatement(HiveParser.java:4244)
atorg.apache.hadoop.hive.ql.parse.HiveParser.execStatement(HiveParser.java:2494)
atorg.apache.hadoop.hive.ql.parse.HiveParser.statement(HiveParser.java:1420)
atorg.apache.hadoop.hive.ql.parse.ParseDriver.parse(ParseDriver.java:220)
atorg.apache.hadoop.hive.ql.parse.ParseUtils.parse(ParseUtils.java:74)
atorg.apache.hadoop.hive.ql.parse.ParseUtils.parse(ParseUtils.java:67)
atorg.apache.hadoop.hive.ql.Driver.compile(Driver.java:616)
atorg.apache.hadoop.hive.ql.Driver.compileInternal(Driver.java:1826)
atorg.apache.hadoop.hive.ql.Driver.compileAndRespond(Driver.java:1773)
atorg.apache.hadoop.hive.ql.Driver.compileAndRespond(Driver.java:1768)
atorg.apache.hadoop.hive.ql.reexec.ReExecDriver.compileAndRespond(ReExecDriver.java:126)
atorg.apache.hive.service.cli.operation.SQLOperation.prepare(SQLOperation.java:197)
atorg.apache.hive.service.cli.operation.SQLOperation.runInternal(SQLOperation.java:260)
atorg.apache.hive.service.cli.operation.Operation.run(Operation.java:247)
atorg.apache.hive.service.cli.session.HiveSessionImpl.executeStatementInternal(HiveSessionImpl.java:541)
atorg.apache.hive.service.cli.session.HiveSessionImpl.executeStatementAsync(HiveSessionImpl.java:527)
atsun.reflect.GeneratedMethodAccessor37.invoke(UnknownSource)
atsun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
atjava.lang.reflect.Method.invoke(Method.java:498)
atorg.apache.hive.service.cli.session.HiveSessionProxy.invoke(HiveSessionProxy.java:78)
atorg.apache.hive.service.cli.session.HiveSessionProxy.access$000(HiveSessionProxy.java:36)
atorg.apache.hive.service.cli.session.HiveSessionProxy$1.run(HiveSessionProxy.java:63)
atjava.security.AccessController.doPrivileged(NativeMethod)
atjavax.security.auth.Subject.doAs(Subject.java:422)
atorg.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1729)
atorg.apache.hive.service.cli.session.HiveSessionProxy.invoke(HiveSessionProxy.java:59)
atcom.sun.proxy.$Proxy44.executeStatementAsync(UnknownSource)
atorg.apache.hive.service.cli.CLIService.executeStatementAsync(CLIService.java:312)
atorg.apache.hive.service.cli.thrift.ThriftCLIService.ExecuteStatement(ThriftCLIService.java:562)
atorg.apache.hive.service.rpc.thrift.TCLIService$Processor$ExecuteStatement.getResult(TCLIService.java:1557)
atorg.apache.hive.service.rpc.thrift.TCLIService$Processor$ExecuteStatement.getResult(TCLIService.java:1542)
atorg.apache.thrift.ProcessFunction.process(ProcessFunction.java:39)
atorg.apache.thrift.TBaseProcessor.process(TBaseProcessor.java:39)
atorg.apache.hive.service.auth.TSetIpAddressProcessor.process(TSetIpAddressProcessor.java:56)
atorg.apache.thrift.server.TThreadPoolServer$WorkerProcess.run(TThreadPoolServer.java:286)
atjava.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
atjava.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
atjava.lang.Thread.run(Thread.java:748)
FAILED: ParseExceptionline1:5cannotrecognizeinputnear'show''indexes''on'inddlstatement


解决方案

这个错误并不是DDL语句的错误导致的,而是DataGrip自身的原因。



参考

https://blog.csdn.net/weixin_57077623/article/details/118609219
目录
相关文章
|
2月前
|
SQL 分布式计算 DataWorks
DataWorks报错问题之集成hive数据源报错如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
|
4月前
|
SQL Java 数据库连接
java链接hive数据库实现增删改查操作
java链接hive数据库实现增删改查操作
157 0
|
5月前
|
SQL 存储 大数据
【大数据技术Hadoop+Spark】Hive基础SQL语法DDL、DML、DQL讲解及演示(附SQL语句)
【大数据技术Hadoop+Spark】Hive基础SQL语法DDL、DML、DQL讲解及演示(附SQL语句)
88 0
|
5月前
|
SQL 分布式计算 数据库
【大数据技术Spark】Spark SQL操作Dataframe、读写MySQL、Hive数据库实战(附源码)
【大数据技术Spark】Spark SQL操作Dataframe、读写MySQL、Hive数据库实战(附源码)
115 0
|
12天前
|
SQL DataWorks 网络安全
DataWorks操作报错合集之DataWorks连接Hive数据库时出现连接超时的问题如何解决
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
13 1
|
25天前
|
SQL 数据库 HIVE
Hive【基础知识 05】常用DDL操作(数据库操作+创建表+修改表+清空删除表+其他命令)
【4月更文挑战第8天】Hive【基础知识 05】常用DDL操作(数据库操作+创建表+修改表+清空删除表+其他命令)
27 0
|
2月前
|
SQL DataWorks NoSQL
DataWorks报错问题之从hive到mysql报错如何解决
DataWorks是阿里云提供的一站式大数据开发与管理平台,支持数据集成、数据开发、数据治理等功能;在本汇总中,我们梳理了DataWorks产品在使用过程中经常遇到的问题及解答,以助用户在数据处理和分析工作中提高效率,降低难度。
|
3月前
|
SQL Java Apache
Flink报错问题之flink-1.11写hive报错如何解决
Apache Flink是由Apache软件基金会开发的开源流处理框架,其核心是用Java和Scala编写的分布式流数据流引擎。本合集提供有关Apache Flink相关技术、使用技巧和最佳实践的资源。
|
3月前
|
SQL 消息中间件 Apache
Flink报错问题之使用hive udf函数报错如何解决
Apache Flink是由Apache软件基金会开发的开源流处理框架,其核心是用Java和Scala编写的分布式流数据流引擎。本合集提供有关Apache Flink相关技术、使用技巧和最佳实践的资源。
|
3月前
|
SQL 消息中间件 Java
Flink报错问题之写入Hive报错如何解决
Apache Flink是由Apache软件基金会开发的开源流处理框架,其核心是用Java和Scala编写的分布式流数据流引擎。本合集提供有关Apache Flink相关技术、使用技巧和最佳实践的资源。