DataGrip连接Hive执行DDL操作报错:「FAILED: ParseException line 1:5 cannot recognize input near 'show' 'indexes' 'on' in ddl statement」

简介: DataGrip连接Hive执行DDL操作报错:「FAILED: ParseException line 1:5 cannot recognize input near 'show' 'indexes' 'on' in ddl statement」

DataGrip连接Hive执行DDL操作报错:「FAILED: ParseException line 1:5 cannot recognize input near 'show' 'indexes' 'on' in ddl statement」


d93b307106c147e29b4eb4e0f8eae2a0.jpeg



写在前面

搭建离线数仓项目中用DataGrip连接Hive,建立ODS业务表在hiveservice2客户端控制台报错


  • 报错信息:
FAILED: ParseExceptionline1:5cannotrecognizeinputnear'show''indexes''on'inddlstatementNoViableAltException(153@[917:1: ddlStatement : ( createDatabaseStatement|switchDatabaseStatement|dropDatabaseStatement|createTableStatement|dropTableStatement|truncateTableStatement|alterStatement|descStatement|showStatement|metastoreCheck|createViewStatement|createMaterializedViewStatement|dropViewStatement|dropMaterializedViewStatement|createFunctionStatement|createMacroStatement|dropFunctionStatement|reloadFunctionStatement|dropMacroStatement|analyzeStatement|lockStatement|unlockStatement|lockDatabase|unlockDatabase|createRoleStatement|dropRoleStatement| ( grantPrivileges )=>grantPrivileges| ( revokePrivileges )=>revokePrivileges|showGrants|showRoleGrants|showRolePrincipals|showRoles|grantRole|revokeRole|setRole|showCurrentRole|abortTransactionStatement|killQueryStatement|resourcePlanDdlStatements );])
atorg.antlr.runtime.DFA.noViableAlt(DFA.java:158)
atorg.antlr.runtime.DFA.predict(DFA.java:116)
atorg.apache.hadoop.hive.ql.parse.HiveParser.ddlStatement(HiveParser.java:4244)
atorg.apache.hadoop.hive.ql.parse.HiveParser.execStatement(HiveParser.java:2494)
atorg.apache.hadoop.hive.ql.parse.HiveParser.statement(HiveParser.java:1420)
atorg.apache.hadoop.hive.ql.parse.ParseDriver.parse(ParseDriver.java:220)
atorg.apache.hadoop.hive.ql.parse.ParseUtils.parse(ParseUtils.java:74)
atorg.apache.hadoop.hive.ql.parse.ParseUtils.parse(ParseUtils.java:67)
atorg.apache.hadoop.hive.ql.Driver.compile(Driver.java:616)
atorg.apache.hadoop.hive.ql.Driver.compileInternal(Driver.java:1826)
atorg.apache.hadoop.hive.ql.Driver.compileAndRespond(Driver.java:1773)
atorg.apache.hadoop.hive.ql.Driver.compileAndRespond(Driver.java:1768)
atorg.apache.hadoop.hive.ql.reexec.ReExecDriver.compileAndRespond(ReExecDriver.java:126)
atorg.apache.hive.service.cli.operation.SQLOperation.prepare(SQLOperation.java:197)
atorg.apache.hive.service.cli.operation.SQLOperation.runInternal(SQLOperation.java:260)
atorg.apache.hive.service.cli.operation.Operation.run(Operation.java:247)
atorg.apache.hive.service.cli.session.HiveSessionImpl.executeStatementInternal(HiveSessionImpl.java:541)
atorg.apache.hive.service.cli.session.HiveSessionImpl.executeStatementAsync(HiveSessionImpl.java:527)
atsun.reflect.GeneratedMethodAccessor37.invoke(UnknownSource)
atsun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
atjava.lang.reflect.Method.invoke(Method.java:498)
atorg.apache.hive.service.cli.session.HiveSessionProxy.invoke(HiveSessionProxy.java:78)
atorg.apache.hive.service.cli.session.HiveSessionProxy.access$000(HiveSessionProxy.java:36)
atorg.apache.hive.service.cli.session.HiveSessionProxy$1.run(HiveSessionProxy.java:63)
atjava.security.AccessController.doPrivileged(NativeMethod)
atjavax.security.auth.Subject.doAs(Subject.java:422)
atorg.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1729)
atorg.apache.hive.service.cli.session.HiveSessionProxy.invoke(HiveSessionProxy.java:59)
atcom.sun.proxy.$Proxy44.executeStatementAsync(UnknownSource)
atorg.apache.hive.service.cli.CLIService.executeStatementAsync(CLIService.java:312)
atorg.apache.hive.service.cli.thrift.ThriftCLIService.ExecuteStatement(ThriftCLIService.java:562)
atorg.apache.hive.service.rpc.thrift.TCLIService$Processor$ExecuteStatement.getResult(TCLIService.java:1557)
atorg.apache.hive.service.rpc.thrift.TCLIService$Processor$ExecuteStatement.getResult(TCLIService.java:1542)
atorg.apache.thrift.ProcessFunction.process(ProcessFunction.java:39)
atorg.apache.thrift.TBaseProcessor.process(TBaseProcessor.java:39)
atorg.apache.hive.service.auth.TSetIpAddressProcessor.process(TSetIpAddressProcessor.java:56)
atorg.apache.thrift.server.TThreadPoolServer$WorkerProcess.run(TThreadPoolServer.java:286)
atjava.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
atjava.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
atjava.lang.Thread.run(Thread.java:748)
FAILED: ParseExceptionline1:5cannotrecognizeinputnear'show''indexes''on'inddlstatement


解决方案

这个错误并不是DDL语句的错误导致的,而是DataGrip自身的原因。



参考

https://blog.csdn.net/weixin_57077623/article/details/118609219
目录
相关文章
|
3月前
|
SQL DataWorks 关系型数据库
DataWorks操作报错合集之如何处理数据同步时(mysql->hive)报:Render instance failed
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
|
2月前
|
SQL 分布式计算 JavaScript
Hive的JOIN连接
Hive的JOIN连接
54 5
|
2月前
|
SQL Java 关系型数据库
Hive常见的报错信息
文章列举了Hive常见的几种报错信息,并提供了错误复现、原因分析以及相应的解决方案。
123 1
|
4月前
|
SQL 关系型数据库 MySQL
实时计算 Flink版操作报错合集之从mysql读数据写到hive报错,是什么原因
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
|
4月前
|
SQL 关系型数据库 MySQL
实时计算 Flink版产品使用问题之如何使用Flink SQL连接带有Kerberos认证的Hive
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
5月前
|
SQL 分布式计算 DataWorks
DataWorks操作报错合集之在进行Hive分区truncate操作时遇到权限不足,怎么解决
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
73 0
|
6月前
|
SQL DataWorks 网络安全
DataWorks操作报错合集之DataWorks连接Hive数据库时出现连接超时的问题如何解决
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
100 2
|
6月前
|
SQL 数据采集 数据挖掘
大数据行业应用之Hive数据分析航班线路相关的各项指标
大数据行业应用之Hive数据分析航班线路相关的各项指标
191 1
|
1月前
|
SQL 分布式计算 Java
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
大数据-96 Spark 集群 SparkSQL Scala编写SQL操作SparkSQL的数据源:JSON、CSV、JDBC、Hive
34 0
|
4月前
|
SQL 分布式计算 大数据
大数据处理平台Hive详解
【7月更文挑战第15天】Hive作为基于Hadoop的数据仓库工具,在大数据处理和分析领域发挥着重要作用。通过提供类SQL的查询语言,Hive降低了数据处理的门槛,使得具有SQL背景的开发者可以轻松地处理大规模数据。然而,Hive也存在查询延迟高、表达能力有限等缺点,需要在实际应用中根据具体场景和需求进行选择和优化。

热门文章

最新文章