pgpool-II3.1 的Unable to parse 错误

简介:
客户问: pgpool-II3.1 的log 里面,为何会有Unable to parse 的信息?

但是相关的SQL文却正确执行了的。

为了探究原因,对代码进行了分析。

首先最重要的是:pgpool-II对SQL文的分析,并没有什么特别的意义。

它对自己不能解析的SQL文,都要报这个信息。但是pgpool-II不能解析,并不代表数据库端就不能识别。

说到这里,得说一下:pgpool-II里面对log信息/debug信息的安排比较随意,不是很严谨。

 

如果我们用 PPAS版里自带的 pgpool-II, 和PPAS数据库打交道的话,就会发现:

很多从Oracle数据库移植过来的SQL文,可以被PPAS识别。却不能被pgpool-II识别。

比如:delete table ,这个在Oracle 看来是正常的。

         但是 在 pgpool-II 看来却不行,只有 delete from table 才是它所能够认识的。

无论怎么说,在正式的生产环境里,看到类似 "Unable to Parse" 之类的信息,总是令人十分烦恼的。

pgpool-II的开发者,是否根本没有意思到这一点呢。把它作为debug 而不是log信息,才是更加合理的作法。

从更大的角度来说,并不是软件一开放源代码就万事大吉了。之后还有很多细致的工作需要做。

为了解决这个问题,可以有一个办法:

再额外安装一个纯开放源代码的postgresql(相对 PPAS: Postgres Plus Advanced Server),

执行出现问题的sql文,postgresql 会报告具体的错误。

比如 :

delete 里面没有 from 

子查询的括号后面没有别名  之类。

按照postgresql 给的提示,修正sql文,再到pgpool-II上去验证,基本可以不再出现 "Unable to Parse"

 
本文转自健哥的数据花园博客园博客,原文链接:http://www.cnblogs.com/gaojian/archive/2012/08/29/2661420.html,如需转载请自行联系原作者

目录
相关文章
|
6月前
|
数据采集 SQL 数据处理
当实时消费遇到 SPL:让数据处理更高效、简单
SLS 对实时消费进行了功能升级,推出了 基于 SPL 的规则消费功能。在实时消费过程中,用户只需通过简单的 SPL 配置即可完成服务端的数据清洗和预处理操作。通过SPL消费可以将客户端复杂的业务逻辑“左移”到服务端,从而大幅降低了客户端的复杂性和计算开销。
276 57
|
7月前
|
Java 网络安全 Apache
SshClient应用指南:使用org.apache.sshd库在服务器中执行命令。
总结起来,Apache SSHD库是一个强大的工具,甚至可以用于创建你自己的SSH Server。当你需要在服务器中执行命令时,这无疑是非常有用的。希望这个指南能对你有所帮助,并祝你在使用Apache SSHD库中有一个愉快的旅程!
376 29
|
Oracle 关系型数据库 MySQL
实时计算 Flink版操作报错之使用oracle-cdc的,遇到错误:ORA-01292: no log file has been specified for the current LogMiner session,该如何处理
在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。
|
SQL Oracle 关系型数据库
Oracle数据库基础教程:从安装到基本操作的全面介绍
Oracle数据库基础教程:从安装到基本操作的全面介绍
595 10
|
开发工具 git
mac git配置 idea
mac git配置 idea
301 1
|
Java API 开发者
如何在Java中实现高效的文件读写
如何在Java中实现高效的文件读写
|
存储 Shell Linux
【Shell 命令集合 磁盘管理 】Linux 取消挂载 umount命令使用教程
【Shell 命令集合 磁盘管理 】Linux 取消挂载 umount命令使用教程
735 1
|
SQL 关系型数据库 数据库
Flink CDC产品常见问题之SQLserver cdc 开启 cdc表没有记录如何解决
Flink CDC(Change Data Capture)是一个基于Apache Flink的实时数据变更捕获库,用于实现数据库的实时同步和变更流的处理;在本汇总中,我们组织了关于Flink CDC产品在实践中用户经常提出的问题及其解答,目的是辅助用户更好地理解和应用这一技术,优化实时数据处理流程。
1082 0
|
Docker 容器
Docker login Harbor报错解决:Error response from daemon: Get https:..
Docker login Harbor报错解决:Error response from daemon: Get https:..
1689 0