PostgreSQL pg_recvlogical 与 test_decoding 自定义,支持source table filter, 对接kafka,es等

本文涉及的产品
RDS PostgreSQL Serverless,0.5-4RCU 50GB 3个月
推荐场景:
对影评进行热评分析
云数据库 RDS SQL Server,基础系列 2核4GB
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
简介:

标签

PostgreSQL , pg_receivewal , pg_recvlogical


背景

pg_recvlogical 是PG提供的一个通过流复制协议,实时接收数据库逻辑变更的命令行客户端。

逻辑变更内容的来源是上游数据库的wal sender进程调用logical decode plugin处理的。

通过给decode plugin传递plugin option,可以实现参数的传递。

PostgreSQL 9.5后引入的特性,支持通过流复制协议传递option, value.

stream protocol 协议支持option上报

https://www.postgresql.org/docs/10/static/protocol-replication.html

START_REPLICATION SLOT slot_name LOGICAL XXX/XXX [ ( option_name [ option_value ] [, ...] ) ]  
Instructs server to start streaming WAL for logical replication, starting at WAL location XXX/XXX. The server can reply with an error, for example if the requested section of WAL has already been recycled. On success, server responds with a CopyBothResponse message, and then starts to stream WAL to the frontend.  
  
The messages inside the CopyBothResponse messages are of the same format documented for START_REPLICATION ... PHYSICAL.  
  
The output plugin associated with the selected slot is used to process the output for streaming.  
  
SLOT slot_name  
The name of the slot to stream changes from. This parameter is required, and must correspond to an existing logical replication slot created with CREATE_REPLICATION_SLOT in LOGICAL mode.  
  
XXX/XXX  
The WAL location to begin streaming at.  
  
option_name  
The name of an option passed to the slot's logical decoding plugin.  
  
option_value  
Optional value, in the form of a string constant, associated with the specified option.  

所以,从9.5开始,我们可以在客户端向服务端的decode plugin传递信息,例如告诉decode plugin,想同步哪些表,哪些条件等等(当然这些需要在decode plugin中有对应逻辑)。

pic

test_decode是pg内置的一个逻辑decode插件,通过修改test_decode,可以实现需要的格式输出,例如JSON。也可以实现TABLE的过滤等。

通过修改客户端pg_recvlogical 的代码,可以实现通过stream protocol上报需要过滤什么TABLE,以及写入到出标准输出、文件以外的例如kafka或者其他目标端。

pg_recvlogical

https://www.postgresql.org/docs/10/static/app-pgrecvlogical.html

-o name[=value]  
--option=name[=value]  
Pass the option name to the output plugin with, if specified, the option value value. Which options exist and their effects depends on the used output plugin.  
  
  
  
-P plugin  
--plugin=plugin  
When creating a slot, use the specified logical decoding output plugin. See Chapter 48. This option has no effect if the slot already exists.  
  
  
  
-F interval_seconds  
--fsync-interval=interval_seconds  
Specifies how often pg_recvlogical should issue fsync() calls to ensure the output file is safely flushed to disk.  
  
The server will occasionally request the client to perform a flush and report the flush position to the server. This setting is in addition to that, to perform flushes more frequently.  
  
Specifying an interval of 0 disables issuing fsync() calls altogether, while still reporting progress to the server. In this case, data could be lost in the event of a crash.  

logical 代码

https://www.postgresql.org/docs/10/static/logicaldecoding-output-plugin.html

初始化decodeing

src/backend/replication/logical/logical.c

 195 /*  
 196  * Create a new decoding context, for a new logical slot.  
 197  *  
 198  * plugin contains the name of the output plugin  
 199  * output_plugin_options contains options passed to the output plugin  
 200  * read_page, prepare_write, do_write are callbacks that have to be filled to  
 201  *      perform the use-case dependent, actual, work.  
 202  *  
 203  * Needs to be called while in a memory context that's at least as long lived  
 204  * as the decoding context because further memory contexts will be created  
 205  * inside it.  
 206  *  
 207  * Returns an initialized decoding context after calling the output plugin's  
 208  * startup function.  
 209  */  
 210 LogicalDecodingContext *  
 211 CreateInitDecodingContext(char *plugin,  
 212                           List *output_plugin_options,   // 传递参数  
 213                           bool need_full_snapshot,  
 214                           XLogPageReadCB read_page,  
 215                           LogicalOutputPluginWriterPrepareWrite prepare_write,  
 216                           LogicalOutputPluginWriterWrite do_write)  
 217 {  

test decoding

解析option参数

contrib/test_decoding/test_decoding.c

/* initialize this plugin */  
  89 static void  
  90 pg_decode_startup(LogicalDecodingContext *ctx, OutputPluginOptions *opt,  
  91                   bool is_init)  
  92 {  
  93     ListCell   *option;  
  94     TestDecodingData *data;  
  95   
  96     data = palloc0(sizeof(TestDecodingData));  
  97     data->context = AllocSetContextCreate(ctx->context,  
  98                                           "text conversion context",  
  99                                           ALLOCSET_DEFAULT_MINSIZE,  
 100                                           ALLOCSET_DEFAULT_INITSIZE,  
 101                                           ALLOCSET_DEFAULT_MAXSIZE);  
 102     data->include_xids = true;  
 103     data->include_timestamp = false;  
 104     data->skip_empty_xacts = false;  
 105     data->only_local = false;  
 106   
 107     ctx->output_plugin_private = data;  
 108   
 109     opt->output_type = OUTPUT_PLUGIN_TEXTUAL_OUTPUT;  
 110   
 111     foreach(option, ctx->output_plugin_options)  
 112     {  
 113         DefElem    *elem = lfirst(option);  
 114   
 115         Assert(elem->arg == NULL || IsA(elem->arg, String));  
 116   
 117         if (strcmp(elem->defname, "include-xids") == 0)   // 参数  
 118         {  
 119             /* if option does not provide a value, it means its value is true */  
 120             if (elem->arg == NULL)  
 121                 data->include_xids = true;  
 122             else if (!parse_bool(strVal(elem->arg), &data->include_xids))  
 123                 ereport(ERROR,  
 124                         (errcode(ERRCODE_INVALID_PARAMETER_VALUE),  
 125                   errmsg("could not parse value \"%s\" for parameter \"%s\"",  
 126                          strVal(elem->arg), elem->defname)));  
 127         }  
 128         else if (strcmp(elem->defname, "include-timestamp") == 0)  // 参数  
 129         {  
 130             if (elem->arg == NULL)  
 131                 data->include_timestamp = true;  
 132             else if (!parse_bool(strVal(elem->arg), &data->include_timestamp))  
 133                 ereport(ERROR,  
 134                         (errcode(ERRCODE_INVALID_PARAMETER_VALUE),  
 135                   errmsg("could not parse value \"%s\" for parameter \"%s\"",  
 136                          strVal(elem->arg), elem->defname)));  
 137         }  
 138         else if (strcmp(elem->defname, "force-binary") == 0)  // 参数  
 139         {  
 140             bool        force_binary;  
 141   
 142             if (elem->arg == NULL)  
 143                 continue;  
 144             else if (!parse_bool(strVal(elem->arg), &force_binary))  
 145                 ereport(ERROR,  
 146                         (errcode(ERRCODE_INVALID_PARAMETER_VALUE),  
 147                   errmsg("could not parse value \"%s\" for parameter \"%s\"",  
 148                          strVal(elem->arg), elem->defname)));  
 149   
 150             if (force_binary)  
 151                 opt->output_type = OUTPUT_PLUGIN_BINARY_OUTPUT;  
 152         }  
 153         else if (strcmp(elem->defname, "skip-empty-xacts") == 0)  // 参数  
 154         {  
 155   
 156             if (elem->arg == NULL)  
 157                 data->skip_empty_xacts = true;  
 158             else if (!parse_bool(strVal(elem->arg), &data->skip_empty_xacts))  
 159                 ereport(ERROR,  
 160                         (errcode(ERRCODE_INVALID_PARAMETER_VALUE),  
 161                   errmsg("could not parse value \"%s\" for parameter \"%s\"",  
 162                          strVal(elem->arg), elem->defname)));  
 163         }  
 164         else if (strcmp(elem->defname, "only-local") == 0)  // 参数  
 165         {  
 166   
 167             if (elem->arg == NULL)  
 168                 data->only_local = true;  
 169             else if (!parse_bool(strVal(elem->arg), &data->only_local))  
 170                 ereport(ERROR,  
 171                         (errcode(ERRCODE_INVALID_PARAMETER_VALUE),  
 172                   errmsg("could not parse value \"%s\" for parameter \"%s\"",  
 173                          strVal(elem->arg), elem->defname)));  
 174         }  
 175         else  
 176         {  
 177             ereport(ERROR,  
 178                     (errcode(ERRCODE_INVALID_PARAMETER_VALUE),  
 179                      errmsg("option \"%s\" = \"%s\" is unknown",  
 180                             elem->defname,  
 181                             elem->arg ? strVal(elem->arg) : "(null)")));  
 182         }  
 183     }  
 184 }  
 185   

参考

https://www.2ndquadrant.com/en/resources/pglogical/

https://github.com/eulerto/wal2json

函数接口

https://www.postgresql.org/docs/devel/static/functions-admin.html#FUNCTIONS-REPLICATION

https://www.postgresql.org/docs/devel/static/test-decoding.html

目录
相关文章
|
2月前
|
消息中间件 存储 分布式计算
大数据-103 Spark Streaming Kafka Offset管理详解 Scala自定义Offset
大数据-103 Spark Streaming Kafka Offset管理详解 Scala自定义Offset
103 0
|
27天前
|
消息中间件 Kafka
使用kafka consumer加载数据加载异常并且报source table and destination table are not same错误解决办法
使用kafka consumer加载数据加载异常并且报source table and destination table are not same错误解决办法
|
1月前
|
消息中间件 JSON NoSQL
从 ES Kafka Mongodb Restful ... 取到 json 之后
JSON 是一种广泛使用的数据交换格式,但其计算和处理能力有限。esProc SPL 是一款强大的开源计算引擎,能够高效解析 JSON 数据,并支持复杂的过滤、分组、连接等操作。它不仅兼容多种数据源,如 RESTful、ElasticSearch、MongoDB 和 Kafka,还提供了游标对象处理大数据流,支持与 Java 应用无缝集成,实现灵活的业务逻辑处理。
|
3月前
|
SQL 关系型数据库 数据库
PostgreSQL数据库报错 ERROR: multiple default values specified for column "" of table "" 如何解决?
PostgreSQL数据库报错 ERROR: multiple default values specified for column "" of table "" 如何解决?
380 59
|
2月前
|
消息中间件 分布式计算 算法
大数据-67 Kafka 高级特性 分区 分配策略 Ranger、RoundRobin、Sticky、自定义分区器
大数据-67 Kafka 高级特性 分区 分配策略 Ranger、RoundRobin、Sticky、自定义分区器
57 3
|
2月前
|
消息中间件 缓存 分布式计算
大数据-59 Kafka 高级特性 消息发送03-自定义拦截器、整体原理剖析
大数据-59 Kafka 高级特性 消息发送03-自定义拦截器、整体原理剖析
38 2
|
2月前
|
消息中间件 存储 Java
大数据-58 Kafka 高级特性 消息发送02-自定义序列化器、自定义分区器 Java代码实现
大数据-58 Kafka 高级特性 消息发送02-自定义序列化器、自定义分区器 Java代码实现
60 3
|
2月前
|
消息中间件 存储 分布式计算
大数据-61 Kafka 高级特性 消息消费02-主题与分区 自定义反序列化 拦截器 位移提交 位移管理 重平衡
大数据-61 Kafka 高级特性 消息消费02-主题与分区 自定义反序列化 拦截器 位移提交 位移管理 重平衡
26 1
|
2月前
|
消息中间件 Java Kafka
ELFK对接zookeeper&kafka
ELFK对接zookeeper&kafka
|
7月前
|
消息中间件 SQL Java
阿里云Flink-自定义kafka format实践及踩坑记录(以protobuf为例)
阿里云Flink-自定义kafka format实践及踩坑记录(以protobuf为例)
1386 3

热门文章

最新文章

相关产品

  • 云原生数据库 PolarDB
  • 云数据库 RDS PostgreSQL 版