暂无个人介绍
2024年04月
binlog从最初的位点开始,建议你新增大表走个单独的job。此回答来自钉群Flink CDC 社区。
由于内存不足引发了GC。此回答来自钉群Flink CDC 社区。
会的。源头增量没啥影响。主要抽历史数据,还有带宽。此回答来自钉群Flink CDC 社区。
单机的话可以选clickhouse,集群选Doris。此回答来自钉群Flink CDC 社区。
可以指定savepoint。此回答来自钉群Flink CDC 社区。
我13位的就是毫秒呀。source里面的tm——ms。source里面的ts_ms是binlog时间,外层的ts_ms的是进入flink的时间。13位就是毫秒。你多刷点数据。在MySQL的二进制日志(binlog)中,事件的时间戳默认精确到秒,而不是毫秒。这意味着事件的时间戳是以秒为单位进行记录,而没有记录毫秒级别的精度。
在MySQL 5.6及更早版本中,二进制日志记录的时间戳精度确实仅限于秒。然而,从MySQL 5.7开始,MySQL引入了新的格式,称为“microsecond precision”,它允许时间戳精确到微秒级别(即百万分之一秒)。这个新的格式在记录时间戳时提供了更高的精度。
你可以通过在MySQL配置文件中设置log_timestamps参数来控制二进制日志的时间戳格式。将log_timestamps设置为'ON'将启用微秒级精度,而设置为'OFF'将回到秒级精度。默认情况下,该参数设置为'ON',从MySQL 5.7.23开始。
无论是秒级精度还是微秒级精度,你都可以根据应用程序的需要来选择适当的精度级别。你可以看看相关资料确认下,这个是ai回答的结果。此回答来自钉群Flink CDC 社区。
单表同步可以搞。不是,单表同步,你能力强可以ds一个任务就搞定。那你就sql,一个写一个对应。此回答来自钉群Flink CDC 社区。
这个问题,我们已经拿到最新的 SP 文件,从历史记录来看,应该是这个SP有问题,大小只有历史SP的四分之一,我们重做了一次全量处理,然后重新发布 task,生成新的 sp,就没问题。但是至于为啥通过这个SP启动不报错,就不知道原因了,可能是做 SP 的时候出问题了,CDC应该没问题。此回答来自钉群Flink CDC 社区。
这种一般都是放在properties配置类里面。此回答来自钉群Flink CDC 社区。
如果主键是id的是无符号数字,这个就会序列化失败,把无符号去掉。这样解决。此回答来自钉群Flink CDC 社区。
pipeline目前不支持。此回答来自钉群Flink CDC 社区。
首先你可以确认下你的新lib是不是已经生效了,其次如果仍然不行,可以尝试回调版本,不过官方给出的版本列表都是经过测试的,所以应该不会有问题的。用 sql client,我记得要上传包到 session lib ,然后要重启集群吧?很久没试过 sql 了,不太确定了。关于这个,你可以参考每个版本的 release note,我用 MySQL 和非RDB的比较多,MSSQL没用过,看下知道了。MySQL 之前是优化过全量阶段的锁表扫描的。其他的不确定。你用2.4.2就行,另外升级下flink集群吧,太低了,1.17也支持的。此回答来自钉群Flink CDC 社区。
这个是运维平台。非要sql设置,也可以,SET 'execution.savepoint.path' = '/tmp/flink-savepoints/savepoint-cca7bc-bb1e257f0dab';看文档
https://nightlies.apache.org/flink/flink-docs-release-1.19/docs/dev/table/sqlclient/#sql-client-configuration
此回答来自钉群Flink CDC 社区。
参考
https://github.com/apache/flink-cdc/issues/709
有相关issue。此回答来自钉群Flink CDC 社区。
要么就是服务器的编码问题。要么是工程问题,有异常才会重头开始。此回答来自钉群Flink CDC 社区。
不是bug 是你多个循环把flink的执行拓扑图搞乱了;导致后续根据uid查找cp找不到嘞。此回答来自钉群Flink CDC 社区。
其他服务器上需要flink运行的环境,yarn,k8s,stanalone。可以远程提交。此回答来自钉群Flink CDC 社区。
分批次。默认8096,要是有主键没影响。不会啊,一批才8096条,不要搞太多并行度就好了。此回答来自钉群Flink CDC 社区。
在github,Apache。有啊参考
https://nightlies.apache.org/flink/flink-cdc-docs-master/zh/docs/connectors/overview/
这个新的git没了,2.3.0的还有。此回答来自钉群Flink CDC 社区。
历史数据会生效,多个条件并行执行此回答来自钉群Flink CDC 社区。