开发者社区> 问答> 正文

canal1.1.0往kafka发送数据量和mysql产生的量不一致

我的kafka.yml是这样配置的: retries: 0 batchSize: 1024 lingerMs: 0 bufferMemory: 33554432

canal的批次大小,单位 k,量大建议改为1M canalBatchSize: 50 filterTransactionEntry: true

canalDestinations:

canalDestination: elample topic: elample partition: mysql用存储过程插入10000条数据,每次都只能在kafka消费到6千多条

原提问者GitHub用户mjjian0

展开
收起
Java工程师 2023-05-08 19:12:40 118 0
1 条回答
写回答
取消 提交回答
  • batchSize不能改太大,kafka消息体默认最大不能超过1M数据,所以canalBatchSize必须1M一下建议500K,batchSize可以按默认不需要修改

    原回答者GitHub用户rewerma

    2023-05-09 19:07:14
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Java Spring Boot开发实战系列课程【第16讲】:Spring Boot 2.0 实战Apache Kafka百万级高并发消息中间件与原理解析 立即下载
MaxCompute技术公开课第四季 之 如何将Kafka数据同步至MaxCompute 立即下载
消息队列kafka介绍 立即下载

相关镜像