开发者社区 问答 正文

canal1.1.0往kafka发送数据量和mysql产生的量不一致

我的kafka.yml是这样配置的: retries: 0 batchSize: 1024 lingerMs: 0 bufferMemory: 33554432

canal的批次大小,单位 k,量大建议改为1M canalBatchSize: 50 filterTransactionEntry: true

canalDestinations:

canalDestination: elample topic: elample partition: mysql用存储过程插入10000条数据,每次都只能在kafka消费到6千多条

原提问者GitHub用户mjjian0

展开
收起
Java工程师 2023-05-08 19:12:40 125 发布于北京 分享
分享
版权
举报
1 条回答
写回答
取消 提交回答
  • batchSize不能改太大,kafka消息体默认最大不能超过1M数据,所以canalBatchSize必须1M一下建议500K,batchSize可以按默认不需要修改

    原回答者GitHub用户rewerma

    2023-05-09 19:07:14 举报
    赞同 评论

    评论

    全部评论 (0)

    登录后可评论
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等