由于数据库 Blob字段太多,导致从库进行binlog不能正常进行的处理方法-阿里云开发者社区

开发者社区> 科技小能手> 正文

由于数据库 Blob字段太多,导致从库进行binlog不能正常进行的处理方法

简介:
+关注继续查看




binlog_format为row格式的时候记录的不是简单的sql,而是实际变更的行,一些大的DML操作,会导致binlog量增加很大,消耗额外的IO、网络资源


可以通过设置binlog_row_image=minimal解决


测试:

binlog_row_image默认值是full



对user表进行update



进入binlog里面查看更新记录,binlog日志将所有影响的行都进行了记录



现在将binlog_row_image=minimal



对表中的行进行相同的update操作 再来观察下binlog记录



结论:可以对比发现当binlog_row_image=minimal的时候binlog只记录了影响的那一行记录,有效减少了binlog日志量。



数据库版本:5.6.*

1.row日志image类型

参数binlog_row_image 控制着这种image类型,默认为FULL(log all columns),即记录before&after images。
该参数还有两种,minimal和noblob,minimal表示只记录after更改后的值,并且如果有主键或者非空唯一索引,则只以该字段作为where条件判断;noblob同full,只是不记录blob、text列。

2.binlog日志

对于insert则没有什么好说的,我们主要重点关注一下update和delete操作。

binlog_row_image=full的情况下,对于update和delete所有的表(包含带有主键、非空唯一索引,唯一索引,没有索引)产生的binlog均一致,binlog情况如下:

  1. --建表语句

  2. CREATE TABLE `pk_test`(

  3. `id` bigint(20) NOT NULL,

  4. `username` varchar(30) NOT NULL,

  5. PRIMARY KEY (`id`)

  6. ) ENGINE=InnoDB DEFAULT CHARSET=utf8;

  7. insert into pk_test values (1,2);

  8. insert into pk_test values (2,2);

  9. commit;

  10. show master statusG;--记录binlog文件和pos

  11. deletefrom pk_test where id =1;

  12. update pk_test set username='3';

  13. commit

  14. mysqlbinlog --no-defaults ---start-position=637945822/mysqllog/3307/binlog/mysql-bin.000001| more

  15. ### DELETE FROM `baofeng`.`pk_test`

  16. ### WHERE

  17. ### @1=1

  18. ### @2='2'

  19. .....

  20. ### UPDATE `baofeng`.`pk_test`

  21. ### WHERE

  22. ### @1=2

  23. ### @2='2'

  24. ### SET

  25. ### @1=2

  26. ### @2='3'

从上面我们可以看到,在默认为FULL的binlog_row_image下,无论表有没有主键、唯一索引,全部按照全表字段作为条件,且update会更新全部字段。

binlog_row_image=minimal的情况下:

  1. --建表语句

  2. CREATE TABLE `ui_test`(

  3. `id` bigint(20) NOT NULL,

  4. `username` varchar(30) NOT NULL,

  5. UNIQUE (`id`)

  6. ) ENGINE=InnoDB DEFAULT CHARSET=utf8;

  7. CREATE TABLE `ui_test_null`(

  8. `id` bigint(20),

  9. `username` varchar(30) NOT NULL,

  10. UNIQUE key (`id`)

  11. ) ENGINE=InnoDB DEFAULT CHARSET=utf8;

  12. CREATE TABLE `null_test`(

  13. `id` bigint(20),

  14. `username` varchar(30) NOT NULL

  15. ) ENGINE=InnoDB DEFAULT CHARSET=utf8;

  16. insert into pk_test values (1,2);

  17. insert into ui_test values (1,2);

  18. insert into ui_test_null values (1,2);

  19. insert into null_test values (1,2);

  20. commit;

  21. update pk_test set username='4';

  22. deletefrom pk_test;

  23. deletefrom ui_test;

  24. deletefrom ui_test_null;

  25. update null_test set username='4';

  26. deletefrom null_test;

  27. ### UPDATE `baofeng`.`pk_test`

  28. ### WHERE

  29. ### @1=1

  30. ### SET

  31. ### @2='4'

  32. ....

  33. ### DELETE FROM `baofeng`.`pk_test`

  34. ### WHERE

  35. ### @1=1

  36. .....

  37. ### DELETE FROM `baofeng`.`ui_test`

  38. ### WHERE

  39. ### @1=1

  40. .....

  41. ### DELETE FROM `baofeng`.`ui_test_null`

  42. ### WHERE

  43. ### @1=1

  44. ### @2='2'

  45. .....

  46. ### UPDATE `baofeng`.`null_test`

  47. ### WHERE

  48. ### @1=1

  49. ### @2='2'

  50. ### SET

  51. ### @2='4'

  52. .....

  53. ### DELETE FROM `baofeng`.`null_test`

  54. ### WHERE

  55. ### @1=1

  56. ### @2='2'

从上面的例子可以看到,当binlog_row_image=minimal的情况下,where条件只有主键或不为空的唯一索引,且只会更新被改变的字段。

3.总结:

在上面的测试我们可以看到,如果采用minimal格式,将减少主键和非空唯一索引表的before值,以及减少所有表update的after未被改变的值。
从效率上来说,减少了网络传输以及加快了update的效率。

参考资料:
https://dev.mysql.com/doc/refman/5.6/en/replication-options-binary-log.html#sysvar_binlog_row_image



本文转自 holy2009 51CTO博客,原文链接:http://blog.51cto.com/holy2010/1967909

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

相关文章
EDA:最简单的自然语言处理数据增广方法
数据增广常用于计算机视觉。
185 0
免费享受同城双可用区高可用容错能力!阿里云云数据库RDS新增可用区6月汇总(内含福利)
6月份,阿里云云数据库 MySQL 版,云数据库 PPAS 版,云数据库 SQL Server 版,云数据库 PostgreSQL 版均宣布新增可用区,用户在控制台上按需求创建实例,即可享受同城双可用区高可用容错能力。接下来小编将为大家详细列出新增可用区。
2615 0
DTCC 2019 | NoSQL数据库最新发展趋势 如何拥有居家必备的企业级能力?
摘要:企业IT系统面临层出不穷的新业务,安全,成本等诸多挑战。阿里云NoSQL数据库通过与企业业务深度结合,快速创新,提供最新的技术帮助企业用户迎接挑战,获得金融、社交、直播等众多大客户的信任。本文中,阿里云智能数据库产品事业部高级产品专家朱洁为大家介绍阿里云NoSQL数据库在众多最新领域的创新和技术实践。
3068 0
用lucene实现在一个(或者多个)字段中查找多个关键字
  最近跟着师兄们做个项目,我的任务就是负责做个“全文检索”的小模块。用到了Lucene的索引,下面的是其中的用Lucene实现在索引的一个字段(比如文章内容字段)进行查找多个关键字的实例代码。   1.Lucene说明   Lucene是非常优秀的成熟的开源的免费的纯java语言的全文索引检索工具包。
1078 0
从 0 到 1 通过 Flink + Tablestore 进行大数据处理与分析
阿里云实时计算Flink版是一套基于 Apache Flink 构建的⼀站式实时大数据分析平台。在大数据场景下,实时计算 Flink 可提供端到端亚秒级实时数据流批处理能力。表格存储 Tablestore (又名 OTS)是阿里云自研的多模型结构化数据存储,可提供海量结构化数据的存储、查询分析服务。表格存储的双引擎架构支持千万TPS和毫秒级延迟的服务能力,可作为大数据计算的极佳上下游存储。
338 0
ACCESS数据宏创建与应用及调出USysApplicationLog表
    ACCES中支持两种数据宏:事件驱动的数据宏和已命名的数据宏。事件驱动 的数据宏与表中数据的添加 、更新或删除等事件相关联,即当在表中添加 、更新或删除数据时这些宏会执行。
833 0
23706
文章
0
问答
文章排行榜
最热
最新
相关电子书
更多
《2021云上架构与运维峰会演讲合集》
立即下载
《零基础CSS入门教程》
立即下载
《零基础HTML入门教程》
立即下载