Increasing the OpLog Size in MongoDB(don't need full resync)

本文涉及的产品
云数据库 MongoDB,独享型 2核8GB
推荐场景:
构建全方位客户视图
简介:
OpLog用于MongoDB数据库复制场合,特征:
1. 设置容量上限,
2. 循环使用
3. local数据库专用

对于MongoDB来说设置好适当的OpLog上限是非常有必要的,因为加大OpLog Size需要重启Master和Slave数据库,并且Slave数据库需要重新同步(full sync).
如果不做FULL SYNC,看看会出现什么样的情况:
MASTER:
[root@db6 data1]# /opt/mongodb-linux-x86_64-1.6.4/bin/mongo 127.0.0.1:5282/test
MongoDB shell version: 1.6.4
connecting to: 127.0.0.1:5282/test
> db.tbl_test.insert({"id":2,"name":"digoal"})      
> exit
bye

SlAVE
[root@db6 data1]# /opt/mongodb-linux-x86_64-1.6.4/bin/mongo 127.0.0.1:5283/test
MongoDB shell version: 1.6.4
connecting to: 127.0.0.1:5283/test
> db.tbl_test.find()
{ "_id" : ObjectId("4cfcbbffb405701a1a121820"), "id" : 1, "name" : "digoal.zhou" }
已经无法完成同步:
分析原因:
MASTER:
> db.printReplicationInfo()      
configured oplog size:   990MB
log length start to end: 91secs (0.03hrs)
oplog first event time:  Mon Dec 06 2010 18:38:14 GMT+0800 (CST)
oplog last event time:   Mon Dec 06 2010 18:39:45 GMT+0800 (CST)
now:                     Mon Dec 06 2010 18:39:52 GMT+0800 (CST)
> exit

SLAVE:
> db.printSlaveReplicationInfo()
source:   db6:5282
         syncedTo: Mon Dec 06 2010 18:34:41 GMT+0800 (CST)
                 = 286secs ago (0.08hrs)
> exit
bye
时间已经错过了,取不到所要的数据.
解决办法:
(首先确保MASTER SLAVE在关闭时数据是一致的,否则数据还是会有问题)
在删除OpLog后,启动MASTER前调整MASTER服务器的时间到db.printSlaveReplicationInfo()输出的时间之前(Mon Dec 06 2010 18:34:41 GMT+0800 (CST)),这样的话启动MASTER得到的db.printReplicationInfo()时间会比SLAVE需要的时间早,数据会继续同步.确认同步后再把两台服务器的时间同步一下.以正确的时间为准.(OPLOG里面是存储时间戳的,oplog.$main具体的字段如下)
ts
Timestamp for the operation. The timestamp type is an internal type used to track
when operations are performed. It is composed of a 4-byte timestamp and a 4-byte
incrementing counter.
op
Type of operation performed as a 1-byte code (e.g., “i” for an insert).
ns
Namespace (collection name) where the operation was performed.
o
Document further specifying the operation to perform. For an insert, this would
be the document to insert.


加大OpLog Size的几个原因分析:
1. Slave长时间Down机或与Master断开连接,超过OpLog轮循时间。
 如,在SLAVE节点执行
> db.printSlaveReplicationInfo();
    source:   localhost:27017
    syncedTo: Tue Mar 30 2010 16:44:01 GMT-0400 (EDT)
    = 12secs ago (0hrs)
同步截至12秒前。如果OpLog中最早的记录 比 Tue Mar 30 2010 16:44:01 GMT-0400 (EDT)  还要新的话,完蛋,需要做full sync。
2. SLAVE数据库做FULL SYNC的时间过长,超过了OpLog可以容纳的操作时间。
如: 在SLAVE数据库使用如下命令开始从master数据库full sync :  
> use admin  
> db.runCommand({resync: 1})  
或 调用--autoresync参数重启SLAVE: mongod --slave --autoresync  

例 : 增加OpLog SIZE

1. 查看Master OpLog Size
> db.printReplicationInfo();
configured oplog size: 1048.576MB
log length start to end: 7200secs (2hrs)
oplog first event time: Wed Mar 03 2010 16:20:39 GMT-0500 (EST)
oplog last event time: Wed Mar 03 2010 18:20:39 GMT-0500 (EST)
now: Wed Mar 03 2010 18:40:34 GMT-0500 (EST)

2. 关闭master mongod
$ # Stop mongod - killall mongod or kill -2 or ctrl-c) - then:
$ rm /data/db/local.*
$ mongod --oplog=8038 --master
加到8G

3. 重启slave
mongod --slave --autoresync

例 : Manually Allocating OpLog Files
MongoDB允许在数据库开启前先手工分配OpLog 文件.可能是出于文件在DISK上存储连续性的考虑吧.(猜测)
1. 生成文件 (20GB)
cd /tmp/local
for i in {0..9}
do
echo $i
head -c 2146435072 /dev/zero > local.$i
done
Note that the datafiles aren't exactly 2GB due MongoDB's max int size.

2. 关闭master mongodb

3. 移动文件 (假设$MONGODB = /data/db )
$ mv /data/db/local.* /safe/place
$ mv /tmp/local/* /data/db/
4. 重启master
$ mongod --master --oplogSize=20000
5. Finally, resync the slave. This can be done by shutting down the slave, deleting all its datafiles, and restarting it.
相关实践学习
MongoDB数据库入门
MongoDB数据库入门实验。
快速掌握 MongoDB 数据库
本课程主要讲解MongoDB数据库的基本知识,包括MongoDB数据库的安装、配置、服务的启动、数据的CRUD操作函数使用、MongoDB索引的使用(唯一索引、地理索引、过期索引、全文索引等)、MapReduce操作实现、用户管理、Java对MongoDB的操作支持(基于2.x驱动与3.x驱动的完全讲解)。 通过学习此课程,读者将具备MongoDB数据库的开发能力,并且能够使用MongoDB进行项目开发。   相关的阿里云产品:云数据库 MongoDB版 云数据库MongoDB版支持ReplicaSet和Sharding两种部署架构,具备安全审计,时间点备份等多项企业能力。在互联网、物联网、游戏、金融等领域被广泛采用。 云数据库MongoDB版(ApsaraDB for MongoDB)完全兼容MongoDB协议,基于飞天分布式系统和高可靠存储引擎,提供多节点高可用架构、弹性扩容、容灾、备份回滚、性能优化等解决方案。 产品详情: https://www.aliyun.com/product/mongodb
目录
相关文章
|
自然语言处理 算法 NoSQL
MongoDB源码解析:Full Text Search Index
框架实现 FTS本质上也是Btree索引类型 索引AccessMethod定义: class FTSAccessMethod : public BtreeBasedAccessMethod 关键成员: fts::FTSSpec _ftsSpec; 获取索引的函数入口: void
3622 0
|
3月前
|
存储 关系型数据库 MySQL
一个项目用5款数据库?MySQL、PostgreSQL、ClickHouse、MongoDB区别,适用场景
一个项目用5款数据库?MySQL、PostgreSQL、ClickHouse、MongoDB——特点、性能、扩展性、安全性、适用场景比较
|
4月前
|
存储 NoSQL 关系型数据库
非关系型数据库-MongoDB技术(二)
非关系型数据库-MongoDB技术(二)
|
4月前
|
NoSQL 关系型数据库 MongoDB
非关系型数据库-MongoDB技术(一)
非关系型数据库-MongoDB技术(一)
|
30天前
|
存储 JSON NoSQL
学习 MongoDB:打开强大的数据库技术大门
MongoDB 是一个基于分布式文件存储的文档数据库,由 C++ 编写,旨在为 Web 应用提供可扩展的高性能数据存储解决方案。它与 MySQL 类似,但使用文档结构而非表结构。核心概念包括:数据库(Database)、集合(Collection)、文档(Document)和字段(Field)。MongoDB 使用 BSON 格式存储数据,支持多种数据类型,如字符串、整数、数组等,并通过二进制编码实现高效存储和传输。BSON 文档结构类似 JSON,但更紧凑,适合网络传输。
70 15
|
1月前
|
存储 NoSQL 关系型数据库
阿里云数据库MongoDB版助力信也科技 打造互联网金融企业样板
我们的风控系统引入阿里云数据库MongoDB版后,解决了特征类字段灵活加减的问题,大大提高了开发效率,极大的提升了业务用户体验,获得了非常好的效果
阿里云数据库MongoDB版助力信也科技 打造互联网金融企业样板
|
2月前
|
NoSQL Cloud Native atlas
探索云原生数据库:MongoDB Atlas 的实践与思考
【10月更文挑战第21天】本文探讨了MongoDB Atlas的核心特性、实践应用及对云原生数据库未来的思考。MongoDB Atlas作为MongoDB的云原生版本,提供全球分布式、完全托管、弹性伸缩和安全合规等优势,支持快速部署、数据全球化、自动化运维和灵活定价。文章还讨论了云原生数据库的未来趋势,如架构灵活性、智能化运维和混合云支持,并分享了实施MongoDB Atlas的最佳实践。
|
3月前
|
NoSQL Cloud Native atlas
探索云原生数据库:MongoDB Atlas 的实践与思考
【10月更文挑战第20天】本文探讨了MongoDB Atlas的核心特性、实践应用及对未来云原生数据库的思考。MongoDB Atlas作为云原生数据库服务,具备全球分布、完全托管、弹性伸缩和安全合规等优势,支持快速部署、数据全球化、自动化运维和灵活定价。文章还讨论了实施MongoDB Atlas的最佳实践和职业心得,展望了云原生数据库的发展趋势。
|
3月前
|
存储 NoSQL MongoDB
MongoDB 数据库引用
10月更文挑战第20天
31 1
|
3月前
|
存储 NoSQL Shell
MongoDB 创建数据库
10月更文挑战第12天
142 4