Increasing the OpLog Size in MongoDB(don't need full resync)

本文涉及的产品
云数据库 MongoDB,独享型 2核8GB
推荐场景:
构建全方位客户视图
简介:
OpLog用于MongoDB数据库复制场合,特征:
1. 设置容量上限,
2. 循环使用
3. local数据库专用

对于MongoDB来说设置好适当的OpLog上限是非常有必要的,因为加大OpLog Size需要重启Master和Slave数据库,并且Slave数据库需要重新同步(full sync).
如果不做FULL SYNC,看看会出现什么样的情况:
MASTER:
[root@db6 data1]# /opt/mongodb-linux-x86_64-1.6.4/bin/mongo 127.0.0.1:5282/test
MongoDB shell version: 1.6.4
connecting to: 127.0.0.1:5282/test
> db.tbl_test.insert({"id":2,"name":"digoal"})      
> exit
bye

SlAVE
[root@db6 data1]# /opt/mongodb-linux-x86_64-1.6.4/bin/mongo 127.0.0.1:5283/test
MongoDB shell version: 1.6.4
connecting to: 127.0.0.1:5283/test
> db.tbl_test.find()
{ "_id" : ObjectId("4cfcbbffb405701a1a121820"), "id" : 1, "name" : "digoal.zhou" }
已经无法完成同步:
分析原因:
MASTER:
> db.printReplicationInfo()      
configured oplog size:   990MB
log length start to end: 91secs (0.03hrs)
oplog first event time:  Mon Dec 06 2010 18:38:14 GMT+0800 (CST)
oplog last event time:   Mon Dec 06 2010 18:39:45 GMT+0800 (CST)
now:                     Mon Dec 06 2010 18:39:52 GMT+0800 (CST)
> exit

SLAVE:
> db.printSlaveReplicationInfo()
source:   db6:5282
         syncedTo: Mon Dec 06 2010 18:34:41 GMT+0800 (CST)
                 = 286secs ago (0.08hrs)
> exit
bye
时间已经错过了,取不到所要的数据.
解决办法:
(首先确保MASTER SLAVE在关闭时数据是一致的,否则数据还是会有问题)
在删除OpLog后,启动MASTER前调整MASTER服务器的时间到db.printSlaveReplicationInfo()输出的时间之前(Mon Dec 06 2010 18:34:41 GMT+0800 (CST)),这样的话启动MASTER得到的db.printReplicationInfo()时间会比SLAVE需要的时间早,数据会继续同步.确认同步后再把两台服务器的时间同步一下.以正确的时间为准.(OPLOG里面是存储时间戳的,oplog.$main具体的字段如下)
ts
Timestamp for the operation. The timestamp type is an internal type used to track
when operations are performed. It is composed of a 4-byte timestamp and a 4-byte
incrementing counter.
op
Type of operation performed as a 1-byte code (e.g., “i” for an insert).
ns
Namespace (collection name) where the operation was performed.
o
Document further specifying the operation to perform. For an insert, this would
be the document to insert.


加大OpLog Size的几个原因分析:
1. Slave长时间Down机或与Master断开连接,超过OpLog轮循时间。
 如,在SLAVE节点执行
> db.printSlaveReplicationInfo();
    source:   localhost:27017
    syncedTo: Tue Mar 30 2010 16:44:01 GMT-0400 (EDT)
    = 12secs ago (0hrs)
同步截至12秒前。如果OpLog中最早的记录 比 Tue Mar 30 2010 16:44:01 GMT-0400 (EDT)  还要新的话,完蛋,需要做full sync。
2. SLAVE数据库做FULL SYNC的时间过长,超过了OpLog可以容纳的操作时间。
如: 在SLAVE数据库使用如下命令开始从master数据库full sync :  
> use admin  
> db.runCommand({resync: 1})  
或 调用--autoresync参数重启SLAVE: mongod --slave --autoresync  

例 : 增加OpLog SIZE

1. 查看Master OpLog Size
> db.printReplicationInfo();
configured oplog size: 1048.576MB
log length start to end: 7200secs (2hrs)
oplog first event time: Wed Mar 03 2010 16:20:39 GMT-0500 (EST)
oplog last event time: Wed Mar 03 2010 18:20:39 GMT-0500 (EST)
now: Wed Mar 03 2010 18:40:34 GMT-0500 (EST)

2. 关闭master mongod
$ # Stop mongod - killall mongod or kill -2 or ctrl-c) - then:
$ rm /data/db/local.*
$ mongod --oplog=8038 --master
加到8G

3. 重启slave
mongod --slave --autoresync

例 : Manually Allocating OpLog Files
MongoDB允许在数据库开启前先手工分配OpLog 文件.可能是出于文件在DISK上存储连续性的考虑吧.(猜测)
1. 生成文件 (20GB)
cd /tmp/local
for i in {0..9}
do
echo $i
head -c 2146435072 /dev/zero > local.$i
done
Note that the datafiles aren't exactly 2GB due MongoDB's max int size.

2. 关闭master mongodb

3. 移动文件 (假设$MONGODB = /data/db )
$ mv /data/db/local.* /safe/place
$ mv /tmp/local/* /data/db/
4. 重启master
$ mongod --master --oplogSize=20000
5. Finally, resync the slave. This can be done by shutting down the slave, deleting all its datafiles, and restarting it.
目录
相关文章
|
自然语言处理 算法 NoSQL
MongoDB源码解析:Full Text Search Index
框架实现 FTS本质上也是Btree索引类型 索引AccessMethod定义: class FTSAccessMethod : public BtreeBasedAccessMethod 关键成员: fts::FTSSpec _ftsSpec; 获取索引的函数入口: void
3678 0
|
3月前
|
NoSQL MongoDB 数据库
数据库数据恢复—MongoDB数据库数据恢复案例
MongoDB数据库数据恢复环境: 一台操作系统为Windows Server的虚拟机上部署MongoDB数据库。 MongoDB数据库故障: 工作人员在MongoDB服务仍然开启的情况下将MongoDB数据库文件拷贝到其他分区,数据复制完成后将MongoDB数据库原先所在的分区进行了格式化操作。 结果发现拷贝过去的数据无法使用。管理员又将数据拷贝回原始分区,MongoDB服务仍然无法使用,报错“Windows无法启动MongoDB服务(位于 本地计算机 上)错误1067:进程意外终止。”
|
3月前
|
缓存 NoSQL Linux
在CentOS 7系统中彻底移除MongoDB数据库的步骤
以上步骤完成后,MongoDB应该会从您的CentOS 7系统中被彻底移除。在执行上述操作前,请确保已经备份好所有重要数据以防丢失。这些步骤操作需要一些基本的Linux系统管理知识,若您对某一步骤不是非常清楚,请先进行必要的学习或咨询专业人士。在执行系统级操作时,推荐在实施前创建系统快照或备份,以便在出现问题时能够恢复到原先的状态。
277 79
|
3月前
|
存储 NoSQL MongoDB
MongoDB数据库详解-针对大型分布式项目采用的原因以及基础原理和发展-卓伊凡|贝贝|莉莉
MongoDB数据库详解-针对大型分布式项目采用的原因以及基础原理和发展-卓伊凡|贝贝|莉莉
176 8
MongoDB数据库详解-针对大型分布式项目采用的原因以及基础原理和发展-卓伊凡|贝贝|莉莉
|
2月前
|
运维 NoSQL 容灾
告别运维噩梦:手把手教你将自建 MongoDB 平滑迁移至云数据库
程序员为何逃离自建MongoDB?扩容困难、运维复杂、高可用性差成痛点。阿里云MongoDB提供分钟级扩容、自动诊断与高可用保障,助力企业高效运维、降本增效,实现数据库“无感运维”。
|
6月前
|
NoSQL MongoDB 数据库
数据库数据恢复——MongoDB数据库服务无法启动的数据恢复案例
MongoDB数据库数据恢复环境: 一台Windows Server操作系统虚拟机上部署MongoDB数据库。 MongoDB数据库故障: 管理员在未关闭MongoDB服务的情况下拷贝数据库文件。将MongoDB数据库文件拷贝到其他分区后,对MongoDB数据库所在原分区进行了格式化操作。格式化完成后将数据库文件拷回原分区,并重新启动MongoDB服务。发现服务无法启动并报错。
|
7月前
|
存储 NoSQL MongoDB
微服务——MongoDB常用命令1——数据库操作
本节介绍了 MongoDB 中数据库的选择、创建与删除操作。使用 `use 数据库名称` 可选择或创建数据库,若数据库不存在则自动创建。通过 `show dbs` 或 `show databases` 查看所有可访问的数据库,用 `db` 命令查看当前数据库。注意,集合仅在插入数据后才会真正创建。数据库命名需遵循 UTF-8 格式,避免特殊字符,长度不超过 64 字节,且部分名称如 `admin`、`local` 和 `config` 为系统保留。删除数据库可通过 `db.dropDatabase()` 实现,主要用于移除已持久化的数据库。
439 0
|
7月前
|
存储 NoSQL MongoDB
从 MongoDB 到 时序数据库 TDengine,沃太能源实现 18 倍写入性能提升
沃太能源是国内领先储能设备生产厂商,数十万储能终端遍布世界各地。此前使用 MongoDB 存储时序数据,但随着设备测点增加,MongoDB 在存储效率、写入性能、查询性能等方面暴露出短板。经过对比,沃太能源选择了专业时序数据库 TDengine,生产效能显著提升:整体上,数据压缩率超 10 倍、写入性能提升 18 倍,查询在特定场景上也实现了数倍的提升。同时减少了技术架构复杂度,实现了零代码数据接入。本文将对 TDengine 在沃太能源的应用情况进行详解。
324 0
|
8月前
|
存储 NoSQL MongoDB
数据库数据恢复—MongoDB数据库迁移过程中丢失文件的数据恢复案例
某单位一台MongoDB数据库由于业务需求进行了数据迁移,数据库迁移后提示:“Windows无法启动MongoDB服务(位于 本地计算机 上)错误1067:进程意外终止。”
|
10月前
|
存储 JSON NoSQL
学习 MongoDB:打开强大的数据库技术大门
MongoDB 是一个基于分布式文件存储的文档数据库,由 C++ 编写,旨在为 Web 应用提供可扩展的高性能数据存储解决方案。它与 MySQL 类似,但使用文档结构而非表结构。核心概念包括:数据库(Database)、集合(Collection)、文档(Document)和字段(Field)。MongoDB 使用 BSON 格式存储数据,支持多种数据类型,如字符串、整数、数组等,并通过二进制编码实现高效存储和传输。BSON 文档结构类似 JSON,但更紧凑,适合网络传输。
261 15