mongodb 2.4 不同server节点的replica set 搭建过程(二)

本文涉及的产品
云数据库 MongoDB,通用型 2核4GB
云数据库 MongoDB,独享型 2核8GB
推荐场景:
构建全方位客户视图
日志服务 SLS,月写入数据量 50GB 1个月
简介:

上篇文章已经详细的介绍了replica set的搭建过程,这篇文章主要对故障的自动切换、节点的增、删、改进行介绍

http://1413570.blog.51cto.com/1403570/1337619 mongodb 的replica set的搭建过程

模拟示列一:


res1:PRIMARY> rs.conf();


{


       "_id" : "res1",


       "version" : 1,


       "members" : [


               {


                       "_id" : 0,


                       "host" : "192.168.1.248:27017",


                       "priority" : 2


               },


               {


                       "_id" : 1,


                       "host" : "192.168.1.247:27018",


                       "priority" : 0


               },


               {


                       "_id" : 2,


                       "host" : "192.168.1.250:27019"


               }


       ]


}


看出,primary host192.168.1.248,因为priority 属性大,其次是 host192.168.1.250,当host 192.168.1.248宕机时,就有host 192.168.1.250 作为primary ,主库


假设 host 192.168.1.248 停掉mongodb主进程


ps -ef | grep mongodb


kill 8665


尽量不要使用kill -9 这个可能会导致mongo数据文件的损坏


OK,现在其他两台server的日志已经提示


Fri Dec  6 16:36:10.522 [rsHealthPoll] couldn't connect to 192.168.1.248:27017: couldn't connect to server 192.168.1.248:27017


之后有host 192.168.20.250 来作为primary


Fri Dec  6 16:36:40.707 [conn248] end connection 192.168.1.250:46500 (1 connection now open)


Fri Dec  6 16:36:40.708 [initandlisten] connection accepted from 192.168.1.250:46592 #249 (2 connections now open)


Fri Dec  6 16:36:40.710 [conn249]  authenticate db: local { authenticate: 1, nonce: "f70f5a8aea558178", user: "__system", key: "19fb73382ae940816c685b2561b0a76e" }


现在通过mongodbshell ,登录


[root@anenjoy ~]# /usr/local/mongodb/bin/mongo --port 27019


MongoDB shell version: 2.4.8


connecting to: 127.0.0.1:27019/test


res1:PRIMARY>


就会显示primary


之后通过rs.ststus();


res1:PRIMARY> rs.status();


{


       "set" : "res1",


       "date" : ISODate("2013-12-06T08:44:01Z"),


       "myState" : 1,


       "members" : [


               {


                       "_id" : 0,


                       "name" : "192.168.1.248:27017",


                       "health" : 0,


                       "state" : 8,


                       "stateStr" : "(not reachable/healthy)",


                       "uptime" : 0,


                       "optime" : Timestamp(1386118280, 1),


                       "optimeDate" : ISODate("2013-12-04T00:51:20Z"),


                       "lastHeartbeat" : ISODate("2013-12-06T08:44:00Z"),


                       "lastHeartbeatRecv" : ISODate("2013-12-06T08:41:32Z"),


                       "pingMs" : 0


               },


               {


                       "_id" : 1,


                       "name" : "192.168.1.247:27018",


                       "health" : 1,


                       "state" : 2,


                       "stateStr" : "SECONDARY",


                       "uptime" : 3790,


                       "optime" : Timestamp(1386118280, 1),


                       "optimeDate" : ISODate("2013-12-04T00:51:20Z"),


                       "lastHeartbeat" : ISODate("2013-12-06T08:44:00Z"),


                       "lastHeartbeatRecv" : ISODate("2013-12-06T08:44:01Z"),


                       "pingMs" : 0,


                       "syncingTo" : "192.168.1.250:27019"


               },


               {


                       "_id" : 2,


                       "name" : "192.168.1.250:27019",


                       "health" : 1,


                       "state" : 1,


                       "stateStr" : "PRIMARY",


                       "uptime" : 4958,


                       "optime" : Timestamp(1386118280, 1),


                       "optimeDate" : ISODate("2013-12-04T00:51:20Z"),


                       "self" : true


               }


       ],


       "ok" : 1


}


res1:PRIMARY>


可以看到name 192.168.1.248 这台server的不正常,另外两台的LOG也是在不断的输出无法连接到host 192.168.1.248 27017这个端口,


当你host 192.168.1.248 mongodb进程重新运行起来之后,就会自动切换为primary


Fri Dec  6 16:48:35.325 [conn246] SocketException handling request, closing client connection: 9001 socket exception [SEND_ERROR] server [192.168.1.247:27047]


Fri Dec  6 16:48:35.388 [rsHealthPoll] replSet member 192.168.1.248:27017 is now in state PRIMARY


[root@test02 bin]# /usr/local/mongodb/bin/mongo --port 27017


MongoDB shell version: 2.4.8


connecting to: 127.0.0.1:27017/test


res1:PRIMARY>


而如果你host 192.168.1.248宕机时,host 192.168.1.250 担当primary,进行写数据


db.appstore.save({'e_name':'xiaowang','e_id':1103,'class_id':2});


res1:PRIMARY> db.appstore.find();db.appstore.find();


{ "_id" : ObjectId("529e7c88d4d317e4bd3eece9"), "e_name" : "frank", "e_id" : 1101, "class_id" : 1 }


{ "_id" : ObjectId("52a18f3bd36b29b9c78be267"), "e_name" : "xiaowang", "e_id" : 1103, "class_id" : 2 }


之后当host 192.168.1.248 担当primary时,新增加的数据也会进行同步的,类似mysqlmaster-slave 同步



示列二:replica set 节点的增、删、改操作


现在呢,假设我primary host 192.168.1.248 宕机了,想把这个节点给删掉


ps -aux | grep mongodb ,然后kill掉进程


现在 host 192.168.20.250 已经被置为primary


[root@anenjoy ~]# /usr/local/mongodb/bin/mongo --port 27019


MongoDB shell version: 2.4.8


connecting to: 127.0.0.1:27019/test


res1:PRIMARY>


通过rs.conf()查看节点配置


res1:PRIMARY> rs.conf();


{


       "_id" : "res1",


       "version" : 1,


       "members" : [


               {


                       "_id" : 0,


                       "host" : "192.168.1.248:27017",


                       "priority" : 2


               },


               {


                       "_id" : 1,


                       "host" : "192.168.1.247:27018",


                       "priority" : 0


               },


               {


                       "_id" : 2,


                       "host" : "192.168.1.250:27019"


               }


       ]


res1:PRIMARY> rs.remove('192.168.1.248:27017');


Fri Dec  6 16:59:01.480 DBClientCursor::init call() failed


Fri Dec  6 16:59:01.482 Error: error doing query: failed at src/mongo/shell/query.js:78


Fri Dec  6 16:59:01.482 trying reconnect to 127.0.0.1:27019


Fri Dec  6 16:59:01.482 reconnect 127.0.0.1:27019 ok


再次查看,ok 节点已经被删除掉了


res1:PRIMARY> rs.conf();


{


       "_id" : "res1",


       "version" : 2,


       "members" : [


               {


                       "_id" : 1,


                       "host" : "192.168.1.247:27018",


                       "priority" : 0


               },


               {


                       "_id" : 2,


                       "host" : "192.168.1.250:27019"


               }


       ]


}


LOG日志中也就不会有:[rsHealthPoll] couldn't connect to 192.168.1.248:27017: couldn't connect to server 192.168.1.248:27017 日志的输出



增加节点:


通过oplog直接进行增加节点操作简单且不需要人过多的参与,但oplogcapped collection,会循环使用的,所以如果只是简单的使用oplog来进行增加节点,有可能导致数据的不一致,因为日志中存储的信息有可能已经刷新过了。


可以通过使用数据库快照(--fastsync)和oplog结合的方式来增加节点,一般的操作步骤是:


先取某一个复制集成员的物理文件作为初始化数据,然后剩余的部分用oplog日志来追加,从而最终达到数据一致性


最新准备的步骤都是一样的:


DB存储的目录,key文件、权限的600


第一步:配置存储路径,--dbpath的参数


均放在/data/mon_db下,目录权限赋予mongodb用户


mkdir -p /data/mon_db


chown -R mongodb:mongodb /data/mon_db/


创建日志文件,--logpath的参数,位置自己定义


就放在mkdir -p /usr/local/mongodb/log


touch /usr/local/mongodb/log/mongodb.log


chown -R mongodb:mongodb /usr/local/mongodb/


第二步:创建主从的key文件,用于标识集群的私钥的完整路径,如果各个实例的key file内容不一致,程序将不能正常用


[root@test02 ~]# mkdir -p /data/mon_db/key


[root@test02 ~]# echo "this is res key" > /data/mon_db/key/res1


Chmod +R 600 /data/mon_db/key/res1 权限赋予600,否则会提示error message


Wed Dec  4 06:22:36.413 permissions on /data/mon_db/key/res1 are too open


更改不同的名字就好了


假设说同步host 192.168.1.247的物理文件吧


Scp -r /data/mongodb/res2/  root@ip:/data/mon_db/res4


之后呢,可以在primary插入新数据(验证使用)


启动mongodb


/usr/local/mongodb/bin/mongod --port 27020  --replSet res1  --keyFile /data/mon_db/key/res4 --oplogSize 100  --dbpath=/data/mon_db/res4/ --logpath=/usr/local/mongodb/log/mongodb.log --logappend   --fastsync --fork


之后


primary上执行添加节点:


Rs.add(192.168.1.x:27020)


之后在新添加的节点上,登录到mongodb,获取读的权限,查看数据是不是同步成功


节点的更改

何为节点的更改,其实不外乎对节点host、port、priority进行更改,这边文章简单的描述下如何进行更改

目前我的replica set 有三个节点

/usr/local/mongodb/bin/mongo --port 27019

rs.status();

{

       "set" : "res1",

       "date" : ISODate("2013-12-06T11:56:42Z"),

       "myState" : 1,

       "members" : [

               {

                       "_id" : 1,

                       "name" : "192.168.1.247:27018",

                       "health" : 1,

                       "state" : 2,

                       "stateStr" : "SECONDARY",

                       "uptime" : 10661,

                       "optime" : Timestamp(1386330980, 1),

                       "optimeDate" : ISODate("2013-12-06T11:56:20Z"),

                       "lastHeartbeat" : ISODate("2013-12-06T11:56:42Z"),

                       "lastHeartbeatRecv" : ISODate("2013-12-06T11:56:40Z"),

                       "pingMs" : 0,

                       "syncingTo" : "192.168.1.250:27019"

               },

               {

                       "_id" : 2,

                       "name" : "192.168.1.250:27019",

                       "health" : 1,

                       "state" : 1,

                       "stateStr" : "PRIMARY",

                       "uptime" : 16519,

                       "optime" : Timestamp(1386330980, 1),

                       "optimeDate" : ISODate("2013-12-06T11:56:20Z"),

                       "self" : true

               },

               {

                       "_id" : 3,

                       "name" : "192.168.1.248:27017",

                       "health" : 1,

                       "state" : 2,

                       "stateStr" : "SECONDARY",

                       "uptime" : 22,

                       "optime" : Timestamp(1386330980, 1),

                       "optimeDate" : ISODate("2013-12-06T11:56:20Z"),

                       "lastHeartbeat" : ISODate("2013-12-06T11:56:42Z"),

                       "lastHeartbeatRecv" : ISODate("2013-12-06T11:56:41Z"),

                       "pingMs" : 0,

                       "lastHeartbeatMessage" : "syncing to: 192.168.1.250:27019",

                       "syncingTo" : "192.168.1.250:27019"

               }

       ],

       "ok" : 1

}

我想更改节点直接的优先级,现在host 192.168.1.250 是primary ,priority为2 ,我想让host:192.168.1.248 作为primary,只要它的priority 为3 大于2 即可

res1:PRIMARY> cfg=rs.conf();

{

       "_id" : "res1",

       "version" : 3,

       "members" : [

               {

                       "_id" : 1,

                       "host" : "192.168.1.247:27018",

                       "priority" : 0

               },

               {

                       "_id" : 2,

                       "host" : "192.168.1.250:27019"

               },

               {

                       "_id" : 3,

                       "host" : "192.168.1.248:27017"

               }

       ]

}

res1:PRIMARY>cfg.members[2].priority=3;

res1:PRIMARY> rs.reconfig(cfg);rs.reconfig() 类似重新初始化

Fri Dec  6 20:00:29.788 DBClientCursor::init call() failed

Fri Dec  6 20:00:29.792 trying reconnect to 127.0.0.1:27019

Fri Dec  6 20:00:29.793 reconnect 127.0.0.1:27019 ok

reconnected to server after rs command (which is normal)

多敲两次回车,就会发现之前是primary,就变成了secondary,而你的host 192.168.1.248 就变成了primary









      本文转自天真花语  51CTO博客,原文链接:http://blog.51cto.com/caibird/1337622,如需转载请自行联系原作者

相关实践学习
MongoDB数据库入门
MongoDB数据库入门实验。
快速掌握 MongoDB 数据库
本课程主要讲解MongoDB数据库的基本知识,包括MongoDB数据库的安装、配置、服务的启动、数据的CRUD操作函数使用、MongoDB索引的使用(唯一索引、地理索引、过期索引、全文索引等)、MapReduce操作实现、用户管理、Java对MongoDB的操作支持(基于2.x驱动与3.x驱动的完全讲解)。 通过学习此课程,读者将具备MongoDB数据库的开发能力,并且能够使用MongoDB进行项目开发。   相关的阿里云产品:云数据库 MongoDB版 云数据库MongoDB版支持ReplicaSet和Sharding两种部署架构,具备安全审计,时间点备份等多项企业能力。在互联网、物联网、游戏、金融等领域被广泛采用。 云数据库MongoDB版(ApsaraDB for MongoDB)完全兼容MongoDB协议,基于飞天分布式系统和高可靠存储引擎,提供多节点高可用架构、弹性扩容、容灾、备份回滚、性能优化等解决方案。 产品详情: https://www.aliyun.com/product/mongodb
相关文章
|
存储 NoSQL Linux
玩转MongoDB—搭建MongoDB集群
如题,本次玩转MongoDB我们从搭建集群开始,话说MongoDB一共有三种搭建集群的方式,但是由于版本更新,据说在4.0版本之后第一种方式,也就是主从复制的方式被遗弃掉了,大概是因为这种方式的效率不高吧,因为目前我们使用的是5.x版本,因此就不花时间讲解第一种方式了,在其他的文章上摘录了一下,可供大家参考。重点还是要放在后两种。
611 0
玩转MongoDB—搭建MongoDB集群
|
10月前
|
数据库
MongoDB-复制集投票节点
?> 投票节点就是不保存任何数据, 只参与投票的节点
55 0
|
6月前
|
NoSQL MongoDB 数据库
数据库数据恢复—Windows server环境下MongoDB数据库数据恢复案例
MongoDB数据库数据恢复环境: 一台Windows Server操作系统的虚拟机,虚拟机上部署有MongoDB数据库。 MongoDB数据库故障&检测: 在未关闭MongoDB服务的情况下,工作人员将MongoDB数据库文件拷贝到其他分区,然后将原数据库文件所在分区进行了格式化的操作,格式化完成后将数据库文件拷回原分区,重新启动MongoDB服务,发现MongoDB服务无法启动并报错。
数据库数据恢复—Windows server环境下MongoDB数据库数据恢复案例
|
11月前
|
存储 NoSQL MongoDB
mongodb搭建Replica Set
mongodb搭建Replica Set 简单高效
190 0
|
缓存 NoSQL 安全
mongodb复制集windows server部署,以及将线上单节点转化成复制集所踩的坑
安装完成后我们需要启动三个mongod的服务来做为复制集的三个节点,我们可以直接打开cmd,使用mongod来根据不同的配置启动服务。例如:参考如下四张图,由于我安装的磁盘足够存放mongodb的数据,所以我将数据放在data文件中,三个节点的配置文件放在config文件中,三个节点mongod的服务日志放在log中。
199 0
mongodb复制集windows server部署,以及将线上单节点转化成复制集所踩的坑
|
NoSQL Shell MongoDB
mongodb复制集节点替换实践
注意:大家首先要明白你的需求是什么,然后对照做一些处理,下面是我的一些替换经验。 #### 需求 这是我原来挂载节点时的配置 ```bash config = { "_id" : "rs0", "members": [ { "_id" : 0, "host" : "127.0.0.1:27017" }, { "_id" : 1, "host" : "127.0.0.1:27018" }, { "_id" : 2, "host" : "127.0.0.1:27019" } ] } ``` 现在我需要将节点替换成下面
190 0
mongodb复制集节点替换实践
|
存储 运维 监控
ELK搭建(十一):搭建MongoDB运行情况监控平台
mongoDB作为基于磁盘的非关系型数据库,JSON格式数据存储方式,具有优秀的查询效率。越来越多的场景使用到了MongoDB。在生产运维中,更需要我们能够实时的掌握mongo的运行情况,以方便我们数据库运行问题做出及时的调整和补救。
301 0
ELK搭建(十一):搭建MongoDB运行情况监控平台
|
存储 NoSQL 前端开发
vue2全家桶+koa2+mongodb搭建一个简单伪全栈博客
本来不想推的,看到github上有个项目很简单,都有300 star,推推看咯。
vue2全家桶+koa2+mongodb搭建一个简单伪全栈博客
|
存储 NoSQL 测试技术
MongoDB系列-解决面试中可能遇到的MongoDB复制集(replica set)问题
MongoDB复制集(replica set):MongoDB复制集维护相同数据集的一组mongod进程,复制集是生产部署的基础,具有数据冗余以及高可用性。
334 0
MongoDB系列-解决面试中可能遇到的MongoDB复制集(replica set)问题
|
NoSQL MongoDB Docker
基于docker容器下mongodb 4.0.0 的Replica Sets+Sharded Cluster集群(1)
基于docker容器下mongodb 4.0.0 的Replica Sets+Sharded Cluster集群(1)
154 0
基于docker容器下mongodb 4.0.0 的Replica Sets+Sharded Cluster集群(1)