Mongodb副本集+分片集群环境部署记录

本文涉及的产品
云数据库 MongoDB,独享型 2核8GB
推荐场景:
构建全方位客户视图
简介:

前面详细介绍了mongodb的副本集和分片的原理,这里就不赘述了。下面记录Mongodb副本集+分片集群环境部署过程:

MongoDB Sharding Cluster,需要三种角色:

Shard Server: mongod 实例,用于存储实际的数据块,实际生产环境中一个shard server角色可由几台机器组个一个relica set承担,防止主机单点故障
Config Server: mongod 实例,存储了整个 Cluster Metadata,其中包括 chunk 信息。
Route Server: mongos 实例,前端路由,客户端由此接入,且让整个集群看上去像单一数据库,前端应用可以透明使用。

机器信息:

分别在3台机器运行一个mongod实例(称为mongod shard11,mongod shard12,mongod shard13)组织replica set1,作为cluster的shard1 
分别在3台机器运行一个mongod实例(称为mongod shard21,mongod shard22,mongod shard23)组织replica set2,作为cluster的shard2 
每台机器运行一个mongod实例,作为3个config server 
每台机器运行一个mongos进程,用于客户端连接

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
1)安装mongodb (3台机器都要操作)
下载地址:https: //pan .baidu.com /s/1hsoVcpQ            提取密码:6zp4
[root@slave1 src] # cd
[root@slave1 ~] # cd /usr/local/src/
[root@slave1 src] # ll mongodb-linux-x86_64-rhel62-3.0.6.tgz
[root@slave1 src] # tar -zvxf mongodb-linux-x86_64-rhel62-3.0.6.tgz
[root@slave1 src] # mv mongodb-linux-x86_64-rhel62-3.0.6 mongodb
  
2)创建sharding数据目录
根据本例sharding架构图所示,在各台sever上创建shard数据文件目录
slave1
[root@slave1 src] # mkdir /home/services/
[root@slave1 src] # mv mongodb /home/services/
[root@slave1 src] # cd /home/services/mongodb/
[root@slave1 mongodb] # mkdir -p data/shard11
[root@slave1 mongodb] # mkdir -p data/shard21
  
slave2
[root@slave2 src] # mkdir /home/services/
[root@slave2 src] # mv mongodb /home/services/
[root@slave2 src] # cd /home/services/mongodb/
[root@slave2 mongodb] # mkdir -p data/shard12
[root@slave2 mongodb] # mkdir -p data/shard22
  
slave3
[root@slave3 src] # mkdir /home/services/
[root@slave3 src] # mv mongodb /home/services/
[root@slave3 src] # cd /home/services/mongodb/
[root@slave3 mongodb] # mkdir -p data/shard13
[root@slave3 mongodb] # mkdir -p data/shard23
  
3)配置relica sets
3.1)配置shard1所用到的replica sets 1:
slave1
[root@slave1 ~] # /home/services/mongodb/bin/mongod --shardsvr --replSet shard1 --port 27018 --dbpath /home/services/mongodb/data/shard11 --oplogSize 100 --logpath /home/services/mongodb/data/shard11.log --logappend --fork
  
slave2
[root@slave2 ~] # /home/services/mongodb/bin/mongod --shardsvr --replSet shard1 --port 27018 --dbpath /home/services/mongodb/data/shard12 --oplogSize 100 --logpath /home/services/mongodb/data/shard12.log --logappend --fork
  
slave3
[root@slave3 ~] # /home/services/mongodb/bin/mongod --shardsvr --replSet shard1 --port 27018 --dbpath /home/services/mongodb/data/shard13 --oplogSize 100 --logpath /home/services/mongodb/data/shard13.log --logappend --fork
  
检车各个机器上的mongod进程是否正常起来了( ps  -ef| grep  mongod),27018端口是否正常起来了
  
3.2)初始化replica  set  1
从3台机器中任意找一台,连接mongod
[root@slave1 ~] # /home/services/mongodb/bin/mongo --port 27018
......
> config = { "_id"  "shard1" , "members"  : [{ "_id"  : 0, "host"  "182.48.115.236:27018" },{ "_id"  : 1, "host"  "182.48.115.237:27018" },{ "_id"  : 2, "host"  "182.48.115.238:27018" }]}
{
   "_id"  "shard1" ,
   "members"  : [
     {
       "_id"  : 0,
       "host"  "182.48.115.236:27018"
     },
     {
       "_id"  : 1,
       "host"  "182.48.115.237:27018"
     },
     {
       "_id"  : 2,
       "host"  "182.48.115.238:27018"
     }
   ]
}
> rs.initiate(config);
"ok"  : 1 }
  
3.3)配置shard2所用到的replica sets 2:
slave1
[root@slave1 ~] # /home/services/mongodb//bin/mongod --shardsvr --replSet shard2 --port 27019 --dbpath /home/services/mongodb/data/shard21 --oplogSize 100 --logpath /home/services/mongodb/data/shard21.log --logappend --fork
  
slave2
[root@slave2 ~] # /home/services/mongodb//bin/mongod --shardsvr --replSet shard2 --port 27019 --dbpath /home/services/mongodb/data/shard22 --oplogSize 100 --logpath /home/services/mongodb/data/shard22.log --logappend --fork
  
slave3
[root@slave3 ~] # /home/services/mongodb//bin/mongod --shardsvr --replSet shard2 --port 27019 --dbpath /home/services/mongodb/data/shard23 --oplogSize 100 --logpath /home/services/mongodb/data/shard23.log --logappend --fork
  
3.4)初始化replica  set  2
从3台机器中任意找一台,连接mongod
[root@slave1 ~] # /home/services/mongodb/bin/mongo --port 27019
......
> config = { "_id"  "shard2" , "members"  : [{ "_id"  : 0, "host"  "182.48.115.236:27019" },{ "_id"  : 1, "host"  "182.48.115.237:27019" },{ "_id"  : 2, "host"  "182.48.115.238:27019" }]}
{
   "_id"  "shard2" ,
   "members"  : [
     {
       "_id"  : 0,
       "host"  "182.48.115.236:27019"
     },
     {
       "_id"  : 1,
       "host"  "182.48.115.237:27019"
     },
     {
       "_id"  : 2,
       "host"  "182.48.115.238:27019"
     }
   ]
}
> rs.initiate(config);
"ok"  : 1 }
  
4)配置三台config server
slave1
[root@slave1 ~] # mkdir -p /home/services/mongodb/data/config
[root@slave1 ~] # /home/services/mongodb//bin/mongod --configsvr --dbpath /home/services/mongodb/data/config --port 20000 --logpath /home/services/mongodb/data/config.log --logappend --fork
  
slave2
[root@slave2 ~] # mkdir -p /home/services/mongodb/data/config
[root@slave2 ~] # /home/services/mongodb//bin/mongod --configsvr --dbpath /home/services/mongodb/data/config --port 20000 --logpath /home/services/mongodb/data/config.log --logappend --fork
  
slave3
[root@slave3 ~] # mkdir -p /home/services/mongodb/data/config
[root@slave3 ~] # /home/services/mongodb//bin/mongod --configsvr --dbpath /home/services/mongodb/data/config --port 20000 --logpath /home/services/mongodb/data/config.log --logappend --fork
  
5)配置mongs
在三台机器上分别执行:
slave1
[root@slave1 ~] # /home/services/mongodb/bin/mongos --configdb 182.48.115.236:20000,182.48.115.237:20000,182.48.115.238:20000 --port 27017 --chunkSize 5 --logpath /home/services/mongodb/data/mongos.log --logappend --fork
  
slave2
[root@slave2 ~] # /home/services/mongodb/bin/mongos --configdb 182.48.115.236:20000,182.48.115.237:20000,182.48.115.238:20000 --port 27017 --chunkSize 5 --logpath /home/services/mongodb/data/mongos.log --logappend --fork
  
slave3
[root@slave3 ~] # /home/services/mongodb/bin/mongos --configdb 182.48.115.236:20000,182.48.115.237:20000,182.48.115.238:20000 --port 27017 --chunkSize 5 --logpath /home/services/mongodb/data/mongos.log --logappend --fork
  
注意:新版版的mongodb的mongos命令里就不识别--chunkSize参数了
 
6)配置分片集群(Configuring the Shard Cluster)
从3台机器中任意找一台,连接mongod,并切换到admin数据库做以下配置
 
6.1)连接到mongs,并切换到admin
[root@slave1 ~] # /home/services/mongodb/bin/mongo 182.48.115.236:27017/admin
......
mongos> db
admin
mongos>
 
6.2)加入shards分区
如里shard是单台服务器,用 "db.runCommand( { addshard : “[:]” } )" 这样的命令加入
如果shard是replica sets,用 "replicaSetName/[:port][,serverhostname2[:port],…]" 这样的格式表示,例如本例执行:
mongos> db.runCommand( { addshard: "shard1/182.48.115.236:27018,182.48.115.237:27018,182.48.115.238:27018" ,name: "s1" ,maxsize:20480});
"shardAdded"  "s1" "ok"  : 1 }
mongos> db.runCommand( { addshard: "shard2/182.48.115.236:27019,182.48.115.237:27019,182.48.115.238:27019" ,name: "s2" ,maxsize:20480});
"shardAdded"  "s2" "ok"  : 1 }
 
注意:
可选参数
Name:用于指定每个shard的名字,不指定的话系统将自动分配
maxSize:指定各个shard可使用的最大磁盘空间,单位megabytes
 
6.3)Listing shards
mongos> db.runCommand( { listshards : 1 } )
{
         "shards"  : [
                 {
                         "_id"  "s1" ,
                         "host"  "shard1/182.48.115.236:27018,182.48.115.237:27018,182.48.115.238:27018"
                 },
                 {
                         "_id"  "s2" ,
                         "host"  "shard2/182.48.115.236:27019,182.48.115.237:27019,182.48.115.238:27019"
                 }
         ],
         "ok"  : 1
}
mongos>
 
上面命令列出了以上二个添加的shards,表示shards已经配置成功
 
6.4)激活数据库分片
命令:
db.runCommand( { enablesharding : “” } );
通过执行以上命令,可以让数据库跨shard,如果不执行这步,数据库只会存放在一个shard,一旦激活数据库分片,数据库中不同的collection将被存放在不同的shard上,
但一个collection仍旧存放在同一个shard上,要使单个collection也分片,还需单独对collection作些操作
 
Collecton分片
要使单个collection也分片存储,需要给collection指定一个分片key,通过以下命令操作:
db.runCommand( { shardcollection : “”,key : });
 
注意:
a)分片的collection系统会自动创建一个索引(也可用户提前创建好)
b)分片的collection只能有一个在分片key上的唯一索引,其它唯一索引不被允许
 
本案例:
mongos> db.runCommand({enablesharding: "test2" });
"ok"  : 1 }
mongos> db.runCommand( { shardcollection :  "test2.books" , key : {  id  : 1 } } );
"collectionsharded"  "test2.books" "ok"  : 1 }
mongos> use test2
switched to db test2
mongos> db.stats();
{
         "raw"  : {
                 "shard1/182.48.115.236:27018,182.48.115.237:27018,182.48.115.238:27018"  : {
                         "db"  "test2" ,
                         "collections"  : 3,
                         "objects"  : 6,
                         "avgObjSize"  : 69.33333333333333,
                         "dataSize"  : 416,
                         "storageSize"  : 20480,
                         "numExtents"  : 3,
                         "indexes"  : 2,
                         "indexSize"  : 16352,
                         "fileSize"  : 67108864,
                         "nsSizeMB"  : 16,
                         "extentFreeList"  : {
                                 "num"  : 0,
                                 "totalSize"  : 0
                         },
                         "dataFileVersion"  : {
                                 "major"  : 4,
                                 "minor"  : 22
                         },
                         "ok"  : 1,
                         "$gleStats"  : {
                                 "lastOpTime"  : Timestamp(0, 0),
                                 "electionId"  : ObjectId( "586286596422d63aa9f9f000" )
                         }
                 },
                 "shard2/182.48.115.236:27019,182.48.115.237:27019,182.48.115.238:27019"  : {
                         "db"  "test2" ,
                         "collections"  : 0,
                         "objects"  : 0,
                         "avgObjSize"  : 0,
                         "dataSize"  : 0,
                         "storageSize"  : 0,
                         "numExtents"  : 0,
                         "indexes"  : 0,
                         "indexSize"  : 0,
                         "fileSize"  : 0,
                         "ok"  : 1
                 }
         },
         "objects"  : 6,
         "avgObjSize"  : 69,
         "dataSize"  : 416,
         "storageSize"  : 20480,
         "numExtents"  : 3,
         "indexes"  : 2,
         "indexSize"  : 16352,
         "fileSize"  : 67108864,
         "extentFreeList"  : {
                 "num"  : 0,
                 "totalSize"  : 0
         },
         "ok"  : 1
}
mongos> db.books.stats();
{
         "sharded"  true ,
         "paddingFactorNote"  "paddingFactor is unused and unmaintained in 3.0. It remains hard coded to 1.0 for c                                        ompatibility only." ,
         "userFlags"  : 1,
         "capped"  false ,
         "ns"  "test2.books" ,
         "count"  : 0,
         "numExtents"  : 1,
         "size"  : 0,
         "storageSize"  : 8192,
         "totalIndexSize"  : 16352,
         "indexSizes"  : {
                 "_id_"  : 8176,
                 "id_1"  : 8176
         },
         "avgObjSize"  : 0,
         "nindexes"  : 2,
         "nchunks"  : 1,
         "shards"  : {
                 "s1"  : {
                         "ns"  "test2.books" ,
                         "count"  : 0,
                         "size"  : 0,
                         "numExtents"  : 1,
                         "storageSize"  : 8192,
                         "lastExtentSize"  : 8192,
                         "paddingFactor"  : 1,
                         "paddingFactorNote"  "paddingFactor is unused and unmaintained in 3.0. It remains hard co                                        ded to 1.0 for compatibility only." ,
                         "userFlags"  : 1,
                         "capped"  false ,
                         "nindexes"  : 2,
                         "totalIndexSize"  : 16352,
                         "indexSizes"  : {
                                 "_id_"  : 8176,
                                 "id_1"  : 8176
                         },
                         "ok"  : 1,
                         "$gleStats"  : {
                                 "lastOpTime"  : Timestamp(0, 0),
                                 "electionId"  : ObjectId( "586286596422d63aa9f9f000" )
                         }
                 }
         },
         "ok"  : 1
}
 
 
7)测试
mongos>  for  (var i = 1; i <= 20000; i++) db.books.save({ id :i,name: "12345678" ,sex: "male" ,age:27,value: "test" });
WriteResult({  "nInserted"  : 1 })
mongos> db.books.stats();
{
         "sharded"  true ,
         "paddingFactorNote"  "paddingFactor is unused and unmaintained in 3.0. It remains hard coded to 1.0 for compatibility only." ,
         "userFlags"  : 1,
         "capped"  false ,
         "ns"  "test2.books" ,
         "count"  : 20000,
         "numExtents"  : 10,
         "size"  : 2240000,
         "storageSize"  : 5586944,
         "totalIndexSize"  : 1250928,
         "indexSizes"  : {
                 "_id_"  : 670432,
                 "id_1"  : 580496
         },
         "avgObjSize"  : 112,
         "nindexes"  : 2,
         "nchunks"  : 5,
         "shards"  : {
                 "s1"  : {
                         "ns"  "test2.books" ,
                         "count"  : 12300,
                         "size"  : 1377600,
                         "avgObjSize"  : 112,
                         "numExtents"  : 5,
                         "storageSize"  : 2793472,
                         "lastExtentSize"  : 2097152,
                         "paddingFactor"  : 1,
                         "paddingFactorNote"  "paddingFactor is unused and unmaintained in 3.0. It remains hard coded to 1.0 for compatibility only." ,
                         "userFlags"  : 1,
                         "capped"  false ,
                         "nindexes"  : 2,
                         "totalIndexSize"  : 760368,
                         "indexSizes"  : {
                                 "_id_"  : 408800,
                                 "id_1"  : 351568
                         },
                         "ok"  : 1,
                         "$gleStats"  : {
                                 "lastOpTime"  : Timestamp(0, 0),
                                 "electionId"  : ObjectId( "586286596422d63aa9f9f000" )
                         }
                 },
                 "s2"  : {
                         "ns"  "test2.books" ,
                         "count"  : 7700,
                         "size"  : 862400,
                         "avgObjSize"  : 112,
                         "numExtents"  : 5,
                         "storageSize"  : 2793472,
                         "lastExtentSize"  : 2097152,
                         "paddingFactor"  : 1,
                         "paddingFactorNote"  "paddingFactor is unused and unmaintained in 3.0. It remains hard coded to 1.0 for compatibility only." ,
                         "userFlags"  : 1,
                         "capped"  false ,
                         "nindexes"  : 2,
                         "totalIndexSize"  : 490560,
                         "indexSizes"  : {
                                 "_id_"  : 261632,
                                 "id_1"  : 228928
                         },
                         "ok"  : 1,
                         "$gleStats"  : {
                                 "lastOpTime"  : Timestamp(0, 0),
                                 "electionId"  : ObjectId( "58628704f916bb05014c5ea7" )
                         }
                 }
         },
         "ok"  : 1
}
***************当你发现自己的才华撑不起野心时,就请安静下来学习吧***************

本文转自散尽浮华博客园博客,原文链接:http://www.cnblogs.com/kevingrace/p/5685457.html ,如需转载请自行联系原作者
相关实践学习
MongoDB数据库入门
MongoDB数据库入门实验。
快速掌握 MongoDB 数据库
本课程主要讲解MongoDB数据库的基本知识,包括MongoDB数据库的安装、配置、服务的启动、数据的CRUD操作函数使用、MongoDB索引的使用(唯一索引、地理索引、过期索引、全文索引等)、MapReduce操作实现、用户管理、Java对MongoDB的操作支持(基于2.x驱动与3.x驱动的完全讲解)。 通过学习此课程,读者将具备MongoDB数据库的开发能力,并且能够使用MongoDB进行项目开发。 &nbsp; 相关的阿里云产品:云数据库 MongoDB版 云数据库MongoDB版支持ReplicaSet和Sharding两种部署架构,具备安全审计,时间点备份等多项企业能力。在互联网、物联网、游戏、金融等领域被广泛采用。 云数据库MongoDB版(ApsaraDB for MongoDB)完全兼容MongoDB协议,基于飞天分布式系统和高可靠存储引擎,提供多节点高可用架构、弹性扩容、容灾、备份回滚、性能优化等解决方案。 产品详情: https://www.aliyun.com/product/mongodb
相关文章
|
5月前
|
存储 NoSQL MongoDB
MongoDB 复制(副本集)
10月更文挑战第17天
73 2
MongoDB 复制(副本集)
|
4月前
|
NoSQL 容灾 MongoDB
MongoDB主备副本集方案:两台服务器使用非对称部署的方式实现高可用与容灾备份
在资源受限的情况下,为了实现MongoDB的高可用性,本文探讨了两种在两台服务器上部署MongoDB的方案。方案一是通过主备身份轮换,即一台服务器作为主节点,另一台同时部署备节点和仲裁节点;方案二是利用`priority`设置实现自动主备切换。两者相比,方案二自动化程度更高,适合追求快速故障恢复的场景,而方案一则提供了更多的手动控制选项。文章最后对比了这两种方案与标准三节点副本集的优缺点,指出三节点方案在高可用性和数据一致性方面表现更佳。
342 5
|
5月前
|
存储 NoSQL 前端开发
MongoDB 分片
10月更文挑战第17天
70 2
|
4月前
|
存储 NoSQL MongoDB
【赵渝强老师】部署MongoDB复制集
本文介绍了如何在单个节点上搭建MongoDB复制集环境,通过监听不同端口实现多节点配置。详细步骤包括创建数据目录、编辑配置文件、启动节点、初始化复制集、查看状态以及测试主从库的读写操作。文中还提供了视频讲解和代码示例,帮助读者更好地理解和操作。
104 0
|
6月前
|
存储 监控 NoSQL
*MongoDB的水平扩展主要通过分片技术实
*MongoDB的水平扩展主要通过分片技术实
84 5
|
6月前
|
存储 NoSQL 前端开发
MongoDB 分片总结
这篇文章总结了MongoDB分片的概念、集群结构、分片实例、配置和测试过程。
208 6
|
6月前
|
存储 NoSQL Shell
MongoDB复制(副本集)总结
这篇文章是关于MongoDB副本集的总结,包括复制原理、设置副本集、案例分析等内容。
69 1
|
7月前
|
存储 NoSQL MongoDB
今日分享MongoDB一键部署脚本
今日分享MongoDB一键部署脚本
59 0
|
2天前
|
存储 NoSQL MongoDB
微服务——MongoDB常用命令1——数据库操作
本节介绍了 MongoDB 中数据库的选择、创建与删除操作。使用 `use 数据库名称` 可选择或创建数据库,若数据库不存在则自动创建。通过 `show dbs` 或 `show databases` 查看所有可访问的数据库,用 `db` 命令查看当前数据库。注意,集合仅在插入数据后才会真正创建。数据库命名需遵循 UTF-8 格式,避免特殊字符,长度不超过 64 字节,且部分名称如 `admin`、`local` 和 `config` 为系统保留。删除数据库可通过 `db.dropDatabase()` 实现,主要用于移除已持久化的数据库。
14 0
|
2天前
|
存储 NoSQL MongoDB
从 MongoDB 到 时序数据库 TDengine,沃太能源实现 18 倍写入性能提升
沃太能源是国内领先储能设备生产厂商,数十万储能终端遍布世界各地。此前使用 MongoDB 存储时序数据,但随着设备测点增加,MongoDB 在存储效率、写入性能、查询性能等方面暴露出短板。经过对比,沃太能源选择了专业时序数据库 TDengine,生产效能显著提升:整体上,数据压缩率超 10 倍、写入性能提升 18 倍,查询在特定场景上也实现了数倍的提升。同时减少了技术架构复杂度,实现了零代码数据接入。本文将对 TDengine 在沃太能源的应用情况进行详解。
14 0