搭建mongodb3.4测试集群(没有副本)

本文涉及的产品
云数据库 MongoDB,独享型 2核8GB
推荐场景:
构建全方位客户视图
简介: masha马上开始
                                  搭建mongodb3.4.1测试环境分布式集群(无副本,5台server)

mongodb是最常用的nodql数据库,在数据库排名中已经上升到了前六。这篇文章主要介绍如何搭建mongodb(5分片)集群,也会介绍一下高可用生产环境mongodb(5分片+副本)集群,我只是设计了5个server的生产环境集群的搭建方案,具体搭建过程大家自己探索一下。
在搭建集群之前,需要首先了解几个概念:路由,分片、副本集、配置服务器等。

从图中可以看到有四个组件:mongos、config server、shard、replica set。
mongos,数据库集群请求的入口,所有的请求都通过mongos进行协调,不需要在应用程序添加一个路由选择器,mongos自己就是一个请求分发中心,它负责把对应的数据请求请求转发到对应的shard服务器上。在生产环境通常有多mongos作为请求的入口,防止其中一个挂掉所有的mongodb请求都没有办法操作。
config server,顾名思义为配置服务器,存储所有数据库元信息(路由、分片)的配置。mongos本身没有物理存储分片服务器和数据路由信息,只是缓存在内存里,配置服务器则实际存储这些数据。mongos第一次启动或者关掉重启就会从 config server 加载配置信息,以后如果配置服务器信息变化会通知到所有的 mongos 更新自己的状态,这样 mongos 就能继续准确路由。在生产环境通常有多个 config server 配置服务器,因为它存储了分片路由的元数据,防止数据丢失!
shard,分片(sharding)是指将数据库拆分,将其分散在不同的机器上的过程。将数据分散到不同的机器上,不需要功能强大的服务器就可以存储更多的数据和处理更大的负载。基本思想就是将集合切成小块,这些块分散到若干片里,每个片只负责总数据的一部分,最后通过一个均衡器来对各个分片进行均衡(数据迁移)。
replica set,中文翻译副本集,其实就是shard的备份,防止shard挂掉之后数据丢失。复制提供了数据的冗余备份,并在多个服务器上存储数据副本,提高了数据的可用性, 并可以保证数据的安全性。
仲裁者(Arbiter),是复制集中的一个MongoDB实例,它并不保存数据。仲裁节点使用最小的资源并且不要求硬件设备,不能将Arbiter部署在同一个数据集节点中,可以部署在其他应用服务器或者监视服务器中,也可部署在单独的虚拟机中。为了确保复制集中有奇数的投票成员(包括primary),需要添加仲裁节点做为投票,否则primary不能运行时不会自动切换primary。
简单了解之后,我们可以这样总结一下,应用请求mongos来操作mongodb的增删改查,配置服务器存储数据库元信息,并且和mongos做同步,数据最终存入在shard(分片)上,为了防止数据丢失同步在副本集中存储了一份,仲裁在数据存储到分片的时候决定存储到哪个节点。

环境准备 测试环境
系统系统 RedHat6
三台服务器:10.116.41/120/119/111/13 153.40.212.96
安装包: mongodb-linux-x86_64-3.4.1.tgz
服务器规划
服120 服96 服119 服111 服13
Mongos mongos Mongos
config server config server config server
shard shard shard shard shard

端口分配:
mongos:20000
config:21000
shard:27001

集群搭建
1、安装mongodb

解压

tar -xzvf mongodb-linux-x86_64-3.4.1.tgz -C /opt/mongodb3.4.1/mongodb

改名

mv mongodb-linux-x86_64-3.4.6 mongodb
分别在每台机器建立conf、mongos、config、shard四个目录,因为mongos不存储数据,只需要建立日志文件目录即可。
mkdir -p /opt/mongodb3.4.1/mongodb /conf
mkdir -p /opt/mongodb3.4.1/mongodb /mongos/log
mkdir -p /opt/mongodb3.4.1/mongodb /config/data
mkdir -p /opt/mongodb3.4.1/mongodb /config/log
mkdir -p /opt/mongodb3.4.1/mongodb /shard/data
mkdir -p /opt/mongodb3.4.1/mongodb /shard/log
配置环境变量
vim /etc/profile

内容

export MONGODB_HOME/opt/mongodb3.4.1/mongodb
export PATH=$MONGODB_HOME/bin:$PATH

使立即生效

source /etc/profile

2、config server配置服务器
mongodb3.4以后要求配置服务器也创建副本集,不然集群搭建不成功。
添加配置文件
vi /opt/mongodb3.4.1/mongodb/conf/config.conf

配置文件内容

pidfilepath = / opt/mongodb3.4.1/mongodb/config/log/configsrv.pid
dbpath = / opt/mongodb3.4.1/mongodb/config/data
logpath = / opt/mongodb3.4.1/mongodb/config/log/congigsrv.log
logappend = true

bind_ip = 0.0.0.0
port = 21000
fork = true

declare this is a config db of a cluster;

configsvr = true

设置最大连接数

maxConns=20000
启动三台服务器的config server
mongod -f / opt/mongodb3.4.1/mongodb/conf/config.conf

登录任意一台配置服务器,初始化配置副本集
可以任选三台服务器来做config server的副本集

连接

mongo --port 21000

config变量

config = {
... _id : "configs",
... members : [
... {_id : 0, host : "10.116.41.120:21000" },
... {_id : 1, host : "153.40.212.96:21000" },
... {_id : 2, host : "10.116.41.119:21000" }
... ]
... }

初始化副本集

rs.initiate(config)
其中,"_id" : "configs"应与配置文件中配置的 replicaction.replSetName 一致,"members" 中的 "host" 为三个节点的 ip 和 port

3、配置分片(五台机器)
设置第一个分片
配置文件
vi /opt/mongodb3.4.1/mongodb/conf/shard1.conf

配置文件内容

——————————————–

pidfilepath = /opt/mongodb3.4.1/mongodb/shard/log/shard1.pid
dbpath = /opt/mongodb3.4.1/mongodb/shard/data
logpath = /opt/mongodb3.4.1/mongodb/shard/log/shard.log
logappend = true

bind_ip = 0.0.0.0
port = 27001
fork = true

打开web监控

httpinterface=true
rest=true

declare this is a shard db of a cluster;

shardsvr = true

设置最大连接数

maxConns=20000
分别启动五台服务器的shard server
mongod -f / opt/mongodb3.4.1/mongodb/conf/shard.conf

4、配置路由服务器 mongos
先启动配置服务器和分片服务器,后启动路由实例启动路由实例:(三台机器)
vi / opt/mongodb3.4.1/mongodb/conf/mongos.conf

内容

pidfilepath = / opt/mongodb3.4.1/mongodb/mongos/log/mongos.pid
logpath = / opt/mongodb3.4.1/mongodb/mongos/log/mongos.log
logappend = true

bind_ip = 0.0.0.0
port = 20000
fork = true

监听的配置服务器,只能有1个或者3个 configs为配置服务器的副本集名字

configdb = configs/10.116.41.120:21000,153.40.212.96:21000,10.116.41.119:21000

设置最大连接数

maxConns=20000
启动三台服务器的mongos server
mongos -f / opt/mongodb3.4.1/mongodb/conf/mongos.conf

5、启用分片
目前搭建了mongodb配置服务器、路由服务器,各个分片服务器,不过应用程序连接到mongos路由服务器并不能使用分片机制,还需要在程序里设置分片配置,让分片生效。
登陆任意一台mongos
mongo --port 20000

使用admin数据库

user admin

串联路由服务器与分配副本集

sh.addShard("10.116.41.120:27001")
sh.addShard("153.40.212.96:27001")
sh.addShard("10.116.41.119:27001")
sh.addShard("10.116.41.111:27001")
sh.addShard("10.116.41.13:27001")

查看集群状态

sh.status()

6、测试
目前配置服务、路由服务、分片服务都已经串联起来了,但我们的目的是希望插入数据,数据能够自动分片。连接在mongos上,准备让指定的数据库、指定的集合分片生效。

指定testdb分片生效

db.runCommand( { enablesharding :"testdb"});

指定数据库里需要分片的集合和片键

sh.shardCollection("testdb.test", { "_id": "hashed" });(hash分片方式)
我们设置testdb的 table1 表需要分片,根据 id 自动分片到 shard1 ,shard2,shard3 上面去。要这样设置是因为不是所有mongodb 的数据库和表 都需要分片!
测试分片配置结果

mongo 127.0.0.1:20000

使用testdb

use testdb;

插入测试数据

for (var i = 1; i <= 100000; i++)
db.test.save({id:i,"test1":"testval1"});

查看分片情况如下,部分无关信息省掉了

mongos> db.test.getShardDistribution()

Shard shard0000 at 10.116.41.120:29001
data : 126KiB docs : 1908 chunks : 2
estimated data per chunk : 63KiB
estimated docs per chunk : 954

Shard shard0001 at 153.40.212.96:29001
data : 136KiB docs : 2058 chunks : 2
estimated data per chunk : 68KiB
estimated docs per chunk : 1029

Shard shard0002 at 10.116.41.119:29001
data : 133KiB docs : 2014 chunks : 2
estimated data per chunk : 66KiB
estimated docs per chunk : 1007

Shard shard0003 at 10.116.41.111:29001
data : 135KiB docs : 2034 chunks : 2
estimated data per chunk : 67KiB
estimated docs per chunk : 1017

Shard shard0004 at 10.116.41.13:29001
data : 131KiB docs : 1985 chunks : 2
estimated data per chunk : 65KiB
estimated docs per chunk : 992

Totals
data : 663KiB docs : 9999 chunks : 10
Shard shard0000 contains 19.08% data, 19.08% docs in cluster, avg obj size on shard : 68B
Shard shard0001 contains 20.58% data, 20.58% docs in cluster, avg obj size on shard : 68B
Shard shard0002 contains 20.14% data, 20.14% docs in cluster, avg obj size on shard : 68B
Shard shard0003 contains 20.34% data, 20.34% docs in cluster, avg obj size on shard : 68B
Shard shard0004 contains 19.85% data, 19.85% docs in cluster, avg obj size on shard : 68B

后期运维
启动关闭
mongodb的启动顺序是,先启动配置服务器,在启动分片,最后启动mongos.
mongod -f /opt/mongodb3.4.1/mongodb/conf/config.conf
mongod -f /opt/mongodb3.4.1/mongodb/conf/shard.conf
mongod -f /opt/mongodb3.4.1/mongodb/conf/mongos.conf
关闭时,直接killall杀掉所有进程
killall mongod
killall mongos

相关实践学习
MongoDB数据库入门
MongoDB数据库入门实验。
快速掌握 MongoDB 数据库
本课程主要讲解MongoDB数据库的基本知识,包括MongoDB数据库的安装、配置、服务的启动、数据的CRUD操作函数使用、MongoDB索引的使用(唯一索引、地理索引、过期索引、全文索引等)、MapReduce操作实现、用户管理、Java对MongoDB的操作支持(基于2.x驱动与3.x驱动的完全讲解)。 通过学习此课程,读者将具备MongoDB数据库的开发能力,并且能够使用MongoDB进行项目开发。 &nbsp; 相关的阿里云产品:云数据库 MongoDB版 云数据库MongoDB版支持ReplicaSet和Sharding两种部署架构,具备安全审计,时间点备份等多项企业能力。在互联网、物联网、游戏、金融等领域被广泛采用。 云数据库MongoDB版(ApsaraDB for MongoDB)完全兼容MongoDB协议,基于飞天分布式系统和高可靠存储引擎,提供多节点高可用架构、弹性扩容、容灾、备份回滚、性能优化等解决方案。 产品详情: https://www.aliyun.com/product/mongodb
相关文章
|
3月前
|
SQL 分布式计算 NoSQL
大数据-170 Elasticsearch 云服务器三节点集群搭建 测试运行
大数据-170 Elasticsearch 云服务器三节点集群搭建 测试运行
61 4
|
3月前
|
分布式计算 Hadoop Shell
Hadoop-35 HBase 集群配置和启动 3节点云服务器 集群效果测试 Shell测试
Hadoop-35 HBase 集群配置和启动 3节点云服务器 集群效果测试 Shell测试
93 4
|
3月前
|
分布式计算 大数据 Spark
大数据-95 Spark 集群 SparkSQL Action与Transformation操作 详细解释与测试案例(二)
大数据-95 Spark 集群 SparkSQL Action与Transformation操作 详细解释与测试案例(二)
52 1
|
3月前
|
分布式计算 监控 Hadoop
Hadoop-29 ZooKeeper集群 Watcher机制 工作原理 与 ZK基本命令 测试集群效果 3台公网云服务器
Hadoop-29 ZooKeeper集群 Watcher机制 工作原理 与 ZK基本命令 测试集群效果 3台公网云服务器
54 1
|
3月前
|
分布式计算 Hadoop Unix
Hadoop-28 ZooKeeper集群 ZNode简介概念和测试 数据结构与监听机制 持久性节点 持久顺序节点 事务ID Watcher机制
Hadoop-28 ZooKeeper集群 ZNode简介概念和测试 数据结构与监听机制 持久性节点 持久顺序节点 事务ID Watcher机制
58 1
|
3月前
|
存储 大数据 Apache
大数据-146 Apache Kudu 安装运行 Dockerfile 模拟集群 启动测试
大数据-146 Apache Kudu 安装运行 Dockerfile 模拟集群 启动测试
29 0
|
3月前
|
存储 SQL 分布式计算
大数据-135 - ClickHouse 集群 - 数据类型 实际测试
大数据-135 - ClickHouse 集群 - 数据类型 实际测试
51 0
|
3月前
|
存储 SQL 分布式计算
大数据-95 Spark 集群 SparkSQL Action与Transformation操作 详细解释与测试案例(一)
大数据-95 Spark 集群 SparkSQL Action与Transformation操作 详细解释与测试案例(一)
56 0
|
4月前
|
Kubernetes Linux API
CentOS 7.6使用kubeadm部署k8s 1.17.2测试集群实战篇
该博客文章详细介绍了在CentOS 7.6操作系统上使用kubeadm工具部署kubernetes 1.17.2版本的测试集群的过程,包括主机环境准备、安装Docker、配置kubelet、初始化集群、添加节点、部署网络插件以及配置k8s node节点管理api server服务器。
174 0
CentOS 7.6使用kubeadm部署k8s 1.17.2测试集群实战篇