linux系统中MongoDB数据库安装及分片集群搭建

简介: 史上最全的mongodb分片集群搭建,从介绍安装到集群搭建授权,你再也找不到比他更加详细的资料了,未经允许禁止转载!!

史上最全的mongodb分片集群搭建,从介绍安装到集群搭建授权,你再也找不到比他更加详细的资料了,未经允许禁止转载!!

一、简介

MongoDB是一个便于开发和扩展设计的文档数据库,属于NoSQL数据库的一种。MongoDB中的记录是一个由字段和值组成的文档,类似于JSON对象。

二、主要特点

  1. Mongodb提供高性能的数据永久性

    • 对嵌入式数据模型的支持减少了数据库系统上I/O的活动
    • 索引支持更快的查询,可以嵌入文档和数组中的键
  2. 丰富的查询语言

    • 支持数据聚合

      例:

      db.orders.aggregate([
         { $match: { status: "A" } },
         { {mathJaxContainer[0]}cust_id", total: { $sum: "$amount" } } }
      ])
      

      第一阶段: $match 阶段通过状态字段过滤文档,并将状态等于“ a”的文档传递到下一阶段。

      第二阶段: $group 阶段通过 cust id 字段对文档进行分组,以计算每个惟一 cust id 的总和。

    • 文字搜寻

      例:使用以下文档创建一个集合存储

      db.stores.insert(
         [
           { _id: 1, name: "Java Hut", description: "Coffee and cakes" },
           { _id: 2, name: "Burger Buns", description: "Gourmet hamburgers" },
           { _id: 3, name: "Coffee Shop", description: "Just coffee" },
           { _id: 4, name: "Clothes Clothes Clothes", description: "Discount clothing" },
           { _id: 5, name: "Java Shopping", description: "Indonesian goods" }
         ]
      )
      

      例:直接对名字和描述字段进行文本搜索

      db.stores.createIndex( { name: "text", description: "text" } )
      

      例:搜索包含java、coffee、shop中任何术语的所有商店

      db.stores.find( { {mathJaxContainer[2]}search: "java coffee shop" } } )
      

      或者查找所有包含“咖啡店”的文件

      db.stores.find( { {mathJaxContainer[3]}search: "\"coffee shop\"" } } )
      

      或者包括java、shop,不包括coffee的文件

      db.stores.find( { $text: { $search: "java shop -coffee" } } )
      
  • 地理空间查询
  1. 高可用性

    • 提供副本集

      支持自动的数据转移、数据冗余

      副本集属于一组MongoDB服务器,用于维护相同的数据集,提供冗余并增加数据可用性

  2. 水平可扩展性

    • 将数据分布到一组机器上
    • 进行分片操作
  3. 支持多储存引擎,允许第三方开发引擎

三、安装

官方安装流程(以下实例均以MongoDB 4.4为标准)

导入包管理系统使用的公钥

wget -qO - https://www.mongodb.org/static/pgp/server-4.4.asc | sudo apt-key add -

如果报出:ok 则成功;

如果提示gnupg未安装,则:

sudo apt-get install gnupg

之后重新导入密钥:

wget -qO - https://www.mongodb.org/static/pgp/server-4.4.asc | sudo apt-key add -

为 MongoDB 创建一个列表文件

Ubuntu 18.04:

echo "deb [ arch=amd64,arm64 ] https://repo.mongodb.org/apt/ubuntu bionic/mongodb-org/4.4 multiverse" | sudo tee /etc/apt/sources.list.d/mongodb-org-4.4.list

Ubuntu 20.04:

echo "deb [ arch=amd64,arm64 ] https://repo.mongodb.org/apt/ubuntu focal/mongodb-org/4.4 multiverse" | sudo tee /etc/apt/sources.list.d/mongodb-org-4.4.list

Ubuntu 16.04:

echo "deb [ arch=amd64,arm64 ] https://repo.mongodb.org/apt/ubuntu xenial/mongodb-org/4.4 multiverse" | sudo tee /etc/apt/sources.list.d/mongodb-org-4.4.list

重新加载本地包数据库

sudo apt-get update

安装 MongoDB 软件包

sudo apt-get install -y mongodb-org

要运行和管理 mongod 进程,需使用操作系统内置的 init 系统。Linux 的最新版本倾向于使用 systemd (使用 systemctl 命令) ,而 Linux 的旧版本倾向于使用 System v init (使用 service 命令)。

运行以下命令确认平台使用的那个init系统:

ps --no-headers -o comm 1

systemctl启动mongodb:

sudo systemctl start mongod

service启动mongodb:

sudo service mongod start

四、副本集群

副本集群简介

  • MongoDB 中的副本集是维护相同数据集的一组 mongod 进程。副本集提供了冗余和高可用性,并且是所有生产部署的基础。

副本集具体结构

  • 副本集是维护相同数据集的一组 mongod 实例。一个副本集包含多个数据承载节点和一个可选的仲裁节点。在数据承载节点中,一个且只有一个成员被视为主节点,而其他节点被视为次要节点。

  • 主节点:接收所有写操作,一个副本集只能有一个。

  • 副本节点:复制主节点操作日志,并将操作应用到它们的数据集中,以便副本节点的数据集备份主系统的数据集;在主节点挂掉后,有选举权限的副本节点会自动发起选举,并从中选举出新的主节点;副本节点可以通过配置指定其具体的属性,比如选举、隐藏、延迟同步等,最多可以有50个副本节点,但只能有7个副本节点能参与选举。虽然副本节点不能处理写操作,但可以处理读请求。

  • 副本集架构:搭建一个副本集集群最少需要三个节点:一个主节点,两个备份节点,如果三个节点分布合理,基本可以保证线上数据99.9%安全。

  • 仲裁节点:如果只有一个主节点,一个副本节点,且没有资源拿来当第二个副本节点,那就可以起一个仲裁者节点(arbiter),不存数据,只用来选举用。

  • 副本集成员属性priority、hidden、slaveDelay、tags、votes

    • priority

      对于副本节点可以使用该属性来控制其被选举为主节点的可能,取值范围为:0-1000(仲裁点取值只有0和1),值越大被选举称为主节点的可能性就越大,若为0则不能被选举,也不能发起选举。

    • hidden

      配置hidden为true则会变成隐藏节点,隐藏节点会从主节点同步数据,但对客户端不可见,执行db.isMaster()方法也不会显示,其priority值必须为0,不能被选举为主节点;但是如果配置有选举权则可以参加选举。

    • slaveDelay

      延迟同步即延迟从主节点同步数据,其值若配置为1小时,则1小时后延迟节点才会同步主节点1小时前的数据。延迟节点必须是隐藏节点,priority=0.

    • tags

      支持对副本集成员打标签,查询数据时使用

    • votes

      表示节点是否有权选举,最大可一配置7个副本节点。

特性

  • 写关注

    指主节点写入一条数据,主节点处理完成后,需要其他承载数据的副本节点也确认写完后才会返回写入成功。

    其主要用于解决主节点挂掉后,数据还未来的及同步到副本节点,而导致的数据丢失问题。

    可以配置节点个数:

    w:1 表示主节点写入数据成功即可给客户端返回成功;(mongodb 4.4默认)

    w:2 表示除了主节点,还需要收到其中一个副本节点返回写入成功;

    w:majority 表示需要集群中大多数承载数据且有选举权限的节点返回写入成功。

    设置:

    自定义:

    db.products.insert(
        { item: "envelopes", qty : 100, type: "Clasp" },
        { writeConcern: { w: "majority" , wtimeout: 5000 } }
    )
    

    在副本集中配置(建库时添加):

    conf = rs.conf()
    conf.settings.getLastErrorDefaults = { w: "majority", wtimeout: 5000 }
    conf.reconfig(conf)
    
  • 读偏好

读跟写不一样,为了保持一致性,写只能通过主节点,但读可以选择主节点,也可以选择副本节点,区别是主节点数据最新,副本节点因为同步问题可能会有延迟,但从副本节点读取数据可以分散对主节点的压力。

  • 多节点时客户端选择节点读取参数
模式 特点
primary 所有读请求都从主节点读取
primaryPreferred 主节点正常,则所有读请求都从主节点读取,如果主节点挂掉,则从符合条件的副本节点读取
secondary 所有读请求都从副本节点读取
secondaryPreferred 所有读请求都从副本节点读取,但如果副本节点都挂掉了,那就从主节点读取
nearest 主要看网络延迟,选取延迟最小的节点,主节点跟副本节点均可

模式选择条件:

  1. Tag Sets(标签)

    给节点加上标签,然后查找数据时,可以根据标签选择对应的节点,然后在该节点查找数据。可以通过mongo shell 使用 rs.conf() 查看当前每个节点下面的 tags, 修改或者添加tags 。

    给成员添加:

    conf = rs.conf();
    conf.members[0].tags = { "dc": "east", "usage": "production" };#members:成员目标
    conf.members[1].tags = { "dc": "east", "usage": "reporting" };
    conf.members[2].tags = { "dc": "west", "usage": "production" };
    rs.reconfig(conf);
    

    在连接到副本集的 mongo shell 中,为了将读操作指向标记为特定标记的辅助设备,可以使用 readPref ()方法指定读取首选模式和标记集。比如说

    db.collection.find({}).readPref( "secondary", [ { "dc": "east", "usage": "production" } ] )
    

    如果不确定某一标记是否存在,则可以:

    db.collection.find({}).readPref( "secondary", [ { "dc": "east"}, { "usage": "production" } ] )
    

    若"dc": "east"没找到,则找"usage": "production"。

    给副本集成员添加

    一个成员VA 标记为 dc_va;一个成员CA 标记为 dc_ca

    conf = rs.conf();
    conf.members[0].tags = { "dc_va": "rack1"};
    conf.members[1].tags = { "dc_va": "rack2"};
    conf.members[2].tags = { "dc_ca": "rack1"};
    conf.members[3].tags = { "dc_ca": "rack2"};
    conf.members[4].tags = { "dc_va": "rack1"};
    rs.reconfig(conf);
    

    自定义

    定义一个write concern MultipleDC,它要求将 write 传播给两个具有不同 dc va 标记值的成员和一个具有任意 dc ca 标记值的成员。

    conf = rs.conf();
    conf.settings = { getLastErrorModes: { MultipleDC : { "dc_va": 2, "dc_ca": 1 } } };
    rs.reconfig(conf);
    

    自定义标记的使用:

    db.collection.insert( { id: "xyz", status: "A" }, { writeConcern: { w: "MultipleDC" } } )
    
  2. maxStalenessSeconds (可容忍的最大同步延迟)

    一般取回大于90S,小于这个值则会抛出异常

  3. Hedged Read (对冲读取

    mongos 实例路由读取请求时会同时发给两个符合条件的副本集节点,然后那个先返回结果就返回这个结果给客户端(4.4版本和之后版本支持)

集群搭建(注意,为方便区分集群搭建和后面的分片分别搭建在不同的目录)

  1. 创建数据文件夹:

    mkdir -p /data/master
    mkdir -p /data/slaver
    mkdir -p /data/arbiter

效果:data 文件夹包含 arbiter master slaver 三个文件夹

  1. 创建日志存放文件:

    vi /log/master.log
    vi /log/slaver.log
    vi /log/arbiter.log

    效果:log文件夹包含 master.log slaver.log arbiter.log 三个文件(注意,data文件夹和log文件夹均无上级文件夹,可自行创建不同名称不同位置的文件夹,注意路径与下文中的配置文件一致即可

  1. 创建配置文件

    在第一步创建的三个文件中创建 文件夹同名.conf 后缀文件,即:master文件夹中应有 master.conf 文件,slaver文件夹中应有 slaver.conf文件,arbiter文件夹中应有 arbiter.conf文件。

    各配置文件内容如下:

    master.conf:

    dbpath =/data/master
    logpath = /log/master.log
    pidfilepath =/data/ master.pid
    directoryperdb = true
    logappend = true
    replSet = away
    bind_ip = localhost
    port = 27018
    fork = true
    

    slaver.conf:

    dbpath =/data/slaver
    logpath =/log/slaver.log
    pidfilepath = /data/slaver.pid
    directoryperdb = true
    logappend = true
    replSet = away
    bind_ip = localhost
    port = 27019
    fork = true
    

    arbiter.conf:

    dbpath = /data/arbiter
    logpath = /log/arbiter.log
    pidfilepath = arbiter.pid
    directoryperdb = true
    logappend = true
    replSet = away
    bind_ip = localhost
    port = 27020
    fork = true
    

    参数:

    dbpath:数据存放目录

    logpath:日志存放路径

    pidfilepath:进程文件,方便停止mongodb

    directoryperdb:为每一个数据库按照数据库名建立文件夹存放

    logappend:以追加的方式记录日志

    replSet:replica set的名字

    bind_ip:mongodb所绑定的ip地址

    port:mongodb进程所使用的端口号,默认为27017

    oplogSize:mongodb操作日志文件的最大大小。单位为Mb,默认为硬盘剩余空间的5%

    fork:以后台方式运行进程

    noprealloc:不预先分配存储

  1. 启动mongod程序

    mongod --config <配置路径>

    例如:

    lhd@lhd:~$ sudo mongod --config /data/master/master.conf
    [sudo] lhd 的密码:
    
  2. 主从配置

    启动mongo客户端:

    mongo localhost:27018
    

    设置主,从,仲裁点

    use admin
    switched to db admin
    zjd={_id:"one",members:[{_id:0,host:"localhost:27018",priority:2},{_id:1,host:"localhost:27019",priority:1},{_id:2,host:"localhost:27020",arbiterOnly:true}]};
    

    参数:

    zjd是可以任意的名字,不要用mongodb的关键字,conf,config都可以。

    第一个_id表示replica set的名字,这个数据必须和第三步配置文件中的replica set一致,不然会报错。

    members里包含的是所有节点的地址以及优先级,优先级最高的即成为主节点,值为0则不会参加选举成为主节点,对于仲裁节点,需要有个特别的配置——arbiterOnly:true。这个千万不能少了,不然主备模式就不能生效。

  使配置生效:
   rs.initiate(zjd)

​ 查看状态: rs.status()

五、分片集群

基本架构

  • shard碎片:每个分片包含分片数据的子集(即副本集的子集)。
  • mongos:查询路由器,提供客户端应用程序和分片集群之间的接口。(单个分片只返回数据子集,mongos执行集群级别操作,包括读写)
  • config servers:配置服务器存储集群的元数据和配置设置。从 MongoDB 3.4开始,配置服务器必须部署为副本集(CSRS)

分片架构图

1690440657138.jpg

分片子集架构图

1690440639893.jpg

 基本概念

- 分片:是指将数据库拆分,将其分散在不同的机器上的过程。将数据分散到不同的机器上,不需要功能强大的服务器就可以存储更多的数据和处理更大的负载。**基本思想**就是将集合切成小块,这些块分散到若干片里,每个片只负责总数据的一部分,最后通过一个均衡器来对各个分片进行均衡(数据迁移)。通过一个名为mongos的路由进程进行操作,mongos知道数据和片的对应关系(通过配置服务器)。

- 均衡器:负责数据迁移,周期性的检查分片是否存在不均衡,如果不存在则会开始块的迁移,config.locks集合里的state表示均衡器是否找正在运行,0表示非活动状态,2表示正在均衡。均衡迁移数据的过程会增加系统的负载:目标分片必须查询源分片的所有文档,将文档插入目标分片中,再清除源分片的数据。可以关闭均衡器(不建议):关闭会导致各分片数据分布不均衡,磁盘空间得不到有效的利用。 

分片部署

- 准备工作

1. 服务器分配

| 服务器1:192.168.11.152 | 服务器2:192.168.11.153 | 服务器3 :192.168.11.154 |
| :---------------------: | :---------------------: | :----------------------: |
|         mongos          |         mongos          |          mongos          |
|      config server      |      config server      |      config server       |
|      shard1 主节点      |     shard1 副本节点     |     shard1 副本节点      |
|      shard2 主节点      |     shard2 副本节点     |     shard1 副本节点      |
|      shard3 主节点      |     shard2 副本节点     |     shard1 副本节点      |

2. 端口分配

|  服务  | 端口  |    说明    |
| :----: | :---: | :--------: |
| mongos | 20000 | 路由服务器 |
| config | 21000 | 配置服务器 |
| shard1 | 27001 | 分片服务器 |
| shard2 | 27002 | 分片服务器 |
| shard3 | 27003 | 分片服务器 |

3. 创建文件目录,三台服务器目录结构相同

```shell
mkdir -p /usr/local/mongodb/conf #配置文件目录
mkdir -p /usr/local/mongodb/mongos/log #路由服务日志目录
mkdir -p /usr/local/mongodb/config/data #配置服务数据文件目录
mkdir -p /usr/local/mongodb/config/log #配置服务日志目录
mkdir -p /usr/local/mongodb/shard1/data #分片服务器数据文件目录
mkdir -p /usr/local/mongodb/shard1/log #分片服务器日志目录
mkdir -p /usr/local/mongodb/shard2/data
mkdir -p /usr/local/mongodb/shard2/log
mkdir -p /usr/local/mongodb/shard3/data
mkdir -p /usr/local/mongodb/shard3/log
  1. 配置环境变量
vi /etc/profile
# MongoDB 环境变量内容
export PATH=/usr/local/mongodb/bin:$PATH
  1. 使立即生效
source /etc/profile
  • 搭建配置服务器

注:三台服务器都需搭建(参照服务器分配表)

  1. 添加配置文件
vi /usr/local/mongodb/conf/config.conf
  1. 配置文件内容
pidfilepath = /usr/local/mongodb/config/log/configsrv.pid
dbpath = /usr/local/mongodb/config/data
logpath = /usr/local/mongodb/config/log/congigsrv.log
logappend = true
bind_ip = 0.0.0.0
port = 21000
fork = true
#declare this is a config db of a cluster
configsvr = true
#副本集名称
replSet = configs
#设置最大连接数
maxConns = 20000
  1. 启动三台服务器的config server
mongod -f /usr/local/mongodb/conf/config.conf
  • 初始化分片集
  1. 使用任意一台服务器,连接 MongoDB

    mongo --port 21000
    
  2. 设置config 变量

    config = {
        _id : "configs",
        members : [
        {_id : 0, host : "192.168.11.152:21000" },
        {_id : 1, host : "192.168.11.153:21000" },
        {_id : 2, host : "192.168.11.154:21000" }
        ]
    }
    
  3. 初始化副本集

    rs.initiate(config)
    
  4. 查询状态

    rs.status()
    
  • 搭建分片集群

    注:三台服务器配置相同,注意:端口号、副本集名称、目录路经!!!!

  1. 配置文件

    vi /usr/local/mongodb/conf/shard1.conf
    
  2. 配置文件内容

    pidfilepath = /usr/local/mongodb/shard1/log/shard1.pid
    dbpath = /usr/local/mongodb/shard1/data
    logpath = /usr/local/mongodb/shard1/log/shard1.log
    logappend = true
    bind_ip = 0.0.0.0
    port = 27001
    fork = true
    #副本集名称
    replSet = shard1
    #declare this is a shard db of a cluster;
    shardsvr = true
    #设置最大连接数
    maxConns = 20000
    
  1. 启动shard服务(注:shard1、shard2、shard3都要启动)

    mongod -f /usr/local/mongodb/conf/shard1.conf
    
  • 初始化副本集

    登录任意一台服务器,连接MongoDB(注:三个端口27001、27002、27003都要做!!)

    mongo --port 27001
    
    1. 使用admin数据库
    use admin
    
    1. 定义副本集配置(注:本次搭建未做仲裁)
    config = {
        _id : "shard1",
         members : [
             {_id : 0, host : "192.168.11.152:27001",priority:2},
             {_id : 1, host : "192.168.11.153:27001",priority:1},
             {_id : 2, host : "192.168.11.154:27001",priority:1}
         ]
     }
    
    1. 初始化副本集配置(注:配置完副本集就要初始化一次,切勿三个分片全配置完后初始化,会报出错误!!)
    rs.initiate(config)
    
  • 配置路由服务器mongos

    1. 配置文件

      vi /usr/local/mongodb/conf/mongos.conf
      
    2. 文件内容

      pidfilepath = /usr/local/mongodb/mongos/log/mongos.pid
      logpath = /usr/local/mongodb/mongos/log/mongos.log
      logappend = true
      bind_ip = 0.0.0.0
      port = 20000
      fork = true
      #监听的配置服务器,只能有1个或者3个(初始设计为三个,详见服务器分配) configs为配置服务器的副本集名字
      configdb = configs/192.168.11.152:21000,192.168.11.153:21000,192.168.11.154:21000
      #设置最大连接数
      maxConns = 20000
      
    3. 启动mongos服务(注:启动顺序为配置服务器,分片服务器,路由服务器,三台服务器全部启动)

      mongos -f /usr/local/mongodb/conf/mongos.conf
      
    4. 串联路由服务器

      目前搭建了mongodb配置服务器、路由服务器,各个分片服务器,应用程序连接到mongos路由服务器还不能使用分片机制(各个分片还处于相互独立阶段),需要在程序里设置分片配置,让分片生效。

      • 登录任意一台路由服务器

        mongo --port 20000
        
      • 使用admin数据库

        use admin
        
      • 串联路由服务器与分配副本集

        sh.addShard("shard1/192.168.11.152:27001,192.168.11.153:27001,192.168.11.154:27001")
        sh.addShard("shard2/192.168.11.152:27002,192.168.11.153:27002,192.168.11.154:27002")
        sh.addShard("shard3/192.168.11.152:27003,192.168.11.153:27003,192.168.11.154:27003")
        
      • 查看集群状态(注:sh代表分片集群,rs代表副本集)

        sh.status()
        
      • 结果大致如图

      1.png

  • 启用集合分片生效
  1. 登录任意一台路由服务器

    mongo --port 20000
    
  2. 使用admin数据库

    use admin
    
  3. 指定数据库分片生效(注:此时我们的数据库为空,需要建立一个测试库)

    sh.enableSharding("test")
    
  4. 指定数据库分片集合和片键(注: id字段是片键。片键的选择:利于分块、分散写请求、查询数据。)

    sh.shardCollection("test.table1",{
        
        "id":1})
    

    注:片键有两种分片方式,1.哈希分片,2.远程分片;哈希分片依靠哈希值分片,远程分片基于范围分片(默认此方式)

  5. 测试分片结果

    • 连接任意一台mongos路由服务器

      mongo --port 20000
      
    • 切换到test数据库

      use test;
      
    • 插入测试数据

      for(i=1;i<=100000;i++){db.table1.insert({"id":i,"name":"the green arrow"})}; #循环插入10万条数据
      
    • 查看分片情况

    260014cf915c407893c07f43f352c3b5.png

  • mongodb分片副本集搭建完成
  • 追加分片

    进行分片配置和启动分片过程后

    sh.addShard("192.168.11.152:27004,192.168.11.153:27004,192.168.11.154:27004")
    

六、权限认证

创建账户

  1. 进入主配置服务器

    mongo --port 21000
    
  2. 创建root账户

    use admin
    db.createUser({
        
        user:'root',pwd:'root.123',roles:[{role:'root',db:'admin'}]})
    
  3. 创建管理员账户

    db.createUser({
        
        user:'admin', pwd:'admin.123', roles:[{role: 'userAdminAnyDatabase', db:'admin' }]})
    
  4. 创建集群管理员账号

    db.createUser({
        
        user:'clusteradmin', pwd:'cluster.123', roles:[{role: 'clusterAdmin', db:'admin' }]})
    
  5. 创建自定义账号

    use yourdb
    db.createUser({
        
        user:'test', pwd:'test.123', roles:[{role: 'readWrite', db:'yourdb' }]})
    

角色

  • 数据库用户角色

    read:允许用户读取指定的数据库
    readWrite:允许用户读写指定数据库
    
  • 数据库管理角色

    dbAdmin:允许用户在指定数据库执行管理函数,创建索引,删除索引,查看统计.
    userAdmin:允许用户向system.users集合写入,可以在指定数据库创建删除管理账号
    dbOwner:指定数据库最大的权限,是readWrite+dbAdmin+userAdmin的和。
    
  • 群集管理角色(只在admin数据库可用)

    clusterAdmin:用户所有分片和复制集相关函数的管理权限
    clusterManager:管理和监控群集。
    clusterMonitor:只能访问监控工具。
    hostManager:监视和管理。
    
  • 备份和还原角色

    所有角色(只在admin数据库可用)
    readAnyDatabase:赋予用户所有数据库的读权限
    readWriteAnyDatabase:赋予用户所有数据库的读写权限
    userAdminAnyDatabase:赋予所有数据库的useradmin权限
    dbAdminAnyDatabase:赋予所有数据库的dbadmin权限。
    超级角色(只在admin可用)
    root:超级账号,超级权限
    

认证配置

  • 创建集群认证文件

    openssl rand -base64 756 > mongo_keyf 
    chmod 400 mongo_keyfile
    
  • 将文件发送到其他两个服务器

    scp mongo_keyfile prism@192.168.11.152:/usr/local/mongodb/
    
  • 配置修改

    • 修改config.conf文件

      vi conf/config.conf
      # 新增以下内容行
      auth = true
      keyFile = /usr/local/mongodb/mongo_keyfile
      
    • 修改shard.conf文件(注:有三个服务器的,总计九个文件)

      vi conf/shard1.conf
      # 新增以下内容行
      auth = true
      keyFile = /usr/local/mongodb/mongo_keyfile
      
    • 修改mongos.conf文件

      vi conf/mongos.conf
      # 新增以下内容行
      keyFile = /usr/local/mongodb/mongo_keyfile
      
相关实践学习
MongoDB数据库入门
MongoDB数据库入门实验。
快速掌握 MongoDB 数据库
本课程主要讲解MongoDB数据库的基本知识,包括MongoDB数据库的安装、配置、服务的启动、数据的CRUD操作函数使用、MongoDB索引的使用(唯一索引、地理索引、过期索引、全文索引等)、MapReduce操作实现、用户管理、Java对MongoDB的操作支持(基于2.x驱动与3.x驱动的完全讲解)。 通过学习此课程,读者将具备MongoDB数据库的开发能力,并且能够使用MongoDB进行项目开发。 &nbsp; 相关的阿里云产品:云数据库 MongoDB版 云数据库MongoDB版支持ReplicaSet和Sharding两种部署架构,具备安全审计,时间点备份等多项企业能力。在互联网、物联网、游戏、金融等领域被广泛采用。 云数据库MongoDB版(ApsaraDB for MongoDB)完全兼容MongoDB协议,基于飞天分布式系统和高可靠存储引擎,提供多节点高可用架构、弹性扩容、容灾、备份回滚、性能优化等解决方案。 产品详情: https://www.aliyun.com/product/mongodb
目录
相关文章
|
6天前
|
Linux
在 Linux 系统中,“cd”命令用于切换当前工作目录
在 Linux 系统中,“cd”命令用于切换当前工作目录。本文详细介绍了“cd”命令的基本用法和常见技巧,包括使用“.”、“..”、“~”、绝对路径和相对路径,以及快速切换到上一次工作目录等。此外,还探讨了高级技巧,如使用通配符、结合其他命令、在脚本中使用,以及实际应用案例,帮助读者提高工作效率。
24 3
|
6天前
|
监控 安全 Linux
在 Linux 系统中,网络管理是重要任务。本文介绍了常用的网络命令及其适用场景
在 Linux 系统中,网络管理是重要任务。本文介绍了常用的网络命令及其适用场景,包括 ping(测试连通性)、traceroute(跟踪路由路径)、netstat(显示网络连接信息)、nmap(网络扫描)、ifconfig 和 ip(网络接口配置)。掌握这些命令有助于高效诊断和解决网络问题,保障网络稳定运行。
19 2
|
6天前
|
安全 网络协议 Linux
本文详细介绍了 Linux 系统中 ping 命令的使用方法和技巧,涵盖基本用法、高级用法、实际应用案例及注意事项。
本文详细介绍了 Linux 系统中 ping 命令的使用方法和技巧,涵盖基本用法、高级用法、实际应用案例及注意事项。通过掌握 ping 命令,读者可以轻松测试网络连通性、诊断网络问题并提升网络管理能力。
24 3
|
9天前
|
安全 Linux 数据安全/隐私保护
在 Linux 系统中,查找文件所有者是系统管理和安全审计的重要技能。
在 Linux 系统中,查找文件所有者是系统管理和安全审计的重要技能。本文介绍了使用 `ls -l` 和 `stat` 命令查找文件所有者的基本方法,以及通过文件路径、通配符和结合其他命令的高级技巧。还提供了实际案例分析和注意事项,帮助读者更好地掌握这一操作。
26 6
|
9天前
|
Linux
在 Linux 系统中,`find` 命令是一个强大的文件查找工具
在 Linux 系统中,`find` 命令是一个强大的文件查找工具。本文详细介绍了 `find` 命令的基本语法、常用选项和具体应用示例,帮助用户快速掌握如何根据文件名、类型、大小、修改时间等条件查找文件,并展示了如何结合逻辑运算符、正则表达式和排除特定目录等高级用法。
35 6
|
10天前
|
关系型数据库 MySQL Linux
Linux环境下MySQL数据库自动定时备份实践
数据库备份是确保数据安全的重要措施。在Linux环境下,实现MySQL数据库的自动定时备份可以通过多种方式完成。本文将介绍如何使用`cron`定时任务和`mysqldump`工具来实现MySQL数据库的每日自动备份。
28 3
|
10天前
|
监控 关系型数据库 MySQL
Linux环境下MySQL数据库自动定时备份策略
在Linux环境下,MySQL数据库的自动定时备份是确保数据安全和可靠性的重要措施。通过设置定时任务,我们可以每天自动执行数据库备份,从而减少人为错误和提高数据恢复的效率。本文将详细介绍如何在Linux下实现MySQL数据库的自动定时备份。
24 3
|
10天前
|
监控 网络协议 算法
Linux内核优化:提升系统性能与稳定性的策略####
本文深入探讨了Linux操作系统内核的优化策略,旨在通过一系列技术手段和最佳实践,显著提升系统的性能、响应速度及稳定性。文章首先概述了Linux内核的核心组件及其在系统中的作用,随后详细阐述了内存管理、进程调度、文件系统优化、网络栈调整及并发控制等关键领域的优化方法。通过实际案例分析,展示了这些优化措施如何有效减少延迟、提高吞吐量,并增强系统的整体健壮性。最终,文章强调了持续监控、定期更新及合理配置对于维持Linux系统长期高效运行的重要性。 ####
|
10天前
|
存储 NoSQL 网络协议
【赵渝强老师】MongoDB的安装与访问
本文介绍了在Linux系统上安装和部署MongoDB的详细步骤,包括安装依赖包、解压安装包、配置环境变量、创建数据目录及启动服务等。文中还提供了相关命令示例和注意事项,帮助用户顺利完成MongoDB的安装与配置。
|
22天前
|
NoSQL Cloud Native atlas
探索云原生数据库:MongoDB Atlas 的实践与思考
【10月更文挑战第21天】本文探讨了MongoDB Atlas的核心特性、实践应用及对云原生数据库未来的思考。MongoDB Atlas作为MongoDB的云原生版本,提供全球分布式、完全托管、弹性伸缩和安全合规等优势,支持快速部署、数据全球化、自动化运维和灵活定价。文章还讨论了云原生数据库的未来趋势,如架构灵活性、智能化运维和混合云支持,并分享了实施MongoDB Atlas的最佳实践。

热门文章

最新文章