- 浏览: 67060 次
- 性别:
- 来自: 福建
文章分类
最新评论
Mongodb的研究总是断断续续,需要持续经营,将其积累,为日后的工作提供参考。
年底了,把今年用到的东西做个收敛。把这个年初就写了点的东西再好好收拾收拾。
今天尝试一把复制集群ReplicateSet模式,做个小总结,后续在这个帖子上不断填充。
集群配置相关链接:
征服 Mongodb 之 安装与系统服务配置
征服 Mongodb 之 主从复制&集群复制
基本操作相关链接:
征服 Mongodb 之 常用命令、基本数据类型
征服 Mongodb 之 Modifier初识
征服 Mongodb 之 Modifier增强
征服 Mongodb 之 CRUD
一、主从复制
一般数据库都会用到这种最通用的模式——主从模式。这种方式简单灵活,可用于备份、故障恢复,读扩展。为了平衡负载,一般通过读写分离模式,即主库写、从库读。
假设我们有两台MongoDB服务器,10.11.20.140和10.11.20.139。如果要配置主从复制,可参考如下实现:
Master(10.11.20.140):
Java代码
port = 27017
dbpath = /data/db
logpath = /var/log/mongodb.log
logappend = true
journal = true
pidfile = /var/run/mongodb.pid
fork = true
master = true
注意:
master=true
Slave(10.11.20.139):
Java代码
port=27017
dbpath = /data/db
logpath = /var/log/mongodb.log
logappend = true
journal = true
fork = true
slave = true
source = 10.11.20.140:27017
注意:
slave=true
source=10.11.20.140:27017
上述配置,即可完成Master-Slave
简单测试下,在Master(10.11.20.140)上写数据,在Slave(10.11.20.139)上读出。
Master写入:
mongo 10.11.20.140:27017
MongoDB shell version: 2.0.7
connecting to: 10.11.20.140:27017/test
> db.test.save( { a: 1 } )
Slave 读出:
mongo 10.11.20.139:27017
MongoDB shell version: 2.0.7
connecting to: 10.11.20.139:27017/test
> db.test.find()
{ "_id" : ObjectId("502cccaf2d44738c3b181391"), "a" : 1 }
>
完成主从同步!
注意:如果这是配置了“auth = false”,主从同步可能失败。
二、集群复制
主从复制虽然可以承受一定的负载压力,但这种方式仍然是一个单点,如果主库挂了,数据写入就成了风险。如果,当主库挂掉的时候,可以在访问ip不变的前提下,自动将从库作为主库使用,是不是就能避免这种风险?貌似这又涉及到Linux上的服务KeepAlive等等。
在Mongodb中,提供了一种优于主从模式的集群复制(ReplicateSet)。最理想的模式是,节点之间不分特定的主从。任何一个节点都可以是主节点primary,而其他节点都是secondary,甚至可以通过投票方式选出主节点。
一般的集群复制,可以是如下这个结构:
假设我们拥有3台Mongodb,192.168.158.130、192.168.158.131和192.168.158.132。我们希望这3台Mongodb能够构建ReplicateSet模式,可以依照如下操作实现:
1. 配置副本集
假设我们这里的副本集定为snowolf,需要在mongodb配置文件中进行如下配置:
Java代码
replSet = snowolf
然后,我们启动这两台Mongodb,查看状态。
Java代码
$ mongo 192.168.158.130
MongoDB shell version: 2.0.4
connecting to: 192.168.158.130/test
> rs.status()
{
"startupStatus" : 3,
"info" : "run rs.initiate(...) if not yet done for the set",
"errmsg" : "can't get local.system.replset config from self or any seed (EMPTYCONFIG)",
"ok" : 0
}
>
这时候,复制集群还没有达到可用,需要进一步配置。
2. 配置成员
这里可以在任一节点进行,通过rs.initiate(cfg)完成配置。
先配置一个中间变量:
Java代码
> cfg={_id:'snowolf',members:[
... {_id:0,host:'192.168.158.130:27017'},
... {_id:1,host:'192.168.158.131:27017'}]
... }
{
"_id" : "snowolf",
"members" : [
{
"_id" : 0,
"host" : "192.168.158.130:27017"
},
{
"_id" : 1,
"host" : "192.168.158.131:27017"
}
]
}
接下来,需要让配置生效:
Java代码
> rs.initiate(cfg)
{
"info" : "Config now saved locally. Should come online in about a minute.",
"ok" : 1
}
如果如上所示,说明配置成功。
这时候,再看看当前的状态:
Java代码
> rs.status()
{
"set" : "snowolf",
"date" : ISODate("2013-11-14T08:33:58Z"),
"myState" : 1,
"members" : [
{
"_id" : 0,
"name" : "192.168.158.130:27017",
"health" : 1,
"state" : 1,
"stateStr" : "PRIMARY",
"optime" : {
"t" : 1384417894000,
"i" : 1
},
"optimeDate" : ISODate("2013-11-14T08:31:34Z"),
"self" : true
},
{
"_id" : 1,
"name" : "192.168.158.131:27017",
"health" : 1,
"state" : 2,
"stateStr" : "SECONDARY",
"uptime" : 137,
"optime" : {
"t" : 1384417894000,
"i" : 1
},
"optimeDate" : ISODate("2013-11-14T08:31:34Z"),
"lastHeartbeat" : ISODate("2013-11-14T08:33:57Z"),
"pingMs" : 348
}
],
"ok" : 1
}
我们在一开始,并没有强制设定哪个IP是primary节点,哪个是secondary节点。这完全由Mongodb集群来决定。
这时在命令行下,提示符也发生了变化。
Primary节点:
Java代码
PRIMARY>
Secondary节点:
Java代码
SECONDARY>
别急,这时候还没有大功告成,如果直接在secondary上操作,会发生如下错误:
Java代码
SECONDARY> db.t.find()
error: { "$err" : "not master and slaveok=false", "code" : 13435 }
需要告知Mongodb集群,从哪台机器上进行读操作:
Java代码
SECONDARY> rs.slaveOk()
not master and slaveok=false
这时就不会有刚才的错误了。
测试:
在primary节点写入操作:
Java代码
PRIMARY> db.t.insert({uid:12345})
PRIMARY> db.t.find()
{ "_id" : ObjectId("52848f782c6dd18b00fdf65d"), "uid" : 12345 }
在secondary节点读操作:
Java代码
SECONDARY> db.t.find()
{ "_id" : ObjectId("52848f782c6dd18b00fdf65d"), "uid" : 12345 }
似乎大功告成,如果这时候我们把primary节点停掉,在secondary节点执行写操作,就会发生如下错误提示:
Java代码
SECONDARY> db.t.insert({uid:12345})
not master
如果只有2台Mongodb,配置复制集群还不够安全,需要1个外在角色调整各个节点的角色。
这些节点包括:
statndard 常规节点,存储一份完整的数据副本,参与投票,可以成为活跃节点,即primary节点
passive 只做存储,参与投票
arbiter 仲裁者只投票,不复制数据,也不能成为活跃节点
当Primary宕掉后,可以通过Arbiter在Secodarys中选举一个Primary节点,避免单点故障。
现在,我们可以增加一个仲裁节点,只负责仲裁,不做数据存储。
Java代码
PRIMARY> rs.addArb("192.168.158.132:27017")
{ "ok" : 1 }
仲裁节点命令行提示:
Java代码
ARBITER>
这时候,再看各个节点的状态,也发生了变化:
Java代码
PRIMARY> rs.status()
{
"set" : "snowolf",
"date" : ISODate("2013-11-14T09:07:39Z"),
"myState" : 1,
"members" : [
{
"_id" : 0,
"name" : "192.168.158.130:27017",
"health" : 1,
"state" : 2,
"stateStr" : "SECONDARY",
"uptime" : 390,
"optime" : {
"t" : 1384420036000,
"i" : 1
},
"optimeDate" : ISODate("2013-11-14T09:07:16Z"),
"lastHeartbeat" : ISODate("2013-11-14T09:07:39Z"),
"pingMs" : 1
},
{
"_id" : 1,
"name" : "192.168.158.131:27017",
"health" : 1,
"state" : 1,
"stateStr" : "PRIMARY",
"optime" : {
"t" : 1384420036000,
"i" : 1
},
"optimeDate" : ISODate("2013-11-14T09:07:16Z"),
"self" : true
},
{
"_id" : 2,
"name" : "192.168.158.132:27017",
"health" : 1,
"state" : 7,
"stateStr" : "ARBITER",
"uptime" : 23,
"optime" : {
"t" : 1384419192000,
"i" : 1
},
"optimeDate" : ISODate("2013-11-14T08:53:12Z"),
"lastHeartbeat" : ISODate("2013-11-14T09:07:38Z"),
"pingMs" : 295147904
}
],
"ok" : 1
}
如果这时候,我们把primary节点停掉,是否还会影响集群的稳定性?
由于存在arbiter节点,如果primary节点宕掉,剩余的secondary会被选为primary节点,继续提供服务。
至此,主从复制、集群复制完成配置。
疑问,这个小集群里,是如何判断谁是Master节点、Primary节点呢?
对比三个节点对自身节点性质的判断:
Primary:
Java代码
PRIMARY> db.isMaster()
{
"setName" : "snowolf",
"ismaster" : true,
"secondary" : false,
"hosts" : [
"192.168.158.130:27017",
"192.168.158.131:27017"
],
"arbiters" : [
"192.168.158.132:27017"
],
"primary" : "192.168.158.130:27017",
"me" : "192.168.158.130:27017",
"maxBsonObjectSize" : 16777216,
"ok" : 1
}
Secondary:
Java代码
SECONDARY> db.isMaster()
{
"setName" : "snowolf",
"ismaster" : false,
"secondary" : true,
"hosts" : [
"192.168.158.131:27017",
"192.168.158.130:27017"
],
"arbiters" : [
"192.168.158.132:27017"
],
"primary" : "192.168.158.130:27017",
"me" : "192.168.158.131:27017",
"maxBsonObjectSize" : 16777216,
"ok" : 1
}
Arbiter:
Java代码
ARBITER> db.isMaster()
{
"setName" : "snowolf",
"ismaster" : false,
"secondary" : false,
"hosts" : [
"192.168.158.131:27017",
"192.168.158.130:27017"
],
"arbiters" : [
"192.168.158.132:27017"
],
"primary" : "192.168.158.130:27017",
"arbiterOnly" : true,
"me" : "192.168.158.132:27017",
"maxBsonObjectSize" : 16777216,
"ok" : 1
}
我想,大家应该看明白了。访问任意节点,都可以找到活跃节点的IP。
年底了,把今年用到的东西做个收敛。把这个年初就写了点的东西再好好收拾收拾。
今天尝试一把复制集群ReplicateSet模式,做个小总结,后续在这个帖子上不断填充。
集群配置相关链接:
征服 Mongodb 之 安装与系统服务配置
征服 Mongodb 之 主从复制&集群复制
基本操作相关链接:
征服 Mongodb 之 常用命令、基本数据类型
征服 Mongodb 之 Modifier初识
征服 Mongodb 之 Modifier增强
征服 Mongodb 之 CRUD
一、主从复制
一般数据库都会用到这种最通用的模式——主从模式。这种方式简单灵活,可用于备份、故障恢复,读扩展。为了平衡负载,一般通过读写分离模式,即主库写、从库读。
假设我们有两台MongoDB服务器,10.11.20.140和10.11.20.139。如果要配置主从复制,可参考如下实现:
Master(10.11.20.140):
Java代码
port = 27017
dbpath = /data/db
logpath = /var/log/mongodb.log
logappend = true
journal = true
pidfile = /var/run/mongodb.pid
fork = true
master = true
注意:
master=true
Slave(10.11.20.139):
Java代码
port=27017
dbpath = /data/db
logpath = /var/log/mongodb.log
logappend = true
journal = true
fork = true
slave = true
source = 10.11.20.140:27017
注意:
slave=true
source=10.11.20.140:27017
上述配置,即可完成Master-Slave
简单测试下,在Master(10.11.20.140)上写数据,在Slave(10.11.20.139)上读出。
Master写入:
mongo 10.11.20.140:27017
MongoDB shell version: 2.0.7
connecting to: 10.11.20.140:27017/test
> db.test.save( { a: 1 } )
Slave 读出:
mongo 10.11.20.139:27017
MongoDB shell version: 2.0.7
connecting to: 10.11.20.139:27017/test
> db.test.find()
{ "_id" : ObjectId("502cccaf2d44738c3b181391"), "a" : 1 }
>
完成主从同步!
注意:如果这是配置了“auth = false”,主从同步可能失败。
二、集群复制
主从复制虽然可以承受一定的负载压力,但这种方式仍然是一个单点,如果主库挂了,数据写入就成了风险。如果,当主库挂掉的时候,可以在访问ip不变的前提下,自动将从库作为主库使用,是不是就能避免这种风险?貌似这又涉及到Linux上的服务KeepAlive等等。
在Mongodb中,提供了一种优于主从模式的集群复制(ReplicateSet)。最理想的模式是,节点之间不分特定的主从。任何一个节点都可以是主节点primary,而其他节点都是secondary,甚至可以通过投票方式选出主节点。
一般的集群复制,可以是如下这个结构:
假设我们拥有3台Mongodb,192.168.158.130、192.168.158.131和192.168.158.132。我们希望这3台Mongodb能够构建ReplicateSet模式,可以依照如下操作实现:
1. 配置副本集
假设我们这里的副本集定为snowolf,需要在mongodb配置文件中进行如下配置:
Java代码
replSet = snowolf
然后,我们启动这两台Mongodb,查看状态。
Java代码
$ mongo 192.168.158.130
MongoDB shell version: 2.0.4
connecting to: 192.168.158.130/test
> rs.status()
{
"startupStatus" : 3,
"info" : "run rs.initiate(...) if not yet done for the set",
"errmsg" : "can't get local.system.replset config from self or any seed (EMPTYCONFIG)",
"ok" : 0
}
>
这时候,复制集群还没有达到可用,需要进一步配置。
2. 配置成员
这里可以在任一节点进行,通过rs.initiate(cfg)完成配置。
先配置一个中间变量:
Java代码
> cfg={_id:'snowolf',members:[
... {_id:0,host:'192.168.158.130:27017'},
... {_id:1,host:'192.168.158.131:27017'}]
... }
{
"_id" : "snowolf",
"members" : [
{
"_id" : 0,
"host" : "192.168.158.130:27017"
},
{
"_id" : 1,
"host" : "192.168.158.131:27017"
}
]
}
接下来,需要让配置生效:
Java代码
> rs.initiate(cfg)
{
"info" : "Config now saved locally. Should come online in about a minute.",
"ok" : 1
}
如果如上所示,说明配置成功。
这时候,再看看当前的状态:
Java代码
> rs.status()
{
"set" : "snowolf",
"date" : ISODate("2013-11-14T08:33:58Z"),
"myState" : 1,
"members" : [
{
"_id" : 0,
"name" : "192.168.158.130:27017",
"health" : 1,
"state" : 1,
"stateStr" : "PRIMARY",
"optime" : {
"t" : 1384417894000,
"i" : 1
},
"optimeDate" : ISODate("2013-11-14T08:31:34Z"),
"self" : true
},
{
"_id" : 1,
"name" : "192.168.158.131:27017",
"health" : 1,
"state" : 2,
"stateStr" : "SECONDARY",
"uptime" : 137,
"optime" : {
"t" : 1384417894000,
"i" : 1
},
"optimeDate" : ISODate("2013-11-14T08:31:34Z"),
"lastHeartbeat" : ISODate("2013-11-14T08:33:57Z"),
"pingMs" : 348
}
],
"ok" : 1
}
我们在一开始,并没有强制设定哪个IP是primary节点,哪个是secondary节点。这完全由Mongodb集群来决定。
这时在命令行下,提示符也发生了变化。
Primary节点:
Java代码
PRIMARY>
Secondary节点:
Java代码
SECONDARY>
别急,这时候还没有大功告成,如果直接在secondary上操作,会发生如下错误:
Java代码
SECONDARY> db.t.find()
error: { "$err" : "not master and slaveok=false", "code" : 13435 }
需要告知Mongodb集群,从哪台机器上进行读操作:
Java代码
SECONDARY> rs.slaveOk()
not master and slaveok=false
这时就不会有刚才的错误了。
测试:
在primary节点写入操作:
Java代码
PRIMARY> db.t.insert({uid:12345})
PRIMARY> db.t.find()
{ "_id" : ObjectId("52848f782c6dd18b00fdf65d"), "uid" : 12345 }
在secondary节点读操作:
Java代码
SECONDARY> db.t.find()
{ "_id" : ObjectId("52848f782c6dd18b00fdf65d"), "uid" : 12345 }
似乎大功告成,如果这时候我们把primary节点停掉,在secondary节点执行写操作,就会发生如下错误提示:
Java代码
SECONDARY> db.t.insert({uid:12345})
not master
如果只有2台Mongodb,配置复制集群还不够安全,需要1个外在角色调整各个节点的角色。
这些节点包括:
statndard 常规节点,存储一份完整的数据副本,参与投票,可以成为活跃节点,即primary节点
passive 只做存储,参与投票
arbiter 仲裁者只投票,不复制数据,也不能成为活跃节点
当Primary宕掉后,可以通过Arbiter在Secodarys中选举一个Primary节点,避免单点故障。
现在,我们可以增加一个仲裁节点,只负责仲裁,不做数据存储。
Java代码
PRIMARY> rs.addArb("192.168.158.132:27017")
{ "ok" : 1 }
仲裁节点命令行提示:
Java代码
ARBITER>
这时候,再看各个节点的状态,也发生了变化:
Java代码
PRIMARY> rs.status()
{
"set" : "snowolf",
"date" : ISODate("2013-11-14T09:07:39Z"),
"myState" : 1,
"members" : [
{
"_id" : 0,
"name" : "192.168.158.130:27017",
"health" : 1,
"state" : 2,
"stateStr" : "SECONDARY",
"uptime" : 390,
"optime" : {
"t" : 1384420036000,
"i" : 1
},
"optimeDate" : ISODate("2013-11-14T09:07:16Z"),
"lastHeartbeat" : ISODate("2013-11-14T09:07:39Z"),
"pingMs" : 1
},
{
"_id" : 1,
"name" : "192.168.158.131:27017",
"health" : 1,
"state" : 1,
"stateStr" : "PRIMARY",
"optime" : {
"t" : 1384420036000,
"i" : 1
},
"optimeDate" : ISODate("2013-11-14T09:07:16Z"),
"self" : true
},
{
"_id" : 2,
"name" : "192.168.158.132:27017",
"health" : 1,
"state" : 7,
"stateStr" : "ARBITER",
"uptime" : 23,
"optime" : {
"t" : 1384419192000,
"i" : 1
},
"optimeDate" : ISODate("2013-11-14T08:53:12Z"),
"lastHeartbeat" : ISODate("2013-11-14T09:07:38Z"),
"pingMs" : 295147904
}
],
"ok" : 1
}
如果这时候,我们把primary节点停掉,是否还会影响集群的稳定性?
由于存在arbiter节点,如果primary节点宕掉,剩余的secondary会被选为primary节点,继续提供服务。
至此,主从复制、集群复制完成配置。
疑问,这个小集群里,是如何判断谁是Master节点、Primary节点呢?
对比三个节点对自身节点性质的判断:
Primary:
Java代码
PRIMARY> db.isMaster()
{
"setName" : "snowolf",
"ismaster" : true,
"secondary" : false,
"hosts" : [
"192.168.158.130:27017",
"192.168.158.131:27017"
],
"arbiters" : [
"192.168.158.132:27017"
],
"primary" : "192.168.158.130:27017",
"me" : "192.168.158.130:27017",
"maxBsonObjectSize" : 16777216,
"ok" : 1
}
Secondary:
Java代码
SECONDARY> db.isMaster()
{
"setName" : "snowolf",
"ismaster" : false,
"secondary" : true,
"hosts" : [
"192.168.158.131:27017",
"192.168.158.130:27017"
],
"arbiters" : [
"192.168.158.132:27017"
],
"primary" : "192.168.158.130:27017",
"me" : "192.168.158.131:27017",
"maxBsonObjectSize" : 16777216,
"ok" : 1
}
Arbiter:
Java代码
ARBITER> db.isMaster()
{
"setName" : "snowolf",
"ismaster" : false,
"secondary" : false,
"hosts" : [
"192.168.158.131:27017",
"192.168.158.130:27017"
],
"arbiters" : [
"192.168.158.132:27017"
],
"primary" : "192.168.158.130:27017",
"arbiterOnly" : true,
"me" : "192.168.158.132:27017",
"maxBsonObjectSize" : 16777216,
"ok" : 1
}
我想,大家应该看明白了。访问任意节点,都可以找到活跃节点的IP。
发表评论
-
Redis快速入门:安装、配置和操作
2015-03-08 11:50 460[size=x-large][size=medium]Redi ... -
redis;mongodb;memcache三者的性能比較
2015-03-08 11:50 499先说我自己用的情况: 最先用的memcache ,用于键值对关 ... -
Mongodb集群搭建的三种方式
2015-03-02 08:24 583Mongodb集群搭建的三种 ... -
Windows7下安装MongoDB
2015-03-02 08:24 390Windows7下安装MongoDB ... -
mongoDB安装并随windows开机自启
2015-02-27 10:02 560MongoDB安装并随windows开机自启 MongoD ... -
MongoDB命令帮助系统
2015-02-27 10:02 730MongoDB是一个NoSQL数据库系统:一个数据库可以包含多 ... -
MongoDB基本命令用
2015-02-27 10:01 516MongoDB基本命令用 成功启动MongoDB后,再打开一个 ...
相关推荐
13、MongoDB分片集群&高级集群架构详解_ev.rar13、MongoDB分片集群&高级集群架构详解_ev.rar13、MongoDB分片集群&高级集群架构详解_ev.rar13、MongoDB分片集群&高级集群架构详解_ev.rar13、MongoDB分片集群&高级集群...
在Windows环境中,搭建MongoDB的主从复制集群是一项常见的任务,以实现数据冗余和高可用性。以下是关于"单台windows搭建mongoDb主从集群"的知识点详细说明: 1. **主从复制(Replication)**: MongoDB的主从复制是...
MongoDB的主从复制是一种常见的高可用性和数据冗余策略,它允许数据在多个服务器之间进行复制,确保数据的安全性和服务的连续性。在主从复制模式中,一个MongoDB实例作为主节点负责处理所有写操作,而其他实例作为从...
### MongoDB 主从复制,副本集分布式存储 #### 一、MongoDB 主从复制与副本集的概念 MongoDB 是一种非常流行的非关系型数据库系统,它采用面向文档的数据模型,能够高效地处理大量的非结构化数据。为了提高系统的...
MongoMultiMaster是一个基于Python编写的工具,专门用于简化MongoDB主从复制(也称为分片集群)的配置过程。在大型分布式系统中,数据的可靠性和可用性是至关重要的,而MongoDB的主从复制机制正好能提供这样的功能。...
### MongoDB主从复制详解 #### 一、MongoDB主从复制概述 MongoDB的主从复制是一种常见的数据复制模式,它允许数据从一个主节点(Master)复制到一个或多个从节点(Slave)。这种架构有助于实现数据冗余、提高读取...
MongoDB的主从复制是一种数据冗余和故障转移机制,它允许数据在多个服务器之间进行复制,确保数据的安全性和可用性。在这个过程中,一个MongoDB实例作为主节点,负责接收所有写操作,而其他实例作为从节点,同步主...
"MongoDB 主从配置步骤详解" MongoDB 是一个基于分布式文件存储系统的开源文档数据库,具有高性能、易扩展、灵活的数据模型等特点。为了提高数据库的可用性和高可用性,MongoDB 提供了主从配置的功能,以下是 ...
深入学习MongoDB:Scaling MongoDB && 50 Tips and Tricks for MongoDB Developers深入学习MongoDB中文版Scaling MongoDB英文版50 Tips and Tricks for MongoDB Developers英文版高清完整目录3本打包合集
MongoDB是一种流行的开源文档数据库系统,它以其高性能、高可用性和可扩展性而备受赞誉。在企业级应用中,为了确保数据的安全性和服务的连续性,通常...了解和掌握这些知识对于运行大型、高可用的MongoDB集群至关重要。
MongoDB的主从复制是一种常见的数据冗余和故障恢复策略,它允许数据在多个服务器之间进行同步,确保数据的安全性和可用性。主从复制的基本原理是,一个MongoDB实例作为主节点,负责处理所有写操作,而其他节点作为从...
通过以上步骤,您可以成功地在Linux环境下搭建MongoDB主从集群,并实现基本的数据管理和维护功能。这样的配置能够有效地提高数据处理能力和系统可用性,特别是在高并发场景下表现更加突出。希望这些步骤能帮助您更好...
linux mongodb分布式负载... MongoDB集群主从复制部署帮助文档 MongoDB集群主从复制使用帮助文档 MongoDB集群主从复制遇到问题解决文档 mongodb网页资料 linux内网生产环境使用;文档比较清晰,按照步骤安装即可;
15、MongoDB建模调优&change stream实战_ev.rar15、MongoDB建模调优&change stream实战_ev.rar15、MongoDB建模调优&change stream实战_ev.rar15、MongoDB建模调优&change stream实战_ev.rar15、MongoDB建模调优&...
14、MongoDB存储原理&多文档事务详解_ev.rar14、MongoDB存储原理&多文档事务详解_ev.rar14、MongoDB存储原理&多文档事务详解_ev.rar14、MongoDB存储原理&多文档事务详解_ev.rar14、MongoDB存储原理&多文档事务详解_...
MongoDB的主从复制是一种传统的高可用性和数据冗余机制,它允许数据在多个服务器之间进行复制,确保数据的安全性和服务的连续性。虽然现在MongoDB推荐使用副本集(Replica Sets)代替主从复制,因为副本集提供了更高...