- 浏览: 60404 次
- 性别:
- 来自: 北京
文章分类
- 全部博客 (50)
- 心情日志 (2)
- WebLogic (0)
- WebSphere (0)
- Sturts (0)
- Hibernate (0)
- Tomcat (0)
- J2ME (0)
- J2EE (0)
- JDBC (0)
- Oracle (1)
- 原创技术 (1)
- WebService (0)
- EJB (0)
- JPDL (0)
- Cassandra (0)
- Servlet (1)
- Jetty (1)
- 心情杂感 (0)
- Java (7)
- Mina (1)
- Kittle (0)
- Apache (1)
- Mobl (0)
- Html5 (0)
- MongoDB (4)
- OsCahe (0)
- MemCache (1)
- F5 (0)
- ActionMQ (3)
- EBS (0)
- 企业应用集成 (0)
- 财务软件 (0)
- CRM (0)
- KahaDB (0)
- EAI (0)
- 架构设计 (2)
- C++ (0)
- C (0)
- ApacheCommon (0)
- Flex (0)
- ActionScript (0)
- JqueryMobile (0)
- NIO (0)
- Hadoop (0)
- ZooKeeper (2)
- 分布式应用 (0)
- Guzz (0)
- DataBus-数据总线 (0)
- FlexAir (0)
- JavaTV (0)
- JavaFx (0)
- Lucene (3)
- Nginx (0)
- Linux (4)
- Rsync (0)
- FreeMarker (0)
- FireBird (0)
- MySQL (0)
- 项目目录 (0)
- Node.JS (0)
- Comeressor (0)
- 我关注的博客 (0)
- Hbase (2)
- Hive (1)
- Ehcache (0)
- Redis (2)
- Tair (0)
- XSocket (2)
- Tokyo Cabinet (3)
- OsCache (0)
- BoneCP (1)
- C3P0 (0)
- Apache Common (1)
- JQuery (1)
- SVN (1)
- 系统架构 (2)
- Berkeley DB (1)
最新评论
-
heping9574:
你这都什么啊,直接通过翻译软件翻译过来就能网上IBlockin ...
xSocket 教程
一共有4台机器,各自挂接一个存储,希望实现:
1.尽量节约存储
2.高可用性
3.存储大量数据
配置方案:
1.每一台机器做一个分片的主数据库
2.每一台机器做一个分片的后备数据库
3.每一台机器做一个分片的仲裁服务
4.两个两个一组交叉作对方的后备
5.有三台机器开配置服务
6.有一台机器开路由服务(生产环境可以在每一台Windows App服务器上开路由服务,App服务器集群做负载均衡)
这样的话,任何一台服务器完全离线(或者交叉的两台服务器离线),都能保证整个系统正常运行。不过在服务器和服务器起来之后需要:
1.在升级成为主数据库的那个后备数据库上运行rs.StepDown(100)来让它让出主数据库的位置,因为每一个分片的活动数据库都应该由独立服务器担当,以获得最好的性能
2.配置服务和后备数据库起来之后不需要做任何调整
192.168.129.142
mkdir -p /usr/data/shard1
mkdir -p /usr/data/shard2
mkdir -p /usr/data/shard3
mkdir -p /usr/data/config1
/usr/local/mongodb-linux-x86_64-1.6.4/bin/mongod --fork --shardsvr --port 10001 --dbpath /usr/data/shard1/ --logpath /usr/data/shard1/log.log --replSet shard1 --rest
/usr/local/mongodb-linux-x86_64-1.6.4/bin/mongod --fork --shardsvr --port 10002 --dbpath /usr/data/shard2/ --logpath /usr/data/shard2/log.log --replSet shard2 --rest
/usr/local/mongodb-linux-x86_64-1.6.4/bin/mongod --fork --shardsvr --port 10003 --dbpath /usr/data/shard3/ --logpath /usr/data/shard3/log.log --replSet shard3 --rest
/usr/local/mongodb-linux-x86_64-1.6.4/bin/mongod --fork --configsvr --port 20001 --dbpath /usr/data/config1/ --logpath /usr/data/config1/log.log --rest
ps aux | grep mongodb | grep -v grep
/usr/local/mongodb-linux-x86_64-1.6.4/bin/mongo --port 10001
config = {_id: 'shard1', members: [
{_id: 0, host: '192.168.129.142:10001'},
{_id: 1, host: '192.168.129.172:10001'},
{_id: 2, host: '192.168.129.173:10001', arbiterOnly: true}
]}
rs.initiate(config)
rs.status()
192.168.129.172
mkdir -p /usr/data/shard2
mkdir -p /usr/data/shard1
mkdir -p /usr/data/shard4
mkdir -p /usr/data/config2
/usr/local/mongodb-linux-x86_64-1.6.4/bin/mongod --fork --shardsvr --port 10002 --dbpath /usr/data/shard2/ --logpath /usr/data/shard2/log.log --replSet shard2 --rest
/usr/local/mongodb-linux-x86_64-1.6.4/bin/mongod --fork --shardsvr --port 10001 --dbpath /usr/data/shard1/ --logpath /usr/data/shard1/log.log --replSet shard1 --rest
/usr/local/mongodb-linux-x86_64-1.6.4/bin/mongod --fork --shardsvr --port 10004 --dbpath /usr/data/shard4/ --logpath /usr/data/shard4/log.log --replSet shard4 --rest
/usr/local/mongodb-linux-x86_64-1.6.4/bin/mongod --fork --configsvr --port 20002 --dbpath /usr/data/config2/ --logpath /usr/data/config2/log.log --rest
ps aux | grep mongodb | grep -v grep
/usr/local/mongodb-linux-x86_64-1.6.4/bin/mongo --port 10002
config = {_id: 'shard2', members: [
{_id: 0, host: '192.168.129.172:10002'},
{_id: 1, host: '192.168.129.142:10002'},
{_id: 2, host: '192.168.129.175:10002', arbiterOnly: true}
]}
rs.initiate(config)
rs.status()
192.168.129.173
mkdir -p /usr/data/shard3
mkdir -p /usr/data/shard4
mkdir -p /usr/data/shard1
mkdir -p /usr/data/config3
/usr/local/mongodb-linux-x86_64-1.6.4/bin/mongod --fork --shardsvr --port 10003 --dbpath /usr/data/shard3/ --logpath /usr/data/shard3/log.log --replSet shard3 --rest
/usr/local/mongodb-linux-x86_64-1.6.4/bin/mongod --fork --shardsvr --port 10004 --dbpath /usr/data/shard4/ --logpath /usr/data/shard4/log.log --replSet shard4 --rest
/usr/local/mongodb-linux-x86_64-1.6.4/bin/mongod --fork --shardsvr --port 10001 --dbpath /usr/data/shard1/ --logpath /usr/data/shard1/log.log --replSet shard1 --rest
/usr/local/mongodb-linux-x86_64-1.6.4/bin/mongod --fork --configsvr --port 20003 --dbpath /usr/data/config3/ --logpath /usr/data/config3/log.log --rest
ps aux | grep mongodb | grep -v grep
/usr/local/mongodb-linux-x86_64-1.6.4/bin/mongo --port 10003
config = {_id: 'shard3', members: [
{_id: 0, host: '192.168.129.173:10003'},
{_id: 1, host: '192.168.129.175:10003'},
{_id: 2, host: '192.168.129.142:10003', arbiterOnly: true}
]}
rs.initiate(config)
rs.status()
192.168.129.175
mkdir -p /usr/data/shard4
mkdir -p /usr/data/shard3
mkdir -p /usr/data/shard2
mkdir -p /usr/data/master
/usr/local/mongodb-linux-x86_64-1.6.4/bin/mongod --fork --shardsvr --port 10004 --dbpath /usr/data/shard4/ --logpath /usr/data/shard4/log.log --replSet shard4 --rest
/usr/local/mongodb-linux-x86_64-1.6.4/bin/mongod --fork --shardsvr --port 10003 --dbpath /usr/data/shard3/ --logpath /usr/data/shard3/log.log --replSet shard3 --rest
/usr/local/mongodb-linux-x86_64-1.6.4/bin/mongod --fork --shardsvr --port 10002 --dbpath /usr/data/shard2/ --logpath /usr/data/shard2/log.log --replSet shard2 --rest
/usr/local/mongodb-linux-x86_64-1.6.4/bin/mongos --fork --port 40000 --logpath /usr/data/master/log.log --chunkSize 1
"192.168.129.142:20001,192.168.129.172:20002,192.168.129.173:20003"
ps aux | grep mongodb | grep -v grep
/usr/local/mongodb-linux-x86_64-1.6.4/bin/mongo --port 10004
config = {_id: 'shard4', members: [
{_id: 0, host: '192.168.129.175:10004'},
{_id: 1, host: '192.168.129.173:10004'},
{_id: 2, host: '192.168.129.172:10004', arbiterOnly: true}
]}
rs.initiate(config)
rs.status()
/usr/local/mongodb-linux-x86_64-1.6.4/bin/mongo --port 40000
use admin
db.runCommand({ addshard:'shard1/192.168.129.142:10001,192.168.129.172:10001' })
db.runCommand({ addshard:'shard2/192.168.129.172:10002,192.168.129.142:10002' })
db.runCommand({ addshard:'shard3/192.168.129.173:10003,192.168.129.175:10003' })
db.runCommand({ addshard:'shard4/192.168.129.175:10004,192.168.129.173:10004' })
db.runCommand({ listshards:1 })
db.runCommand({ enablesharding:'test' })
db.runCommand({ shardcollection:'test.data', key:{_id:1} })
printShardingStatus()
插入大量数据后的结果:
db.data.stats()
{
"sharded" : true,
"ns" : "test.data",
"count" : 1992002,
"size" : 2103555152,
"avgObjSize" : 1056.0005220878293,
"storageSize" : 2464232960,
"nindexes" : 1,
"nchunks" : 23,
"shards" : {
"shard1" : {
"ns" : "test.data",
"count" : 1271788,
"size" : 1343008448,
"avgObjSize" : 1056.0002516142627,
"storageSize" : 1568785152,
"numExtents" : 25,
"nindexes" : 1,
"lastExtentSize" : 267987712,
"paddingFactor" : 1,
"flags" : 1,
"totalIndexSize" : 52658176,
"indexSizes" : {
"_id_" : 52658176
},
"ok" : 1
},
"shard2" : {
"ns" : "test.data",
"count" : 98494,
"size" : 104009808,
"avgObjSize" : 1056.001462017991,
"storageSize" : 111137536,
"numExtents" : 12,
"nindexes" : 1,
"lastExtentSize" : 25047552,
"paddingFactor" : 1,
"flags" : 1,
"totalIndexSize" : 4087808,
"indexSizes" : {
"_id_" : 4087808
},
"ok" : 1
},
"shard3" : {
"ns" : "test.data",
"count" : 487410,
"size" : 514705248,
"avgObjSize" : 1056.000590878316,
"storageSize" : 607047424,
"numExtents" : 20,
"nindexes" : 1,
"lastExtentSize" : 107698688,
"paddingFactor" : 1,
"flags" : 1,
"totalIndexSize" : 20250624,
"indexSizes" : {
"_id_" : 20250624
},
"ok" : 1
},
"shard4" : {
"ns" : "test.data",
"count" : 134310,
"size" : 141831648,
"avgObjSize" : 1056.0021442930533,
"storageSize" : 177262848,
"numExtents" : 14,
"nindexes" : 1,
"lastExtentSize" : 36068352,
"paddingFactor" : 1,
"flags" : 1,
"totalIndexSize" : 5570560,
"indexSizes" : {
"_id_" : 5570560
},
"ok" : 1
}
},
"ok" : 1
}
printShardingStatus()
--- Sharding Status ---
sharding version: { "_id" : 1, "version" : 3 }
shards:
{
"_id" : "shard1",
"host" : "shard1/192.168.129.142:10001,192.168.129.172:10001"
}
{
"_id" : "shard2",
"host" : "shard2/192.168.129.172:10002,192.168.129.142:10002"
}
{
"_id" : "shard3",
"host" : "shard3/192.168.129.173:10003,192.168.129.175:10003"
}
{
"_id" : "shard4",
"host" : "shard4/192.168.129.175:10004,192.168.129.173:10004"
}
databases:
{ "_id" : "admin", "partitioned" : false, "primary" : "config" }
{ "_id" : "test", "partitioned" : true, "primary" : "shard1" }
test.data chunks:
{ "_id" : { $minKey : 1 } } -->> { "_id" : ObjectId("4d01c5bc926adb17b8000001") } on : shard2 { "t" : 8000, "i" : 0 }
{ "_id" : ObjectId("4d01c5bc926adb17b8000001") } -->> { "_id" : ObjectId("4d01c620926adb17b800d1dd") } on : shard2 { "t" : 10000, "i" : 0 }
{ "_id" : ObjectId("4d01c620926adb17b800d1dd") } -->> { "_id" : ObjectId("4d01c669926adb17b80180bf") } on : shard4 { "t" : 9000, "i" : 0 }
{ "_id" : ObjectId("4d01c669926adb17b80180bf") } -->> { "_id" : ObjectId("4d01c6b6926adb17b8022fa1") } on : shard2 { "t" : 12000, "i" : 0 }
{ "_id" : ObjectId("4d01c6b6926adb17b8022fa1") } -->> { "_id" : ObjectId("4d01c6fd926adb17b802de83") } on : shard1 { "t" : 5000, "i" : 1 }
{ "_id" : ObjectId("4d01c6fd926adb17b802de83") } -->> { "_id" : ObjectId("4d01c74c926adb17b8038d65") } on : shard4 { "t" : 11000, "i" : 0 }
{ "_id" : ObjectId("4d01c74c926adb17b8038d65") } -->> { "_id" : ObjectId("4d01c795926adb17b8043c47") } on : shard4 { "t" : 13000, "i" : 0 }
{ "_id" : ObjectId("4d01c795926adb17b8043c47") } -->> { "_id" : ObjectId("4d01c7e6926adb17b804eb29") } on : shard1 { "t" : 6000, "i" : 2 }
{ "_id" : ObjectId("4d01c7e6926adb17b804eb29") } -->> { "_id" : ObjectId("4d01c82f926adb17b8059a0b") } on : shard1 { "t" : 6000, "i" : 4 }
{ "_id" : ObjectId("4d01c82f926adb17b8059a0b") } -->> { "_id" : ObjectId("4d01c8d4926adb17b806f7cf") } on : shard1 { "t" : 12000, "i" : 1 }
{ "_id" : ObjectId("4d01c8d4926adb17b806f7cf") } -->> { "_id" : ObjectId("4d01c963926adb17b8085593") } on : shard3 { "t" : 7000, "i" : 2 }
{ "_id" : ObjectId("4d01c963926adb17b8085593") } -->> { "_id" : ObjectId("4d01ca1c926adb17b809b357") } on : shard3 { "t" : 7000, "i" : 4 }
{ "_id" : ObjectId("4d01ca1c926adb17b809b357") } -->> { "_id" : ObjectId("4d01caf7926adb17b80b306a") } on : shard3 { "t" : 7000, "i" : 6 }
{ "_id" : ObjectId("4d01caf7926adb17b80b306a") } -->> { "_id" : ObjectId("4d01cbc2926adb17b80d09fd") } on : shard3 { "t" : 13000, "i" : 2 }
{ "_id" : ObjectId("4d01cbc2926adb17b80d09fd") } -->> { "_id" : ObjectId("4d01cc54926adb17b80e67c1") } on : shard3 { "t" : 14000, "i" : 1 }
{ "_id" : ObjectId("4d01cc54926adb17b80e67c1") } -->> { "_id" : ObjectId("4d01cec7926adb125c00d1dc") } on : shard1 { "t" : 14000, "i" : 2 }
{ "_id" : ObjectId("4d01cec7926adb125c00d1dc") } -->> { "_id" : ObjectId("4d01ced2926adb125c022fa0") } on : shard1 { "t" : 14000, "i" : 4 }
{ "_id" : ObjectId("4d01ced2926adb125c022fa0") } -->> { "_id" : ObjectId("4d01cedf926adb125c038d64") } on : shard1 { "t" : 14000, "i" : 6 }
{ "_id" : ObjectId("4d01cedf926adb125c038d64") } -->> { "_id" : ObjectId("4d01ceeb926adb125c04eb28") } on : shard1 { "t" : 14000, "i" : 8 }
{ "_id" : ObjectId("4d01ceeb926adb125c04eb28") } -->> { "_id" : ObjectId("4d01cf1a926adb125c07a6ab") } on : shard1 { "t" : 14000, "i" : 10 }
{ "_id" : ObjectId("4d01cf1a926adb125c07a6ab") } -->> { "_id" : ObjectId("4d01cf3c926adb125c0a622e") } on : shard1 { "t" : 14000, "i" : 12 }
{ "_id" : ObjectId("4d01cf3c926adb125c0a622e") } -->> { "_id" : ObjectId("4d01cf52926adb125c0d1db1") } on : shard1 { "t" : 14000, "i" : 14 }
{ "_id" : ObjectId("4d01cf52926adb125c0d1db1") } -->> { "_id" : ObjectId("4d01d58c926adb16480096f4") } on : shard1 { "t" : 14000, "i" : 16 }
{ "_id" : ObjectId("4d01d58c926adb16480096f4") } -->> { "_id" : { $maxKey : 1 } } on : shard1 { "t" : 14000, "i" : 17 }
另,这套配置插入1万条1KB数据的时间大约在1.4秒,如果使用最简单单进程配置的话速度稍快,在1.2秒,性能下降不是很厉害,可以接受。
在这里我们配置路由服务1M数据作为一个分块,大约在10M数据量的时候,数据开始写入shard3,在500M数据量的时候,数据开始移到shard2和shard4。
经过测试发现达到1000万数据量之后,有sharding的数据库进行无索引查询耗时8秒(最大的sharding数据量在350万),而没有sharding的数据库耗时260秒…………
相关推荐
在部署 MongoDB 分片(Sharding)和副本集(Replica Set)后,我们需要配置 MongoDB 的配置文件,以便 MongoDB 可以连接到 Kubernetes 集群并使用持久存储。 本解决方案的优点主要包括: * 高可用性:MongoDB 分片...
在大型分布式系统中,为了实现高可用性和水平扩展,MongoDB提供了两种关键特性:副本集(Replica Sets)和分片(Sharding)。这篇博客将探讨如何搭建MongoDB的副本集和分片集群。 首先,我们来理解一下MongoDB的...
分片配置完成后,MongoDB会自动将新插入的数据根据分片键分布到各个分片。对于已有数据,可以使用`sh.moveChunk()`命令手动迁移,或让MongoDB自动进行均衡。 8. **监控与维护**: 定期检查分片集群的健康状况,...
每个分片可以是一个单一的MongoDB服务器,也可以是一个副本集(Replica Set),从而为数据提供冗余和高可用性。配置服务器是保存整个分片集群元数据的关键组件,它记录了所有分片的信息和集群的数据分布情况。 数据...
此外,还有一个配置服务器复制集(Config Server Replica Set)在192.168.213.17:27018、192.168.213.18:27018和192.168.213.19:27018上运行,负责存储分片信息和路由数据。两个 Mongos 路由器(192.168.213.17:...
4. **配置服务器(Config Server)**:存储关于分片集群的元数据,如分片信息、副本集状态等。 从单节点升级到分片集群的步骤大致如下: 1. **安装 MongoDB**:在所有服务器上安装 MongoDB,并以服务方式启动和...
在大型部署中,为了保证数据的安全性和可用性,通常会采用分片(Sharding)和复制集(Replica Set)等技术。本文将详细介绍MongoDB的分片备份以及复制集的备份方法。 **1. 分片备份** MongoDB 分片是将大数据集...
本文将详细介绍2012年最新的MongoDB分片配置步骤,适用于权威的MongoDB环境搭建。 首先,我们需要了解分片的基本概念。在MongoDB中,分片是将数据集分割成小块(Chunks),并将这些块分布到不同的分片服务器...
MongoDB的分布式分片群集(Sharding Cluster)是一种针对大数据量场景的高效扩展解决方案。在MongoDB中,分片(Sharding)是通过将数据分布在多台服务器上来实现水平扩展,以处理海量数据和高并发请求。这种架构通常...
在2012年的版本中,MongoDB 的分片配置是分布式数据库设置的关键步骤,旨在提高系统的可扩展性和性能。 分片是一种将大型数据集分布在多个物理节点上的策略,每个节点存储数据的一部分,使得数据库能够处理更大的...
4. 设置分片:启用分片功能,创建分片配置服务器,然后添加分片和配置数据。 5. 分配数据:根据分片键将数据分配到各个分片上。 6. 配置路由:启动Mongos实例,让它们连接到分片配置服务器和分片服务器。 在实际...
该文档主要介绍了小米电商部门使用的MongoDB分片集群(Sharding Cluster)与副本集(Replica Set)的技术细节。分片集群是一种水平扩展方法,用于提高数据库系统的可伸缩性和性能;副本集则是一种高可用性的解决方案...
- **分片(Shards)**:每个分片都包含数据的一个子集,分片可以是单一的MongoDB实例也可以是一组副本集(Replica Set),后者提供了更高的可用性和数据冗余。 - **配置服务器(Config Servers)**:配置服务器用于...
可以从一个普通的 replica set,或者单个实例平滑升级,可以动态增加删除节点,响应数据快速增长。可以自动在节点间平衡数据量,避免负载集中在少数节点,而在这期间不影响数据库读写访问。对客户端,可以使用完全...
4. **配置Sharding**:在MongoDB shell中,连接到`mongos`,然后添加Shard节点到集群,并启用分片功能。这通常包括向集群注册Shard Server,然后选择一个集合并指定分片键。 分片集群的配置完成后,就可以开始使用...
在这个“MongoDB集群测试代码”中,我们关注的是MongoDB的两个关键特性:副本集(Replica Set)和分片(Sharding),以及如何通过配置文件和脚本来进行集群的设置与测试。 1. **副本集(Replica Set)**: - 副本...
- **Config Server**:配置服务器,运行mongod实例,存储集群的元数据,包括chunk的信息、shard的配置等,是整个分片集群的核心。 - **Query Router**:查询路由器,如Mongos,它是客户端与数据库之间的接口,将请求...
MongoDB 分片群集(Sharding Cluster)是解决大数据存储和处理的一种高效策略,它允许数据库水平扩展,通过将数据分布在多个服务器上,以应对高数据量和读写负载。在MongoDB中,分片提供了在不影响应用程序性能的...
5. 考虑使用分片(Sharding)进一步扩展和平衡读写负载,尤其是对于大数据量的应用。 总之,MongoDB的复制集提供了高可用性和数据冗余,通过合理配置和优化,可以有效提高系统的稳定性和性能。理解并掌握oplog、...
在高性能方面,需要使用分片(Sharding)来分布式存储数据。 设计框架 mongodb集群的设计框架主要包括三个部分:mongod、mongos和config server。mongod是mongodb的数据服务器,mongos是mongodb的路由服务器,...