`

Mongodb如何重复利用空间和usePowerOf2Size标识

 
阅读更多

前一段时间使用repair命令修复线上的数据库,发现数据库中碎片巨大,占用200多G的数据在repair之后只有50多G,然后就研究了一下Mongodb是如何利用已经删除了的空间的。
    分析下源码(源码版本2.2.2,新版本可能随时更新):
    Mongodb在执行删除(文档)操作时,并不会进行物理删除,而是将他们放入每个命名空间维护的删除列表里。

  1. //pdfile.cpp delete()
  2.        /* add to the free list */
  3.         {
  4.                 ....
  5.                 d->addDeletedRec((DeletedRecord*)todelete, dl);
  6.             }
  7.         }
  8. //namespace_detail.cpp addDeletedRec(..)
  9.        ....
  10.        else {
  11.             int b = bucket(d->lengthWithHeaders());
  12.             DiskLoc& list = deletedList[b];
  13.             DiskLoc oldHead = list;
  14.             getDur().writingDiskLoc(list) = dloc;
  15.             d->nextDeleted() = oldHead;
  16.         }


上面的deletedList就是维护的删除数据列表。

点击(此处)折叠或打开

  1. //namespace_detail.h
  2.  /* deleted lists -- linked lists of deleted records -- are placed in 'buckets' of various sizes so you can look for a deleterecord about the rightsize.
  3.  */
  4.     const int Buckets = 19;
  5.     const int MaxBucket = 18;
  6.     DiskLoc deletedList[Buckets];
  7.     int bucketSizes[] = { 32, 64, 128, 256, 0x200, 0x400, 0x800, 0x1000, 0x2000, 0x4000, 0x8000, 0x10000, 0x20000, 0x40000, 0x80000, 0x100000, 0x200000,0x400000, 0x800000};

       可以看到,deleteList数组实际保存的是DiskLoc,长度19,跟bucketSizes[]的长度一致。DiskLoc就是文档在磁盘上的位置,并且有后指针,可以指向下一个DiskLoc,从而组成一个列表。deleteList中实际就保存了19个列表,每个列表就是已经被删除文档地址,且这些文档都在bucketSizes所规定的的范围内。描述不太清楚,上图吧:




    插入文档时,Mongodb会先计算需要开辟多大的空间,然后去找deleteList中的位置,如果deleteList中不满足,那么才会去开辟新的空间。


点击(此处)折叠或打开

  1. //pdfile.cpp
  2. int lenWHdr = d->getRecordAllocationSize( len + Record::HeaderSize );
  3. DiskLoc loc;
  4.         if( addID || tableToIndex || d->isCapped() ) {
  5.             // if need id, we don'do the early indexing. this is not the common case so that is sort of ok
  6.             earlyIndex = false;
  7.             loc = allocateSpaceForANewRecord(ns, d, lenWHdr, god);
  8.         }
  9.         else {
  10.             loc = d->allocWillBeAt(ns, lenWHdr);
  11.             if( loc.isNull() ) {
  12.                 // need to get a new extent so we have to do the true alloc now (not common case)
  13.                 earlyIndex = false;
  14.                 loc = allocateSpaceForANewRecord(ns, d, lenWHdr, god);
  15.             }
  16.         }


我们暂时不讨论cappedCollection(固定大小的集合),只看常规集合


点击(此处)折叠或打开

  1. /* predetermine location of the next alloc without actually doing it. 
  2.         if cannot predetermine returns null (so still call alloc() then)
  3.     */
  4.     DiskLoc NamespaceDetails::allocWillBeAt(const char *ns, int lenToAlloc) {
  5.         if ( ! isCapped() ) {
  6.             lenToAlloc = (lenToAlloc + 3) & 0xfffffffc;
  7.             return __stdAlloc(lenToAlloc, true);
  8.         }
  9.         return DiskLoc();
  10.     }
  11.  /* for non-capped collections.
  12.        @param peekOnly just look up where and don't reserve
  13.        returned item is out of the deleted list upon return
  14.     */
  15.     DiskLoc NamespaceDetails::__stdAlloc(int len, bool peekOnly) {
  16.         DiskLoc *prev;
  17.         DiskLoc *bestprev = 0;
  18.         DiskLoc bestmatch;
  19.         int bestmatchlen = 0x7fffffff;
  20.         int b = bucket(len);
  21.         DiskLoc cur = deletedList[b];
  22.         prev = &deletedList[b];
  23.         int extra = 5; // look for a better fit, a little.
  24.         int chain = 0;
  25.         while ( 1 ) {
  26.             {
  27.                 int a = cur.a();
  28.                 if ( a < -|| a >= 100000 ) {
  29.                     problem() << "~~ Assertion - cur out of range in _alloc() " << 
  30. cur.toString() <<
  31.                               " a:" << a << " b:" << b << " chain:" << chain << '\n';
  32.                     logContext();
  33.                     if ( cur == *prev )
  34.                         prev->Null();
  35.                     cur.Null();
  36.                 }
  37.             }
  38.             if ( cur.isNull() ) {
  39.                 // move to next bucket. if we were doing "extra", just break
  40.                 if ( bestmatchlen < 0x7fffffff )
  41.                     break;
  42.                 b++;
  43.                 if ( b > MaxBucket ) {
  44.                     // out of space. alloc a new extent.
  45.                     return DiskLoc();
  46.                 }
  47.                 cur = deletedList[b];
  48.                 prev = &deletedList[b];
  49.                 continue;
  50.             }
  51.             DeletedRecord *= cur.drec();
  52.             if ( r->lengthWithHeaders() >= len &&
  53.                  r->lengthWithHeaders() < bestmatchlen ) {
  54.                 bestmatchlen = r->lengthWithHeaders();
  55.                 bestmatch = cur;
  56.                 bestprev = prev;
  57.             }
  58.             if ( bestmatchlen < 0x7fffffff && --extra <= 0 )
  59.                 break;
  60.             if ( ++chain > 30 && b < MaxBucket ) {
  61.                 // too slow, force move to next bucket to grab a big chunk
  62.                 //b++;
  63.                 chain = 0;
  64.                 cur.Null();
  65.             }
  66.             else {
  67.                 /*this defensive check only made sense for the mmap storage engine:
  68.                   if ( r->nextDeleted.getOfs() == 0 ) {
  69.                     problem() << "~~ Assertion - bad nextDeleted " << r->nextDeleted.toString() 
  70. <<
  71.                     " b:" << b << " chain:" << chain << ", fixing.\n";
  72.                     r->nextDeleted.Null();
  73.                 }*/
  74.                 cur = r->nextDeleted();
  75.                 prev = &r->nextDeleted();
  76.             }
  77.         }
  78.         /* unlink ourself from the deleted list */
  79.         if( !peekOnly ) {
  80.             DeletedRecord *bmr = bestmatch.drec();
  81.             *getDur().writing(bestprev) = bmr->nextDeleted();
  82.             bmr->nextDeleted().writing().setInvalid(); // defensive.
  83.             verify(bmr->extentOfs() < bestmatch.getOfs());
  84.         }
  85.         return bestmatch;
  86.     }


上面这段就是Mongodb在deleteList中寻找合适插入位置的算法.


  1. int b = bucket(len);
  2. DiskLoc cur = deletedList[b];


      这是最初始的寻找位置的算法,解释一下,bucket函数就是寻找跟len(插入文档的大小)最接近的bucketSize,比如说len=68,那么应该在64-128这个范围内,在deleteList中应该是第3个列表,那么b=2,cur就是返回的第三个列表的起始位置。如果找到了,那么就是用列表中的值,如果找不到,就继续往下一个列表中寻找。找到之后,将找到的位置从deleteList中删除,返回。

     如果所有的列表都遍历完成还是找不到,那么mongodb就会去硬盘上真的开辟一段空间。我们上面说过Mongodb会先计算需要开辟的空间大小,有两种方式
     1、doc's length + padding(点击查看
     2、usePowerOf2Size(点击查看

  1. //namespace_detail.cpp
  2. int NamespaceDetails::getRecordAllocationSize( int minRecordSize ) {
  3.         if ( _paddingFactor == 0 ) {
  4.             warning() << "implicit updgrade of paddingFactor of very old collection" << endl;
  5.             setPaddingFactor(1.0);
  6.         }
  7.         verify( _paddingFactor >= 1 );
  8.         if ( isUserFlagSet( Flag_UsePowerOf2Sizes ) ) {
  9.             int allocationSize = bucketSizes[ bucket( minRecordSize ) ];
  10.             if ( allocationSize < minRecordSize ) {
  11.                 // if we get here, it means we're allocating more than 8mb
  12.                 // the highest bucket is 8mb, so the above code will never return more than 8mb for allocationSize
  13.                 // if this happens, we are going to round up to the nearest megabyte
  14.                 fassert( 16439, bucket( minRecordSize ) == MaxBucket );
  15.                 allocationSize = 1 + ( minRecordSize | ( ( 1 << 20 ) - 1 ) );
  16.             }
  17.             return allocationSize;
  18.         }
  19.         return static_cast<int>(minRecordSize * _paddingFactor);
  20.     }


          第一种padding方式,Mongodb会计算一个_paddingFactor,开辟doclen*(1+paddingFactor)大小,以防止update引起的长度变大,需要移动数据。第二种方式usePowerOf2Size,Mongodb为文档开辟的空间总是2的倍数,如之前我们说过的,文档大小68字节,那么就会开辟128字节,bucket函数就是从bucketSize数组中寻找最接近文档长度的那个2的次方值。

点击(此处)折叠或打开

  1. //namespace_detail.cpp
  2.  int bucketSizes[] = {
  3.         32, 64, 128, 256, 0x200, 0x400, 0x800, 0x1000, 0x2000, 0x4000,
  4.         0x8000, 0x10000, 0x20000, 0x40000, 0x80000, 0x100000, 0x200000,
  5.         0x400000, 0x800000
  6.     };


     这两种方式各有优劣,padding方式会为文档开辟更合适的大小,而且paddingFactor比较小,一般为0.01-0.09,不会浪费空间,文档更新小的话也不会移动文档位置。但是当大量更新和删除的时候,这种方式重复利用空间的能力就比较小,因为在deleteList中,不太容易找到合适的已删除文档,而且一旦更新就会又移动位置,磁盘重复利用率低,增长快,碎片多。相比之下,usePowerOf2Size方式,Mongodb每次都会开辟比文档大的多的空间,使用空间变多,但是更新和删除的容错率就会比较高,因为在deleteList列表中更容易找到合适的删除文档(每个列表中的文档大小都是相同的固定的),更新的时候也不会大量移动位置,磁盘重复利用率高,增长慢。


所以,在读操作较多的应用中,可以使用padding方式,也是mongodb默认的方式,在写操作较多的应用中,可以使用usePowerOf2Size方式。
usePowerOf2Size是在创建集合的时候指定的
db.runCommand( {collMod: "products", usePowerOf2Sizes : true }) //enable
db.runCommand( {collMod: "products", usePowerOf2Sizes : false })//disable
usePowerOf2Size只影响新插入和更新引起的分配空间大小,对之前的文档不起作用。

分享到:
评论

相关推荐

    使用aggregate在MongoDB中查询重复数据记录的方法

    在本场景中,我们将探讨如何利用`aggregate`来查询和处理重复数据记录。 首先,理解`aggregate`的基本用法至关重要。在MongoDB中,`db.COLLECTION_NAME.aggregate(AGGREGATE_OPERATION)`命令用于对特定集合执行一...

    spring-data使用mongodbTemplate对MongoDB进行读写操作

    Spring Data MongoDB是一个强大的Java库,它为开发人员提供了一种简单的方式来访问和操作MongoDB数据库。这个库是Spring Data框架的一部分,旨在简化数据访问层的实现,尤其在使用NoSQL数据库如MongoDB时。MongoDB...

    MongoDB开发使用手册

    - MongoDB利用MMAP映射文件到虚拟内存,再映射到物理内存。 - 这种机制使得文件可以直接作为内存的一部分被访问,提高了数据读写的效率。 - **内存分配策略:** - MongoDB采用预分配的方式管理内存。 - 当新...

    mongodb-windows安装包: mongodb-compass-1.31.2-win32-x64.msi

    mongodb-windows安装包: mongodb-compass-1.31.2-win32-x64.msi 打开直接安装

    mongodb 2

    mongodb 2

    MongoDB安装资源(4.2.0版本和4.0.7版本).rar

    MongoDB是一款开源、分布式、高性能的NoSQL数据库,以其灵活性、可扩展性和高可用性而备受...MongoDB提供了丰富的命令行工具和管理选项,通过持续学习和实践,可以充分利用其特性,实现高效的数据管理和应用开发。

    mongodb的安装和使用简介

    MongoDB是一种开源的非关系型数据库系统,其特点在于分布式文件存储、高性能、易部署、易使用和存储格式灵活。MongoDB采用C++编写,支持存储各种复杂的数据类型,尤其擅长处理大量的数据。它的数据模型与传统的关系...

    geoserver发布mongodb矢量数据地图服务.docx

    Geoserver是一款功能强大且开源的地理信息系统(GIS)服务器,能够实现空间数据的存储、处理和发布。MongoDB是一款NoSQL数据库,能够存储大量的矢量数据。本文将介绍如何使用Geoserver将MongoDB矢量数据发布为地图...

    MongoDB实验 - .docx

    本实验报告旨在详细介绍 MongoDB 的安装、配置和基本操作步骤,本报告基于 CentOS 7 系统,通过一步一步的截图和文字说明,帮助读者快速掌握 MongoDB 的使用。 一、安装 MongoDB 首先,我们需要配置 MongoDB 的 ...

    mongodb安装包和compass

    MongoDB是一款开源、分布式、高性能的NoSQL数据库,它不使用传统的表格和列式结构来存储数据,而是采用键值对、文档、集合和图形数据模型。这种设计使得MongoDB在处理非结构化和半结构化数据时表现出色,特别适合大...

    java中mongodb使用环境详细配置

    MongoDB 是一个功能强大且灵活的 NoSQL 数据库,Java 开发者可以使用 MongoDB 来存储和管理数据。通过以上的配置和安装步骤,Java 开发者可以轻松地使用 MongoDB。 知识点总结: * MongoDB 的下载和安装 * MongoDB...

    mongodb-测试数据

    2. **聚合框架**:可能包含各种聚合管道示例,用于演示如何使用MongoDB的聚合功能进行数据统计和分析。 3. **索引创建和优化**:测试数据可能包含各种不同结构的文档,用于测试不同索引类型的效果,如单字段索引、...

    mongodb 的使用.docx

    3. **认证用户连接**:启用身份验证后,需使用 `--auth` 参数启动 MongoDB 服务,然后使用 `mongo` 命令行工具和 `-u`、`-p` 参数进行身份验证连接。 ### MongoDB 文档操作 MongoDB 存储数据的基本单位是文档,...

    MongoDB使用手册

    MongoDB使用手册是数据库管理员和开发者的宝贵资源,它涵盖了MongoDB的各种操作、管理以及最佳实践。MongoDB是一个流行的开源、非关系型数据库系统,以其灵活性、可扩展性和高性能著称。以下是一些核心的MongoDB知识...

    MongoDB的分析和报告的解决方案

    本文将深入探讨如何利用MongoDB进行数据分析和报告,并结合Databazel项目(尽管压缩包中的具体文件未给出详细信息,但我们可以假设它是一个与MongoDB数据分析相关的工具或示例)来增强这些能力。 首先,让我们了解...

    windows下mongodb安装与使用整理

    - 为了方便管理和使用 MongoDB,建议将其安装为 Windows 服务。 - 在命令提示符中输入以下命令: ``` &gt;D:\mongodb\bin&gt;mongod --dbpath "D:\mongodb\data\db" --logpath "D:\mongodb\data\log\MongoDB.log" --...

Global site tag (gtag.js) - Google Analytics