`
jacobcookie
  • 浏览: 95066 次
社区版块
存档分类
最新评论

MongoDB 关于Map及Reduce

阅读更多

     Hadoop中的map/reduce(分布式计算模型)

     Mapper:对输入的列表中的每一个元素执行一个函数,生成一个列表结果。(运算前后列表的元素数量不变)

     Reduce:对输入的列表的所有元素执行一个函数操作,并将中间结果作为参数继续执行函数。

    

     map把(k1,v1)变成(k2,v2),shuffle把(k2,v2)变成(k2,list(v2)),reduce把(k2,list(v2))变成(k3,v3)。

     (k1,v1)来自于输入,是已知的,shuffle过程由程序自动完成,(k3,v3)也是我们知道的,所以程序员要实现

     的是(k2,v2)。就是说我们知道输入的数据的格式及内容,也知道输出的格式,但是输出内容是由程序计算

     出来的,可以当做是已知的。

     总的来说就是处理输入,产生输出。先把大数据map(分解),再逐一reduce(化简),形成最终结果。

 

     MapReduce在MongoDB中主要用于批量处理数据和集合操作,类似于RDBMS的group操作(分组统计)。

     用this访问当前文档,map中必须有emit函数,才能把map结果传给reduce。

     emit(key,value),key是分组的依据,value是你想要的东西。(也就是要统计的数据)

     如果map结果数据还是很大,可以再切分,然后分别执行reduce函数,所以reduce一定是可以反复利用。

     Map和Reduce函数用Js编写,语法遵循js标准。 

  

     以下是MongoDB官方的一个例子,就是统计一个标签系统中每个标签出现的次数。

    

> db.things.insert( { _id : 1, tags : ['dog', 'cat'] } );
> db.things.insert( { _id : 2, tags : ['cat'] } );
> db.things.insert( { _id : 3, tags : ['mouse', 'cat', 'dog'] } );
> db.things.insert( { _id : 4, tags : []  } );

> // map function
> map = function(){
...    this.tags.forEach(
...     function(z){//emit会遍历集合中的记录
...      emit( z , { count : 1 } ); //emit可以理解为调用reduce方法,这里参数为1[即累加1操作](统计)
...     }
...    );
...};

> // reduce function
> reduce = function( key , values ){
...    var total = 0;
...    for ( var i=0; i<values.length; i++ )
...        total += values[i].count;
...    return { count : total };
...};

//这个不属于官方例子,忽略掉
> f= function( key , rvalue ){
   //key 就是分组的依据
   //rvalue 就是reduce的结果 如value的一个实例 {count:6}
   if("cat"==key){
     rvalue.msg="this is cat tag ."
   }
   return rvalue;
...};

db.things.mapReduce(map,reduce,{out:'tmp'})
{
    "result" : "tmp",
    "timeMillis" : 316,
    "counts" : {
        "input" : 4,
        "emit" : 6,
        "output" : 3
    },
    "ok" : 1,
}
> db.tmp.find()
{ "_id" : "cat", "value" : { "count" : 3 } }
{ "_id" : "dog", "value" : { "count" : 2 } } // _id就是key , value就是处理后的返回值
{ "_id" : "mouse", "value" : { "count" : 1 } }

   

    MapReduce函数的参数列表如下:

   

db.runCommand(
 { mapreduce : <collection>,
   map : <mapfunction>,
   reduce : <reducefunction>
   [, query : <query filter object>]
   [, sort : <sort the query.  useful for optimization>]
   [, limit : <number of objects to return from collection>]
   [, out : <output-collection name>]
   [, keeptemp: <true|false>]
   [, finalize : <finalizefunction>]
   [, scope : <object where fields go into javascript global scope >]
   [, verbose : true]
 }
);
或者这么写:
db.collection.mapReduce(
                         <map>,
                         <reduce>,
                         {
                           <out>,
                           <query>,
                           <sort>,
                           <limit>,
                           <keytemp>,
                           <finalize>,
                           <scope>,
                           <jsMode>,
                           <verbose>
                         }
                       )
•mapreduce:指定要进行mapreduce处理的collection
•map:map函数
•reduce:reduce函数
•out:输出结果的collection的名字,不指定会默认创建一个随机名字的collection(如果使用了out选项,就不必指定keeptemp:true了,因为已经隐含在其中了)
•query:对目标集合进行过滤(query,limit,sort可以随意组合)
•sort:和limit结合的sort排序参数(也是在发往map函数前给文档排序),可以优化分组机制
•limit:发往map函数的文档数量的上限(要是没有limit,单独使用sort的用处不大)
•keytemp:是否保存临时结果,如果想在连接关闭后仍然保留这个集合,就要指定keeptemp为true,如果你用的是MongoDB的mongo客户端连接,那必须exit后才会删除。如果是脚本执行,脚本退出或调用close会自动删除结果collection
•finalize:处理结果的最后函数
•scope:向map、reduce、finalize导入外部变量。
•verbose:是否显示详细的信息

  

   MapReduce函数返回的文档结果如下:

   

{ result : <collection_name>, 

    timeMillis : <job_time>, 

    counts : { 

               input : <number of objects scanned>, 

               emit : <number of times emit was called>, 

               output : <number of items in output collection>

     } ,

     ok : <1_if_ok>,

     [, err : <errmsg_if_error>] 

}
•result:储存结果的collection的名字,这是个临时集合,MapReduce的连接关闭后自动就被删除了。
•timeMillis:执行花费的时间,毫秒为单位
•input:满足条件被发送到map函数的文档个数
•emit:在map函数中emit被调用的次数,也就是所有集合中的数据总量
•ouput:结果集合中的文档个数(count对调试非常有帮助)
•ok:是否成功,成功为1
•err:如果失败,这里可以有失败原因,不过从经验上来看,原因比较模糊,作用不大

 

 

 

分享到:
评论

相关推荐

    MapReduceMongoDB:在 MongoDB 中使用 Map reduce

    标题:在 MongoDB 中使用 Map Reduce 检查波兰语和英语句子中的字母分布 动机 我们越来越多地听到各种网站遭到攻击以及密码非常薄弱的​​管理员的不负责任。 如何创建一个强密码:有一种观点认为你应该造一个句子,...

    mongodb数据库复习资料

    * Map-Reduce操作:mongodb的Map-Reduce操作是指使用不同的管道阶段操作器进行聚合操作的过程。 * Map阶段:mongodb的Map阶段是指将数据映射到指定的键上。 * Reduce阶段:mongodb的Reduce阶段是指将数据聚合到一起...

    mongodb总结

    MongoDB 的 Map-Reduce 功能用于处理大数据和聚合操作。`map()` 函数用于遍历数据并生成键值对,`reduce()` 函数则对这些键值对进行聚合。Map-Reduce 适合执行复杂的数据分析任务,但效率相对较低,一般用于离线...

    Loggio:Java Bases Log Framework with Elastic Search Distributed Architecture & MongoDB Map Reduce based Recommendation Logging

    Java Bases Log Framework with Elastic Search Distributed Architecture & MongoDB Map Reduce based Recommendation Logging 建筑学 建筑学 弹性搜索 MongoDB 和 Map Reduce 部署说明 要快速使用 Loggio,您必须...

    mongodb-win32-x86_64-2008plus-ssl-v3.4-latest-signed.msi

    Mongodb中的Map/reduce主要是用来对数据进行批量处理和聚合操作。 Map和Reduce。Map函数调用emit(key,value)遍历集合中所有的记录,将key与value传给Reduce函数进行处理。 Map函数和Reduce函数是使用Javascript...

    mongodb 3.4 手册

    综上所述,MongoDB 3.4手册是一份全面、权威的文档,从安装MongoDB开始,到基础操作、CRUD、性能优化、聚合操作、Map-Reduce处理以及文本搜索等功能,为开发者提供了详尽的指导。无论是数据库管理员还是应用程序...

    MongoDB MapReduce分享.ppt

    MapReduce 包含两个主要函数:Map 和 Reduce。Map 阶段负责将输入数据分解成小块,然后对每一块应用一个函数,生成中间键值对。Reduce 阶段则负责收集这些中间结果,通过相同的键进行合并和减少,从而得到最终的结果...

    Mongo-Commands:MongoDB命令速查表。 包含map-reduce,aggregate等

    以下是对MongoDB中`map-reduce`和`aggregate`两个重要功能的详细解释。 ### 1. Map-Reduce Map-Reduce是一种处理大数据的编程模型,常用于数据聚合。在MongoDB中,map-reduce用于执行复杂的分析任务,通过将数据...

    mongodb aggregation运用例子

    在文档中提及的MongoDB聚合框架主要包括聚合管道、Map-Reduce以及一些单一用途的聚合操作。现在,让我们深入探索这些知识点。 ### 聚合管道(Aggregation Pipeline) 聚合管道是一个多层次的处理过程,它将数据...

    mongodb mapreduce 实例

    总结来说,MongoDB的MapReduce功能为我们提供了一种有效处理和分析大规模订单数据的方法,通过自定义的map和reduce函数,可以实现各种复杂的统计需求,这对于理解和优化业务表现非常有价值。在电子商务领域,这样的...

    MongoDB期末考试测试题

    `map`函数定义了如何将每个文档转换为键值对,`reduce`函数则负责聚合这些键值对。在这里,它用于生成不同专业学生名字的列表。 12. Aggregation Framework: `aggregate`命令用于执行聚合管道操作,例如统计不同...

    Mongodb入门教程、示例+Spring Boot完整示例+聚合.docx

    7. Mongodb 中的 Map/reduce 主要是用来对数据进行批量处理和聚合操作。 8. Map 函数调用 emit(key,value) 遍历集合中所有的记录,将 key 与 value 传给 Reduce 函数进行处理。 9. Map 函数和 Reduce 函数是使用 ...

    mongodb3.2.4说明文档

    虽然 Map-Reduce 在某些场景下仍然有用,但 MongoDB 推荐使用聚合管道进行数据分析,因为它提供了更高级的功能和更好的性能。 **7.3 单目的聚合操作** 部分聚合操作专门用于解决特定的问题,例如统计集合中的文档...

    MongoDB入门到精通

    - Map/Reduce 是一种数据处理模型,MongoDB 支持使用 Map/Reduce 对集合中的数据执行复杂的计算任务,如聚合数据、统计分析等。 7. **GridFS** - GridFS 是 MongoDB 提供的一个用于存储大文件(如音频、视频等)...

    基于MongoDB的BESIII分布式计算记账系统的研究与实现.pdf

    6. Map/Reduce:Map/Reduce 是一种分布式计算模型,用于处理大规模数据。该模型能够快速地对大量数据进行处理和分析。本文中,采用了 Map/Reduce 和 Matplotlib 等技术,提高了分析速度和实现了分析结果的多样化展示...

    mongodb安装培训文档

    6. 内置 MapReduce 功能,用于数据批量处理和聚合操作,Map 函数遍历记录,Reduce 函数处理结果。 7. GridFS 用于存储大量小文件。 8. 支持在服务器端执行 JavaScript 脚本,可以存储和调用函数。 9. 兼容多种编程...

    MongoDB数据库应用.docx

    8. 其他:MongoDB 还提供了其他一些功能,如 map-reduce 和聚合管道等。 Linux 下安装 MongoDB 操作: 1. 下载与解压:下载 MongoDB 的安装包,解压到指定目录下。 2. 运行服务端:使用命令mongod 启动 MongoDB ...

Global site tag (gtag.js) - Google Analytics