MongoDB(Aggregation)


Aggregation

聚合(aggregate)指令可以操作一个集合中的文档,将统计或处理部分的域, 再经过加工后返回到客户端,这些工作都是在服务器端完成的。如果是使用pipeline,通常就是按顺序将整个集合传进去,然后进行加工处理,但是可以通过一些操作符在传递整个集合之前进行筛选。pipline还可以得到index的支持。


Aggregation Pipeline 管道

Pipline Optimization 优化操作

在执行聚合的时候,其中有一个优化的阶段,通常就是通过调整操作符之间的相对顺序来达到优化的目的,比如下面这些典型的例子。

当在aggregate时使用了$sort + $match 的时候,match在sort之前可能会减少一些集合的排序工作:
{ $match: { status: 'A' } },{ $sort: { age : -1 } }

当在aggregate时使用了$skip + $limit的时候,limit在skip之前可能会减少一些工作量。考虑如下的顺序:
{ $skip: 10 },{ $limit: 5 }
先忽略了前10个,再取出5个。在执行skip操作的时候,被操作的是被选中的所有文档,最终我们才要了其中的5个。再考虑如下的顺序:
{ $limit: 15 },{ $skip: 10 }
先限制返回的文档最多只有15个,然后再操作这15个文档,进行skip。相对来说,比上面的方式要快了。

优化器还会执行一些相对比较复杂的优化操作。举个例子,考虑如下的操作顺序:
{ $redact: { $cond: { if: { $eq: [ "$level", 5 ] }, then: "$$PRUNE", else: "$$DESCEND" } } }, { $match: { year: 2014, category: { $ne: "Z" } } }
先进行编辑,再进行匹配。这两个操作似乎是有依赖的,因为编辑了之后可能会有一些field值的变动,会影响后面match的结果。为了优化操作,可以先执行一部分的匹配,减少选中的文档,再进行redact操作就可以减少了一些的时间啦。所以,优化之后的样子可能是这样的:
{ $match: { year: 2014 } }, { $redact: { $cond: { if: { $eq: [ "$level", 5 ] }, then: "$$PRUNE", else: "$$DESCEND" } } }, { $match: { year: 2014, category: { $ne: "Z" } } }

Pipeline Limits 操作限制

自2.6开始,aggregate命令就可以返回一个cursor或者将结果存储于一个集合中。每个文档的大小是符合BSON大小限制的(16MB),若超过了这个限制就会产生error。这个限制仅针对于返回的文档,而pipeline执行的过程中可能会超过这个限制。

如果没有指定要返回一个cursor或者是将结果存储于一个集合中,那么MongoDB默认返回一个包含结果的文档,此时如果超出BSON大小限制的话就会产生错误。

pipeline stage(翻译为阶段?)的内存限制是100MB,一旦超过限制就会出错。那要是文件比较大呢?可以考虑allowDiskUse选项,它会在必要时将临时数据存储到磁盘中去。


Map-Reduce 函数支持

mapreduce提供了一些aggregation pipline不支持的操作,使用起来更加灵活。它的样子就跟一个函数一样,返回的是文档集合。
mapreduce操作可以将操作结果写进集合中或者仅仅返回结果,操作过程中可以执行一连续的map、reduce等操作,对上一次的输出进行输入。

Map-Reduce exampes 例子

假设有一个orders集合,每个文档表示一个订单,文档大致如下所示:

{
     _id: ObjectId("50a8240b927d5d8b5891743c"),
     cust_id: "abc123",
     ord_date: new Date("Oct 04, 2012"),
     status: 'A',
     price: 25,
     items: [ { sku: "mmm", qty: 5, price: 2.5 },
              { sku: "nnn", qty: 5, price: 2.5 } ]
}

现在要查询每个用户一共支付了多少钱,这需要对每个订单根据用户id进行分类,再对其中的price域,进行求和


你可能感兴趣的:(MongoDB(Aggregation))