mongo 固定集合,大文件存储,简单优化 + 三招解决MongoDB的磁盘IO问题

1.固定集合

> db.createCollection('c1',{capped:true, size:100000, max:3});//固定集合  必须  显式创建。 设置capped为true, 集合总大小xxx字节, [集合中json个数max]

{ "ok" : 1 }

> db.c1.stats()

{

 "ns" : "test.c1",

 "count" : 0,

 "size" : 0,

 "storageSize" : 102400,

 "numExtents" : 1,

 "nindexes" : 0,

 "lastExtentSize" : 102400,

 "paddingFactor" : 1,

 "flags" : 0,

 "totalIndexSize" : 0,

 "indexSizes" : {



 },

 "capped" : 1,

 "max" : 3,

 "ok" : 1

}

> db.c1.insert({name:'1'});

> db.c1.insert({name:'2'});

> db.c1.insert({name:'3'});

> db.c1.find()

{ "_id" : ObjectId("51e28837cf05e15d315aa74a"), "name" : "1" }

{ "_id" : ObjectId("51e28839cf05e15d315aa74b"), "name" : "2" }

{ "_id" : ObjectId("51e2883dcf05e15d315aa74c"), "name" : "3" }

> db.c1.insert({name:'4'});

> db.c1.find()

{ "_id" : ObjectId("51e28839cf05e15d315aa74b"), "name" : "2" }

{ "_id" : ObjectId("51e2883dcf05e15d315aa74c"), "name" : "3" }

{ "_id" : ObjectId("51e28845cf05e15d315aa74d"), "name" : "4" }

普通集合转化为 固定集合

> db.runCommand({convertToCapped:'c1', size:1000000});

{ "ok" : 1 }

 

2.GridFS 存储大文件。 视频,大图片...

GrdiFS使用两个表来存储数据:

files 包含元数据对象

chunks 包含其他一些相关信息的二进制块.

 

3.性能优化

> db.c1.find().explain()//查看执行效率

{

 "cursor" : "ForwardCappedCursor",

 "nscanned" : 3,    //扫描集合中文档次数

 "nscannedObjects" : 3,

 "n" : 3,

 "millis" : 0,

 "nYields" : 0,

 "nChunkSkips" : 0,

 "isMultiKey" : false,

 "indexOnly" : false,

 "indexBounds" : {



 }

}

  3.1建立索引

> db.c1.ensureIndex({name:1}, {background:true});//后台建立索引

> db.c1.getIndexKeys();//简单的查看索引 元素

[ { "name" : 1 } ]

> db.c1.getIndexes();//查看索引 详细信息

[

 {

  "v" : 1,

  "key" : {

   "name" : 1

  },

  "ns" : "test.c1",

  "name" : "name_1",

  "background" : true

 }

]

> db.c1.find({name:'3'}).explain()

{

 "cursor" : "BtreeCursor name_1",

 "nscanned" : 1,//只查询一次

 "nscannedObjects" : 1,

 "n" : 1,

 "millis" : 0,

 "nYields" : 0,

 "nChunkSkips" : 0,

 "isMultiKey" : false,

 "indexOnly" : false,

 "indexBounds" : {

  "name" : [

   [

    "3",

    "3"

   ]

  ]

 }

}

建立唯一索引:

> db.c2.ensureIndex({age:1}, {unique:1}, {background:1});//唯一索引, 索引值不得重复。

删除索引:

> db.c2.dropIndex({age:1});

{ "nIndexesWas" : 2, "ok" : 1 }
db.c2.dropIndexes(); //删除所有索引,除_id索引外

  3.2限定返回行数, 设定返回字段数, 将集合转为固定集合

 

性能监控:

mongosniff --source

 

 

随着时间增长存取速度慢下来,明显感觉到。遂进行一下优化:

三招解决MongoDB的磁盘IO问题    转载

有点标题党的意思,不过下面三招确实比较实用,内容来自Conversocial公司的VP Colin Howe在London MongoDB用户组的一个分享。

申请:下面几点并非放四海皆准的法则,具体是否能够使用,还需要根据自己的应用场景和数据特点来决定。

1.使用组合式的大文档

我们知道MongoDB是一个文档数据库,其每一条记录都是一个JSON格式的文档。比如像下面的例子,每一天会生成一条这样的统计数据:

{ metric: "content_count", client: 5, value: 51, date: ISODate("2012-04-01 13:00") }

{ metric: "content_count", client: 5, value: 49, date: ISODate("2012-04-02 13:00") }

而如果采用组合式大文档的话,就可以这样将一个月的数据全部存到一条记录里:

{ metric: "content_count", client: 5, month: "2012-04", 1: 51, 2: 49, ... }

通过上面两种方式存储,预先一共存储大约7GB的数据(机器只有1.7GB的内存),测试读取一年信息,这二者的读性能差别很明显:

第一种: 1.6秒

第二种: 0.3秒

那么问题在哪里呢?

实际上原因是组合式的存储在读取数据的时候,可以读取更少的文档数量。而读取文档如果不能完全在内存中的话,其代价主要是被花在磁盘seek上,第一种存储方式在获取一年数据时,需要读取的文档数更多,所以磁盘seek的数量也越多。所以更慢。

实际上MongoDB的知名使用者foursquare就大量采用这种方式来提升读性能。见此

2.采用特殊的索引结构

我们知道,MongoDB和传统数据库一样,都是采用B树作为索引的数据结构。对于树形的索引来说,保存热数据使用到的索引在存储上越集中,索引浪费掉的内存也越小。所以我们对比下面两种索引结构:

db.metrics.ensureIndex({ metric: 1, client: 1, date: 1})

与

db.metrics.ensureIndex({ date: 1, metric: 1, client: 1 })

采用这两种不同的结构,在插入性能上的差别也很明显。

当采用第一种结构时,数据量在2千万以下时,能够基本保持10k/s 的插入速度,而当数据量再增大,其插入速度就会慢慢降低到2.5k/s,当数据量再增大时,其性能可能会更低。

而采用第二种结构时,插入速度能够基本稳定在10k/s。

其原因是第二种结构将date字段放在了索引的第一位,这样在构建索引时,新数据更新索引时,不是在中间去更新的,只是在索引的尾巴处进行修改。那些插入时间过早的索引在后续的插入操作中几乎不需要进行修改。而第一种情况下,由于date字段不在最前面,所以其索引更新经常是发生在树结构的中间,导致索引结构会经常进行大规模的变化。

3.预留空间

与第1点相同,这一点同样是考虑到传统机械硬盘的主要操作时间是花在磁盘seek操作上。

比如还是拿第1点中的例子来说,我们在插入数据的时候,预先将这一年的数据需要的空间都一次性插入。这能保证我们这一年12个月的数据是在一条记录中,是顺序存储在磁盘上的,那么在读取的时候,我们可能只需要一次对磁盘的顺序读操作就能够读到一年的数据,相比前面的12次读取来说,磁盘seek也只有一次。

db.metrics.insert([

    { metric: 'content_count', client: 3, date: '2012-01', 0: 0, 1: 0, 2: 0, ... }

    { .................................., date: '2012-02', ... })

    { .................................., date: '2012-03', ... })

    { .................................., date: '2012-04', ... })

    { .................................., date: '2012-05', ... })

    { .................................., date: '2012-06', ... })

    { .................................., date: '2012-07', ... })

    { .................................., date: '2012-08', ... })

    { .................................., date: '2012-09', ... })

    { .................................., date: '2012-10', ... })

    { .................................., date: '2012-11', ... })

    { .................................., date: '2012-12', ... })

])

结果:

如果不采用预留空间的方式,读取一年的记录需要62ms

如果采用预留空间的方式,读取一年的记录只需要6.6ms

 

你可能感兴趣的:(mongodb)