在国庆前后看了《MongoDB实战》,结合上半年工作中的云数据库的工作和自己使用mongo的一些的经验,做一下总结。
MongoDB特性和介绍
专注前端与算法的系列干货分享,欢迎关注(¬‿¬):
「微信公众号: 心谭博客」| xin-tan.com | GitHub
1. 简介
MongoDB的特点:扩展策略、直观的数据模型。在mongodb中,编程语言定义的对象能被“原封不变”地持久化,消除对象结构和程序映射的复杂性。
2. 主要特性
数据模型
关系型与正规化:对于关系型数据库,数据表本质上是扁平的,因此表示多个一对多关系就需要多张表。经常用到的技术是拆表,这种技术是正规化。
但对于Mongo来说,文档支持嵌套等多种格式,无需事先定义Schema。
即时查询
mysql和mongodb都支持即时查询,不同的是:前者依赖正则化的模型;后者假定查询字段是存储与文档中的。
二级索引
mongodb支持二级索引,是通过b-tree实现的。
复制
通过副本集的拓扑结构来提供复制功能,其目的是:提供数据的冗余。
副本集的主节点能接受读写操作,但从节点是只读的。主节点出问题,会自动故障转移,选取一个从节点升级为主节点。
写速度和持久性
写速度:给定时间内,数据库可以处理的插入、更新和删除操作的数量。
持久性:数据库保持上述写操作的结果不改变的,所用的时间长短。
DB领域,写速度和持久性存在一种相反关系。很好理解,例如memcached,直接写入内存,写速度非常快,但同时数据完全易失。
mongodb的写操作,默认是fire-and-forget:通过TCP发送写操作,不要求数据库应答。用户可以开启安全模式,保证写操作正确无误写入db。并且安全模式可以配置,用于阻塞操作。
对于高容量、低价值数据(点击流、日志),默认模式更优;对于重要数据,倾向于安全模式。
mongo中,Journaling日志默认开启。所有写操作会被提交到一个只能追加的日志中。以应对故障后的,重启修复服务。
数据库扩展
- 垂直扩展(向上扩展):升级硬件,来提高单点性能
- 水平扩展(向外扩展):将数据库分布到多台机器,是基于自动分片。其中,单独的分片由一个副本集组成,至少有2个节点,保证没有单点失败。
3. 核心服务器和工具
核心服务器
通过mongod
可以运行核心服务器。数据文件存储在/data/db
中。如果下载编译mongo的源代码,需要手动创建/data/db
,并且为其分配权限。
其中,mongo的内存管理是由操作系统来处理的。数据文件通过mmap()
系统API,映射成系统的虚拟内存。
命令行
是基于JavaScript编写的。所以能看到很多通用的语法,以及输出的格式。
数据库驱动
针对多个语言,都提供了驱动使用。并且风格几乎保持统一的API接口。
命令行工具
安装到MaxOS后,全局会多出以下命令:
-
mongodump
和mongorestore
:前者用BSON
格式,来备份数据库数据。方便后者恢复。 -
mongoexport
和mongoimport
:导入导出JSON、CSV和TSV格式数据。
4. Mongo的场景
适用于事先无法知晓数据结构的数据,或者数据结构经常不确定性较大的数据。
除此之外,还适用于与分析相关的场景。mongo提供一种固定集合,常用于日志,特点是分配的大小固定,类似于循环队列。
5. 局限
由于使用内存映射,32位系统只能对4GB内存寻址。一半内存被os占用,那么只有2GB能用来做映射文件。所以,必须部署在64位操作系统上。
程序编写基础
mongo驱动的find方法,返回的是游标对象,可以理解为迭代器的下标。在NodeJS中,它的名字和类型是Cursor
。
在Nodejs中,
1. 驱动工作原理
主要有3个功能:
- 生成MongoDB对象的ID,它是存储在
_id
字段中的默认值 - 驱动会把特定语言的文档表述,和
BSON
互换 - 使用TCP套接字与数据库通信
对象ID
在自带的交互式命令行中:
> id = ObjectId()
ObjectId("5d9413867cc8dacf9247fe3e")
对于生成的5d9413867cc8dacf9247fe3e
:
- 5d941386 ,这4个字节是时间戳,单位秒数
- 7cc8da,机器ID
- cf92,进程ID
- 47fe3e,计数器
2. 安全写入模式(Write Concern)
对所有的写操作(插入、更新或删除)都能开启此模式。以此保证,操作一定在数据库层面生效。
在v4.0中,以insert为例,文档如下:
db.collection.insert(
,
{
writeConcern: ,
ordered:
}
)
关于 Write Concern的详细参数,可以看这篇文档:https://docs.mongodb.com/manu...
其中,重要的是w
参数,它可以指定是否使用应答写入。目前默认是1,应答式写入。设置为0,则是非应答式。
面向文档的数据
1. Schema 设计原则
设计数据库Schema式根据数据库特点和应用程序需求的情况下,为数据集选择最佳表述的过程。
2. 设计电子商务数据模型
一对多:产品和分类
假设一个电商场景,要对一个商品doc进行设计。对于商品,它有多个分类category,因此需要一对多操作,同时,mongo不支持联结操作(join)。
因此解决方案是,在商品的一个字段中,保存分类指针的数组。这里的指针,就是mongo中的对象ID。
下面是一个简单的例子:
> db.products.find()
{ "_id" : ObjectId("5d9423257cc8dacf9247fe41"), "categories" : [ ObjectId("5d9423017cc8dacf9247fe3f") ] }
> db.categories.find({})
{ "_id" : ObjectId("5d9423017cc8dacf9247fe3f"), "name" : "分类1" }
{ "_id" : ObjectId("5d9423037cc8dacf9247fe40"), "name" : "分类2" }
一对多:用户与订单
和前面的关系不同,这里的“多”体现在“订单”上。这里的订单中,保存着指向用户的指针。
评论
每个产品会有多个评论,而每个评论,可能会有点赞人列表。当要展示返回给前端的时候,需要获取产品评论,并且获取点赞人列表。
方案1:点赞人列表,保存着由指针组成的集合。可以先查询产品评论后,再对点赞做2次查询。
方案2:由于仅需要点赞人的头像和名称(少量信息),可以使用去正规化,不再保存指针,而是简单信息。
上面2种方案,都可以防止重复点赞的发生。
3. 具体细节
数据库
即使使用use
切换一个新的数据库,如果没有insert数据,该数据库并不会创建。
mongodb会为数据、集合、索引进行空间分配,并且采取的是预分配的方式,每次空间不够的时候,扩充2倍。
通过 db.stats()
可以查看当前db的状态,下面是一个示例:
> db.stats()
{
"db" : "info_keeper",
"collections" : 3,
"views" : 0,
"objects" : 11,
"avgObjSize" : 255.8181818181818,
"dataSize" : 2814, // 数据库中BSON对象实际大小
"storageSize" : 86016, // 包含了集合增长的预留空间和未分配的已删除空间
"numExtents" : 0,
"indexes" : 5,
"indexSize" : 155648, // 数据库索引大小的空间
"fsUsedSize" : 86272356352,
"fsTotalSize" : 250685575168,
"ok" : 1
}
集合
1、重命名操作:
> use test
> db.orders.renameCollection( "orders2014" )
2、固定集合
对应日志统计之类的、只有最近的数据才有价值的场景下,可以使用固定集合:一旦容量到上限,后续插入会逐步覆盖最先插入的文档。
创建时候,需要同时指定createCollection
的capped和size参数:
db.createCollection('logs',{ capped : true, size : 5242880 })
为了性能优化,mongo不会为固定集合创建针对_id
的索引。同时,不能从中删除doc,也不能执行任何更改文档大小的更新操作。
3、键名选择
慎重选择键名,例如,用dob
代替date_of_birth
,一个文档可以省下10字节。
查询和聚合
1. 查询常见技巧
分页查询可以通过skip
和limit
配合使用实现。
空值查询可以通过驱动的空值字面量实现,比如在node中,想查询logs
中不包含name
字段的记录:db.logs.find({ name: null })
。
减少序列化和网络传输,可以通过给定find的第二个参数,来选定数据库返回给驱动的文档的字段,比如:db.products.find({}, {_id: 1})
。这条命令,只返回文档的_id
字段。
复合索引,复合索引的设定,遵循着「从准确到宽泛」的规则。比如对于订单记录,有着下单人和时间2个字段。应该先为下单人字段设置索引,再为时间字段设置索引。可以理解为前者是精确查找,可以大大缩小查找结果集;后者是范围查找。
嵌套字段查询,对于负责对象字段的查询,直接通过.
运算符即可。例如:db.demos.find({a: {b : 1}})
和db.demos.find({"a.b": 1})
是等效的。
2. 常见查询语言
MongoDB的查询本质:实例化了一个游标,并获取它的结果集。
范围查询
范围操作符用法很简单,但注意:不要在范围查找时候误用重复搜索键。
错误:db.users.find({age: { $gte: 0 }, age: { $lte: 30 } })
正确:db.users.find({age: {$gte: 0, $lte: 30}})
集合操作
集合操作符一共有3个:$in
、$all
、$nin
。
in和nin是一对,in相当于使用多个OR操作符:db.products.find({'tags': {$in: [ObjectId('...'), ObjectId('...')]}})
all的作用属性,必须是数组形式:db.products.find({tags: {$all: ['a', 'b']}})
⚠️注意:in和all可以利用索引;nin不能利用索引,只能使用集合扫描。这和BTree结构有关。
布尔操作
常见的有:$ne
、$not
、 $or
、 $and
、$exists
。同样的,$ne
不能利用索引。
对于not的使用,如果使用的操作符或者正则表达式不存在否定形式,才配合not。例如大于,就有小于等于操作符。
对与or的使用,or可以表示不同键的值的关系,而in只能表示一个键的值的关系。例如:db.products.find({ $or: [{ name: 'a' }, { name: 'b' }] })
子文档
对于内嵌对象匹配,用.
运算符即可,正如前面的嵌套字段查询所述。
不推荐对于整个对象的查询,需要严格保证查询字段的顺序。
数组
如果数组中元素是基础对象,那么直接查询即可。mongo识别字段是数组类型,会自动查询字段是否位于其中。
例如:
> db.products.insert({tags: ['a', 'b']})
WriteResult({ "nInserted" : 1 })
> db.products.find({tags: 'a'})
{ "_id" : ObjectId("5d948025da0946c664997712"), "tags" : [ "a", "b" ] }
如果数组中元素是负责对象,可以借助.
运算符进行访问:
> db.products.insert({address: [{name: 'home'}]})
WriteResult({ "nInserted" : 1 })
> db.products.find({"address.name": 'home'})
{ "_id" : ObjectId("5d948055da0946c664997713"), "address" : [ { "name" : "home" } ] }
同样地,你也可以指定针对特定顺序的数组元素:
> db.products.find({"address.0.name": 'home'})
{ "_id" : ObjectId("5d948055da0946c664997713"), "address" : [ { "name" : "home" } ] }
如果要同时将多个条件限制在同一个子文档上,下面是错误和正确的做法
错误:db.products.find({"address.name": 'home', 'address.state': 'NY'})
正确:db.products.find({address: {$elemMatch: {name: 'home', state: 'NY'} }})
Javascript查询
对于一些复杂查询,借助$where
可以使用js表达式。还是以刚才的数据为例:
> db.products.find({$where: "function() {return this.address && this.address.length}" })
{ "_id" : ObjectId("5d948055da0946c664997713"), "address" : [ { "name" : "home" } ] }
在使用的时候,需要启动js解释器和上下文,因此开销大。在使用的时候,尽量带上其他标准查询操作,来缩小查询范围。
除此之外,还有注入攻击的可能。主要体现在驱动使用时候,如果后端传给db的字段是没做检验的,可能发生注入攻击。
正则表达式
主要体现在驱动使用上。
如果支持js的正则,那么可以: find({text: /best/i})
如果不支持,那么:find({text: {$regex: 'best', $options: 'i'}})
类型
通过$type
,可以根据指定字段类型进行查询。不同的值,代表不同的类型。请见官方文档。
3. 查询选项
投影
1、使用选择字段进行返回,降低网络传输:find
给定第二个参数。
2、返回保存在结果数组中的某个范围的值:$slice([start, limit])
。例如:db.products.find({}, { comments: {$slice: 12}})
排序
能够对多个字段进行升序/降序排列。例如:db.comments.find().sort({rating: -1, votes: -1})
skip和limit
如果向skip传入很大的值,需要扫描同等数量的文档,浪费资源。
最好的方法是:通过查询条件,缩小要扫描的文档。
4. 聚合指令
在v2的版本中,mongo只能通过map、reduce等基础操作来支持聚合搜索。但在v3的版本后,mongo本身提供了丰富的聚合阶段(aggregation pipeline)和聚合运算符(aggregation operator)。
以$group
和$sum
为例,插入了a和b两种售卖货物以及价钱:
> db.sales.find()
{ "_id" : ObjectId("5d98ca8094ffea590a8a85c6"), "name" : "a", "coin" : 100 }
{ "_id" : ObjectId("5d98ca8694ffea590a8a85c7"), "name" : "a", "coin" : 200 }
{ "_id" : ObjectId("5d98ca9094ffea590a8a85c8"), "name" : "b", "coin" : 800 }
利用聚合操作,就可以便捷算出每种货物的总价:
> db.sales.aggregate([{ $group: { _id: "$name", total: { $sum: "$coin" } } }])
{ "_id" : "b", "total" : 800 }
{ "_id" : "a", "total" : 300 }
最后说一下,聚合的意义在于数据库提供给使用者此种功能以及相关优化。当然,使用者完全可以在逻辑层面查询到需要的集合,代码中进行计算。但对于服务的提供商,完整的服务是必不可少的。
更新、原子操作与删除
1. 文档更新入门
文档更新分为:替换更新和针对性更新。相较而言,针对性更新具有性能好、传输数据少和允许原子性更新的优点。
利用$set
和$push
可以针对文档和其中的数组字段进行针对性更新,下面是针对性更新的例子:
db.products.update(
{ _id: 100 },
{ $set:
{
quantity: 500
}
}
)
如果是替换更新,遇到增加计数器值之类的场景,在不使用乐观锁的情况下,无法保证原子性更新。因为需要先读出数据,然后再更新。此过程中,可能会有其他并发程序重写字段,从而造成脏数据。
以更新计数器的针对性更新为例:
db.products.update(
{ sku: "abc123" },
{ $inc: { quantity: -1 } }
)
2. 电子商务数据模型中的更新
冗余字段设计
对于一些常见的结果,比如:总数、平均值等。为了避免每次都重新聚合运算,可以在文档中保存额外的字段缓存相关数据。
之后的业务查询,仅仅需要查询一次即可。
$
操作符
作用:确定数组中一个要被更新的元素的位置,而不用具体指定该元素在数组中的位置。
如下所示,不需要知道在grades数组中匹配的具体位置,用$
指代即可:
> db.students.insert([
{ "_id" : 1, "grades" : [ 85, 80, 80 ] }
])
> db.students.updateOne(
{ _id: 1, grades: 80 },
{ $set: { "grades.$" : 82 } }
)
upsert
操作符
作用:如果不存在,则会自动insert
。
对于添加到商品到购物车等场景,非常适用。
3. 事务性工作流
这里主要使用的是findAndModify
命令。这个命令,支持传入query参数,来做匹配筛选;支持update,来做针对性更新(原子更新)。最重要的特性是:可以根据new
参数,来返回更新前后的文档数据状态。
借助可以返回更新文档数据的特性,可以mock一下mongo 4.0之前不支持的事务特性。思路是:
- 获取最初的文档数据
- 利用findAndModify进行针对性更新,更新字段中需要携带本次的更新标示(比如时间戳)。findAndModify操作符回返回更新后的字段。
- 将更新后的字段中的更新标示与本地保存的标示做对比,如果不相同,说明有别的端更新了数据,数据发生了污染,为了保证事务原子性的特点,将文档恢复为第1步获得原始数据;如果相同,那么继续进行。
在MongoDB 4.0中,就是通过类似第二步的思路,提供了一个seesionID来实现了事务的,保证了事务特性。
4. 更多的更新命令
update:multi参数不给,默认只更新匹配到的第一个文档。
unset:删除文档中的指定键。
rename:重命名键。
addToSet:数组中不存在时候,才会加入。
pull:删除数组指定位置的元素。
5. 更新本质和优化
更新分为3种:
- 只改变单值,但BSON文档不变:
$inc
操作符 - 改变文档和结构,会重写整个文档:
$push
- 改变文档造成空间不够,全部整体迁移到新空间:提前利用填充因子来减少影响
索引与查询优化
查询是非常高频的操作,大数据、高频读的场景下,查询的效率会是性能的瓶颈。设置合适的索引,可以充分利用数据结构(B数)和物理硬件的优势。
1. 索引理论
复合索引和分离索引
一个查询中,要是有多个字段,比如2个字段。分离索引是:查找每个索引的匹配集合,取得这些匹配集合的交集。复合索引是:逐步根据索引的顺序做查询。
比如有一个食谱,我们根据种类和菜名来做索引:
肉类
- 辣子鸡:第12页
- 鱼肉:第139页
⚠️:复合索引中的顺序是非常重要的,如果设置的索引不合适,那么就相当于现行扫描文档。抽象来说,如果有一个针对a-b的复合索引,那么仅针对a的索引就是冗余的。比如例子中,仅针对种类的索引就是冗余的,但是种类索引可以降低扫描时间(和Btree有关)。
索引效率
正确的索引,也不一定会有快速的查询:索引和数据集无法全部放入内存。
如果内存充足,所有使用的数据文件都会载入内存,对应内存发生变化时(比如写操作),结果会异步刷到磁盘上。
如果内存不足,就无法全部装入内存,出现页错误,操作系统会频繁访问磁盘读取需要数据。数据集过大时候,任何写操作都要去磁盘,会出现颠簸情况,性能下滑。
因此,应该首先保证索引都能装入内存,复合索引时,尽量减少键的数量。
B树
在Mongo Version2中,B树仅用于索引。集合存储是双向列表。
对于复合索引的底层结构,以下面为例,是根据姓、名和生日来建立的复合索引。如果要查询(Akroyd, Kirsten, 1978-11-02)的数据,那么会先按照顺序查找,根据第一个索引,找到了只有左侧两个复合要求;再在左侧两个集合中查找第二个索引;直到找到符合要求的数据为止。
参考链接:
2. 索引实践
索引类型
根据索引设置时的属性的不同,常见的有:唯一性索引、稀疏索引和多键索引。
唯一性索引
说明:被设置为索引的字段,不能重复出现,否则会报错。
创建方式:db.col.createIndex({name: 1}, {unique: true})
。
⚠️:适用于插入数据前先创建索引的情况
稀疏索引
说明:索引默认是密集型的,是指为集合中每个文档都建立索引。例如前面的例子,即使文档没有name字段,那么查询索引时候,没有name字段的文档匹配null即可。
创建方式:db.col.createIndex({name: 1}, {sparse: true})
优点:
- 占用较少的空间
- 适用于不是为所有文档增加唯一性索引
- 适用于历史遗留的文档,无法保证字段存在
多键索引
说明:在数组字段上建立索引。mongo中,多键索引是默认开启的。
原理:数组中每个元素,都指向文档。
3. 查询管理
构建索引
分为为索引值排序、排序值插入索引中,并且会占用写锁,其他程序无法读写数据库。
在迁移历史数据和索引的时候,先迁移数据再构建集合,比线构建集合再迁移数据 的做法更优秀。
后台索引
设置background为true。虽然仍会占用写锁,但会停下来,让其他操作读写操作访问数据库。适合在流量最低的时候,完成索引构建。
备份
mongodump和mongorestore只能保存集合和索引说明。
如果想备份索引,必须直接备份mongo的数据文件。
压紧删除
对于删除大量数据,可能造成索引碎片化。解决方法是重建索引或者执行db.col.reIndex()
.
应该在子节点执行此命令,再进行节点替换,因为它会占用写锁,造成无法读写操作。
4. 查询优化
两个比较重要的原理,一个是覆盖索引,一个复合键的顺序。
覆盖索引是指:查询的关键字和索引完全一致。
复合键的顺序遵循:搜索成本由低到高的原则排列。
复制
1. 复制概述
定义:在多台服务器上分布并管理数据库服务器。有2种复制风格:主从复制和副本集(生产环境推荐)。
复制的作用是冗余,因为复制是异步的,因此任何节点的延迟都不会影响主节点性能。
副本不是备份替代品:备份是某事刻的快照;副本是最新的。
作用:故障转移、均衡读负载。
2. 副本集
最小的副本集由3个节点组成:主节点、从节点、仲裁节点。主从节点是一等的;仲裁节点不复制数据,中立观察。
副本集基于两个机制:oplog和心跳。oplog是记录数据的变更;心跳是检测主节点是否有效。
在副本集中,「提交」是指:数据变动都被复制到从节点。否则就是未提交。
3. 主从复制
不推荐,副本集才是正道,原因如下:
- 故障转移手动操作(没有仲裁节点)
- oplog近存在主节点,恢复苦难
4. 写关注和读拓展
写关注:设置writeConcern
参数,通过属性设置来指定wtimeout、w。
读拓展:单台服务器无法承受程序的读负载,将查询分配到副本上。
分片
这是一个有意思的概念,尤其是「复制」对比的时候。复制是指数据都保存在单机上,向其他副本迁移,理论上所有主从节点数据是一致的;分片是指由于空间有限,单机承受不了数据量,同一个数据库分布在不同的数据库上,这些数据库形成了一个宏观意义上的节点。
值得称赞的是,mongo提供分片机制,无需变动代码。
最后
作为中前台开发,开发中几乎接触不到复制、分片和部署的逻辑。专业事还得交给专业的人来做,毕竟每个人精力有限,不能面面俱到。但了解复制和分片的原理,有助于加深对mongo的理解,也可能会在以后做架构的时候发挥作用。
专注前端与算法的系列干货分享,欢迎关注(¬‿¬)