MongoDB是一个文档数据库(以JSON 为数据模型),由C++语言编写,旨在为WEB应用提供可扩展的高性能数据存储解决方案。
文档来自于"JSON Document",并非我们一般理解的 PDF,WORD文档。
MongoDB是一个介于关系数据库和非关系数据库之间的产品,是非关系数据库当中功能最丰富,最像关系数据库的。它支持的数据结构非常松散,数据格式是BSON,一种类似ISON的二进制形式的存储格式,简称BinaryJSON,和JSON一样支持内嵌的文档对象和数组对象,因此可以存储比较复杂的数据类型。MongoDB最大的特点是它支持的查询语言非常强大,其语法有点类似于面向对象的查询语言,几乎可以实现类似关系数据库单表查询的绝大部分功能,而且还支持对数据建立索引。原则上 Oracle 和 MySQL 能做的事情,MongoDB 都能做(包括 ACID事务)。
MongoDB在数据库总排名第5,仅次于Oracle、MySQL等RDBMS,在NoSQL数据库排名首位。从诞生以来,其项目应用广度、社区活跃指数持续上升。
MongoDB概念与关系型数据库(RDBMS非常类似)
SQL概念 | MongoDB概念 |
---|---|
数据库(database) | 数据库(database) |
表(table) | 集合(collection) |
行(row) | 文档(document) |
列(column) | 字段(field) |
索引(index) | 索引(index) |
主键(primary key) | _id(字段) |
视图(view) | 视图(view) |
表连接(table joins) | 聚合操作($lookup) |
尽管这些概念大多与SQL标准定义类似,但MongoDB与传统RDBMS仍然存在不少差异,包括:
MongoDB | 关系型数据库 | |
---|---|---|
亿级以上数据量 | 轻松支持 | 要努力一下,分库分表 |
灵活表结构 | 轻松支持 | Entity Key/Value ,关联查询比较痛苦 |
高并发读 | 轻松支持 | 需要优化 |
高并发写 | 轻松支持 | 需要优化 |
跨地区集群 | 轻松支持 | 需要定制方案 |
分片集群 | 轻松支持 | 需要中间件 |
地理位置查询 | 比较完整的地理位置 | PG还可以,其他数据库略麻烦 |
聚合计算 | 功能很强大 | 使用Group By等,能力有限 |
异构数据 | 轻松支持 | 使用EKV属性表 |
大宽表 | 轻松支持 | 性能受限 |
MongoDB基于灵活的SON文栏模型,非常适合敏捷式的快速开发。与此同时,其与生俱来的高可用、高水平扩展能力使得它在处理海量、高并发的数据应用时颇具优势。
简单直观: 从错综复杂的关系模型到一目了然的对象模型
快速: 最简单快速的开发方式
灵活: 快速响应业务变化
MongoDB优势:原生的高可用
MongoDB优势:横向扩展能力
从目前阿里云 MongoDB 云数据库上的用户看,MongoDB的应用已经渗透到各个领域:
游戏场景,使用 MongoDB 存储游戏用户信息,用户的装备、积分等直接以内嵌文档的形式存储,方便查询、更新;
物流场景,使用MongoDB 存储订单信息,订单状态在运送过程中会不断更新,以MongoDB 内嵌数组的形式来存储,一次查询就能将订单所有的变更读取出来;
社交场景,使用 MongoDB 存储存储用户信息,以及用户发表的朋友圈信息,通过地理位置索引实现附近的人、地点等功能;
物联网场景,使用MongoDB 存储所有接入的智能设备信息,以及设备汇报的日志信息,并对这些信息进行多维度的分析;
视频直播,使用 MongoDB 存储用户信息、礼物信息等;
大数据应用,使用云数据库MongoDB作为大数据的云存储系统,随时进行数据提取分析,掌握行业动态。
国内外知名互联网公司都在使用MongoDB:
没有某个业务场景必须要使用MongoDB才能解决,但使用MongoDB通常能让你以更低的成本解决问题。如果你不清楚当前业务是否适合使用MongoDB,可以通过做几道选择题来辅助决策。
应用特征 | Yes/No |
---|---|
应用不需要复杂/长事务及 join 支持 | 必须Yes |
新应用,需求会变,数据模型无法确定,想快速迭代开发 | ? |
应用需要2000-3000以上的读写QPS(更高也可以 | ? |
应用需要 TB 甚至 PB 级别数据存储 | ? |
应用发展迅速,需要能快速水平扩展 | ? |
应用要求存储的数据不丢失 | ? |
应用需要99.999%高可用 | ? |
应用需要大量的地理位置查询、文本查询 | ? |
只要有一项需求满足就可以考虑使用MongoDB,匹配越多,选择MongoDB越合适。
环境准备
下载MongoDB Community Server
下载地址: https://www.mongodb.com/try/download/community
#下载MongoDB
wget https://fastdl.mongodb.org/osx/mongodb-macos-x86_64-4.4.28.tgz
tar -zxvf mongodb-macos-x86_64-4.4.28.tgz
vim ~/.zshrc
# 内容BEGIN
export PATH=/Users/zhinian/Desktop/tools/mongodb/bin:$PATH
# 内容END
source ~/.zshrc
./mongod --help
Options:
--networkMessageCompressors arg (=snappy,zstd,zlib)
Comma-separated list of compressors to
use for network messages
General options:
-h [ --help ] Show this usage information
--version Show version information
-f [ --config ] arg Configuration file specifying
additional options
--configExpand arg Process expansion directives in config
file (none, exec, rest)
--port arg Specify port number - 27017 by default
--ipv6 Enable IPv6 support (disabled by
default)
--listenBacklog arg (=128) Set socket listen backlog size
--maxConns arg (=1000000) Max number of simultaneous connections
--pidfilepath arg Full path to pidfile (if not set, no
pidfile is created)
--timeZoneInfo arg Full path to time zone info directory,
e.g. /usr/share/zoneinfo
--nounixsocket Disable listening on unix sockets
--unixSocketPrefix arg Alternative directory for UNIX domain
sockets (defaults to /tmp)
--filePermissions arg Permissions to set on UNIX domain
socket file - 0700 by default
--fork Fork server process
-v [ --verbose ] [=arg(=v)] Be more verbose (include multiple times
for more verbosity e.g. -vvvvv)
--quiet Quieter output
--logpath arg Log file to send write to instead of
stdout - has to be a file, not
directory
--syslog Log to system's syslog facility instead
of file or stdout
--syslogFacility arg syslog facility used for mongodb syslog
message
--logappend Append to logpath instead of
over-writing
--logRotate arg Set the log rotation behavior
(rename|reopen)
--timeStampFormat arg Desired format for timestamps in log
messages. One of iso8601-utc or
iso8601-local
--setParameter arg Set a configurable parameter
--bind_ip arg Comma separated list of ip addresses to
listen on - localhost by default
--bind_ip_all Bind to all ip addresses
--noauth Run without security
--transitionToAuth For rolling access control upgrade.
Attempt to authenticate over outgoing
connections and proceed regardless of
success. Accept incoming connections
with or without authentication.
--slowms arg (=100) Value of slow for profile and console
log
--slowOpSampleRate arg (=1) Fraction of slow ops to include in the
profile and console log
--profileFilter arg Query predicate to control which
operations are logged and profiled
--auth Run with security
--clusterIpSourceWhitelist arg Network CIDR specification of permitted
origin for `__system` access
--profile arg 0=off 1=slow, 2=all
--cpu Periodically show cpu and iowait
utilization
--sysinfo Print some diagnostic system
information
--noscripting Disable scripting engine
--notablescan Do not allow table scans
--keyFile arg Private key for cluster authentication
--clusterAuthMode arg Authentication mode used for cluster
authentication. Alternatives are
(keyFile|sendKeyFile|sendX509|x509)
Replication options:
--oplogSize arg Size to use (in MB) for replication op
log. default is 5% of disk space (i.e.
large is good)
Replica set options:
--replSet arg arg is <setname>[/<optionalseedhostlist
>]
--enableMajorityReadConcern [=arg(=1)] (=1)
Enables majority readConcern
Sharding options:
--configsvr Declare this is a config db of a
cluster; default port 27019; default
dir /data/configdb
--shardsvr Declare this is a shard db of a
cluster; default port 27018
Storage options:
--storageEngine arg What storage engine to use - defaults
to wiredTiger if no data files present
--dbpath arg Directory for datafiles - defaults to
/data/db
--directoryperdb Each database will be stored in a
separate directory
--syncdelay arg (=60) Seconds between disk syncs
--journalCommitInterval arg (=100) how often to group/batch commit (ms)
--upgrade Upgrade db if needed
--repair Run repair on all dbs
--journal Enable journaling
--nojournal Disable journaling (journaling is on by
default for 64 bit)
--oplogMinRetentionHours arg (=0) Minimum number of hours to preserve in
the oplog. Default is 0 (turned off).
Fractions are allowed (e.g. 1.5 hours)
TLS Options:
--tlsOnNormalPorts Use TLS on configured ports
--tlsMode arg Set the TLS operation mode
(disabled|allowTLS|preferTLS|requireTLS
)
--tlsCertificateKeyFile arg Certificate and key file for TLS
--tlsCertificateKeyFilePassword arg Password to unlock key in the TLS
certificate key file
--tlsClusterFile arg Key file for internal TLS
authentication
--tlsClusterPassword arg Internal authentication key file
password
--tlsCAFile arg Certificate Authority file for TLS
--tlsClusterCAFile arg CA used for verifying remotes during
inbound connections
--tlsCRLFile arg Certificate Revocation List file for
TLS
--tlsDisabledProtocols arg Comma separated list of TLS protocols
to disable [TLS1_0,TLS1_1,TLS1_2]
--tlsAllowConnectionsWithoutCertificates
Allow client to connect without
presenting a certificate
--tlsAllowInvalidHostnames Allow server certificates to provide
non-matching hostnames
--tlsAllowInvalidCertificates Allow connections to servers with
invalid certificates
--tlsFIPSMode Activate FIPS 140-2 mode at startup
--tlsCertificateSelector arg TLS Certificate in system store
--tlsClusterCertificateSelector arg SSL/TLS Certificate in system store for
internal TLS authentication
--tlsLogVersions arg Comma separated list of TLS protocols
to log on connect [TLS1_0,TLS1_1,TLS1_2
]
AWS IAM Options:
--awsIamSessionToken arg AWS Session Token for temporary
credentials
WiredTiger options:
--wiredTigerCacheSizeGB arg Maximum amount of memory to allocate
for cache; Defaults to 1/2 of physical
RAM
--wiredTigerJournalCompressor arg (=snappy)
Use a compressor for log records
[none|snappy|zlib|zstd]
--wiredTigerDirectoryForIndexes Put indexes and data in different
directories
--wiredTigerCollectionBlockCompressor arg (=snappy)
Block compression algorithm for
collection data [none|snappy|zlib|zstd]
--wiredTigerIndexPrefixCompression arg (=1)
Use prefix compression on row-store
leaf pages
#创建dbpath和logpath
mkdir ‐p ~/Desktop/tools/mongodb-macos-x86_64-4.4.28/data ~/Desktop/tools/mongodb-macos-x86_64-4.4.28/log
#进入mongodb目录,启动mongodb服务
mongod --logpath="/Users/zhinian/Desktop/tools/mongodb/log/mongodb.log" --bind_ip="0.0.0.0" --dbpath="/Users/zhinian/Desktop/tools/mongodb/data" --port=27017 --fork
# 以下为输出, 不是命令
about to fork child process, waiting until server is ready for connections.
forked process: 50386
child process started successfully, parent exiting
zhinian@192 ~ % mongo
MongoDB shell version v4.4.28
connecting to: mongodb://127.0.0.1:27017/?compressors=disabled&gssapiServiceName=mongodb
Implicit session: session { "id" : UUID("d68a44f7-6a0f-4b7e-9984-fe6954a37527") }
MongoDB server version: 4.4.28
Welcome to the MongoDB shell.
For interactive help, type "help".
For more comprehensive documentation, see
https://docs.mongodb.com/
Questions? Try the MongoDB Developer Community Forums
https://community.mongodb.com
---
The server generated these startup warnings when booting:
2024-01-27T14:32:34.658+08:00: Access control is not enabled for the database. Read and write access to data and configuration is unrestricted
2024-01-27T14:32:34.659+08:00: Soft rlimits too low
2024-01-27T14:32:34.659+08:00: currentValue: 2560
2024-01-27T14:32:34.659+08:00: recommendedMinimum: 64000
---
> show dbs
admin 0.000GB
config 0.000GB
local 0.000GB
–dbpath:指定数据文件存放目录
–logpath:指定日志文件,注意是指定文件不是目录
–logappend:使用追加的方式记录日志
–port:指定端口,默认为27017
–bind_ip:默认只监听localhost网卡
–fork:后台启动
–auth:开启认证模式
编辑/mongodb/conf/mongo.conf文件,内容如下:
vim ~/Desktop/tools/mongodb/conf/mongo.conf
systemLog:
destination: file
path: /Users/zhinian/Desktop/tools/mongodb/log/mongod.10g # log path
logAppend: true
storage:
dbPath: /Users/zhinian/Desktop/tools/mongodb/data # data directory
engine: wiredTiger #存储引擎
journal: #是否启用journa1日志
enabled: true
net:
bindIp: 0.0.0.0
port: 27017 # port
processManagement:
fork: true # fork and run in background
shutdown: true # Add this line to shutdown the database
vim bins/mongodb
# 内容BEGIN
mongod -f /Users/zhinian/Desktop/tools/mongodb/conf/mongo.conf
# 内容END
chmod +x bins/mongodb
# 仅需要输入mongodb即可启动
zhinian@192 ~ % mongodb
about to fork child process, waiting until server is ready for connections.
forked process: 51981
child process started successfully, parent exiting
注意:一定要yaml格式
后动mongod
mongod -f/mongodb/conf/mongo.conf
方式一
## 新版本已没有shutdown命令
mongod --port=27017 --dbpath=/Users/zhinian/Desktop/tools/mongodb/data --shutdown
Error parsing command line: unrecognised option '--shutdown'
try 'mongod --help' for more information
方式二
进入mongo shell
use admin
db.shutdownServer()
mongo是MongoDB的交互式JavaScript Shell界面,它为系统管理员提供了强大的界面,并为开发人员提供了直接测试数据库查询和操作的方法。
mongo --port=27017
–port:指定端口,默认为27017
–host:连接的主机地址,默认127.0.0.1
mongo shell是基于Javascript语法的,MongoDB使用了SpiderMonkey作为其内部的Javascript解释器引擎,这是由Mozilla官方提供的Javascript内核解释器,该解释器也被同样用于大名鼎鼎的Firefox浏览器产品之中。SpiderMonkey对ECMA Script标准兼容性非常好,以支持ECMA Script6。可以通过下面的命令检查JavaScript解释器的版本:
命令 | 说明 |
---|---|
show dbs| Show databases | 显示数据库列表 |
use 数据库名 | 切换数据库,如果不存在创建数据库 |
db.dropDatabase() | 删除数据库 |
show collections| show tables | 显示当前数据库的集合列表 |
db.集合名.stats() | 查看集合详情 |
db.集合名.drop() | 删除集合 |
show users | 显示当前数据库的用户列表 |
show roles | 显示当前数据库的角色列表 |
show profile | 显示最近发生的操作 |
load("xxx.js") | 执行一个JavaScript脚本文件 |
exit | quit() | 退出当前shell |
help | 查看mongodb支持哪些命令 |
db.help() | 查询当前数据库支持的方法 |
db.集合名.help() | 显示集合的帮助信息 |
db.version() | 查看数据库版本 |
# 查看所有库
show dbs
# 切换数据库,如果不存在创建数据库
use test
# 删除当前数据库
db.dropDatabase()
# 查看集合
show collections
# 创建集合
db.createCollection("emp")
# 删除集合
db.emp.drop()
创建集合语法
db.createCollection(name, options)
options参数
字段 | 类型 | 描述 |
---|---|---|
capped | 布尔 | (可选)如果为true,则创建固定集合。固定集合是指有着固定大小的集合,当达到最大值时,它会自动覆盖最早的文档。 |
size | 数值 | (可选)为固定集合指定一个最大值(以字节计)。如果capped 为true,也需要指定该字段。 |
max | 数值 | (可选)指定固定集合中包含文档的最大数量。 |
注: 当集合不存在时,向集合中插入文档也会创建集合
# 设置管理员用户名/密码需要切换到admin库
use admin
# 创建管理员
db.createUser({user: "fox", pwd: "fox", roles: ["root"]})
# 查看所有用户信息
show users
# 删除用户
db.dropUser("fox")
权限名 | 描述 |
---|---|
read | 允许用户读取指定数据库 |
readWrite | 允许用户读写指定数据库 |
dbAdmin | 允许用户在指定数据库中执行管理函数,如索引创建、删除,查看统计或访问system.profile |
dbOwner | 允许用户在指定数据库中执行任意操作,增、删、改、查等 |
userAdmin | 允许用户向system.users集合写入,可以在指定数据库里创建、删除和管理用户 |
clusterAdmin | 只在admin数据库中可用,赋予用户所有分片和复制集相关函数的管理权限 |
readAnyDatabase | 只在admin数据库中可用,赋予用户所有数据库的读权限 |
readWriteAnyDatabase | 只在admin数据库中可用,赋予用户所有数据库的读写权限 |
userAdminAnyDatabase | 只在admin数据库中可用,赋予用户所有数据库的userAdmin权限 |
dbAdminAnyDatabase | 只在admin数据库中可用,赋予用户所有数据库的dbAdmin权限 |
root | 只在admin数据库中可用。超级账号,超级权限 |
用户认证,返回1表示认证成功
use appdb
db.createUser({user: "appdb", pwd: "fox", roles: ["dbOwner"]})
默认情况下,MongoDB不会启用鉴权,以鉴权模式启动MongoDB
mongod -f /Users/zhinian/Desktop/tools/mongodb/conf/mongo.conf --auth
启用鉴权之后,连接MongoDB的相关操作都需要提供身份认证
mongo 192.168.1.3:27017 -uappdb -pfox --authenticationDatabase=appdb
3.2 版本之后新增了 db.collection.insertOne() 和 db.collection.insertMany()。
db.collection.insertOne(
<document>,
{
writeConcern: <document>
}
)
writeConcern 决定一个写操作落到多少个节点上才算成功。writeConcern 的取值包括:
0:发起写操作,不关心是否成功;
1-集群最大数据节点数:写操作需要被复制到指定节点数才算成功;
majority:写操作需要被复制到大多数节点上才算成功。
db.collection.insertMany(
[ <document1>, <document2>, ... ],
{
writeConcern: <document>,
ordered: <boolean>
}
)
writeConcern: 写入策略,默认为1,即要求确认写操作,0是不要求。
ordered: 指定是否按顺序写入,默认true,按顺序写入。
编辑脚本book.js
let tags = ["nosql", "mongodb", "document", "developer", "popular"];
let types = ["technology", "sociality", "travel", "novel", "literature"];
let books = [];
for(let i = 0; i < 50; i++) {
let typeId = Math.floor(Math.random() * types.length);
let tagId = Math.floor(Math.random() * tags.length);
let favCount = Math.floor(Math.random() * 100);
let book = {title: "book-"+i, type: types[typeId], tag: tags[tagId], favCount: favCount, author: "xxx"+i}
books.push(book)
}
db.books.insertMany(books);
进入mongo shell,执行
load("book.js")
find 查询集合中的若干文档。语法格式如下
db.collection.find(query, projection)
如果查询返回的条目数量较多,mongo shell则会自动实现分批显示。默认情况下每次只显示20条,可以输入it命令读取下一批。
findOne查询集合中的第一个文档。语法格式如下:
db.collection.findOne(query, projection)
指定条件查询
# 查询带有nosql标签的book文档
db.books.find({tag: "nosql"})
# 按照id查询单个book文档
db.books.find({_id: ObjectId("65b4e219ebed3fc5e9d74276")})
# 查询分类为travel、收藏数超过60的book文档
db.books.find({type: "travel", favCount: {$gt: 60}})
查询条件对照表
SQL | MQL |
---|---|
a = 1 | ${a: 1} |
a <> 1 | {a: {$ne: 1}} |
a > 1 | {a: {$gt: 1}} |
a >= 1 | {a: {$ge: 1}} |
a < 1 | {a: {$lt: 1}} |
a <= 1 | {a: {$lte: 1}} |
查询逻辑对照表
SQL | MQL |
---|---|
a = 1 AND b = 1 | ${a: 1, b: 1}或{$and: [{a: 1}, {b: 1}]} |
a = 1 OR b = 1 | {$or: [{a: 1}, {b: 1}] |
a IS NULL | {a: {$exists: false}} |
a IN (1, 2, 3) | {a: {in: [1, 2, 3]}} |
查询逻辑运算符
$lt:存在并小于
$lte:存在并小于等于
$gt:存在并大于
$gte:存在并大于等于
$ne:不存在或存在但不等于
$in:存在并在指定数组中
$nin:不存在或不在指定数组中
$or:匹配两个或多个条件中的一个
$and:匹配全部条件
指定排序
在 MongoDB 中使用 sort() 方法对数据进行排序
# 指定按收藏数(favCount)降序返回
db.books.find({type: "travel"}).sort({favCount:-1})
分页查询
skip用于指定跳过记录数,limit则用于限定返回结果数量。可以在执行find命令的同时指定skip、limit参数,以此实现分页的功能。比如,假定每页大小为8条,查询第3页的book文档
db.books.find().skip(8).limit (4)
MongoDB 使用$regex 操作符来设置匹配字符串的正则表达式。
-- 使用正则表达式查找type包含 so 字符串的book
db.books.find({type: {Sregex:"so"}})
-- 或者
db.books.find({type:/so/})
可以用update命令对指定的数据进行更新,命令的格式如下:
db.collection.update(query, update, options)
操作符 | 格式 | 描述 |
---|---|---|
$set | {$set:{field:value}} | 指定一个键并更新值,若键不存在则创建 |
$unset | {$unset: {field: 1}} | 删除一个键 |
$inc | {$inc: {field: value}} | 对数值类型进行增減 |
$rename | {$rename: {old_field_name: new_field_name}} | 修改字段名称 |
$push | {$push: {field: value}} | 将数值追加到数组中,若数组不存在则会进行初始化 |
$pushAll | {$pushAll: {field: value_array}} | 追加多个值到一个数组字段内 |
$pull | {$pull: {field: _value}} | 从数组中删除指定的元素 |
$addToSet | {$addToSet: {field: value}} | 添加元素到数组中,具有排重功能 |
$pop | {$pop: {field: 1}} | 删除数组的第一个或最后一个元素 |
某个book文档被收藏了,则需要将该文档的favCount字段自增
db.books.update({_id: ObjectId("65b4e219ebed3fc5e9d74287")}, {$inc: {favCount: 1}})
默认情况下,update命令只在更新第一个文档之后返回,如果需要更新多个文档,则可以使用multi选项。
将分类为 “novel” 的文档的增加发布时间(publishedDate)
db.books.update({type: "nosql"}, {$set: {publishedDate: new Date()}}, {"multi": true})
multi: 可选,mongodb 默认是 false,只更新找到的第一条记录,如果这个参数为 true,就把按条件查询出的多条记录全部更新
update命令的选项配置较多,为了简化使用还可以使用一些快捷命令:
upsert是一种特殊的更新,其表现为如果目标文档不存在,则执行插入命令。
db.books.update(
{title: "my book"},
{$set: {tags: ["nosql", "mongodb"], type: "none", author: "fox"}},
{upsert: true}
)
nMatched、nModified都为0,表示没有文档被匹配及更新,nUpserted=1提示执行了upsert操作
update命令中的更新描述(update)通常由操作符描述,如果更新描述中不包含任何的操作符,那么MongoDB会实现文档的replace语义
db.books.update(
{title: "my book"},
{justTitle: "my first book"}
)
findAndModify兼容了查询和修改指定文档的功能,
-- 将某个book文档的收藏数(favCount)加1
db.books.findAndModify({
query: {_id: ObjectId("65b4e219ebed3fc5e9d74264")},
update: {$inc: {favCount: 1}}
})
该操作会返回符合查询条件的文档数据,并完成对文档的修改。
默认情况下,findAndModify会返回修改前的"旧"数据。如果希望返回修改后的数据,则可以指定new选项
db.books.findAndModify({
query: {_id: ObjectId("65b4e219ebed3fc5e9d74264")},
update: {$inc: {favCount: 1}},
new: true
})
与findAndModify语义相近的命令如下:
示例:
db.user.remove({age: 28}) -- 删除 age 等于 28 的记录
db.user.remove({age: {$lt: 25}}) -- 删除 age 小于 25 的记录
db.user.remove({}) -- 删除所有记录
db.user.remove() -- 报错
remove命令会删除匹配条件的全部文档,如果希望明确限定只删除一个文档,则需要指定justOne参数,命令格式如下:
db.collection.remove(query, justone)
例如:删除满足type:novel条件的首条记录(加true删首条)
db.books.remove({type: "novel"}, true)
官方推荐使用 deleteOne() 和 deleteMany() 方法删除文档,语法格式如下:
db.books.deleteMany({}) -- 删除集合下全部文档
db.books.deleteMany({type: "novel"}) -- 删除 type 等于 novel 的全部文档
db.books.deleteOne({type: "novel"}) -- 删除 type 等于 novel 的一个文档
注意:remove、deleteMany等命令需要对查询范围内的文档逐个删除,如果希望删除整个集合,则使用drop命令会更加高效
remove、deleteOne等命令在删除又档后只会返回确认性的信息,如果希望获得被删除的文档,则可以使用findOneAndDelete命令
db.books.findOneAndDelete({type: "novel"})
除了在结果中返回删除文档,findOneAndDelete命令还允许定义 “删除的顺序”,即按照指定顺序删除找到的第一个文档
db.books.findoneAndDelete({type: "nove1"}, {sort: {favcount:1}})
remove、deleteOne等命令能按默认顺序删除,利用这个特性,findOneAndDelete可以实现队列的先进先出。
MongoDB Compass: https://www.mongodb.com/try/download/compass
1.引入依赖
<dependency>
<groupId>org.springframework.bootgroupId>
<artifactId>spring-boot-starter-data-mongodbartifactId>
dependency>
2.配置yml
spring:
data:
mongodb:
uri: mongodb://fox:[email protected]:27017/test?authSource=admin
# uri等同于下面的配置
# database: test
# host: 192.168.1.3
# port: 27017
# username: fox
# password: fox
# authentication-database: admin
连接配置参考文档: https://docs.mongodb.com/manual/reference/connection-string/
3.使用时注入mongoTemplate
@Autowired
MongoTemplate mongoTemplate;
/**
* 创建集合
*/
@Test
public void testCreateCollection() {
final String collectionName = "emp";
if (mongoTemplate.collectionExists(collectionName)) {
mongoTemplate.dropCollection(collectionName);
}
mongoTemplate.createCollection(collectionName);
}
@Document
@ld
@Field
@Transient
修饰范围;用在成员变量、方法上
作用:用来指定此成员变量不参与文档的序列化
@Data
@Document("emp") // 对应emp集合中的一个文档
@AllArgsConstructor
@NoArgsConstructor
public class Employee {
@Id //映射文档中的_id
private Long id;
@Field("username")
private String name;
@Field
private BigDecimal salary;
@Field
private Date birthday;
}
insert方法返回值是新增的Document对象,里面包含了新增后id的值。如果集合不存在会自动创建集合。通过Spring Date MongoDB还会给集合中多加一个class的属性,存储新增时Document对应Java中类的全限定路径。这么做为了查询时能把Documnent转换力Java类型。
@Test
public void testInsert() {
Employee emp = new Employee(1L, "小明", new BigDecimal("3010000.00"), new Date());
// 添加文档
// save: _id存在时更新数据
// mongoTemplate.save(emp);
// insert: _id存在时抛出异常, 支持批量操作
mongoTemplate.insert(emp);
List<Employee> list = Arrays.asList(
new Employee(2L, "张三", new BigDecimal("2150000.00"), new Date()),
new Employee(3L, "李四", new BigDecimal("2680000.00"), new Date()),
new Employee(4L, "王五", new BigDecimal("2280000.00"), new Date()),
new Employee(5L, "张龙", new BigDecimal("2860000.00"), new Date()),
new Employee(6L, "赵虎", new BigDecimal("2470000.00"), new Date()),
new Employee(7L, "赵六", new BigDecimal("2812000.00"), new Date())
);
// 插入多条数据
mongoTemplate.insert(list, Employee.class);
}
Criteria是标准查询的接口,可以引用静态的Criteria.where的把多个条件组合在一起,就可以轻松地将多个方法标准和查询连接起来,方便我们操作查询语句。
Criteria | Mongodb | 说明 |
---|---|---|
Criteria and (String key) | $and | 井且 |
Criteria andOperator (Criteria... criteria) | $and | 井且 |
Criteria orOperator (Criteria.. criteria) | $or | 或者 |
Criteria gt (Object o) | $gt | 大于 |
Criteria gte (Object o) | $gte | 大于等于 |
Criteria in (Object... o) | $in | 包含 |
Criteria is (Object o) | $is | 等于 |
Criteria lt (Object o) | $lt | 小于 |
Criteria lte (Object o) | $lte | 小于等于 |
Criteria nin (Object... o) | $nin | 不包含 |
@Test
public void testFind() {
System.out.println("=============查询所有文档=============");
// 查看所有文档
List<Employee> list = mongoTemplate.findAll(Employee.class);
list.forEach(System.out::println);
System.out.println("==============根据id查询==============");
// 根据id查询
Employee emp = mongoTemplate.findById(1L, Employee.class);
System.out.println(emp);
System.out.println("==========findOne返回第一个文档==========");
// 如果查询结果是多个, 返回其中第一个文档对象
Employee one = mongoTemplate.findOne(new Query(), Employee.class);
System.out.println(one);
System.out.println("================条件查询================");
// new Query() 表示没有条件
// 查询薪资大于等于8000的员工
// Query query = new Query(Criteria.where("salary").gte(8000.00));
// 查询薪资大于4000小于10000的员工
// Query query = new Query(Criteria.where("salary").gt(4000.00).lt(10000.00));
// 正则查询(模糊查询) java中正则不需要有//
// Query query = new Query(Criteria.where("name").regex("张"));
// and or 多条件查询
Criteria criteria = new Criteria();
// and 查询年龄大于25&薪资大于8000的员工
// criteria.andOperator(Criteria.where("age").gt(25), Criteria.where("salary").gt(8000.00));
// or 查询姓名是张三或者薪资大于8000的员工
criteria.orOperator(Criteria.where("name").is("张三"), Criteria.where("salary").gt(8000.00));
Query query = new Query(criteria);
// sort排序
// query.with(Sort.by(Sort.Order.desc("salary")));
// skip limit 分页 skip用于指定跳过记录数, limit 则用于限定返回结果数量。
query.with(Sort.by(Sort.Order.desc("salary")))
.skip(0) // 指定跳过记录数
.limit(4); // 每页显示记录数
// 查询结果
List<Employee> employees = mongoTemplate.find(query, Employee.class);
employees.forEach(System.out::println);
}
@Test
public void testFindByJSON() {
// 使用JSON字符串方式查询
// 等值查询
// String json = "{name: '张三'}";
// 多条件查询
String json = "{$or: [{age: {$gt: 25}}, {salary: {$gte: 8000}}]}";
Query query = new BasicQuery(json);
// 查询结果
List<Employee> employees = mongoTemplate.find(query, Employee.class);
employees.forEach(System.out::println);
}
在Mongodb中无论是使用客户端APi还是使用Spring Data,更新返回结果一定是受行数影响。如果更新后的结果和更新前的结果是相同,返旦0。
@Test
public void testUpdate() {
// query设置查询条件
Query query = new Query(Criteria.where("salary").gte(10000));
System.out.println("==========更新前===========");
List<Employee> employees = mongoTemplate.find(query, Employee.class);
employees.forEach(System.out::println);
Update update = new Update();
// 设置更新属性
update.set("salary", 14000);
// updateFirst() 只更新满足条件的第一条记录
// UpdateResult updateResult = mongoTemplate.updateFirst(query, update, Employee.class);
// updateMulti() 更新所有满足条件的记录
// UpdateResult updateResult = mongoTemplate.updateMulti(query, update, Employee.class);
// upsert() 没有符合条件的记录则插入数据
update.setOnInsert("id", 11); // 指定_id
UpdateResult updateResult = mongoTemplate.upsert(query, update, Employee.class);
// 返口修改的记录数
System.out.println(updateResult.getModifiedCount());
System.out.println("===============更新后===============");
employees = mongoTemplate.find(query, Employee.class);
employees.forEach(System.out::println);
}
@Test
public void testDelete() {
// 删除所有文档
// mongoTemplate.remove(new Query(), Employee.class);
// 条件删除
Query query = new Query(Criteria.where("salary").gte(10000));
mongoTemplate.remove(query, Employee.class);
}