环境:
主机A:172.16.160.91
主机B:172.16.160.92
配置主机A
[root@master zhxf]# cat docker-compose.yml
version: '3'
services:
mongo_rs1:
image: mongo:3.4.4
container_name: mongo_rs1
volumes:
- /zhxf/mongo_rs1/:/mongodb
command: mongod --logpath /mongodb/mongo.log --logappend --dbpath /mongodb --master --autoresync
# command: mongod --logpath /mongodb/mongo.log --logappend --dbpath /mongodb --slave --source 172.16.160.92:27017 --autoresync
ulimits:
nproc: 65535
hostname: mongo_rs1
restart: always
ports:
- "27017:27017"
[root@master zhxf]# mkdir -p /zhxf/mongo_rs1/
[root@master zhxf]# chmod -R 777 /zhxf/mongo_rs1/
配置主机B
[root@slave1 zhxf]# cat docker-compose.yml
version: '3'
services:
mongo_rs2:
image: mongo:3.4.4
container_name: mongo_rs2
volumes:
- /zhxf/mongo_rs2/:/mongodb
command: mongod --logpath /mongodb/mongo.log --logappend --dbpath /mongodb --slave --source 172.16.160.91:27017 --autoresync
# command: mongod --logpath /mongodb/mongo.log --logappend --dbpath /mongodb --master --autoresync
ulimits:
nproc: 65535
hostname: mongo_rs2
restart: always
ports:
- "27017:27017"
[root@slave1 zhxf]# mkdir -p /zhxf/mongo_rs2/
[root@slave1 zhxf]# chmod -R 777 /zhxf/mongo_rs2/
启动主机A和B
[root@master zhxf]# docker-compose up -d
[root@slave1 zhxf]# docker-compose up -d
验证
主机A插入数据
[root@mysql_master zhxf]# docker-compose exec mongo_rs1 mongo
> db.test.insert({msg: "from master", ts: new Date()})
WriteResult({ "nInserted" : 1 })
> db.test.find()
{ "_id" : ObjectId("5a2106ff38ea44f69c1c8e69"), "msg" : "from master", "ts" : ISODate("2017-12-01T07:38:39.151Z") }
> exitexit
主机B不能插入数据,但可以看到主机A之前插入的数据,说明主从模式配置成功
[root@mysql_slave1 zhxf]# docker-compose exec mongo_rs2 mongo
> db.test.insert({msg: "from master", ts: new Date()})
WriteResult({ "writeError" : { "code" : 10107, "errmsg" : "not master" } })
> db.test.find()
Error: error: {
"ok" : 0,
"errmsg" : "not master and slaveOk=false",
"code" : 13435,
"codeName" : "NotMasterNoSlaveOk"
}
> rs.slaveOk()rs.slaveOk()
> db.test.find()
{ "_id" : ObjectId("5a2106ff38ea44f69c1c8e69"), "msg" : "from master", "ts" : ISODate("2017-12-01T07:38:39.151Z") }
上面主从模式配置成功了,下面开始测试主从切换
模拟主机A故障,如何启用主机B做为主模式
主机A
[root@mysql_master zhxf]# docker-compose down
Stopping mongo_rs1 ... done
Removing mongo_rs1 ... done
Removing network zhxf_default
主机B切换启动配置
[root@slave1 zhxf]# docker-compose down
Stopping mongo_rs2 ... done
Removing mongo_rs2 ... done
Removing network zhxf_default
[root@slave1 zhxf]# vi docker-compose.yml
version: '3'
services:
mongo_rs2:
image: mongo:3.4.4
container_name: mongo_rs2
volumes:
- /zhxf/mongo_rs2/:/mongodb
# command: mongod --logpath /mongodb/mongo.log --logappend --dbpath /mongodb --slave --source 172.16.160.91:27017 --autoresync
command: mongod --logpath /mongodb/mongo.log --logappend --dbpath /mongodb --master --autoresync
ulimits:
nproc: 65535
hostname: mongo_rs2
restart: always
ports:
- "27017:27017"
[root@slave1 zhxf]# docker-compose up -d
Creating network "zhxf_default" with the default driver
Creating mongo_rs2
验证
主机B变成主模式了,可以插入数据了
[root@mysql_slave1 zhxf]# docker-compose exec mongo_rs2 mongo
> db.test.find()
{ "_id" : ObjectId("5a2106ff38ea44f69c1c8e69"), "msg" : "from master", "ts" : ISODate("2017-12-01T07:38:39.151Z") }
> db.test.insert({msg: 'from slaver', ts: new Date()})
WriteResult({ "nInserted" : 1 })
> db.test.find()
{ "_id" : ObjectId("5a2106ff38ea44f69c1c8e69"), "msg" : "from master", "ts" : ISODate("2017-12-01T07:38:39.151Z") }
{ "_id" : ObjectId("5a21071638ea44f69c1c8e6a"), "msg" : "from master", "ts" : ISODate("2017-12-01T07:39:02.554Z") }
主机A故障恢复后,不能再做为主模式了,
需要修改启动配置为从模式后,再启动。
[root@mysql_master zhxf]# vi docker-compose.yml
version: '3'
services:
mongo_rs1:
image: mongo:3.4.4
container_name: mongo_rs1
volumes:
- /zhxf/mongo_rs1/:/mongodb
# command: mongod --logpath /mongodb/mongo.log --logappend --dbpath /mongodb --master --autoresync
command: mongod --logpath /mongodb/mongo.log --logappend --dbpath /mongodb --slave --source 172.16.160.92:27017 --autoresync
ulimits:
nproc: 65535
hostname: mongo_rs1
restart: always
ports:
- "27017:27017"
验证
[root@mysql_master zhxf]# docker-compose up -d
Creating network "zhxf_default" with the default driver
Creating mongo_rs1
[root@mysql_master zhxf]# docker-compose exec mongo_rs1 mongo
> db.test.find()
Error: error: {
"ok" : 0,
"errmsg" : "not master and slaveOk=false",
"code" : 13435,
"codeName" : "NotMasterNoSlaveOk"
}
> rs.slaveOk()
> db.test.find()
{ "_id" : ObjectId("5a2106ff38ea44f69c1c8e69"), "msg" : "from master", "ts" : ISODate("2017-12-01T07:38:39.151Z") }
{ "_id" : ObjectId("5a21071638ea44f69c1c8e6a"), "msg" : "from master", "ts" : ISODate("2017-12-01T07:39:02.554Z") }
主机A变成从模式后,无法插入数据了。
> db.test.insert({msg: "from master", ts: new Date()})
WriteResult({ "writeError" : { "code" : 10107, "errmsg" : "not master" } })
其他配置参数含义
--quiet # 安静输出
--port arg # 指定服务端口号,默认端口27017
--bind_ip arg # 绑定服务IP,若绑定127.0.0.1,则只能本机访问,不指定默认本地所有IP
--logpath arg # 指定MongoDB日志文件,注意是指定文件不是目录
--logappend # 使用追加的方式写日志
--pidfilepath arg # PID File 的完整路径,如果没有设置,则没有PID文件
--keyFile arg # 集群的私钥的完整路径,只对于Replica Set 架构有效
--unixSocketPrefix arg # UNIX域套接字替代目录,(默认为 /tmp)
--fork # 以守护进程的方式运行MongoDB,创建服务器进程
--auth # 启用验证
--cpu # 定期显示CPU的CPU利用率和iowait
--dbpath arg # 指定数据库路径
--diaglog arg # diaglog选项 0=off 1=W 2=R 3=both 7=W+some reads
--directoryperdb # 设置每个数据库将被保存在一个单独的目录
--journal # 启用日志选项,MongoDB的数据操作将会写入到journal文件夹的文件里
--journalOptions arg # 启用日志诊断选项
--ipv6 # 启用IPv6选项
--jsonp # 允许JSONP形式通过HTTP访问(有安全影响)
--maxConns arg # 最大同时连接数 默认2000
--noauth # 不启用验证
--nohttpinterface # 关闭http接口,默认关闭27018端口访问
--noprealloc # 禁用数据文件预分配(往往影响性能)
--noscripting # 禁用脚本引擎
--notablescan # 不允许表扫描
--nounixsocket # 禁用Unix套接字监听
--nssize arg (=16) # 设置信数据库.ns文件大小(MB)
--objcheck # 在收到客户数据,检查的有效性,
--profile arg # 档案参数 0=off 1=slow, 2=all
--quota # 限制每个数据库的文件数,设置默认为8
--quotaFiles arg # number of files allower per db, requires --quota
--rest # 开启简单的rest API
--repair # 修复所有数据库run repair on all dbs
--repairpath arg # 修复库生成的文件的目录,默认为目录名称dbpath
--slowms arg (=100) # value of slow for profile and console log
--smallfiles # 使用较小的默认文件
--syncdelay arg (=60) # 数据写入磁盘的时间秒数(0=never,不推荐)
--sysinfo # 打印一些诊断系统信息
--upgrade # 如果需要升级数据库
* Replicaton 参数
--------------------------------------------------------------------------------
--fastsync # 从一个dbpath里启用从库复制服务,该dbpath的数据库是主库的快照,可用于快速启用同步
--autoresync # 如果从库与主库同步数据差得多,自动重新同步;当发现从服务器的数据不是最新时,开始从主服务器请求同步数据
--oplogSize arg # 主节点的oplog日志大小,单位为M,建议设大点(更改oplog大小时,只需停主库,删除local.*,然后加--oplogSize=* 重新启动即可,*代表大小)
* 主/从参数
--------------------------------------------------------------------------------
--master # 主库模式
--slave # 从库模式
--source arg # 从库 端口号
--only arg # 指定单一的数据库复制
--slavedelay arg # 设置从库同步主库的延迟时间
* Replica set(副本集)选项:
--------------------------------------------------------------------------------
--replSet arg # 设置副本集名称
* Sharding(分片)选项
--------------------------------------------------------------------------------
--configsvr # 声明这是一个集群的config服务,默认端口27019,默认目录/data/configdb
--shardsvr # 声明这是一个集群的分片,默认端口27018
--noMoveParanoia # 关闭偏执为moveChunk数据保存
常用命令
> db.runCommand({"resync":1}) #如果发现主从不同步,从上手动同步
> db.runCommand({"isMaster":1}) #是主还是从
> db.printCollectionStats(); #查看各Collection状态
> db.printReplicationInfo(); #查看主从复制状态
> db.printSlaveReplicationInfo(); #查看主从复制信息
> use local;
switched to db local
> db.sources.find(); #在丛库上查询主库地址
> db.sources.remove({"host": "10.0.0.11:27001"}); #删除主库地址源
> db.sources.insert({"host": "10.0.0.11:27001"}); #添加新主库地址源