mongodb复制集群

Mongodb的复制功能:
两种类型:
    master/slave:
    replica set(复制集,副本集):服务于同一数据集的多个mongodb实例
        主节点将数据修改操作保存至oplog中,类似mysql的中继日志,集群三个节点,
        arbiter:仲裁者,集群心跳每2s一次,自动实现转移(通过选举方式实现)

    复制集中特殊类型节点:
        0优先级的节点:冷备节点,不会被选举成为主节点,但可以参与选举,使用场景:异地备份节点
        被隐藏的从节点:(提前是0优先级节点),且对客户端不可见
        延迟复制的从节点:首先是一个0优先级的从节点,且复制时间落后于主节点一个固定时长
        arbiter:仲裁节点
    # 复制集群成员属性:都可以在cfg=rs.conf()配置中定义
        arbiterOnly:true
        priority:[0-1000]
        hidden:true
        buildIndexes:
        tags:{loc1:desc1,....}
        slaveDelay:  #秒为单位
        votes:0代表阻止在选举中主动投票,但是可以否决投票
Mongodb的复制架构:
oplog:默认是在初始mongodb中的local数据库中
oplog:默认是在初始mongodb中的local数据库中,大小固定的文件
    新增节点到集群:执行步骤
    1、初始同步(initial sync)
    2、回滚后追赶(post-rollback catch-up)
    3、切分块迁移(sharding chunk migrations)
local:存储副本集的元数据信息和oplog,用户存储oplog的是一个名为oplog.rs的collection,
    oplog.rs的大小依赖于os及文件系统,但可以自定义其大小,--oplogSize
Mongo的数据同步类型:
初始同步
    节点没有任何数据时
    节点丢失副本复制历史
复制
    
    初始同步的步骤:
        1、克隆所有数据库的所有collection
        2、应用数据集的所有改变:复制oplog,并应用至本地
        3、为所有的collection构建索引
主从复制选项:
--only:在从节点指定只复制特定某个数据库(默认复制所有数据库)
--slavedelay:用在从节点上,当应用主节点的操作时增加延迟,(单位是秒,),延迟从节点
--fastsync:以主节点的数据快照为基础启动从节点,如果数据目录一开始是主节点的数据快照,从节点用这个选项启动要比做完整同步快的多
--autoresync:如果主从节点不同不了,重新启动同步检查
--oplogSize:主节点oplog的大小(单位是MB)

复制配置选项:
--replSet NAME 
--replIndexPrefetch {none|_id_only|all}    预取索引

副本集的重新选举的影响条件:
    心跳信息
    优先级
    optime:更新数据的时间戳,不能落后于其他节点
    网络连接:票数多过一半
    网络分区:
选举机制:
触发选举的时间:
    新副本集初始化时
    从节点联系不到主节点时
    主节点“下台”时
        主节点收到stepDown()命令时
        某从节点有更高的优先级,且已经满足成主节点其它所有条件
mon复制实验三节点:
192.168.2.147 node4
192.168.2.33  node3
192.168.3.6  node2

# ntpdate cn.ntp.org.cn
# scp *.rpm root@node3:/data/pkg
# scp *.rpm root@node4:/data/pkg
# yum install -y *.rpm
# mkdir -pv /data/mongodb
# chown -R mongod.mongod /data/mongodb
# vim /etc/mongod.conf
#    dbpath=/data/mongodb
#    #bind_ip=127.0.0.1
#    replSet=mymongo
# scp /etc/mongod.conf root@node3:/etc/mongod.conf
# scp /etc/mongod.conf root@node4:/etc/mongod.conf
# service mongod start

# 此时复制集群中的节点都已成功启动,但是复制集群还没有建立和添加集群节点
# 选取一个节点登陆

# rs.status()检查复制集群状态
> rs.status()
{
    "startupStatus" : 3,
    "info" : "run rs.initiate(...) if not yet done for the set",
    "ok" : 0,
    "errmsg" : "can't get local.system.replset config from self or any seed (EMPTYCONFIG)"
}
# 初始化复制集群
> rs.initiate()
{
    "info2" : "no configuration explicitly specified -- making one",
    "me" : "node2:27017",
    "info" : "Config now saved locally.  Should come online in about a minute.",
    "ok" : 1
}
# 之后此节点,操作提示符转换成:mymongo:PRIMARY>
# 添加复制集群中的其他节点:
mymongo:PRIMARY> rs.add("192.168.2.147:27017")
{ "ok" : 1 }
mymongo:PRIMARY> rs.add("192.168.2.33:27017")
{ "ok" : 1 }
# 在次检查复制集群状态
mymongo:PRIMARY> rs.status()
{
    "set" : "mymongo",
    "date" : ISODate("2017-05-23T16:22:29Z"),
    "myState" : 1,
    "members" : [
        {
            "_id" : 0,
            "name" : "node2:27017",
            "health" : 1,
            "state" : 1,
            "stateStr" : "PRIMARY",
            "uptime" : 1088,
            "optime" : Timestamp(1495556519, 1),
            "optimeDate" : ISODate("2017-05-23T16:21:59Z"),
            "electionTime" : Timestamp(1495555526, 1),
            "electionDate" : ISODate("2017-05-23T16:05:26Z"),
            "self" : true
        },
        {
            "_id" : 1,
            "name" : "192.168.2.147:27017",
            "health" : 1,
            "state" : 2,
            "stateStr" : "SECONDARY",
            "uptime" : 35,
            "optime" : Timestamp(1495556519, 1),
            "optimeDate" : ISODate("2017-05-23T16:21:59Z"),
            "lastHeartbeat" : ISODate("2017-05-23T16:22:28Z"),
            "lastHeartbeatRecv" : ISODate("2017-05-23T16:22:29Z"),
            "pingMs" : 3,
            "syncingTo" : "node2:27017"
        },
        {
            "_id" : 2,
            "name" : "192.168.2.33:27017",
            "health" : 1,
            "state" : 2,
            "stateStr" : "SECONDARY",
            "uptime" : 30,
            "optime" : Timestamp(1495556519, 1),
            "optimeDate" : ISODate("2017-05-23T16:21:59Z"),
            "lastHeartbeat" : ISODate("2017-05-23T16:22:29Z"),
            "lastHeartbeatRecv" : ISODate("2017-05-23T16:22:28Z"),
            "pingMs" : 0,
            "syncingTo" : "node2:27017"
        }
    ],
    "ok" : 1
}

# 主节点插入数据
mymongo:PRIMARY> use testdb;
mymongo:PRIMARY> for(i=1;i<=100;i++) db.testcoll.insert({name:"user"+i,age:i,book:["book"+i,"apple"]})
WriteResult({ "nInserted" : 1 })
# 从节点检查数据,从节点只能读,不能写,在查询数据之前,需要手动设置slaveOk状态。
mymongo:SECONDARY> rs.slaveOk()
mymongo:SECONDARY> db.testcoll.findOne()
{
    "_id" : ObjectId("592462540c61503feddc0103"),
    "name" : "user1",
    "age" : 1,
    "book" : [
        "book1",
        "apple"
    ]
}
# 测试关闭主节点,mongodb的复制集群会自动进行切换
# 在此检查复制集群状态。
mymongo:SECONDARY> rs.status()
{
    "set" : "mymongo",
    "date" : ISODate("2017-05-23T16:30:36Z"),
    "myState" : 2,
    "syncingTo" : "192.168.2.147:27017",
    "members" : [
        {
            "_id" : 0,
            "name" : "node2:27017",
            "health" : 0,
            "state" : 8,
            "stateStr" : "(not reachable/healthy)", # 之前主节点,健康检测不通过
            "uptime" : 0,
            "optime" : Timestamp(1495556693, 6),
            "optimeDate" : ISODate("2017-05-23T16:24:53Z"),
            "lastHeartbeat" : ISODate("2017-05-23T16:30:35Z"),
            "lastHeartbeatRecv" : ISODate("2017-05-23T16:30:13Z"),
            "pingMs" : 0
        },
        {
            "_id" : 1,
            "name" : "192.168.2.147:27017",
            "health" : 1,
            "state" : 1,
            "stateStr" : "PRIMARY",         #node4成为主节点
            "uptime" : 516,
            "optime" : Timestamp(1495556693, 6),
            "optimeDate" : ISODate("2017-05-23T16:24:53Z"),
            "lastHeartbeat" : ISODate("2017-05-23T16:30:34Z"),
            "lastHeartbeatRecv" : ISODate("2017-05-23T16:30:35Z"),
            "pingMs" : 0,
            "electionTime" : Timestamp(1495556989, 1),
            "electionDate" : ISODate("2017-05-23T16:29:49Z")
        },
        {
            "_id" : 2,
            "name" : "192.168.2.33:27017",
            "health" : 1,
            "state" : 2,
            "stateStr" : "SECONDARY",
            "uptime" : 1565,
            "optime" : Timestamp(1495556693, 6),
            "optimeDate" : ISODate("2017-05-23T16:24:53Z"),
            "infoMessage" : "syncing to: 192.168.2.147:27017",
            "self" : true
        }
    ],
    "ok" : 1
}
# 恢复之前的主节点为从节点,将mongodb的服务启动
mymongo:SECONDARY> db.isMaster()
{
    "setName" : "mymongo",
    "setVersion" : 3,
    "ismaster" : false,
    "secondary" : true,
    "hosts" : [
        "192.168.2.33:27017",
        "192.168.2.147:27017",
        "node2:27017"
    ],
    "primary" : "192.168.2.147:27017",      #master依然是node4
    "me" : "192.168.2.33:27017",
    "maxBsonObjectSize" : 16777216,
    "maxMessageSizeBytes" : 48000000,
    "maxWriteBatchSize" : 1000,
    "localTime" : ISODate("2017-05-23T16:32:33.600Z"),
    "maxWireVersion" : 2,
    "minWireVersion" : 0,
    "ok" : 1
}
# 不存在抢占,是否优先级一样呢。
# 调整mongodb节点优先级,以配置文件的方式,只能在当前复制集群的master节点。
mymongo:PRIMARY> cfg=rs.conf()
{
    "_id" : "mymongo",
    "version" : 3,
    "members" : [
        {
            "_id" : 0,
            "host" : "node2:27017"
        },
        {
            "_id" : 1,
            "host" : "192.168.2.147:27017"
        },
        {
            "_id" : 2,
            "host" : "192.168.2.33:27017"
        }
    ]
}
mymongo:PRIMARY> cfg.members[0].priority=2      # 设置node2节点的优先级为2
2
mymongo:PRIMARY> rs.reconfig(cfg)               # 重新应用配置,立马发生主从切换
2017-05-24T00:36:57.911+0800 DBClientCursor::init call() failed
2017-05-24T00:36:57.916+0800 trying reconnect to 127.0.0.1:27017 (127.0.0.1) failed
2017-05-24T00:36:57.919+0800 reconnect 127.0.0.1:27017 (127.0.0.1) ok
2017-05-24T00:36:57.923+0800 DBClientCursor::init call() failed
2017-05-24T00:36:57.926+0800 Error: error doing query: failed at src/mongo/shell/query.js:81
2017-05-24T00:36:57.929+0800 trying reconnect to 127.0.0.1:27017 (127.0.0.1) failed
2017-05-24T00:36:57.933+0800 reconnect 127.0.0.1:27017 (127.0.0.1) ok
mymongo:SECONDARY>      # 提示符显示当前节点为复制集群的从节点
oplog
mongodb的复制集群,生成的oplog存储在默认的local数据库中,oplog.rs
use local
mymongo:PRIMARY> show collections
me
oplog.rs
replset.minvalid
slaves
startup_log
system.indexes
system.replset
mymongo:PRIMARY> db.oplog.rs.findOne()
{
    "ts" : Timestamp(1495555525, 1),
    "h" : NumberLong(0),
    "v" : 2,
    "op" : "n",
    "ns" : "",
    "o" : {
        "msg" : "initiating set"
    }
}
# ts:操作时间戳
# op:表示操作类型,insert,update,delete,这里是初始化复制集群
# ns:操作集合的名称
# o:表示document内容,初始化复制集群

-----查看oplog元数据信息-----
mymongo:PRIMARY> db.printReplicationInfo()
configured oplog size:   2311.57470703125MB
log length start to end: 1892secs (0.53hrs)
oplog first event time:  Wed May 24 2017 00:05:25 GMT+0800 (CST)
oplog last event time:   Wed May 24 2017 00:36:57 GMT+0800 (CST)
now:                     Wed May 24 2017 09:25:52 GMT+0800 (CST)
# configured oplog size:oplog的大小
# log length start to end:oplog日志启用时间段
# oplog first event time:第一个事务日志产生的时间
# oplog last event time:最后一个事务日志产生的时间
# now:现在的时间

-----查看slave同步oplog的状态信息-----
mymongo:PRIMARY> db.printSlaveReplicationInfo()
source: 192.168.2.147:27017
    syncedTo: Wed May 24 2017 00:36:57 GMT+0800 (CST)
    0 secs (0 hrs) behind the primary 
source: 192.168.2.33:27017
    syncedTo: Wed May 24 2017 00:36:57 GMT+0800 (CST)
    0 secs (0 hrs) behind the primary
# source:从库的ip与端口信息
# syncedTo:延迟同步多久等时间信息
-----复制集群节点配置信息查看-----
mymongo:PRIMARY> db.system.replset.findOne()
{
    "_id" : "mymongo",
    "version" : 4,
    "members" : [
        {
            "_id" : 0,
            "host" : "node2:27017",
            "priority" : 2
        },
        {
            "_id" : 1,
            "host" : "192.168.2.147:27017"
        },
        {
            "_id" : 2,
            "host" : "192.168.2.33:27017"
        }
    ]
}
复制集群节点的增删
增加复制集群节点:,
1、通过oplog方式 (oplog是滚动方式存储,以前的数据不存在,所以恢复的数据可能不完整)
2、通过数据库快照+oplog进行
3、新节点从0开始复制数据(这种类型只需要rs.add即可)
#####
安装好mongodb软件,设置好配置文件,
scp -r /data/mongodb/{dbname}.* [email protected]:/data/mongodb
# 这里拷贝数据库文件,只需要拷贝需要复制的数据库的DB文件,系统默认的local数据库文件无需拷贝
new node1:
chown -R mongod.mongod /data/mongodb
service mongod start
# 在replset复制集群的primary上添加集群节点:
rs.add("192.168.1.154:27017")
# 新的复制节点,rs.status()可以看到secondary状态。

删除集群复制节点:
rs.remove("192.168.1.154")

# 多次操作集群节点的添加与删除,记录信息在local数据库中
use local
db.slaves.find()
# 将主节点降级为从节点,暂时将主节点降级为从节点
# rs.setpDown(N)    #N单位为秒
# 锁定指定节点在指定时间内不能成为主节点,(阻止选举)
# rs.freeze(N)      #N单位为秒
# rs.freeze(0)      #释放阻止
mongodb复制集群:
1、一主多从,主节点才可以读写,从节点只能读,且需要开启slaveOk
2、从节点复制主节点依靠的是主节点的oplog日志文件,异步方式,中间存在数据不一致,但最终实现一致
3、主节点的oplog日志文件是固定大小,,是覆盖写入oplog(新的日志会覆盖之前最老的日志信息),需呀将oplog设置比较大
4、主从节点,优先级高的是会进行抢占。
5、重新运用配置文件,是实时生效。
6、主从节点,primary与secondary角色是试试转换。
7、oplog只记录数据库改变的操作,在写入到oplog之前,会先做等幂转换
8、64位的操作系统,oplog的大小为该磁盘分区的5%

你可能感兴趣的:(mongodb复制集群)