mongo学习笔记四:Mongodb的三种集群(Replica Set)


Replica Set
   中文翻译叫做副本集,不过我并不喜欢把英文翻译成中文,总是感觉怪怪的。其实简单来说就是集群当中包含了多份数据,保证主节点挂掉了,备节点能继续提供数据服务,提供的前提就是数据需要和主节点一致。如下图:

   Mongodb(M)表示主节点,Mongodb(S)表示备节点,Mongodb(A)表示仲裁节点。主备节点存储数据,仲裁节点不存储数据。客户端同时连接主节点与备节点,不连接仲裁节点。
   默认设置下,主节点提供所有增删查改服务,备节点不提供任何服务。但是可以通过设置使备节点提供查询服务,这样就可以减少主节点的压力,当客户端进行数据查询时,请求自动转到备节点上。这个设置叫做 Read Preference Modes ,同时Java客户端提供了简单的配置方式,可以不必直接对数据库进行操作。
   仲裁节点是一种特殊的节点,它本身并不存储数据,主要的作用是决定哪一个备节点在主节点挂掉之后提升为主节点,所以客户端不需要连接此节点。这里虽然只有一个备节点,但是仍然需要一个仲裁节点来提升备节点级别。我开始也不相信必须要有仲裁节点,但是自己也试过没仲裁节点的话,主节点挂了备节点还是备节点,所以咱们还是需要它的。
搭建Replica Set至少需要3个mongodb节点。因为当主节点挂掉时,至少需要两个从节点才能完成选举过程。具体而言,选举是某个从节点给其他从节点发送消息,询问“我是否可以成为主节点”,接收到消息的从节点判断是否同意其成为主节点(具体的选举规则详见百度)来完成的,如果只有一个从节点,那么将没有从节点可以接收消息,判断该节点是否能升级为主节点。
所以至少需要3个节点,可以是1主1丛1仲裁节点,也可以是1主2从(但不能是1主2仲裁,仲裁节点不备份数据,无法升为主节点)。一主一从的Replica Set也可以部署,但是效果等同于Master/Slave集群,主节点挂掉后,从节点无法自动提升为主节点。
介绍完了集群方案,那么现在就开始搭建了。

1. 准备两台机器 ( 192.168.1.131 和192.168.1.133、192.168.1.112)
192.168.1.131 当作主节点,192.168.1.133作为从节点、192.168.1.112为仲裁节点。

2.安装mongodb
前面已经详细介绍过mongodb的安装,这里就不再赘述,如有需要,详见《mongo学习笔记一:MongoDB 入门(安装与配置)》
注意:后面所有集群搭建均是通过配置文件进行的,故请使用“方式二:通过配置文件方式启动”来启动mongodb
3.修改mongodb配置文件
192.168.1.131(主)上的mongodb.conf配置如下:
注: mongodb.conf在/usr/local/mongodb目录下
dbpath=/usr/local/mongodb/data/
logpath=/usr/local/mongodb/logs
pidfilepath=/usr/local/mongodb/master.pid
directoryperdb=true
logappend=true
bind_ip=192.168.1.131
port=27017
oplogSize=10000
fork=true
noprealloc=true
replSet=testrs

192.168.1.133(从)上的mongodb.conf配置如下:
dbpath=/usr/local/mongodb/data/
logpath=/usr/local/mongodb/logs
pidfilepath=/usr/local/mongodb/slaver.pid
directoryperdb=true
logappend=true
bind_ip=192.168.1.133
port=27017
oplogSize=10000
fork=true
noprealloc=true
replSet=testrs


192.168.1.112(仲裁)上的mongodb.conf配置如下:
dbpath=/usr/local/mongodb/data/
logpath=/usr/local/mongodb/logs
pidfilepath=/usr/local/mongodb/arbiter.pid
directoryperdb=true
logappend=true
bind_ip=192.168.1.112
port=27017
oplogSize=10000
fork=true
noprealloc=true
replSet=testrs
 

参数解释:
dbpath:数据存放目录
logpath:日志存放路径
pidfilepath:进程文件,方便停止mongodb
directoryperdb:为每一个数据库按照数据库名建立文件夹存放
logappend:以追加的方式记录日志
replSet:replica set的名字
bind_ip:mongodb所绑定的ip地址
port:mongodb进程所使用的端口号,默认为27017
oplogSize:mongodb操作日志文件的最大大小。单位为Mb,默认为硬盘剩余空间的5%
fork:以后台方式运行进程
noprealloc:不预先分配存储

4.启动mongodb
进入每个mongodb节点的/usr/local/mongodb目录下
bin/monood -f mongodb.conf  
bin/mongod -f mongodb.conf  
bin/mongod -f mongodb.conf  

注意配置文件的路径一定要保证正确,可以是相对路径也可以是绝对路径。

5.配置主,备,仲裁节点
在三个节点中任意选择一个连接mongodb。
bin/mongo 192.168.1.131:27017   #ip和port是某个节点的地址  
>use admin  
>cfg={ _id:"testrs", members:[ {_id:0,host:'192.168.1.131:27017',priority:2}, {_id:1,host:'192.168.1.133:27017',priority:1}, {_id:2,host:'192.168.1.112:27017',arbiterOnly:true}] };  
>rs.initiate(cfg)             #使配置生效  
cfg是可以任意的名字,当然最好不要是mongodb的关键字,conf,config都可以。最外层的_id表示replica set的名字,members里包含的是所有节点的地址以及优先级。优先级最高的即成为主节点,即这里的 192.168.1.131 :27017。特别注意的是,对于仲裁节点,需要有个特别的配置——arbiterOnly:true。这个千万不能少了,不然主备模式就不能生效。
   配置的生效时间根据不同的机器配置会有长有短,配置不错的话基本上十几秒内就能生效,有的配置需要一两分钟。如果生效了,执行rs.status()命令会看到如下信息:
  1. {  
  2.         "set" : "testrs",  
  3.         "date" : ISODate("2013-01-05T02:44:43Z"),  
  4.         "myState" : 1,  
  5.         "members" : [  
  6.                 {  
  7.                         "_id" : 0,  
  8.                         "name" : "192.168.1.131:27017",  
  9.                         "health" : 1,  
  10.                         "state" : 1,  
  11.                         "stateStr" : "PRIMARY",  
  12.                         "uptime" : 200,  
  13.                         "optime" : Timestamp(1357285565000, 1),  
  14.                         "optimeDate" : ISODate("2013-01-04T07:46:05Z"),  
  15.                         "self" : true  
  16.                 },  
  17.                 {  
  18.                         "_id" : 1,  
  19.                         "name" : "192.168.1.133:27017",  
  20.                         "health" : 1,  
  21.                         "state" : 2,  
  22.                         "stateStr" : "SECONDARY",  
  23.                         "uptime" : 200,  
  24.                         "optime" : Timestamp(1357285565000, 1),  
  25.                         "optimeDate" : ISODate("2013-01-04T07:46:05Z"),  
  26.                         "lastHeartbeat" : ISODate("2013-01-05T02:44:42Z"),  
  27.                         "pingMs" : 0  
  28.                 },  
  29.                 {  
  30.                         "_id" : 2,  
  31.                         "name" : "192.168.1.112:27017",  
  32.                         "health" : 1,  
  33.                         "state" : 7,  
  34.                         "stateStr" : "ARBITER",  
  35.                         "uptime" : 200,  
  36.                         "lastHeartbeat" : ISODate("2013-01-05T02:44:42Z"),  
  37.                         "pingMs" : 0  
  38.                 }  
  39.         ],  
  40.         "ok" : 1  
  41. }  
生效成功后会如上显示各节点的状态。
如果配置正在生效时,其中会包含如下信息:
"stateStr" : "RECOVERING"  

同时可以查看对应节点的日志,发现正在等待别的节点生效或者正在分配数据文件。
现在基本上已经完成了集群的所有搭建工作。接下来要做的就是测试工作。
一、是往主节点插入数据,能从备节点查到之前插入的数据(查询备节点可能会遇到某个问题,可以自己去网上查查看)。
二、是停掉主节点,备节点能变成主节点提供服务。
三、是恢复主节点,备节点也能恢复其备的角色,而不是继续充当主的角色。二和三都可以通过rs.status()命令实时查看集群的变化。

6.测试集群
第一步中的主备数据同步测试这里就不做了,具体步骤同《mongo学习笔记三:Mongodb的三种集群(Master-Slave)》中的测试
1.在192.168.1.131主节点上杀掉mongodb
netstat -lntp
kill 端口号
2.连接192.168.1.133节点,查看集群状态
bin/mongo 192.168.1.133:27017
rs.status()
期望结果:
192.168.1.131状态为not reachable/healthy, 192.168.133成为主节点
3.切回192.168.1.131节点,启动mongodb,查看集群状态
bin/mongod --config mongodb.conf
bin/mongo 192.168.1.131:27017
rs.status()
期望结果:
192.168.1.131恢复主节点,192.168.133成为从节点
7.注意事项
执行rs.initiate(config),可能会报错,具体有一下几种:
1.无法连接从节点
因为从节点没有启动,或从节点有防火墙无法连接
解决方法:
检查确认从节点是否启动,mongodb.conf的配置是否正确,最后检查防火墙是否拦截了
2.无法初始化备份数据集
因为从节点上已经存在数据了,无法完成初始化
解决方法:
  • 关闭从节点上的mongo
  • 修改配置,去掉Replica Set配置,使用单机节点配置
  • 启动从节点上的mongo,删除所有数据(一个数据库也不留,包括local数据库)
如果不修改为单机节点配置,无法删除数据,因为Replica Set集群中的从节点默认是无法读写的
3.No host described in new configuration 1 for replica set testrs maps to this node
出现这个问题,十有八九是节点的ip或端口配置错误,检查确认下
4.already initialized
出现这个问题是因为之前在该节点执行过rs.initiate(config),如果需要重新配置集群,那么只能如问题2一样,改为单机节点后,删除所有数据后,重新初始化集群。但是若只是添加删除节点,可以直接在主节点上执行以下语句即可:
repmore:PRIMARY> rs.add("127.0.0.1:27018");    //添加节点

repmore:PRIMARY> rs.remove("127.0.0.1:27018"); //删除节

你可能感兴趣的:(mongo,集群)