mongodb分片集群的安装

火山日常啰嗦
前面两篇讲了mongodb单机版的安装和复制集的配置,接下来我会讲到mongodb分片集群的安装配置,因为分片集群的基础就是复制集,所以我前面先记录了复制集的安装再来讲分片集群的安装。

分片集群的安装涉及到四个组件:
mongos(路由服务)、config server(配置服务)、shard(分片)、replica set(复制集)
下面是我配置的分片集群中这些组件的数量及分布情况:
1)2个复制集rsa0、rsa1
每个复制集有2个mongod服务(理论上有一主一从就可以成为集群)
采用水平方式配置(即每个复制集的mongod服务分别部署在不同的节点上)
每个复制集的mongod服务分别在节点172.18.149.132、172.18.149.133
2)2个config server,分别分布在172.18.149.131、172.18.149.132
3)一个mongos路由服务,分布在172.18.149.131

ps:当然,复制集的数量不一定非得为2,这是根据你的集群规模来配置的
而每个复制集的mongod服务也不一定得为2,因为我的节点数为3,其中一个节点我就想纯粹地
用来作为config server和mongos服务的节点,所以每个分片集的mongod服务数量我就设为2了,
让它们均匀地分布在另两台节点上。
mongos服务是路由服务,只需一个就够了。

安装步骤:
1、

准备工作:
1)分别在172.18.149.132、172.18.149.133节点上创建这两个目录,这是存放复制集数据的目录:

mkdir -p  /opt/modules/mongodb/data/rsa0  
mkdir -p  /opt/modules/mongodb/data/rsa1 

2)分别在172.18.149.132、172.18.149.133节点上创建这两个目录,这是存放每个复制集log日志的目录:

mkdir -p  /opt/modules/mongodb/log/log0
 mkdir -p  /opt/modules/mongodb/log/log1

3)在172.18.149.131节点上创建:
这是config server1的配置路径

 mkdir -p /opt/modules/mongodb/data/config_serv1
  mkdir -p /opt/modules/mongodb/log/config_serv1_log

这是mongos的配置路径

   mkdir -p /opt/modules/mongodb/log/mongos_log

4)在172.18.149.132节点创建:
这是config server2的配置路径

  mkdir -p /opt/modules/mongodb/data/config_serv2
  mkdir -p /opt/modules/mongodb/log/config_serv2_log

rsa0的配置:

172.18.149.132节点
mongod2.conf

dbpath=/opt/modules/mongodb/data/rsa0
logpath=/opt/modules/mongodb/log0/mongodb1_rsa0.log
smallfiles=true
replSet=rsa0
logappend=true
bind_ip=0.0.0.0
fork=true
port=27017

172.18.149.133节点
mongod3.conf

dbpath=/opt/modules/mongodb/data/rsa0
logpath=/opt/modules/mongodb/log0/mongodb2_rsa0.log
smallfiles=true
replSet=rsa0
logappend=true
bind_ip=0.0.0.0
fork=true
port=27017

rsa0的初始化:

rs.initiate( {
    _id:'rsa0', 
    members: 
    [
      {
        _id:0,
        host:'172.18.149.132:27017'
         },
         {
         _id:1,
         host:'172.18.149.133:27017'
          }
        ]
});

rsa1的配置:

172.18.149.132节点
mongod2.conf

dbpath=/opt/modules/mongodb/data/rsa1
logpath=/opt/modules/mongodb/log1/mongodb1_rsa1.log
smallfiles=true
replSet=rsa1
logappend=true
bind_ip=0.0.0.0
fork=true
port=27018

172.18.149.133节点
mongod3.conf

dbpath=/opt/modules/mongodb/data/rsa1
logpath=/opt/modules/mongodb/log1/mongodb2_rsa1.log
smallfiles=true
replSet=rsa1
logappend=true
bind_ip=0.0.0.0
fork=true
port=27018

rsa1的初始化:

rs.initiate( {
    _id:'rsa1', 
    members: 
    [
       {
        _id:0,
        host:'172.18.149.132:27018'
         },
         {
         _id:1,
         host:'172.18.149.133:27018'
          }
        ]
});

2个复制集已成功创建。

2、创建config server的复制集:
ps:也要声明属于config server自己的复制集名称,confi server的复制集名称我定为rsa

172.18.149.131
configServer1.conf

port=27019
dbpath=/opt/modules/mongodb/data/config_serv1
logpath=/opt/modules/mongodb/log/config_serv1_log/mongodb1_rsa_27019.log
logappend=true
fork=true
configsvr=true
smallfiles=true
replSet=rsa
bind_ip=0.0.0.0

172.18.149.132
configServer2.conf

port=27019
dbpath=/opt/modules/mongodb/data/config_serv2
logpath=/opt/modules/mongodb/log/config_serv2_log/mongodb2_rsa_27019.log
logappend=true
fork=true
configsvr=true
smallfiles=true
replSet=rsa
bind_ip=0.0.0.0

初始化config server复制集:

rs.initiate(
  {
    _id: "rsa",
    configsvr: true,
    members: [
      { _id:0, host:"172.18.149.131:27019" },
      { _id:1, host:"172.18.149.132:27019" }
    ]
  }
)

ps:到此,我想先说一句,因为我在前面已经说过了,分片集群是基于复制集创建的,所以我这个过程都是基于这句话展开的,先配好所有的复制集并初始化。

3、将config server复制集在mongos路由服务中注册:
mongos_route.conf

logappend=true
fork=true
port=30000
configdb=rsa/172.18.149.131:27019,172.18.149.132:27019   //这就是config server在mongos中的注
                                                                                                  //册信息
bind_ip=0.0.0.0

启动mongos服务

4、mongos服务启动后,在172.18.149.131启动mongo shell,端口30000,连接上本地的mongos服务

bin/mongos --port 30000

5、添加分片
在连接mongos的客户端操作

sh.addShard('rsa0/172.18.149.132:27017,172.18.149.132:27017');
sh.addShard('rsa1/172.18.149.133:27018,172.18.149.133:27018');

到这一步分片集群其实已经搭建完毕了。

通过sh.status();查看分片集群状态。

6、测试
1)添加待分片的数据库(以test数据库为例)

sh.enableSharding("test");

2)添加待分库的表(以test库的t1表为例,key为name,ps:表中用于表分片的key所对应的字段必须建有索引,否则分片失败)

sh.shardCollection("test.t1",{name:1})

3)查看分片结果,sh.status()
4)在mongos的客户端往t1中添加数据,然后再在分片所在的目标节点上查看是否有新添加的数据,若有,则说明分片集群真正搭建成功了。

总结:我搭建分片集群的层次是很清晰的:
1)先分别创建shard复制集以及config server复制集
2)再在mongos中注册config server的信息
3)通过mongos添加分片
这样,原本是分散的毫无关系的复制集就成为一个集群了。

你可能感兴趣的:(mongodb分片集群的安装)