虚拟机下搭建mongodb集群

linux下搭建mongodb集群
检查三台的mongodb配置是不是完整
准备三台linux服务器,关闭防火墙,设置时间一样
三台服务器IP分别是
      server A     172.16.0.240
      server B     172.16.0.241
      server C     172.16.0.242

1,创建数据目录  在bin目录下
首先要创建Shard Server 和Config Server的数据目录,用于存储数据。
AA:在Server A上创建Shard Server 和Config Server的目录数据,代码如下:
# mkdir -p /data/shard1_1
# mkdir -p /data/shard2_1
# mkdir -p /data/config

在bin目录下
BB:在Server B上创建Shard Server 和Config Server的目录数据,代码如下:
# mkdir -p /data/shard1_2
# mkdir -p /data/shard2_2
# mkdir -p /data/config

在bin目录下
CC:在Server C上创建Shard Server 和Config Server的目录数据,代码如下:
# mkdir -p /data/shard1_3
# mkdir -p /data/shard2_3
# mkdir -p /data/config


2,配置Replica Sets
      本小节讨论如何配置Shard Server 1 和Shard Server 2各自用到的复制集。
  (001)配置Shard1所用到的Replica Set 1
           在server A上操作,如下代码所示:
   # /usr/local/mongodb/bin/mongod --shardsvr --replSet shard1 --port 27017 --dbpath /data/shard1_1 --logpath /data/shard1_1/shard1_1.log --logappend --fork

   # all output going to:/data/shard1_1/shard1_1.log forked process:18923        ----此处无果,执行上面会输出的

  (002)  在server B上操作,如下代码所示:
          # /usr/local/mongodb/bin/mongod --shardsvr --replSet shard1 --port 27017 --dbpath /data/shard1_2 --logpath /data/shard1_2/shard1_2.log --logappend --fork
          # all output going to: /data/shard1_2/shard1_2.log  forked process: 25774     ----此处无果,执行上面会输出的

  (003)  在server C上操作,如下代码所示:
          # /usr/local/mongodb/bin/mongod --shardsvr --replSet shard1 --port 27017 --dbpath /data/shard1_3 --logpath /data/shard1_3/shard1_3.log --logappend --fork
   #  all output going to: /data/shard1_3/shard1_3.log forked process: 25806      ----此处无果,执行上面会输出的

用mongodb连接其中一台机器的27017端口的mongodb,初始化Replica Set 1,如下面代码所示:
  [root@localhost bin]# ./mongo --port 27017
MongoDB shell version: 2.0.4
connecting to: 127.0.0.1:27017/test
> config={_id:'shard1',members:[
                           {_id:0,host:'172.16.0.240:27017'},
      {_id:1,host:'172.16.0.241:27017'},
      {_id:2,host:'172.16.0.242:27017'}]
     
     
      }
>rs.initiate(config)
{
   "info":"Config now saved locally.Should come online in about a minute.",
   "ok":1

}---此处是输出***此处抛出异常

3,配置shard2所用到的Replica Set 2
在Server A上操作,如代码所示
/usr/local/mongodb/bin/mongod --shardsvr --replSet shard2 --port 27018 --dbpath /data/shard2_1 --logpath /data/shard2_1/shard2_1.log --logappend --fork
在Server B上操作,如代码所示
/usr/local/mongodb/bin/mongod --shardsvr --replSet shard2 --port 27018 --dbpath /data/shard2_2 --logpath /data/shard2_2/shard2_2.log --logappend --fork
在Server C上操作,如代码所示
/usr/local/mongodb/bin/mongod --shardsvr --replSet shard2 --port 27018 --dbpath /data/shard2_3 --logpath /data/shard2_3/shard2_3.log --logappend --fork


用mongodb连接其中的一台机器的27018端口的mongodb,初始化Replica Sets "shard2"  并执行下面代码
[root@localhost bin]# ./mongo --port 27018
MongoDB shell version: 2.0.4
connecting to: 127.0.0.1:27018/test
> config={_id:'shard2',members:[
                           {_id:0,host:'172.16.0.240:27018'},
      {_id:1,host:'172.16.0.241:27018'},
      {_id:2,host:'172.16.0.242:27018'}]
     
     
      }
>rs.initiate(config)
{
 "info" : "Config now saved locally.  Should come online in about a minute.",
 "ok" : 1
}    ----***程序自己抛出,正确,不知道上面的为啥错

4,配置三台config Server
在server A,server B,server C上执行操作,如下面代码所示:
/usr/local/mongodb/bin/mongod --configsvr --dbpath /data/config --port 20000 --logpath /data/config/config.log --logappend --fork


5,配置三台Route Process
在server A,server B,server C上执行操作,如下面代码所示:
/usr/local/mongodb/bin/mongos --configdb 172.16.0.240:20000,172.16.0.241:20000,172.16.0.242:20000 --port 30000 --chunkSize 1 --logpath /data/mongos.log --logappend --fork

6,配置Shard Cluster
现在各个服务器上的mongodb进程都已经启动完毕,接下来演示如何配置Shard Cluster。连接到其中的一台机器的端口30000的mongos进程,并切换
到admin数据库开始配置 Sharding环境,如下面代码所示
[root@localhost bin]# ./mongo --port 30000
MongoDB shell version: 2.0.4
connecting to: 127.0.0.1:30000/test
mongos> show dbs
config 0.1875GB
mongos> use admin
switched to db admin
mongos> db.runCommand({addshard:"shard1/172.16.0.240:27017,172.16.0.241:27017,172.16.0.242:27017"});
{
 "ok" : 0,
 "errmsg" : "couldn't connect to new shard mongos connectionpool: connect failed shard1/172.16.0.240:27017,172.16.0.241:27017,172.16.0.242:27017 : connect failed to set shard1/172.16.0.240:27017,172.16.0.241:27017,172.16.0.242:27017"
}
mongos> db.runCommand({addshard:"shard2/172.16.0.240:27018,172.16.0.241:27018,172.16.0.242:27018"});
{ "shardAdded" : "shard2", "ok" : 1 }
mongos>
此处见书本
接下来激活分片,如下面代码所示、
db.runCommand({enablesharding:"test"})
db.runCommand({shardcollection:"test.users",key:{_id:1}})

验证Sharding
连接到其中一台机器的端口30000对应的mongos进程,并切换到test数据库,以便添加测试数据,如下面代码所示:
for(var i=1;i<=200000;i++)db.users.insert({id:i,addr_1:"Beijing",addr_2:"Shanghai"})

等完全插入后执行
进入到30000端口,然后切换到test数据库,然后db.users.status()可以看到数据分布在两个分片中。

你可能感兴趣的:(虚拟机下搭建mongodb集群)