Mongodb是一个非关系型的分布式数据库,它可以通过自身的群集技术组成mongodb群集,进而实现数据库的横向扩展和数据库的高可用功能。Mongodb数据库群集分为Replica Sets(复制集)和Sharding(分片)两个部分。其中Replica Sets实现了mongodb数据库的高可用功能,Sharding分片实现了数据库的横向分布式扩展。在生产环境中搭建mongodb群集时一般都采取了Replica Sets+Sharding的解决方案。
Replica Sets+Sharding数据库群集包含三种角色,分别如下所示:
Shard:使用Replica Sets确保每个数据节点都有备份、自动容错转移、自动恢复能力。
Config:存储元数据,确定元数据的完整性
Router:实现访问的负载均衡,提高客户端访问性能
服务器配置如下:
IP地址 |
内存配置 |
Cpu配置 |
硬盘 |
OS |
192.168.83.45 |
8G |
2*4核 |
100G |
CentOs6.4 64bit |
192.168.83.46 |
8G |
2*4核 |
100G |
CentOs6.4 64bit |
192.168.83.47 |
8G |
2*4核 |
100G |
CentOs6.4 64bit |
表格 1
本次服务器部署规划信息如下:
IP地址 |
服务 |
端口 |
数据目录 |
日志目录 |
192.168.83.45 |
Mongod s1-1 |
27020 |
/data/mongo/s1_1/db |
/data/mongo/s1_1/log |
Mongod s2-1 |
27021 |
/data/mongo/s2_1/db |
/data/mongo/s2_1/log |
|
Mongod c1 |
27018 |
/data/mongo/config/db |
/data/mongo/config/log |
|
Mogos 1 |
27017 |
/data/mongo/route/log |
||
192.168.83.46 |
Mongod s1-2 |
27020 |
/data/mongo/s1_2/db |
/data/mongo/s1_2/log |
Mongod s2-2 |
27021 |
/data/mongo/s2_2/db |
/data/mongo/s2_2/log |
|
Mongod c2 |
27018 |
/data/mongo/config/db |
/data/mongo/config/log |
|
Mogos 2 |
27017 |
/data/mongo/route/log |
||
192.168.83.47 |
Mongod s1-3 |
27020 |
/data/mongo/s1_3/db |
/data/mongo/s1_3/log |
Mongod s2-3 |
27021 |
/data/mongo/s2_3/db |
/data/mongo/s2_3/log |
|
Mongod c3 |
27018 |
/data/mongo/config/db |
/data/mongo/config/log |
|
Mogos 3 |
27017 |
/data/mongo/route/log |
表格 2
部署前检查服务器网络,确保网络通信正常
部署前确保mongodb软件已经拷贝到上述三台服务器上,本次部署使用的是mongodb-linux-x86_64-2.4.5版本
(1) 将mongodb-linux-x86_64-2.4.5.tar分别拷贝到192.168.83.45、192.168.83.46、192.168.83.47的/usr/local目录下
(2) 分别切换到三台服务器的/usr/local目录下,使用tar xvzf mongodb-linux-x86_64-2.4.5.tar将软件包解压缩到/usr/local目录下
(3) 分别在三台服务器的/usr/local目录下使用mv mongodb-linux-x86_64-2.4.5 mongodb命令将文件夹重命名为mongodb
(4) 在83.45服务器上分别创建如下目录
mkdir �Cp /data/mongo/s1_1/db mkdir �Cp /data/mongo/s1_1/log
(5) 在83.46服务器上分别创建如下目录
mkdir �Cp /data/mongo/s1_2/db mkdir �Cp /data/mongo/s1_2/log
(6) 在83.47服务器上分别创建如下目录
(7) mkdir �Cp /data/mongo/s1_3/db mkdir �Cp /data/mongo/s1_3/log
(8) 切换到83.45服务器的/usr/local/mongodb/bin目录下执行如下命令:
./mongod --shardsvr --replSet s1 --port 27020--dbpath=/data/mongo/s1_1/db --logpath=/data/mongo/s1_1/log/mongo.log--logappend �Cfork
(9) 切换到83.46服务器的/usr/local/mongodb/bin目录下执行如下命令:
./mongod --shardsvr --replSet s1 --port 27020--dbpath=/data/mongo/s1_2/db --logpath=/data/mongo/s1_2/log/mongo.log--logappend �Cfork
(10) 切换到83.47服务器的/usr/local/mongodb/bin目录下执行如下命令:
./mongod --shardsvr --replSet s1 --port 27020--dbpath=/data/mongo/s1_3/db --logpath=/data/mongo/s1_3/log/mongo.log--logappend �Cfork
(11) 连接三个节点的任一个初始化复制集s1,这里以连接到83.45的27020为例,执行下述命令:
./mongo �Cport 27020
(12) 切换到admin数据库
Useadmin
(13) 依次执行下述命令对复制集S1初始化
config={_id:'s1',members:[{_id:0,host:'192.168.83.45:27020'},{_id:1,host:'192.168.83.46:27020'},{_id:2,host:'192.168.83.47:27020'}]}
rs.initiate(config)
(14) 初始化完成后查看复制集的状态,执行如下命令:
rs.status()
(1) 在83.45服务器上分别创建如下目录
mkdir �Cp /data/mongo/s2_1/db mkdir �Cp /data/mongo/s2_1/log
(2) 在83.46服务器上分别创建如下目录
mkdir �Cp /data/mongo/s2_2/db mkdir �Cp /data/mongo/s2_2/log
(3) 在83.47服务器上分别创建如下目录
mkdir �Cp /data/mongo/s2_3/db mkdir �Cp /data/mongo/s2_3/log
(4) 切换到83.45服务器的/usr/local/mongodb/bin目录下执行如下命令:
./mongod --shardsvr --replSet s2 --port 27021--dbpath=/data/mongo/s2_1/db --logpath=/data/mongo/s2_1/log/mongo.log--logappend --fork
(5) 切换到83.46服务器的/usr/local/mongodb/bin目录下执行如下命令:
./mongod --shardsvr --replSet s2 --port 27021--dbpath=/data/mongo/s2_2/db --logpath=/data/mongo/s2_2/log/mongo.log--logappend --fork
(6) 切换到83.47服务器的/usr/local/mongodb/bin目录下执行如下命令:
./mongod --shardsvr --replSet s2 --port 27021--dbpath=/data/mongo/s2_3/db --logpath=/data/mongo/s2_3/log/mongo.log--logappend --fork
(7) 连接三个节点的任一个初始化复制集s2,这里以连接到83.45的27021为例,执行下述命令:
./mongo �Cport 27021
(8) 切换到admin数据库
Useadmin
(9) 依次执行下述命令对复制集S1初始化
config={_id:'s2',members:[{_id:0,host:'192.168.83.45:27021'},{_id:1,host:'192.168.83.46:27021'},{_id:2,host:'192.168.83.47:27021'}]}
rs.initiate(config)
(10) 初始化完成后查看复制集的状态,执行如下命令:
rs.status()
(1) 分别切换到192.168.83.45、192.168.83.46、192.168.83.47三台服务器的 /usr/local/mongodb/bin目录下:
Cd/usr/local/mongodb/bin
(2) 依次在192.168.83.45、192.168.83.46、192.168.83.47三台服务器上执行下述命令:
./mongod --configsvr --dbpath /data/mongo/config/db--port 27018 --logpath /data/mongo/config/log/mongo.log �Cfork
(1) 分别切换到192.168.83.45、192.168.83.46、192.168.83.47三台服务器的 /usr/local/mongodb/bin目录下:
Cd/usr/local/mongodb/bin
(2) 依次在192.168.83.45、192.168.83.46、192.168.83.47三台服务器上执行下述命令:
./mongos--fork--configdb"192.168.83.45:27018,192.168.83.46:27018,192.168.83.47:27018"--logpath /data/mongo/route/log/mongo.log --port 27017
(1) 连接任一mongos进程执行以下命令,这里以83.45的27017为例
./mongo192.168.83.45:27017
(2) 切换到admin数据库
Useadmin
(3) 依次执行下述命令添加分片
db.runCommand({addshard:"s1/192.168.83.45:27020,192.168.83.46:27020,192.168.83.47:27020"})
db.runCommand({addShard:"s2/192.168.83.45:27021,192.168.83.46:27021,192.168.83.47:27021"})
(4) 分片添加完成后可以查看分片的状态
db.printShardingStatus()
(1) 连接任一mongos进程执行以下命令,这里以83.45的27017为例
./mongo192.168.83.45:27017
(2) 切换到切片数据库这里以默认的test库为例
Usetest
(3) 设置分片数据库激活计划分片
db.runCommand({enablesharding:"test"})-----设置分片数据库
db.runCommand({shardcollection:"test.c1",key:{_id:1}})---设置分片集合名称
(1) 连接任一mongos进程进行数据插入验证,这里以83.45的27017为例
./mongo192.168.83.45:27017
(2) 切换到切片数据库test库
Usetest
(3) 使用下述循环插入数据进行验证,这里以插入30万条数据为例
for(vari=1;i<=300000;i++)db.c1.save({_id:i,age:i,name:"zhangsan",addr:"beijing",host:"1234567890"});
(4) 如果出现下述现象则说明配置成功