Mongodb的Replica Sets + Sharding Architect

MongoDB的Sharding机制解决了海量存储和动态扩容的问题,但离生产环境的高可靠,高可用还有距离,Sharding在单点出现故障时就无能为力了。但是MongoDB的副本集却可以很轻松的处理单点故障,所以就有了Replica Sets + Sharding的高可用,高安全的架构。

  架构如下:

      1,shard服务器:使用Replica Sets确保每个数据节点都具有备份、自动容错转移、自动恢复的能力。

      2,配置服务器:使用使用3个配置服务器确保元数据完整性

      3,路由进程:使用3个路由进程实现平衡,提高客户端接入性能,架构如下

Mongodb的Replica Sets + Sharding Architect_第1张图片

3个分片进程:shard11,shard12,shard13组成一个副本集,提供Sharding中shard1的功能。

3个分片进程:shard21,shard22,shard23组成一个副本集,提供Sharding中shard2的功能。

3个配置服务器进程和3个路由器进程

--------------------------------------------------------------------------------------------

现在我们开始搭建整个架构(因为没那么多机器,我还是用本地的目录来模拟机器)

主机 ip  服务及端口
ServerA 127.0.0.1  
mongodb1 mongod shard11:10000
mongodb2 mongod shard21:20000
mongodb3 mongod config 1:30000
mongodb4 mongos :40000
     
ServerB 127.0.0.1  
mongodb5 mongod shard12:10001
mongodb6 mongod shard22:20001
mongodb7 mongod config 2:30001
mongodb4 mongos :40000
     
ServerC 127.0.0.1  
mongodb9 mongod shard13:10002
mongodb8 mongod shard23:20002
mongodb11 mongod config 3:30002
mongodb4 mongos :40000


1,启动Shard1进程并配置Replica Sets

 启动mongod shard11进程,副本集名称:shard1

Mongodb的Replica Sets + Sharding Architect_第2张图片


启动mongod shard12进程,并设置副本集:shard1

Mongodb的Replica Sets + Sharding Architect_第3张图片


启动mongod shard13进程,并设置副本集:shard1

Mongodb的Replica Sets + Sharding Architect_第4张图片


  把这三个进程配置成副本集,新开一个cmd,用来执行各种非启动命令,连接到上面三个进程中的任何一个,把他们配置成副本集,操作如下

Mongodb的Replica Sets + Sharding Architect_第5张图片

2,启动Shard2进程并配置Replica Sets

启动mongod shard21进程,副本集名称:shard2

Mongodb的Replica Sets + Sharding Architect_第6张图片

启动mongod shard22进程,并设置副本集:shard2


启动mongod shard23进程,并设置副本集:shard2

Mongodb的Replica Sets + Sharding Architect_第7张图片

把这三个进程配置成副本集,操作如下

Mongodb的Replica Sets + Sharding Architect_第8张图片


到此两个副本集够成的分片已经配置完成,下面配置Config server和Route process

3,配置3个Config Server





4配置Route Process



chunk大小为1M,方便我们测试效果。

5配置分片的表和片键

Mongodb的Replica Sets + Sharding Architect_第9张图片

我用的还是Friends库中的FriendUser表来做分片,片键是_id,因为cmd宽度太小了添加分片的命令显示不完全,我手动把他们列出来

   添加分片

    db.runCommand({addshard:"shard1/127.0.0.1:10000,127.0.0.1:10001,127.0.0.1:10002"})

    db.runCommand({addshard:"shard2/127.0.0.1:20000,127.0.0.1:20001,127.0.0.1:20002"})


到此整个构架已经配置完成了,我们来验证下配置的情况,我通过客户端添加10000条数据到数据库中

Mongodb的Replica Sets + Sharding Architect_第10张图片


可以看到分片已经执行。

------------------------------------------------------------------------------------------------

现在做下容灾的测试,我停掉shard11,看看结果会如何。

打开shard11的 cmd窗口,Ctrl+C停止进程

查看下状态

Mongodb的Replica Sets + Sharding Architect_第11张图片

状态完好,我在插入20000条数据,看看效果

Mongodb的Replica Sets + Sharding Architect_第12张图片


可以看到依然可以运行。

这里会出现这种情况:当有三台机器做副本集的时候,只能是一太服务器当掉,当有两台当掉的时候,第三台不能由从库变为主库。

这里应该注意副本集的选举规则: 当主库当掉时,次节点将触发选举。 收到副本集大多数成员投票的第一个节点将成为主节点。副本集选举最重要的功能是副本集的大多数原始成员节点必须参与选举才能成功。如果您的副本集包含三个 成员,有两个或三个节点可以相互连接时该副本集可选出一个主节点。如果该副本集中有两个节点脱机,则剩余的一个节点仍将作为次节点。


转自 http://www.cnblogs.com/spnt/archive/2012/07/26/2610070.html

你可能感兴趣的:(mongodb,sharding,replica)