跨ESXi主机的裸磁盘映射(RDM)搭建MSCS群集

 

跨物理主机的虚拟机的群集(也称为跨机箱的群集)通过在单独 ESXi 主机上放置群集节点来防止在物理机上发生软件和硬件故障。此配置需要使用光纤通道 SAN 上的共享存储器作为仲裁磁盘。

下图显示了跨机箱的群集的设置。

两个不同物理机(ESXi 主机)上的两个虚拟机运行群集软件。

虚拟机共享专用网络连接(用于专用检测信号)和公用网络连接。

每个虚拟机均连接到共享存储器,此存储器必须位于 SAN 上。

 

11111 

 

 

 

此设置可以显著降低硬件成本

可以扩展跨机箱的群集模型,并在多个物理机上放置多个虚拟机。例如,可以将四个各包含两个物理机的群集与两个各具有四个虚拟机的物理机相整合。

下图显示如何将四个双节点群集从八个物理机移动到两个物理机。

 

2222

 

 

言归正传,下面开始我们的测试

 

两个节点分别在两台不同的ESXi上,使用iSCSI存储,两台ESXi都能访问到。

 

image

 

 

Node01所在ESXi的网络配置如图:

 

image

 

 

Node02所在ESXi的网络配置如图:

 

image

 

 

Node01两块网卡配置和IP如图:

 

image

 

 

Node02的两块网卡的配置和IP,如图:

 

image

 

 

在Node01上添加硬盘,选择“裸机映射”

 

image

 

 

选择存放指针文件的存储位置(一定要共享的)

 

image

 

 

选择“物理”兼容性

 

 

 

节点不能使用SCSI0 ,必须使用SCSI 1 ,这里选择SCSI (1:0)

 

image

 

 

两块盘添加后,注意选择SCSI 1适配器,更改SCSI总线共享类型为“物理”

 

image

 

 

随后在Node02上添加硬盘,选择“使用现有虚拟磁盘”

 

image

 

 

找到Node01做RDM时生成的指针文件的路径

 

image

 

 

节点同样要使用SCSI 1

 

image

 

 

同样的方式添加两块硬盘后,记住要该SCSI 1控制器的总线共享为“物理”

 

image

 

 

随后在Node01上初始化两块盘并分配盘符,然后将硬盘“脱机”

 

image

 

 

启动Node02,发现自动挂上了那两块盘。

 

image

 

 

随后在Node01,Node02上安装故障转移群集功能。

然后验证群集测试:

 

image

 

测试成功!

你可能感兴趣的:(RDM,esxi,MSCS,裸磁盘映射,跨主机)