跨物理主机的虚拟机的群集(也称为跨机箱的群集)通过在单独 ESXi 主机上放置群集节点来防止在物理机上发生软件和硬件故障。此配置需要使用光纤通道 SAN 上的共享存储器作为仲裁磁盘。

下图显示了跨机箱的群集的设置。

两个不同物理机(ESXi 主机)上的两个虚拟机运行群集软件。

虚拟机共享专用网络连接(用于专用检测信号)和公用网络连接。

每个虚拟机均连接到共享存储器,此存储器必须位于 SAN 上。

 

 

 

 

 

此设置可以显著降低硬件成本

可以扩展跨机箱的群集模型,并在多个物理机上放置多个虚拟机。例如,可以将四个各包含两个物理机的群集与两个各具有四个虚拟机的物理机相整合。

下图显示如何将四个双节点群集从八个物理机移动到两个物理机。

 

 

 

言归正传,下面开始我们的测试

 

两个节点分别在两台不同的ESXi上,使用iSCSI存储,两台ESXi都能访问到。

 

 

 

Node01所在ESXi的网络配置如图:

 

 

 

Node02所在ESXi的网络配置如图:

 

 

 

Node01两块网卡配置和IP如图:

 

 

 

Node02的两块网卡的配置和IP,如图:

 

 

 

在Node01上添加硬盘,选择“裸机映射”

 

 

 

选择存放指针文件的存储位置(一定要共享的)

 

 

 

选择“物理”兼容性

 

 

 

节点不能使用SCSI0 ,必须使用SCSI 1 ,这里选择SCSI (1:0)

 

 

 

两块盘添加后,注意选择SCSI 1适配器,更改SCSI总线共享类型为“物理”

 

 

 

随后在Node02上添加硬盘,选择“使用现有虚拟磁盘”

 

 

 

找到Node01做RDM时生成的指针文件的路径

 

 

 

节点同样要使用SCSI 1

 

 

 

同样的方式添加两块硬盘后,记住要该SCSI 1控制器的总线共享为“物理”

 

 

 

随后在Node01上初始化两块盘并分配盘符,然后将硬盘“脱机”

 

 

 

启动Node02,发现自动挂上了那两块盘。

 

 

 

随后在Node01,Node02上安装故障转移群集功能。

然后验证群集测试:

 

 

测试成功!