Part08 - (图文)NSX系列之为ESXi主机配置VxLAN

完成了关于 NSX 的环境准备之后,就来到了 NSX 实现大二层的最重要技术之一 Virtual Extensible LAN VXLAN )这个部分的配置准备工作了。 VXLAN 是一个开放的技术标准,利用它,可以允许为不同网路的虚拟机创建一个逻辑网路。可以实现跨越 Layer 3 Layer 2 网路,也就是俗称的大二层网路 ;


VXLAN 传输网路通过在每台 ESXi Host 上创建一个 VXLAN 专用 VMkernel 接口的方式来构建。当虚拟机不在当前 ESXi Host 上但是又需要进行通讯时,这个接口将会被用作封装 Segments Packets 。通过 VMkernel 接口进行封装并不会导致传输过程需要用户去做什么事情,封装过程对于用户而言是透明的。无论两个传输对象之间是否需要跨越多层 L3 网路时,它们依然可以在同一个 Segment 里面。这就是大 2 层的奇妙之处;


1 、配置 VXLAN 也是zcspba.cn需要在 vSphere Web Client› Networking & Security › Installation › Host Preparation › Configure ,这个窗口里去配置。当按照这里的提示步骤,来到配置 VXLAN 窗口时,可以看到图 01 所示的界面,在这个界面里,点击 VXLAN 选项的 Configure ,就会激活配置 VXLAN 配置向导,而这个配置过程中, Cluster 里的每台主机上都会创建一个新的 VMkernel 接口,这个接口被用作 VXLAN Tunnel Endpoint VTEP )用途:


Part08 - (图文)NSX系列之为ESXi主机配置VxLAN_第1张图片



01


关于 VTEP VMkernel 接口的工作wakigk.cn内容,如下:
·
xjzhyd.cn –  它通过选择一个 vDS ,来实现与 ESXi Host 的虚拟交换机建立通讯基础关系;
·
VLAN –  需要为 VXLAN VMkernel 接口设定 VLAN ID ,如果不想要设定,可以为 0 ,这就意味着所有通讯都可以通过;
·
ktasal.cn 这个参数默认为 1600 ,标准的 MTU 值一般都是 1500 ,而这里设定为 1600 的原因是: VXLAN 的封装是会有包头增加的。通常情况下,增加的包头数会超过 50 个,再加上可能存在的物理环节的包头增加,所以, MTU 值建议为 1600 以上;(备注:如果您不知道 VXLAN 的包头数又想知道具体的情况,请点击这里,去 [url=]虚拟人网站[/url] 查看详细说明,大体上就是要增加 Ethernet Header IP Header UDP Header VXLAN Header );
·
cvhhci.cn 需要一个 IP 地址,这里的 IP 可以通过 IP Pool DHCP 获取,建议通过 IP Pool 的方式设定;


2 、按照第 1 步的说明点击 Configure 之后,就会来到图 02 所示的窗口,窗口里的相关内容在第 1 步里已经解释过了,照填即可:

Part08 - (图文)NSX系列之为ESXi主机配置VxLAN_第2张图片


02


3 、由于imyuer.cn选择的是 IP Pool 的方式为 VMkernel 设定 IP 地址,所以,需要新增一个 IP Pool ,点击图 02 VMKNic IP Addressing 选项的 New IP Pool… 选项后,会来到图 03 所示的 Add IP Pool 窗口,在这个窗口,需要设定的选项包括:
·
Name –  这个 IP Pool 的名字,建议按照用途输入,例如本文中的 VXLAN IP Pool
·
Gateway –  这个 IP Pool 分配给里面 VMkernel 的缺省网关地址;
·
Prefix Length –  子网大小;
·
Primary DNS – DNS 服务器讯息;
·
DNS Suffix – DNS 查询后缀,例如本例中的 jsiklf.cn
·
Static IP Pool –  一个地址范围,表示可以分配给 bvjqpr.cn IP 地址段,格式为: x.x.x.x-x.x.x.z ,注意格式;

Part08 - (图文)NSX系列之为ESXi主机配置VxLAN_第3张图片


03


3 、由于 VXLAN 环境的研究通常涉及到跨越 3 层,所以,还需要新增一个 Cluster ,以便可以继续后面的大二层实验,这也就是为什么在本系列文档里,虚拟人建议大家准备好 2 Cluster 的原因。除了这个因素外,在 Configure VXLANnetworking 窗口里还有 2 个东西在本文第 1 步里没介绍,那就是:
·
VMKNic Teaming Policy –  这个选项表示针对这个 VTEP Port Group 的上行物理网路卡的 Teaming Policy 选择。它支持 Failover ,也支持 StaticEtherChannel 等,所以,这列可以按需选择设定;
·
VTEP –  在第 1 步里已经介绍过了 ffqulj.cn 的用途了,而它的设定,需要在这个窗口里进行设定,不过,在 Fail Over Static EtherChannel 模式下,不允许对他进行配置;
所以,这一步,重复前面第 1-2 的动作,另外创建一个 VXLAN


4 、完成了 lwaqsd.cn 的配置之后,再次去到 Host Preparation 里面,可以看到 Cluster VXLAN 状态变成了 Enabled 状态,如图 04 所示:


04


5 、此时,点击 Inventory › ESXi Host › Manage › Networking › VMkernel adapters ,来到 05 所示的窗口里,可以看到一个名为 vxw-vmknicPg-dvs-xxxxxx VMkernel 被成功创建,而且,还有了来自于第 2 步中规划的 IP Pool 里的 IP 地址,可以看到在 TCP/IP Stack 里的显示是: vxlan Cluster 里的每台主机都能看到,不过 IP 不同而已:

Part08 - (图文)NSX系列之为ESXi主机配置VxLAN_第4张图片


Part08 - (图文)NSX系列之为ESXi主机配置VxLAN_第5张图片



05


6 、上述讯息也可以在图 06 所示的 Networking &Security › Installation › Logical Network Preparation › VXLAN Transport 所示的 VMKNic IP Addressing 选项里看到:


06


有多少台主机,就有多少台主机可以按照前面的方式成功配置 aargwe.cn 选项。后面将会继续介绍更多细节内容;




未完待续 ……

你可能感兴趣的:(Part08 - (图文)NSX系列之为ESXi主机配置VxLAN)