OK,I am Back。实验3学习了N5K并简单的回顾了Port-Channel,继续介绍数据中心里面的一项新的技术 ---vPC(virtual Port-Channel),虚拟的链路捆绑。前面我们提过Port-Channel的两端是一台物理设备,那vPC两端呢,那就不一定啦,经典的vPC环境如下图所示:一端为DC2-N5K-1和DC2-N5K-2组合成的逻辑实体(一个vPC Domain下的两台vPC PeerSwitch),另一端为DC2-N2K-1。

实验逻辑拓扑

数据中心分解实验四--PC和VPC_第1张图片

上个实验里面我们已经完成了N5K之间的Po200互联配置,继续看vPC,可以这么想,vPC技术的作用就是:“使得N2K认为对端的两台N5K是一台设备“,既然是一台设备那链路该怎么捆绑就怎么聚合啦~

vPC的使用是有比较严格的条件的,要求在两台N5K之间

1.   有一条peer-link,一条二层的链路

2.   有一条peer-keepalive,一条三层的链路

3.   互连的硬件有要求,软件配置会进行一致性检查

 

Showtime,实验开始:

继续配置vPC,数据中心分解实验四--PC和VPC_第2张图片

两台设备一起工作的时候,总会分个主次,设置rolepriority的意思就是确定主次,vPC里面优先级小的设备为Primary~

数据中心分解实验四--PC和VPC_第3张图片

Peer-keepalive是两台vPC Peer Switch之间的一个三层可达的接口就可以:

比较推荐的方式是两种,

1.   管理接口,

2.   专门用来做keepalive的三层接口,

注意:请勿用线缆背对背连接keepalive三层接口

数据中心分解实验四--PC和VPC_第4张图片数据中心分解实验四--PC和VPC_第5张图片

可以看到N2K上的接口,都按照Eth103/1/X的编号注册到N5K上了

值得注意的是既然两台设备要虚拟成一台设备使用,当然对两台设备的配置有要求啦,vPC会对两台设备进行一致性校验,如果校验不成功,该报错就会报错咯

数据中心分解实验四--PC和VPC_第6张图片数据中心分解实验四--PC和VPC_第7张图片

数据中心分解实验四--PC和VPC_第8张图片

vPC的配置并不复杂,其实在数据中心里面配置都不算太复杂,

重点在于构架的设计,

重点在于构架的设计,

重点在于构架的设计!

重要的事情说三遍~

 

 

vPC有哪些需要我们了解和掌握构架呢?(设计一个数据中心,目标是高效、易于扩展、易于维护等,学习和设计哪些怪异的不常用的模型、构架的意义何在?)

从设备互连来说,可以选择的结构是:

1.   最基本的vPC结构(可以是N7K连接N5K,也可以是N5K连N5K,或者是N5K连N2K)

数据中心分解实验四--PC和VPC_第9张图片

2. enhancedvPC,一定是按照我们的小实验里面选用N5K连N2K做vPC,N2K在连接到服务器再做PC

(因为N2K是作为板卡存在的,对于Server来说,虽然是连接到两台N2K上,不过这两台N2K同时归属于两台N5K管理,所以可以看作是一台设备)

数据中心分解实验四--PC和VPC_第10张图片

3.   vPC+,两台vPC Peer之间如果运行FabricPath协议,这种vPC称之为vPC+,我们在FabricPath实验里再讨论vPC+