如何在VMware ESX上实现网卡聚合

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了如何在VMware ESX上实现网卡聚合相关的知识,希望对你有一定的参考价值。

网卡(NIC:Network Interface Card)聚合意思就是把若干个网卡规整到一个网卡上。如果配置合理的话,VMware ESX上面的网卡聚合可以同时为客体虚拟机提供入站和出站的负载均衡。负责均衡使得把多个可用网卡均分到更多的服务器上,因此即使在一个网卡、电缆或者交换机出现故障时,能允许客体虚拟机持续运行的情况下完成故障转移。 


  网卡聚合实例 

  配置VMware ESX Server虚拟网络有多种方法,多数管理员通常会采用如下的方式: 

  从中可以看到,两个管理网络都有两个物理适配器。虚拟机网络(内置客体虚拟机)也有两个物理适配器,如此做也可以带来一些容错上的优势: 

1. 如果一个物理适配器出现故障的话,另外一个可以取而代之;  

2. 如果连接一个物理适配器的光缆出现故障,可以使用另外一个适配器(光缆没问

题的那个);  

3. 假定两个网卡连接到不同的交换器,如果一个交换器出现故障,可以使用连接到

可用交换器上面的那个网卡; 


  尽管VMware ESX属性介绍中声称网卡聚合可以实现负责均衡,但是基本的网卡聚合仅仅能够提供出站负载均衡。然而如果希望通过网卡聚合实现入站的负载均衡,就还有一些额外的工作需要做,需要配置VLAN中继器和以太网交换器(连接在这些VMware ESX服务器的物理适配器)上的端口通道。SearchVMware.com的作者Scott Lowe has曾经写过一些文章介绍VLAN配置,这几篇文章我之前一直有推荐: 

    ESX服务器、网卡分组和VLAN链路聚合

     2. VLAN和端口分组  

    VI3的VLAN配置:VST、EST和VGT标记 


  在VMware ESX Server里配置网卡聚合 

      对ESX服务器内的网卡进行分组另外还需要两个或者两个以上网卡。实际上在VMware ESX服务器内配置网卡聚合非常简单。首先在ESX服务器上至少需要两个物理适配器,如上图所示,很多管理员都会把管理网络和客体虚拟机网络隔离开来。因此例如我们在服务器中有三个适配器,其中一个置于隔离的虚拟机交换器内用于管理网络,另外两个物理适配器用于虚拟机网络。如果另外还有一个vSwitch0的话,最好用这个作为管理网络和VMnet0。 


  如果希望在管理网络(VMkernel和iSCSI)和虚拟机(客体机)网络上同时都配置网卡聚合的话,也就是说在我们这个场景中我们仅仅在虚拟机网络上配置了网卡聚合。首先需要创建一个新的vSwitch然后标识为“虚拟机网络”。该vSwitch很有可能就被命名为vSwitch1,在vSwitch上增加两个物理适配器。

       最后需要通过修改每一台虚拟机并且把其连接到新的端口组上,以修改每一台虚拟机客体系统。

参考技术A 首先,搭建ESXI 建立起你的虚拟机,然后搭建个虚拟交换机,将你需要进行聚合的两个网口给划分进去,在虚拟机的配置里面给他分配进这个虚拟交换机里面 之后的话就跟你正常在物理机进行的操作一样了 windows用软件弄 linux用bond绑定

VMware vSphere ESX 6.5 and vCenter 6.5 Configuration Maximums

The following listings are a comprehensive collection of configuration maximums from VMware products.


Virtual Machine Maximums


Host Maximums

 ESX 6.5ESX 6.0ESX 5.5ESX 5.1ESX 5ESX 4.1ESX 4.0ESX 3.5ESX 3ESX 2ESX 1
Logical CPUs per host576480320160160160643232168
Virtual machines per host102410245125125123203201281288064
Virtual CPUs per host409640964096204820485125121281288064
Virtual CPUs per core323232252525208888
RAM per host12TB12TB4TB2TB2TB1TB1TB256GB256GB64GB64GB
LUNs per server512256256256256256256




vCenter Server Maximums

vCenter Server MaximumsESX 6.5ESX 6.0ESX 5.5ESX 5.1ESX 5ESX 4.1ESX 4.0ESX 3.5ESX 3
Hosts per vCenter Server200010001000100010001000300200200
Powered on virtual machines25000100001000010000100001000030002000
Registered virtual machines35000150001500015000150001500045002000
Linked vCenter Servers10101010101010

Hosts in linked vCenter Servers4000400030003000300030001000

Powered on virtual machines in linked vCenter30000300003000030000300003000010000

Registered virtual machines in linked vCenter50000500005000050000500005000015000

Concurrent Client connections6018010010010010030

Number of host per datacenter2000500500500500400100

MAC addresses per vCenter Server6553665536655366553665536



USB devices connected at vSphere Client
20202020




Cluster and Resource Pool Maximums

 ESX 6.5ESX 6.0ESX 5.5ESX 5.1ESX 5ESX 4.1ESX 4.0ESX 3.5
Hosts per cluster6464323232323232
Virtual machines per cluster8000400040004000300030001280
Virtual machines per host10241024512512512320100
Maximum concurrent host HA failover


323244
Failover as percentage of cluster


100%100%50%50%
Resource pools per cluster16001600160016001600512512128
Resource pools per host16001600160016001600
4096
Children per resource pool110011001024102410241024

Resource pool tree depth8888881212


Network Maximums

 ESX 6.5ESX 6.0ESX 5.5ESX 5.1ESX 5ESX 4.1ESX 4.0ESX 3.5ESX 3
Total virtual network switch ports per host4096409640964096409640964096127
Maximum active ports per host10161016101610501016101610161016
Virtual network switch creation ports4088408840884088408840884088

Port groups512512512256256512512512
Distributed virtual network switch ports per vCenter6000060000600006000030000200006000

Static port groups per vCenter1000010000100001000050005000512

Ephemeral port groups per vCenter1016101610162562561016


Hosts per distributed switch2000100050050035035064

Distributed switches per vCenter128128128128323216

VMDirectPath PCI/PCIe devices per host8888888

VMDirectPath PCI/PCIe devices per virtual machine444444


Concurrent vMotion operations per host (1Gb/s network)4444422

Concurrent vMotion operations per host (10Gb/s network)88888




Storage Maximums

 ESX 6.5ESX 6.0ESX 5.5ESX 5.1ESX 5ESX 4.1ESX 4.0ESX 3.5ESX 3
Software iSCSI  NICs per server888888


Number of total paths on a server204810241024102410241024


Number of paths to a iSCSI LUN888888


Software iSCSI targets256256256256256256256

NFS mounts per host2562562562562566464

FC LUNs per host512256256256256256256256256
FC LUN ID163831023255255255255255255255
FC Number of paths to a LUN323232323232323232
Number of HBAs of any type8888888

HBA ports1616161616161616
Targets per HBA25625625625625625625615
Software FCoE adapters44444



Volumes per host512256256256256256256256
Hosts per volume6464646464646432
Powered on virtual machines per VMFS volume20482048204820482048
256

Concurrent vMotion operations per datastore128128128128128



Concurrent Storage vMotion operations per datastore88888



Concurrent Storage vMotion operations per host22222



Concurrent non vMotion provisioning operations per host88888



VMFS Volume size64TB64TB64TB64TB64TB64TB64TB64TB
Virtual disks per datastore cluster900090009000





Datastores per datastore cluster646464





Datastore clusters per vCenter256256256






Fault Tolerance Maximums

 ESX 6.5ESX 6.0ESX 5.5ESX 5.1ESX 5.0
Virtual disks16161616
Virtual CPUs per virtual machine44111
RAM per FT VM64 GB64GB64GB64GB64GB
Virtual machines per host44444


Virtual SAN Maximums

 ESX 6.5ESX 6.0ESX 5.5
Virtual SAN disk groups per host555
Magnetic disks per disk group777
SSD disks per disk group111
Spinning disks in all diskgroups per host353535
Components per Virtual SAN host900090003000
Number of Virtual SAN nodes in a cluster646432
Number of Virtual SAN nodes in a cluster (All-Flash)32

Number of datastores per cluster111
Virtual machines per host200200100
Virtual machines per cluster600064003200
Virtual machine virtual disk size62TB62TB2032GB
Disk stripes per object121212
Percentage of flash read cache reservation100100100
Failure to tolerate333
Percentage of object space reservation100100100
Virtual SAN networks/physical network fabrics222


以上是关于如何在VMware ESX上实现网卡聚合的主要内容,如果未能解决你的问题,请参考以下文章

网卡链路聚合 简单设置实现双倍带宽

Linux 网卡聚合

Centos7 网卡绑定(链路聚合)

在esx怎么添加虚拟机

网卡聚合bonding

centos 双网卡聚合