1.5 Network Hardware Considerations

이 섹션에서는 vSphere 8.0 Update 1과 함께 사용할 네트워크 하드웨어에 대한 지침을 제공합니다.

  • 네트워크 최적화 작업을 수행하기 전에 네트워크의 물리적 측면을 이해해야 합니다. 다음은 면밀히 고려해야 할 물리적 레이아웃의 몇 가지 측면입니다:

    • 최상의 성능을 위해 서버급 NIC(네트워크 인터페이스 카드) 사용을 고려하세요.
    • 소스 및 대상 NIC 사이의 네트워크 인프라가 병목 현상을 일으키지 않는지 확인합니다. 예를 들어, 두 NIC가 모두 10Gb/s인 경우 모든 케이블과 스위치가 동일한 속도를 지원하고 스위치가 더 낮은 속도로 구성되어 있지 않은지 확인하세요.
  • 최상의 네트워킹 성능을 위해 다음 기능을 지원하는 네트워크 어댑터를 사용하는 것이 좋습니다:

    • Checksum offload
    • TCP segmentation offload (TSO)
    • Ability to handle high-memory DMA (that is, 64-bit DMA addresses)
    • Ability to handle multiple Scatter Gather elements per Tx frame
    • Jumbo frames (JF)
    • Large receive offload (LRO)
    • Receive Side Scaling (RSS)
  • 가상화 인캡슐레이션(encapsulation) 프로토콜(예: VXLAN 또는 GENEVE)을 사용하는 경우:

    • NIC는 해당 프로토콜의 캡슐화된 패킷의 오프로드를 지원해야 합니다: VXLAN: VXLAN Offload VXLAN Rx/Tx Filters

GENEVE: GENEVE Offload GENEVE Rx/Tx Filters

  • NIC는 NetQueue를 지원해야 하며, 이와 함께 내부(캡슐화된) MAC 및 VXLAN 네트워크 ID(VNI) 필터링도 함께 지원해야 합니다.
Note

NIC 기능은 VMware 호환성 가이드의 IO 디바이스에서 확인할 수 있습니다.

  • 네트워크 카드가 최대 처리량을 지원할 수 있는 충분한 대역폭을 가진 슬롯에 설치되어 있는지 확인하십시오. 16페이지의 “스토리지 하드웨어 고려 사항"에 설명된 대로, 비슷해 보이지만 호환되지 않을 수 있는 버스 아키텍처를 구분하는 데 주의해야 합니다. 단일 포트 10Gb/s 이더넷 네트워크 어댑터는 PCIe x8(또는 그 이상) 또는 PCI-X 266을 사용하는 것이 이상적이며, 듀얼 포트 10Gb/s 이더넷 네트워크 어댑터는 PCIe x16(또는 그 이상)을 사용해야 합니다. 이러한 칩은 성능을 저하시킬 수 있으므로 실제 이더넷 장치(장치 자체에 내장된 브리지 칩 포함)로 연결되는 경로에 “브리지 칩”(예: PCI-X에서 PCIe 또는 PCIe에서 PCI-X)이 없는 것이 바람직합니다.

단일 포트 40Gb/s 이더넷 네트워크 어댑터는 PCIe Gen 3 x8 슬롯(또는 그 이상), 듀얼 포트 40Gb/s 어댑터 또는 단일 포트 100Gb/s 어댑터는 PCIe Gen 3 x16 슬롯(또는 그 이상), 듀얼 포트 100Gb/s 어댑터는 PCIe Gen 4 x16 슬롯(또는 그 이상)을 사용하는 것이 이상적입니다.

단일 가상 스위치(vSwitch)와 물리적 네트워크 사이에 있는 여러 물리적 네트워크 어댑터가 NIC 팀을 구성합니다. NIC 팀은 하드웨어 장애 또는 네트워크 중단 시 수동 페일오버를 제공할 수 있으며, 일부 구성에서는 이러한 물리적 네트워크 어댑터 간에 트래픽을 분산하여 성능을 향상시킬 수 있습니다.

하나의 vSwitch에 연결된 여러 물리적 네트워크 어댑터에서 로드 밸런싱을 사용하는 경우 모든 NIC의 회선 속도가 동일해야 합니다.

  • 물리적 NIC가 연결된 물리적 네트워크 스위치(또는 스위치)가 LACP(링크 집계 제어 프로토콜)를 지원하는 경우 이 기능을 사용하도록 물리적 네트워크 스위치와 vSwitch를 모두 구성하면 처리량과 가용성을 높일 수 있습니다.

  • 버전 8.0부터 vSphere는 DPU(데이터 처리 장치)라고도 하는 특정 SmartNIC 디바이스를 지원합니다. 이러한 SmartNIC는 CPU 코어와 메모리가 내장된 고성능 네트워크 인터페이스 카드로, 패킷 오프로드, 외부 관리 등의 I/O 활동에 최적화된 하이퍼바이저를 실행합니다. 이 하이퍼바이저는 서버에 설치된 ESXi 하이퍼바이저와 독립적으로 SmartNIC에서 실행됩니다. SmartNIC에 대한 자세한 내용은 Introducing VMware vSphere Distributed Services Engine and Networking Acceleration by Using DPUs. DPU를 사용한 VMware vSphere 분산 서비스 엔진 및 네트워킹 가속 소개를 참조하십시오.