1.4 Storage Hardware Considerations

이 섹션에서는 vSphere 8.0 Update 1과 함께 사용할 스토리지 하드웨어에 대한 지침을 제공합니다.

일반적인 스토리지 하드웨어 고려 사항

백엔드 스토리지 구성은 성능에 큰 영향을 미칠 수 있습니다. 스토리지 구성에 대한 자세한 내용은 vSphere Storage를 참조하십시오.

예상보다 낮은 스토리지 성능은 ESXi의 특정 문제라기보다는 기본 스토리지 디바이스의 구성 문제로 인해 발생하는 경우가 대부분입니다.

스토리지 성능은 워크로드, 하드웨어, 벤더, RAID 수준, 캐시 크기, 스트라이프 크기 등에 따라 달라지는 방대한 주제입니다. 스토리지 벤더뿐만 아니라 VMware의 적절한 설명서를 참조하십시오.

많은 워크로드는 I/O 작업의 지연 시간에 매우 민감합니다. 따라서 스토리지 디바이스를 올바르게 구성하는 것이 중요합니다. 이 섹션의 나머지 부분에서는 최적의 스토리지 성능을 위해 VMware에서 권장하는 사례 및 구성을 나열합니다.

  • VMware Storage vMotion 성능은 사용 가능한 스토리지 인프라 대역폭에 따라 크게 달라집니다. 따라서 배포를 계획할 때 75페이지의 “VMware vMotion 및 Storage vMotion"에 나와 있는 정보를 고려하는 것이 좋습니다.
  • vSphere 플래시 인프라 계층에 플래시 디바이스를 제공하는 것을 고려합니다. 이 계층은 호스트 스왑 파일을 저장하는 데 사용할 수 있습니다(33페이지의 “메모리 오버커밋 기법"에 설명된 대로). vSphere 플래시 인프라스트럭처 계층은 PCIe 플래시 카드 또는 SAS 또는 SATA 연결 SSD 드라이브로 구성할 수 있으며, 일반적으로 PCIe 플래시 카드가 SSD 드라이브보다 성능이 더 우수합니다.
  • NVMe(Non-Volatile Memory Express) 프로토콜을 사용하는 PCIe 플래시 카드를 선택하는 것이 좋습니다(vSphere 8.0 Update 1의 NVMe 지원 및 고성능 플러그인 사용에 대한 자세한 내용은 43페이지의 “NVMe 권장 사항"을 참조하십시오).
  • 4K 네이티브(4Kn) 및 512B 에뮬레이션(512e) 드라이브에는 몇 가지 장점과 몇 가지 제한 사항이 있습니다. 특히 이러한 드라이브는 워크로드에서 대부분 4K 정렬 I/O를 사용하지 않는 경우 성능이 저하될 수 있습니다. 이 주제에 대한 자세한 내용은 VMware KB 문서 2091600 또는 vSphere 스토리지 가이드에서 ESXi 호스트에 사용 가능한 스토리지 디바이스 보기의 “디바이스 섹터 형식” 하위 섹션을 참조하십시오.
  • vStorage APIs for Storage Awareness (VASA)를지원하는 스토리지 하드웨어를 선택하여 vVols를 사용할 수 있도록 하는 것이 좋습니다(93페이지의 “VMware vSphere Virtual Volumes(vVols)“에 설명된 대로). vVols 성능은 스토리지 하드웨어 벤더마다 크게 다르므로 선택한 스토리지 하드웨어가 예상하는 vVols 성능을 제공하는지 확인해야 합니다.
  • VMware vSAN을 사용할 계획이라면 하이브리드 배포와 올플래시 vSAN 배포의 장점을 고려하십시오(90페이지의 “하이브리드와 올플래시 vSAN 비교” 참조).
  • VMware vSAN을 사용하려는 경우 RDMA over Converged Ethernet version 2 (RoCE v2)를 지원하는 NICS 및 네트워크 스위치를 선택하는 것이 좋습니다(91페이지의 “vSAN 네트워크 고려 사항” 참조).
  • 가상 시스템 암호화를 사용하려는 경우(45페이지의 “vSphere 가상 시스템 암호화 권장 사항” 참조) AES-NI 프로세서 명령어 집합 확장을 지원하는 하드웨어를 선택하는 것이 좋습니다. 자세한 내용은 13페이지의 “AES-NI 지원"을 참조하십시오.
  • 스토리지 네트워크의 성능 설계는 논리적 할당이 아닌 네트워크의 물리적 제약을 고려해야 합니다. VLAN 또는 VPN을 사용하는 것은 공유 구성에서 링크 과잉 가입 문제에 대한 적절한 해결책을 제공하지 않습니다. VLAN 및 기타 네트워크의 가상 파티셔닝은 네트워크를 논리적으로 구성하는 방법을 제공하지만 스위치 간 링크 및 트렁크의 물리적 기능을 변경하지는 않습니다. 그러나 VLAN과 VPN을 사용하면 네트워크 서비스 품질(QoS) 기능을 사용할 수 있으므로 과잉 가입을 제거하지는 않지만 특정 트래픽에 우선적으로 또는 비례적으로 대역폭을 할당하는 방법을 제공합니다. 이 문제에 대한 다른 접근 방식은 47페이지의 “Network I/O Control(NetIOC)“를 참조하세요.
  • 데이터 수집 또는 트랜잭션 로깅 시스템과 같이 스토리지에 대량의 데이터를 쓰는 애플리케이션이나 시스템은 다른 애플리케이션이나 시스템과 스토리지 장치에 대한 이더넷 링크를 공유해서는 안 됩니다. 이러한 유형의 애플리케이션은 스토리지 장치에 전용으로 연결할 때 가장 성능이 좋습니다.
  • Write-back 캐시를 사용하면 로컬 스토리지 성능이 향상될 수 있습니다. 로컬 스토리지에 Write-back 캐시가 설치되어 있는 경우 해당 캐시가 활성화되어 있고 작동하는 배터리 모듈이 포함되어 있는지 확인하십시오. 자세한 내용은 VMware KB 문서 1006602를 참조하십시오.
  • 스토리지 어댑터 카드가 예상 처리량을 지원할 수 있는 충분한 대역폭이 있는 슬롯에 설치되어 있는지 확인합니다. PCI, PCI-X, PCI Express(PCIe), PCIe 3.0(일명 PCIe 3세대), PCIe 4.0(일명 PCIe 4세대) 등 유사하지만 호환되지 않을 수 있는 버스 아키텍처를 구분하고 둘 이상의 폭을 지원할 수 있는 아키텍처의 “레인” 수에 유의해야 합니다. 예를 들어, 전체 대역폭 잠재력을 제공하려면 단일 포트 32Gb/s 파이버 채널 HBA 카드는 최소 PCIe 2세대 x8 또는 PCIe 3세대 x4 슬롯(각 방향에서 순 최대 32Gb/s 지원)에 설치해야 하며, 듀얼 포트 32Gb/s 파이버 채널 HBA 카드는 최소 PCIe 3세대 x8 슬롯(각 방향에서 순 최대 64Gb/s 지원)에 설치해야 합니다. 마찬가지로, 더 빠른 최신 카드의 경우 최대 대역폭 잠재력을 발휘하려면 PCIe Gen 4가 필요할 수 있습니다. 이러한 고성능 카드는 일반적으로 더 느린 PCIe 슬롯에서도 잘 작동하지만 슬롯의 사용 가능한 대역폭에 따라 최대 처리량이 제한될 수 있습니다. 이는 대형 블록 크기 I/O를 많이 사용하는 워크로드와 가장 관련이 있는데, 이러한 카드가 가장 높은 처리량을 개발하는 경향이 있기 때문입니다.

Fibber Channel 고려사항

  • 성능 문제를 방지하려면 종단 간 파이버 채널 속도가 일정한지 확인하십시오. 자세한 내용은 VMware KB 문서 1006602를 참조하십시오.
  • 필요한 경우 파이버 채널 HBA 카드에 대해 최대 대기열 깊이를 구성합니다. 자세한 내용은 VMware KB 문서 1267을 참조하십시오.

VMware vStorage APIs for Array Integration (VAAI)

일부 작업을 ESXi에서 수행하지 않고 스토리지 하드웨어로 오프로드할 수 있도록 VAAI(VMware vStorage APIs for Array Integration)를 지원하는 스토리지 하드웨어를 선택하는 것이 좋습니다.

개선 정도는 스토리지 하드웨어에 따라 다르지만 VAAI는 스토리지 확장성을 개선하고, 여러 유형의 스토리지 작업에 대한 스토리지 레이턴시를 줄일 수 있으며, 스토리지 작업에 대한 ESXi 호스트 CPU 사용률을 줄일 수 있고, 스토리지 네트워크 트래픽을 줄일 수 있습니다.

SAN에서 VAAI는 다음과 같은 기능을 제공합니다:

  • 확장 가능한 잠금 관리(Scalable lock management : “hardware-assisted locking,” “Atomic Test & Set,” ATS라고도 함)는 메타데이터 업데이트를 수행할 때 VMFS 볼륨에서 SCSI 예약을 사용하는 것을 대체합니다. 이렇게 하면 잠금 관련 오버헤드가 줄어들어 많은 관리 작업의 속도가 빨라질 뿐만 아니라 씬 VMDK의 I/O 성능이 향상됩니다. ATS는 씬 디스크 확장, 스냅샷 생성 및 기타 작업과 같은 프로비저닝 작업의 속도를 높여 대규모 배포의 확장성을 개선하는 데 도움이 됩니다.
  • 확장 복사(Extended Copy : “full copy,” “copy offload,” XCOPY라고도 함)를 사용하면 호스트에서 데이터를 전송할 필요 없이 어레이에서 복사 작업을 완전히 수행할 수 있습니다. 이렇게 하면 스토리지 vMotion과 같이 복제에 의존하는 작업의 속도를 크게 높이는 동시에 호스트의 CPU 및 I/O 리소스를 확보할 수 있습니다.
  • 블록 제로화(Block zeroing : “Write Same”라고도 함)는 eager-zeroed thick 디스크의 생성 속도를 높이고 lazy-zeroed thick 디스크와 씬 디스크의 최초 쓰기 성능을 향상시킬 수 있습니다.
  • 데드 스페이스 재생(Dead space reclamation, UNMAP 명령 사용)을 통해 호스트는 더 이상 사용되지 않는 블록을 스토리지에 전달할 수 있습니다. 어레이 측에서 씬 프로비저닝된 LUN에서는 스토리지 어레이 하드웨어가 더 이상 필요하지 않은 블록을 재사용할 수 있습니다.
Note

여기서 “thin provisioned"은 40페이지의 “가상 디스크 유형"에 설명된 씬 프로비저닝된 VMDK와 구별되는 스토리지 어레이의 LUN을 의미합니다.

NAS 장치에서 VAAI는 다음과 같은 기능을 제공합니다:

  • 하드웨어 가속 복제(Hardware-accelerated cloning : “Full File Clone”, “Full Copy”, “Copy Offload”라고도 함)를 통해 NAS 장치에서 가상 디스크를 복제할 수 있습니다. 이렇게 하면 호스트의 리소스를 확보할 수 있고 복제에 의존하는 워크로드의 속도를 높일 수 있습니다. (Storage vMotion은 NAS 장치에서 이 기능을 사용하지 않습니다.)
  • 네이티브 스냅샷 지원(Native Snapshot Support : “Fast File Clone”라고도 함)은 VMware 재실행 로그 대신 네이티브 스냅샷 디스크를 사용하여 가상 머신 링크 클론 또는 가상 머신 스냅샷을 생성할 수 있습니다. 이 기능을 사용하려면 가상 하드웨어 버전 9 이상에서 실행 중인 가상 머신이 필요하며, 작업을 NAS 디바이스로 오프로드하여 ESXi 호스트의 I/O 트래픽 및 리소스 사용량을 줄입니다.
Note

NAS 기본 스냅샷 디스크를 사용하여 가상 머신 스냅샷을 처음 생성할 때는 VMware 재실행 로그를 사용하여 스냅샷을 생성할 때보다 속도가 느립니다. 이러한 성능 영향을 줄이려면 NAS 기본 스냅샷을 사용하여 해당 가상 머신의 스냅샷을 생성하는 동안 가상 머신의 쓰기 I/O 로드가 많지 않도록 하는 것이 좋습니다.

Note

마찬가지로 NAS 기본 스냅샷을 사용하여 연결된 클론을 생성하면 재실행 로그를 사용하는 동일한 작업보다 약간 느려질 수 있습니다.

  • 공간 예약(Reserve Space)을 사용하면 ESXi가 가상 디스크가 생성될 때 가상 디스크의 공간을 완전히 사전 할당할 수 있습니다. 따라서 비 VAAI NAS 디바이스가 지원하는 씬 프로비저닝 외에도 VAAI NAS 디바이스는 lazy-zeroed thick 과 eager-zeroed thick 프로비저닝도 지원합니다.
  • 확장 통계(Extended Statistics)는 NAS 데이터스토어의 공간 사용량에 대한 가시성을 제공합니다. 이 기능은 특히 씬 프로비저닝된 데이터스토어에 유용하며, vSphere에서 초과 구독된 데이터스토어의 실제 사용량을 표시할 수 있기 때문입니다.

VAAI에 대한 자세한 내용은 VMware vSphere Storage APIs — Array Integration (VAAI) 백서를 참조하십시오. ESXi에서 VAAI를 사용하는 방식을 구성하는 방법에 대한 자세한 내용은 39페이지의 “ESXi Storage Considerations"을 참조하십시오.

iSCSI와 NFS 스토리지

  • iSCSI 및 NFS의 경우, 네트워크 토폴로지에 여러 링크가 적은 수의 링크를 통해 라우팅되어 잠재적으로 초과 가입 및 네트워크 패킷 드롭을 초래할 수 있는 이더넷 병목 현상이 포함되어 있지 않은지 확인합니다. 용량에 가깝게 전송되는 다수의 링크가 적은 수의 링크로 전환될 때마다 이러한 과잉 가입이 발생할 수 있습니다.

이러한 드롭된 네트워크 패킷을 복구하면 성능이 크게 저하됩니다. 데이터가 삭제된 것을 확인하는 데 시간이 소요될 뿐만 아니라 재전송에는 새로운 트랜잭션에 사용할 수 있는 네트워크 대역폭이 사용됩니다.

다음 두 백서는 주로 문제가 발생한 후 진단하는 방법에 관한 것이지만, 처음부터 문제를 방지하는 데에도 유용할 수 있습니다: ESX IP Storage Troubleshooting Best Practice: Packet Capture and Analysis at 10GESXi NFS Read Performance: TCP Interaction between Slow Start and Delayed Acknowledgement.

  • 소프트웨어로 시작(initiated)되는 iSCSI 및 NFS의 경우 네트워크 프로토콜 처리가 호스트 시스템에서 이루어지므로 다른 스토리지 옵션보다 더 많은 CPU 리소스가 필요할 수 있다는 점에 유의하십시오.

NVMe 스토리지

  • PCIe 카드의 플래시 스토리지는 초기에 SCSI 또는 SATA 인터페이스와 프로토콜을 사용했기 때문에 기본 SSD 장치의 성능보다 훨씬 낮은 성능으로 제한되는 경우가 많았습니다. 일부 최신 PCIe 플래시 장치는 Non-Volatile Memory Express (NVMe) 프로토콜을 사용하므로 잠재적으로 훨씬 더 높은 성능을 제공할 수 있습니다.

  • NVMe의 높은 처리량은 그에 상응하는 높은 CPU 부하를 유발합니다. 따라서 NVMe 장치는 소켓당 코어 수가 많고(최소 8개 이상) 소켓이 여러 개(최소 2개 이상)인 하드웨어 구성에 더 적합합니다. 또한 높은 CPU 주파수가 바람직합니다.

ESXi에서 NVMe 사용에 대한 자세한 내용은 43페이지의 “NVMe Recommendations"을 참조하십시오.

NVMe over Fabrics (NVMe-oF) 스토리지

ESXi는 NVMe over Fabrics (NVMe-oF) over Fibre Channel (FC), Remote Direct Memory Access (RDMA), TCP/IP를 지원합니다. PCIe 버스를 통해 로컬 시스템에 연결된 디바이스에 액세스하기 위한 프로토콜인 NVMe와 달리 NVMe-oF는 네트워크를 통해 원격 NVMe 디바이스에 연결합니다. NVMe-oF는 다른 많은 원격 스토리지 옵션보다 더 높은 IOPS와 더 낮은 지연 시간을 제공하며, 잠재적으로 I/O당 CPU 비용이 더 낮습니다.

TCP/IP를 통해 NVMe를 사용하면 최상의 성능을 얻을 수 있습니다:

  • 점보 프레임을 위한 네트워크 링크를 구성합니다.
  • NetQueue RSS의 하드웨어 대기열 수를 늘립니다.
  • 가상 머신당 하나 이상의 분산 가상 포트 그룹을 구성해야 합니다.

자세한 내용은 What’s New in vSphere 7 Core Storage(NVMe-oF는 vSphere 7.0에 도입되었으므로 이전 버전에 대한 설명이 많지만 여기에는 많은 설명이 포함되어 있음) 및 What’s New with vSphere 8 Core Storage(NVMe-oF에 대한 최신 업데이트에 대해 설명함)을 참조하십시오. vSphere 7.0 U1 백서에서 NVMe-oF의 성능 특성 분석에서는 파이버 채널을 통한 NVMe의 성능을 레거시 파이버 채널 프로토콜(SCSI FCP)과 비교합니다. ESXi에서 NVMe-oF 사용에 대한 자세한 내용은 43페이지의 “NVMe-oF Recommendations"을 참조하십시오.