Azure Stack HCI 시스템 요구 사항System requirements for Azure Stack HCI

적용 대상: Azure Stack HCI, 버전 20H2Applies to: Azure Stack HCI, version 20H2

이 항목을 사용 하 여 Azure Stack HCI의 서버, 저장소 및 네트워킹에 대 한 시스템 요구 사항을 평가할 수 있습니다.Use this topic to assess system requirements for servers, storage, and networking for Azure Stack HCI.

서버 요구 사항Server requirements

표준 Azure Stack HCI 클러스터에는 최소 두 대의 서버와 최대 16 개의 서버가 필요 합니다. 그러나 클러스터 집합을 사용 하 여 클러스터를 결합 하 여 수백 개의 노드가 있는 HCI 플랫폼을 만들 수 있습니다.A standard Azure Stack HCI cluster requires a minimum of two servers and a maximum of 16 servers; however, clusters can be combined using cluster sets to create an HCI platform of hundreds of nodes.

다양 한 형식의 Azure Stack HCI 배포에 대해 다음 사항에 유의 하세요.Keep the following in mind for various types of Azure Stack HCI deployments:

  • 스트레치 된 클러스터는 두 개의 개별 사이트에 서버를 배포 해야 합니다.Stretched clusters require servers to be deployed at two separate sites. 사이트는 서로 다른 국가, 다른 도시, 다른 층 또는 다른 방에 있을 수 있습니다.The sites can be in different countries, different cities, different floors, or different rooms. 스트레치 된 클러스터에는 최소 4 대의 서버 (사이트 당 2 개)와 최대 16 개의 서버 (사이트당 8 개)가 필요 합니다.A stretched cluster requires a minimum of 4 servers (2 per site) and a maximum of 16 servers (8 per site).

  • 모든 서버는 두 번째 수준 주소 변환 (SLAT)을 사용 하는 64 비트 Intel Nehalem grade, AMD EPYC grade 또는 이후 호환 프로세서를 사용 하 여 동일한 제조업체 및 모델을 사용 하는 것이 좋습니다.It's recommended that all servers be the same manufacturer and model, using 64-bit Intel Nehalem grade, AMD EPYC grade, or later compatible processors with second-level address translation (SLAT). Intel Optane DC 영구 메모리를 지원 하려면 차세대 Intel Xeon 확장 가능 프로세서가 필요 합니다.A second-generation Intel Xeon Scalable processor is required to support Intel Optane DC persistent memory. 프로세서는 1.4 GHz 이상이 고 x64 명령 집합과 호환 되어야 합니다.Processors must be at least 1.4 GHz and compatible with the x64 instruction set.

  • 서버 운영 체제, Vm 및 기타 앱 또는 워크 로드를 수용 하기 위해 서버에 노드당 32 GB 이상의 RAM이 장착 되어 있는지 확인 합니다.Make sure that the servers are equipped with at least 32 GB of RAM per node to accommodate the server operating system, VMs, and other apps or workloads. 또한 각 서버에서 스토리지 공간 다이렉트 메타 데이터에 대해 1tb (테라바이트)의 캐시 드라이브 용량의 4gb RAM을 허용 합니다.In addition, allow 4 GB of RAM per terabyte (TB) of cache drive capacity on each server for Storage Spaces Direct metadata.

  • BIOS 또는 UEFI에서 가상화 지원이 설정 되어 있는지 확인 합니다.Verify that virtualization support is turned on in the BIOS or UEFI:

    • 하드웨어 지원 가상화.Hardware-assisted virtualization. 가상화 옵션, 특히 intel VT (Intel Virtualization 기술) 또는 amd Virtualization (AMD Virtualization) 기술을 포함 하는 프로세서에서 사용할 수 있습니다.This is available in processors that include a virtualization option, specifically processors with Intel Virtualization Technology (Intel VT) or AMD Virtualization (AMD-V) technology.
    • 하드웨어 적용 DEP(데이터 실행 방지)가 제공되고, 사용하도록 설정되어 있어야 합니다.Hardware-enforced Data Execution Prevention (DEP) must be available and enabled. Intel 시스템의 경우이 XD 비트 (execute disable bit).For Intel systems, this is the XD bit (execute disable bit). AMD 시스템 NX 비트 (no execute bit)입니다.For AMD systems, this is the NX bit (no execute bit).
  • 이제 SATADOM을 포함하는 Windows Server에서 지원 되는 모든 부팅 장치를 사용할 수 있습니다.You can use any boot device supported by Windows Server, which now includes SATADOM. RAID 1 미러가 필요 하지 않지만 부팅에 대해 지원 됩니다.RAID 1 mirror is not required, but is supported for boot. 200 GB의 최소 크기를 권장 합니다.A 200 GB minimum size is recommended.

  • Hyper-v에 대 한 추가적인 기능별 요구 사항은 Windows Server의 hyper-v에 대 한 시스템 요구 사항을 참조 하세요.For additional feature-specific requirements for Hyper-V, see System requirements for Hyper-V on Windows Server.

저장소 요구 사항Storage requirements

Azure Stack HCI는 각각 하나의 서버에 물리적으로 연결 된 직접 연결 SATA, SAS, NVMe 또는 영구적 메모리 드라이브를 사용 하 여 작동 합니다.Azure Stack HCI works with direct-attached SATA, SAS, NVMe, or persistent memory drives that are physically attached to just one server each.

최상의 결과를 위해 다음을 준수 합니다.For best results, adhere to the following:

  • 클러스터의 모든 서버는 동일한 종류의 드라이브와 각 유형의 동일한 수를 가져야 합니다.Every server in the cluster should have the same types of drives and the same number of each type. 드라이브의 크기와 모델이 동일 하 게 하는 것도 좋습니다 (필수는 아님).It's also recommended (but not required) that the drives be the same size and model. 드라이브는 단일 서버에만 연결 된 외부 인클로저 또는 서버에 대 한 내부 일 수 있습니다.Drives can be internal to the server, or in an external enclosure that is connected to just one server. 자세히 알아보려면 드라이브 대칭 고려 사항을 참조 하세요.To learn more, see Drive symmetry considerations.

  • 클러스터의 각 서버에는 로그 저장소의 전용 볼륨이 있어야 하며, 로그 저장소는 적어도 데이터 저장소 만큼 빠릅니다.Each server in the cluster should have dedicated volumes for logs, with log storage at least as fast as data storage. 스트레치 된 클러스터에는 두 개 이상의 볼륨이 필요 합니다. 하나는 복제 된 데이터이 고 다른 하나는 로그 데이터를 위한 것입니다.Stretched clusters require at least two volumes: one for replicated data, and one for log data.

  • 슬롯 매핑 및 식별에는 SES (SCSI 엔클로저 서비스)가 필요 합니다.SCSI Enclosure Services (SES) is required for slot mapping and identification. 각 외부 인클로저는 고유 ID를 제공 해야 합니다.Each external enclosure must present a unique identifier (Unique ID).

    중요

    지원 되지 않음: RAID 컨트롤러 카드나 SAN (파이버 채널, iSCSI, FCoE) 저장소, 여러 서버에 연결 된 공유 SAS 인클로저 또는 여러 경로에서 드라이브에 액세스할 수 있는 MPIO (다중 경로 IO)의 모든 형태NOT SUPPORTED: RAID controller cards or SAN (Fibre Channel, iSCSI, FCoE) storage, shared SAS enclosures connected to multiple servers, or any form of multi-path IO (MPIO) where drives are accessible by multiple paths. HBA (호스트 버스 어댑터) 카드는 간단한 통과 모드를 구현 해야 합니다.Host-bus adapter (HBA) cards must implement simple pass-through mode.

네트워킹 요구 사항Networking requirements

Azure Stack HCI 클러스터에는 각 서버 노드 간에 안정적이 고 대기 시간이 짧은 네트워크 연결이 필요 합니다.An Azure Stack HCI cluster requires a reliable high-bandwidth, low-latency network connection between each server node.

  • 하나 이상의 네트워크 어댑터를 사용할 수 있고 클러스터 관리 전용으로 사용할 수 있는지 확인 합니다.Verify at least one network adapter is available and dedicated for cluster management.
  • 네트워크의 실제 스위치가 사용할 모든 Vlan에서 트래픽을 허용 하도록 구성 되어 있는지 확인 합니다.Verify that physical switches in your network are configured to allow traffic on any VLANs you will use.

호스트 네트워킹 고려 사항 및 요구 사항은 호스트 네트워크 요구 사항을 참조 하세요.For host networking considerations and requirements, see Host network requirements.

SDN (소프트웨어 정의 네트워킹) 요구 사항Software Defined Networking (SDN) requirements

Windows 관리 센터를 사용 하 여 Azure Stack HCI 클러스터를 만들 때 SDN (소프트웨어 정의 네트워킹)을 사용 하도록 네트워크 컨트롤러를 배포 하는 옵션이 있습니다.When you create an Azure Stack HCI cluster using Windows Admin Center, you have the option to deploy Network Controller to enable Software Defined Networking (SDN). Azure Stack HCI에서 SDN을 사용 하려는 경우:If you intend to use SDN on Azure Stack HCI:

  • 네트워크 컨트롤러 Vm을 만들 수 있도록 호스트 서버에 50-100 이상의 사용 가능한 공간이 있는지 확인 합니다.Make sure the host servers have at least 50-100 GB of free space to create the Network Controller VMs.

  • 네트워크 컨트롤러 Vm을 만들려면 Azure Stack HCI 운영 체제의 VHD (가상 하드 디스크)를 클러스터의 첫 번째 노드에 복사 해야 합니다.You must copy a virtual hard disk (VHD) of the Azure Stack HCI operating system to the first node in the cluster in order to create the Network Controller VMs. Sysprep 을 사용 하거나 expand-windowsimage 스크립트를 실행 하 여 .iso 파일을 vhd로 변환 하는 방법으로 vhd를 준비할 수 있습니다.You can prepare the VHD using Sysprep or by running the Convert-WindowsImage script to convert an .iso file into a VHD.

Azure Stack HCI에서 SDN 사용을 준비 하는 방법에 대 한 자세한 내용은 소프트웨어 정의 네트워크 인프라 계획네트워크 컨트롤러 배포 계획을 참조 하세요.For more information about preparing for using SDN in Azure Stack HCI, see Plan a Software Defined Network infrastructure and Plan to deploy Network Controller.

참고

SDN은 스트레치 된 (다중 사이트) 클러스터에서 지원 되지 않습니다.SDN is not supported on stretched (multi-site) clusters.

SDN 하드웨어 요구 사항SDN hardware requirements

이 섹션에서는 SDN 환경을 계획할 때 Nic 및 물리적 스위치에 대 한 네트워크 하드웨어 요구 사항을 제공 합니다.This section provides network hardware requirements for NICs and physical switches when planning for a SDN environment.

Nic (네트워크 인터페이스 카드)Network interface cards (NICs)

Hyper-v 호스트 및 저장소 호스트에서 사용 하는 Nic에는 최상의 성능을 얻기 위한 특정 기능이 필요 합니다.The NICs that you use in your Hyper-V hosts and storage hosts require specific capabilities to achieve the best performance.

RDMA (원격 직접 메모리 액세스)는 다른 작업을 수행 하기 위해 CPU를 해제 하는 호스트 CPU를 사용 하지 않고 대량의 데이터를 전송할 수 있도록 하는 커널 바이패스 기술입니다.Remote Direct Memory Access (RDMA) is a kernel bypass technique that makes it possible to transfer large amounts of data without using the host CPU, which frees the CPU to perform other work. 스위치 포함 된 팀 (SET)은 Hyper-v 및 SDN 스택을 포함 하는 환경에서 사용할 수 있는 대체 NIC 팀 솔루션입니다.Switch Embedded Teaming (SET) is an alternative NIC Teaming solution that you can use in environments that include Hyper-V and the SDN stack. 일부 NIC 팀 기능은 Hyper-v 가상 스위치에 통합 하는 설정 합니다.SET integrates some NIC Teaming functionality into the Hyper-V Virtual Switch.

자세한 내용은 RDMA (원격 직접 메모리 액세스) 및 스위치 포함 된 팀 (SET)을 참조 하세요.For more information, see Remote Direct Memory Access (RDMA) and Switch Embedded Teaming (SET).

VXLAN 또는 NVGRE 캡슐화 헤더로 인해 발생 하는 테 넌 트 가상 네트워크 트래픽에 대 한 오버 헤드를 고려 하려면 계층 2 패브릭 네트워크 (스위치 및 호스트)의 MTU (최대 전송 단위)를 ( 계층 2 이더넷 헤더를 포함 하 여 1674 바이트 이상으로 설정 해야 합니다 ) .To account for the overhead in tenant virtual network traffic caused by VXLAN or NVGRE encapsulation headers, the maximum transmission unit (MTU) of the Layer-2 fabric network (switches and hosts) must be set to greater than or equal to 1674 bytes (including Layer-2 Ethernet headers).

Encapoverhead 고급 어댑터 키워드를 지 원하는 Nic는 네트워크 컨트롤러 호스트 에이전트를 통해 자동으로 MTU를 설정 합니다.NICs that support the new EncapOverhead advanced adapter keyword set the MTU automatically through the Network Controller Host Agent. Encapoverhead 키워드를 지원 하지 않는 Nic에서는 JumboPacket ( 또는 동급 키워드를 사용 하 여 각 실제 호스트에서 MTU 크기를 수동으로 설정 해야 합니다 ) .NICs that do not support the new EncapOverhead keyword need to set the MTU size manually on each physical host using the JumboPacket (or equivalent) keyword.

스위치 및 라우터Switches and routers

SDN 환경에 대 한 실제 스위치 및 라우터를 선택 하는 경우 다음 기능 집합을 지원 하는지 확인 합니다.When selecting a physical switch and router for your SDN environment, make sure it supports the following set of capabilities:

  • Switchport MTU 설정 ( 필요)Switchport MTU settings (required)
  • L2-Ethernet 헤더를 포함 하 여 >= 1674 바이트로 설정 되는 MTU ()MTU set to >= 1674 bytes (including L2-Ethernet Header)
  • L3 프로토콜 ( 필요)L3 protocols (required)
  • 동일한 비용 다중 경로 (ECMP) 라우팅Equal-cost multi-path (ECMP) routing
  • BGP ( IETF RFC 4271 ) - 기반 ecmpBGP (IETF RFC 4271)-based ECMP

구현은 다음 IETF 표준에서 반드시 문을 지원 해야 합니다.Implementations should support the MUST statements in the following IETF standards:

다음 태깅 프로토콜이 필요 합니다.The following tagging protocols are required:

  • VLAN-다양 한 유형의 트래픽 격리VLAN - Isolation of various types of traffic
  • 802.1 q 트렁크802.1q trunk

링크 제어를 제공 하는 항목은 다음과 같습니다.The following items provide Link control:

  • ( ) ( Roce를 사용 하는 경우에만 서비스 품질 QoS PFC 필요)Quality of Service (QoS) (PFC only required if using RoCE)
  • 향상 된 트래픽 선택 ( 802.1 Qaz)Enhanced Traffic Selection (802.1Qaz)
  • PFC (우선 순위 기반 흐름 제어) ( 802.1 p/Q 및 802.1 Qbb)Priority-based Flow Control (PFC) (802.1p/Q and 802.1Qbb)

가용성 및 중복성을 제공 하는 항목은 다음과 같습니다.The following items provide availability and redundancy:

  • 가용성 전환 (필수)Switch availability (required)
  • 게이트웨이 기능을 수행 하려면 항상 사용 가능한 라우터가 필요 합니다.A highly available router is required to perform gateway functions. 다중 섀시 switch\router 또는 가상 라우터 중복성 프로토콜 (VRRP)과 같은 기술을 사용 하 여이를 제공할 수 있습니다.You can provide this by using either a multi-chassis switch\router or technologies like the Virtual Router Redundancy Protocol (VRRP).

도메인 요구 사항Domain requirements

Azure Stack HCI에 대 한 특별 한 도메인 기능 수준 요구 사항은 없지만 아직 지원 되는 도메인 컨트롤러의 운영 체제 버전만 사용할 수 있습니다.There are no special domain functional level requirements for Azure Stack HCI - just an operating system version for your domain controller that's still supported. 아직 수행 하지 않은 경우 일반적인 모범 사례로 Active Directory 휴지통 기능을 설정 하는 것이 좋습니다.We do recommend turning on the Active Directory Recycle Bin feature as a general best practice, if you haven't already. 자세히 알아보려면 Active Directory Domain Services 개요를 참조 하세요.to learn more, see Active Directory Domain Services Overview.

지원 되는 최대 하드웨어 사양Maximum supported hardware specifications

다음 사양을 초과 하는 Azure Stack HCI 배포는 지원 되지 않습니다.Azure Stack HCI deployments that exceed the following specifications are not supported:

리소스Resource 최대Maximum
클러스터 당 물리적 서버Physical servers per cluster 1616
호스트 당 VmVMs per host 1,0241,024
VM 당 디스크 (SCSI)Disks per VM (SCSI) 256256
클러스터 당 저장소Storage per cluster 4PB4 PB
서버당 저장소Storage per server 400TB400 TB
호스트 당 논리 프로세서Logical processors per host 512512
호스트 당 RAMRAM per host 24TB24 TB
VM 당 RAMRAM per VM 12tb (2 세대 VM) 또는 1tb (1 세대)12 TB (generation 2 VM) or 1 TB (generation 1)
호스트 당 가상 프로세서Virtual processors per host 2,0482,048
VM 당 가상 프로세서Virtual processors per VM 240 (2 세대 VM) 또는 64 (1 세대)240 (generation 2 VM) or 64 (generation 1)

다음 단계Next steps

관련 정보는 다음 항목을 참조 하세요.For related information, see also: