Azure Stack HCI のシステム要件System requirements for Azure Stack HCI

適用対象:Azure Stack HCI バージョン 20H2Applies to: Azure Stack HCI, version 20H2

このトピックを使用して、Azure Stack HCI のサーバー、ストレージ、およびネットワークのシステム要件を評価します。Use this topic to assess system requirements for servers, storage, and networking for Azure Stack HCI.

サーバーの要件Server requirements

標準の Azure Stack HCI クラスターでは、最低 2 台、最大 16 台のサーバーが必要です。ただし、クラスター セットを使用して複数のクラスターを結合し、数百台のノードからなる HCI プラットフォームを作成することができます。A standard Azure Stack HCI cluster requires a minimum of two servers and a maximum of 16 servers; however, clusters can be combined using cluster sets to create an HCI platform of hundreds of nodes.

さまざまな種類の Azure Stack HCI デプロイについては、次の点に注意してください。Keep the following in mind for various types of Azure Stack HCI deployments:

  • ストレッチ クラスターでは、2 つの別個のサイトにサーバーをデプロイする必要があります。Stretched clusters require servers to be deployed at two separate sites. これらのサイトは、異なる国、異なる都市、異なる階、または異なる部屋に配置できます。The sites can be in different countries, different cities, different floors, or different rooms. ストレッチ クラスターでは、最低 4 台 (サイトあたり 2 台)、最大 16台 (サイトあたり 8 台) のサーバーが必要になります。A stretched cluster requires a minimum of 4 servers (2 per site) and a maximum of 16 servers (8 per site).

  • サーバーはすべて、同じ製造元とモデルのものを使用することをお勧めします。また、64 ビット Intel Nehalem グレード、AMD EPYC グレード、または、第 2 レベルのアドレス変換 (SLAT) を備えたそれ以降の互換プロセッサを使用することが推奨されます。It's recommended that all servers be the same manufacturer and model, using 64-bit Intel Nehalem grade, AMD EPYC grade, or later compatible processors with second-level address translation (SLAT). Intel Optane DC 永続メモリをサポートするには、第 2 世代の Intel Xeon スケーラブル プロセッサが必要です。A second-generation Intel Xeon Scalable processor is required to support Intel Optane DC persistent memory. プロセッサは 1.4 GHz 以上で、x64 命令セットと互換性がある必要があります。Processors must be at least 1.4 GHz and compatible with the x64 instruction set.

  • サーバーのオペレーティング システム、VM、およびその他のアプリやワークロードに対応するために、サーバーにはノードごとに少なくとも 32 GB の RAM が搭載されていることを確認してください。Make sure that the servers are equipped with at least 32 GB of RAM per node to accommodate the server operating system, VMs, and other apps or workloads. さらに、記憶域スペース ダイレクトのメタデータ用に各サーバーで 1 テラバイト (TB) のキャッシュ ドライブ容量ごとに 4 GB の RAM を確保します。In addition, allow 4 GB of RAM per terabyte (TB) of cache drive capacity on each server for Storage Spaces Direct metadata.

  • BIOS または UEFI で以下の仮想化サポートが有効になっていることを確認してください。Verify that virtualization support is turned on in the BIOS or UEFI:

    • ハードウェア補助による仮想化。Hardware-assisted virtualization. これは、仮想化オプションを含むプロセッサ、具体的には Intel Virtualization Technology (Intel VT) または AMD Virtualization (AMD-V) テクノロジーを使用したプロセッサで利用できます。This is available in processors that include a virtualization option, specifically processors with Intel Virtualization Technology (Intel VT) or AMD Virtualization (AMD-V) technology.
    • ハードウェアによるデータ実行防止 (DEP) が使用可能で、有効になっている必要があります。Hardware-enforced Data Execution Prevention (DEP) must be available and enabled. Intel システムの場合、これは XD ビット (execute disable bit) です。For Intel systems, this is the XD bit (execute disable bit). AMD システムの場合、これは NX ビット (no execute bit) です。For AMD systems, this is the NX bit (no execute bit).
  • Windows Server でサポートされている任意のブート デバイス (SATADOM を含む) を使用できます。You can use any boot device supported by Windows Server, which now includes SATADOM. RAID 1 ミラーは 不要 ですが、ブートでサポートされています。RAID 1 mirror is not required, but is supported for boot. 200 GB の最小サイズが推奨されます。A 200 GB minimum size is recommended.

  • Hyper-V の機能固有のその他の要件については、「Windows Server 上の Hyper-v のシステム要件」を参照してください。For additional feature-specific requirements for Hyper-V, see System requirements for Hyper-V on Windows Server.

ストレージの要件Storage requirements

Azure Stack HCI は直接接続された SATA、SAS、NVMe、または永続メモリのドライブに対応しています。これらは、それぞれ 1 台のサーバーのみに物理的に接続されます。Azure Stack HCI works with direct-attached SATA, SAS, NVMe, or persistent memory drives that are physically attached to just one server each.

最適な結果を得るには、以下に従ってください。For best results, adhere to the following:

  • 同じクラスター内のすべてのサーバーで、ドライブの種類が同じであり、それぞれの種類のドライブ数も同じである必要があります。Every server in the cluster should have the same types of drives and the same number of each type. また、ドライブは同じサイズおよびモデルにすることをお勧めします (必須ではありません)。It's also recommended (but not required) that the drives be the same size and model. ドライブは、サーバーの内部、または 1 台のサーバーにのみ接続されている外部エンクロージャに配置できます。Drives can be internal to the server, or in an external enclosure that is connected to just one server. 詳細については、ドライブの対称性に関する考慮事項に関するページを参照してください。To learn more, see Drive symmetry considerations.

  • クラスター内の各サーバーには、ログ用の専用ボリュームが必要になり、ログ ストレージの速度は少なくともデータ ストレージと同じでなければなりません。Each server in the cluster should have dedicated volumes for logs, with log storage at least as fast as data storage. ストレッチ クラスターには少なくとも 2 つのボリュームが必要です。1 つはレプリケートされたデータ用で、もう 1 つはログ データ用です。Stretched clusters require at least two volumes: one for replicated data, and one for log data.

  • スロットのマッピングと識別のために SCSI エンクロージャ ービス (SES) が必要になります。SCSI Enclosure Services (SES) is required for slot mapping and identification. 各外部エンクロージャは、一意識別子 (一意の ID) を提示する必要があります。Each external enclosure must present a unique identifier (Unique ID).

    重要

    サポート対象外: RAID コントローラー カードまたは SAN (ファイバー チャネル、iSCSI、FCoE) 記憶域、複数のサーバーに接続されている共有 SAS エンクロージャ、または複数のパスからドライブにアクセスできる任意の形式のマルチパス IO (MPIO)。NOT SUPPORTED: RAID controller cards or SAN (Fibre Channel, iSCSI, FCoE) storage, shared SAS enclosures connected to multiple servers, or any form of multi-path IO (MPIO) where drives are accessible by multiple paths. ホスト バス アダプター (HBA) カードは、単純なパススルー モードを実装する必要があります。Host-bus adapter (HBA) cards must implement simple pass-through mode.

ネットワーク要件Networking requirements

Azure Stack HCI クラスターでは、各サーバー ノード間に信頼性が高く、高帯域幅で低待機時間のネットワーク接続が必要になります。An Azure Stack HCI cluster requires a reliable high-bandwidth, low-latency network connection between each server node.

  • クラスター管理専用に少なくとも 1 つのネットワーク アダプターが使用可能であることを確認します。Verify at least one network adapter is available and dedicated for cluster management.
  • 使用するすべての VLAN 上のトラフィックを許可するようにネットワーク内の物理スイッチが構成されていることを確認します。Verify that physical switches in your network are configured to allow traffic on any VLANs you will use.

サーバー ノード間で行われる通信には、次のような複数の種類があります。There are multiple types of communication going on between server nodes:

  • クラスター通信 (ノードの結合、クラスターの更新、レジストリの更新)Cluster communication (node joins, cluster updates, registry updates)
  • クラスター ハートビートCluster Heartbeats
  • クラスター共有ボリューム (CSV) のリダイレクト トラフィックCluster Shared Volume (CSV) redirected traffic
  • 仮想マシンのライブ マイグレーション トラフィックLive migration traffic for virtual machines

記憶域スペース ダイレクトでは、次のような追加のネットワーク トラフィックを考慮する必要があります。With Storage Spaces Direct, there is additional network traffic to consider:

  • 記憶域バス レイヤー (SBL) – ノード間で分散されるエクステントまたはデータStorage Bus Layer (SBL) – extents, or data, spread out between the nodes
  • 正常性 – オブジェクト (ノード、ドライブ、ネットワーク カード、クラスター サービス) の監視と管理Health – monitoring and managing objects (nodes, drives, network cards, Cluster Service)

ストレッチ クラスターの場合は、さらにサイト間の記憶域レプリカのトラフィックも発生します。For stretched clusters, there is also additional Storage Replica traffic flowing between the sites. 記憶域バス レイヤー (SBL) とクラスター共有ボリューム (CSV) のトラフィックは、サイト間ではなく、各サイト内のサーバー ノード間でのみ発生します。Storage Bus Layer (SBL) and Cluster Shared Volume (CSV) traffic does not go between sites, only between the server nodes within each site.

ホスト ネットワークの計画に関する考慮事項と要件については、「Azure Stack HCI のホスト ネットワークを計画する」を参照してください。For host networking planning considerations and requirements, see Plan host networking for Azure Stack HCI.

ソフトウェア定義ネットワーク (SDN) の要件Software Defined Networking (SDN) requirements

Windows Admin Center を使用して Azure Stack HCI クラスターを作成するときには、ネットワーク コントローラーをデプロイしてソフトウェア定義ネットワーク (SDN) を有効にするオプションが用意されています。When you create an Azure Stack HCI cluster using Windows Admin Center, you have the option to deploy Network Controller to enable Software Defined Networking (SDN). Azure Stack HCI で SDN を使用する場合:If you intend to use SDN on Azure Stack HCI:

  • ホスト サーバーに、ネットワーク コントローラー VM を作成するための空き領域が少なくとも 50 ~ 100 GB あることを確認してください。Make sure the host servers have at least 50-100 GB of free space to create the Network Controller VMs.

  • ネットワーク コントローラー VM を作成するには、Azure Stack HCI オペレーティング システムの仮想ハード ディスク (VHD) を、クラスター内の最初のノードにコピーする必要があります。You must copy a virtual hard disk (VHD) of the Azure Stack HCI operating system to the first node in the cluster in order to create the Network Controller VMs. VHD は、Sysprep を使用するか、Convert-WindowsImage スクリプトを実行し、.iso ファイルを VHD に変換することで準備できます。You can prepare the VHD using Sysprep or by running the Convert-WindowsImage script to convert an .iso file into a VHD.

Azure Stack HCI で SDN を使用するための準備の詳細については、「ソフトウェア定義ネットワーク インフラストラクチャを計画する」と「ネットワーク コントローラーのデプロイを計画する」を参照してください。For more information about preparing for using SDN in Azure Stack HCI, see Plan a Software Defined Network infrastructure and Plan to deploy Network Controller.

注意

SDN は、ストレッチ (マルチサイト) クラスターではサポートされていません。SDN is not supported on stretched (multi-site) clusters.

SDN ハードウェア要件SDN hardware requirements

このセクションでは、SDN 環境を計画するときの NIC と物理スイッチのネットワーク ハードウェアの要件について説明します。This section provides network hardware requirements for NICs and physical switches when planning for a SDN environment.

ネットワーク インターフェイス カード (NIC)Network interface cards (NICs)

Hyper-V ホストとストレージ ホストで使用する NIC には、最適なパフォーマンスを実現するために特定の機能が必要です。The NICs that you use in your Hyper-V hosts and storage hosts require specific capabilities to achieve the best performance.

リモート ダイレクト メモリ アクセス (RDMA) は、ホストの CPU を使用せずに大量のデータを転送できるようにするカーネル バイパス手法です。これにより、CPU が解放され、他の処理を実行できます。Remote Direct Memory Access (RDMA) is a kernel bypass technique that makes it possible to transfer large amounts of data without using the host CPU, which frees the CPU to perform other work. スイッチ埋め込みチーミング (SET) は、Hyper-V と SDN スタックを含む環境で使用できる代替の NIC チーミング ソリューションです。Switch Embedded Teaming (SET) is an alternative NIC Teaming solution that you can use in environments that include Hyper-V and the SDN stack. セットは、HYPER-V 仮想スイッチにいくつかの NIC チーミング機能を統合します。SET integrates some NIC Teaming functionality into the Hyper-V Virtual Switch.

詳細については、「リモート ダイレクト メモリ アクセス (RDMA) とスイッチ埋め込みチーミング (SET)」を参照してください。For more information, see Remote Direct Memory Access (RDMA) and Switch Embedded Teaming (SET).

VXLAN または NVGRE カプセル化ヘッダーによって発生するテナント仮想ネットワーク トラフィックのオーバーヘッドを考慮するために、レイヤー 2 ファブリック ネットワーク (スイッチとホスト) の最大転送単位 (MTU) を 1674 バイト以上 ((レイヤー 2 イーサネット ヘッダーを含む)) に設定する必要があります。To account for the overhead in tenant virtual network traffic caused by VXLAN or NVGRE encapsulation headers, the maximum transmission unit (MTU) of the Layer-2 fabric network (switches and hosts) must be set to greater than or equal to 1674 bytes (including Layer-2 Ethernet headers).

新しい EncapOverhead 拡張アダプター キーワードをサポートする NIC では、ネットワーク コントローラー ホスト エージェントを介して MTU が自動的に設定されます。NICs that support the new EncapOverhead advanced adapter keyword set the MTU automatically through the Network Controller Host Agent. 新しい EncapOverhead キーワードをサポートしていない NIC では、 JumboPacket (または同等の) キーワードを使用して、各物理ホスト上で MTU サイズを手動で設定する必要があります。NICs that do not support the new EncapOverhead keyword need to set the MTU size manually on each physical host using the JumboPacket (or equivalent) keyword.

スイッチとルーターSwitches and routers

ご使用の SDN 環境に合わせて物理スイッチとルーターを選択するときは、次の一連の機能がサポートされていることを確認してください。When selecting a physical switch and router for your SDN environment, make sure it supports the following set of capabilities:

  • スイッチ ポートの MTU 設定 (必須)Switchport MTU settings (required)
  • MTU を 1674 バイト以上に設定 (L2 イーサネット ヘッダーを含む)MTU set to >= 1674 bytes (including L2-Ethernet Header)
  • L3 プロトコル (必須)L3 protocols (required)
  • 等コスト マルチパス (ECMP) ルーティングEqual-cost multi-path (ECMP) routing
  • BGP (IETF RFC 4271) ベースの ECMPBGP (IETF RFC 4271)-based ECMP

実装で、次の IETF 標準の必須ステートメントをサポートする必要があります。Implementations should support the MUST statements in the following IETF standards:

次のタグ付けプロトコルが必要です。The following tagging protocols are required:

  • VLAN - さまざまな種類のトラフィックの分離VLAN - Isolation of various types of traffic
  • 802.1q トランク802.1q trunk

次の項目は、リンク制御を提供します。The following items provide Link control:

  • サービスの品質 (QoS) (RoCE を使用する場合に限り RFC が必要)Quality of Service (QoS) (PFC only required if using RoCE)
  • 拡張トラフィックの選択 (802.1Qaz)Enhanced Traffic Selection (802.1Qaz)
  • 優先順位に基づくフロー制御 (PFC) (802.1p/Q および 802.1Qbb)Priority-based Flow Control (PFC) (802.1p/Q and 802.1Qbb)

次の項目は、可用性と冗長性を提供します。The following items provide availability and redundancy:

  • スイッチの可用性 (必須)Switch availability (required)
  • ゲートウェイ機能を実行するには、高可用性ルーターが必要です。A highly available router is required to perform gateway functions. これは、マルチシャーシのスイッチ/ルーター、または仮想ルーター冗長プロトコル (VRRP) などのテクノロジを使用して提供できます。You can provide this by using either a multi-chassis switch\router or technologies like the Virtual Router Redundancy Protocol (VRRP).

ドメインの要件Domain requirements

Azure Stack HCI にはドメイン機能レベルの特別な要件はありません。お使いのドメイン コントローラー用に現在サポートされているオペレーティング システムのバージョンのみ確認が必要になります。There are no special domain functional level requirements for Azure Stack HCI - just an operating system version for your domain controller that's still supported. 一般的なベスト プラクティスとして、Active Directory のごみ箱機能を有効にすることをお勧めします (まだ行っていない場合)。We do recommend turning on the Active Directory Recycle Bin feature as a general best practice, if you haven't already. 詳細については、「Active Directory Domain Services の概要」をご覧ください。to learn more, see Active Directory Domain Services Overview.

サポートされているハードウェア最大仕様Maximum supported hardware specifications

次の仕様を超える Azure Stack HCI のデプロイはサポートされていません。Azure Stack HCI deployments that exceed the following specifications are not supported:

リソースResource 最大値Maximum
クラスターあたりの物理サーバー数Physical servers per cluster 1616
ホストあたりの VM 数VMs per host 1,0241,024
VM あたりのディスク数 (SCSI)Disks per VM (SCSI) 256256
クラスターあたりのストレージStorage per cluster 4 PB4 PB
サーバーあたりのストレージStorage per server 400 TB400 TB
ホストあたりの論理プロセッサ数Logical processors per host 512512
ホストあたりの RAMRAM per host 24 TB24 TB
VM あたりの RAMRAM per VM 12 TB (第 2 世代 VM) または 1 TB (第 1 世代)12 TB (generation 2 VM) or 1 TB (generation 1)
ホストあたりの仮想プロセッサ数Virtual processors per host 2,0482,048
VM あたりの仮想プロセッサ数Virtual processors per VM 240 (第 2 世代 VM) または 64 (第 1 世代)240 (generation 2 VM) or 64 (generation 1)

次のステップNext steps

関連情報については、以下もご覧ください。For related information, see also: