ゲスト仮想マシンクラスターでの記憶域スペースダイレクトの使用Using Storage Spaces Direct in guest virtual machine clusters

適用先:Windows Server 2019、Windows Server 2016Applies to: Windows Server 2019, Windows Server 2016

このトピックで説明するように、物理サーバーのクラスターまたは仮想マシンのゲストクラスターに記憶域スペースダイレクト (S2D と呼ばれることもあります) を展開できます。You can deploy Storage Spaces Direct (sometimes called S2D) on a cluster of physical servers or on virtual machine guest clusters as discussed in this topic. この種類のデプロイは、プライベートクラウドまたはパブリッククラウド上の一連の Vm で仮想共有記憶域を提供し、アプリケーションの高可用性ソリューションを使用してアプリケーションの可用性を高めることができます。This type of deployment delivers virtual shared storage across a set of VMs on top of a private or public cloud so that application high availability solutions can be used to increase the availability of applications.

代わりに、ゲスト仮想マシンに Azure 共有ディスクを使用するには、「 Azure 共有ディスク」を参照してください。To instead use Azure Shared Disks for guest virtual machines, see Azure Shared Disks.

記憶域スペース ダイレクトの図

Azure Iaas VM ゲストクラスターでのデプロイDeploying in Azure Iaas VM guest clusters

Azureテンプレートが発行されているため、AZURE Iaas VM での記憶域スペースダイレクトデプロイの複雑さが軽減され、ベストプラクティスと速度が構成されます。Azure templates have been published decrease the complexity, configure best practices, and speed of your Storage Spaces Direct deployments in an Azure Iaas VM. これは、Azure にデプロイする場合に推奨されるソリューションです。This is the recommended solution for deploying in Azure.

ゲストクラスターの要件Requirements for guest clusters

仮想化環境に記憶域スペースダイレクトを展開する場合は、次の考慮事項が適用されます。The following considerations apply when deploying Storage Spaces Direct in a virtualized environment.


Azure テンプレートでは、以下の考慮事項が自動的に構成されます。 Azure IaaS Vm にデプロイする場合は、推奨されるソリューションです。Azure templates will automatically configure the below considerations for you and are the recommended solution when deploying in Azure IaaS VMs.

  • 最低2ノードと最大3ノードMinimum of 2 nodes and maximum of 3 nodes

  • 2-ノードデプロイでミラーリング監視サーバー (クラウド監視またはファイル共有監視) を構成する必要があります。2-node deployments must configure a witness (Cloud Witness or File Share Witness)

  • 3-ノード展開では、1つのノードがダウンし、別のノードで1つ以上のディスクが失われることが許容されます。3-node deployments can tolerate 1 node down and the loss of 1 or more disks on another node. 2つのノードがシャットダウンされた場合、仮想ディスクはノードのいずれかが返されるまでオフラインになります。If 2 nodes are shutdown then the virtual disks we be offline until one of the nodes returns.

  • 障害ドメイン間でデプロイされるように仮想マシンを構成するConfigure the virtual machines to be deployed across fault domains

    • Azure –可用性セットの構成Azure – Configure Availability Set

    • Hyper-v – Vm で AntiAffinityClassNames を構成して、ノード間で Vm を分離します。Hyper-V – Configure AntiAffinityClassNames on the VMs to separate the VMs across nodes

    • VMware – ESX ホスト間で Vm を分離するために、"個別の Virtual Machines" という種類の DRS ルールを作成して、VM と VM の間のアンチアフィニティルールを構成します。VMware – Configure VM-VM Anti-Affinity rule by Creating a DRS Rule of type 'Separate Virtual Machines" to separate the VMs across ESX hosts. 記憶域スペースダイレクトで使用するために提示されたディスクでは、準仮想化 SCSI (PVSCSI) アダプタを使用する必要があります。Disks presented for use with Storage Spaces Direct should use the Paravirtual SCSI (PVSCSI) adapter. Windows Server での PVSCSI のサポートについては、「」を参照 https://kb.vmware.com/s/article/1010398 してください。For PVSCSI support with Windows Server, consult https://kb.vmware.com/s/article/1010398.

  • 低待機時間/高パフォーマンスストレージの活用-Azure Premium Storage managed disks が必要ですLeverage low latency / high performance storage - Azure Premium Storage managed disks are required

  • キャッシュデバイスが構成されていないフラットストレージ設計を展開するDeploy a flat storage design with no caching devices configured

  • 各 VM に提示される最低2つの仮想データディスク (VHD/VHDX/VMDK)Minimum of 2 virtual data disks presented to each VM (VHD / VHDX / VMDK)

    この数は、物理障害の影響を受けやすいファイルとして仮想ディスクを実装できるため、ベアメタル展開とは異なります。This number is different than bare-metal deployments because the virtual disks can be implemented as files that aren't susceptible to physical failures.

  • 次の PowerShell コマンドレットを実行して、ヘルスサービスのドライブ交換の自動機能を無効にします。Disable the automatic drive replacement capabilities in the Health Service by running the following PowerShell cmdlet:

    Get-storagesubsystem clus* | set-storagehealthsetting -name "System.Storage.PhysicalDisk.AutoReplace.Enabled" -value "False"
  • ゲストクラスターにおける VHD/VHDX/VMDK ストレージの待機時間の回復性を高めるには、記憶域スペースの i/o タイムアウト値を増やします。To give greater resiliency to possible VHD / VHDX / VMDK storage latency in guest clusters, increase the Storage Spaces I/O timeout value:


    dword: 00007530

    16進数の7530に相当する10進数は、3万です。これは30秒です。The decimal equivalent of Hexadecimal 7530 is 30000, which is 30 seconds. 既定値は 1770 16 進数、つまり、6秒の 6000 Decimal であることに注意してください。Note that the default value is 1770 Hexadecimal, or 6000 Decimal, which is 6 seconds.

サポートなしNot supported

  • ホストレベルの仮想ディスクのスナップショット/復元Host level virtual disk snapshot/restore

    代わりに、従来のゲストレベルのバックアップソリューションを使用して、記憶域スペースダイレクトボリューム上のデータをバックアップおよび復元します。Instead use traditional guest level backup solutions to backup and restore the data on the Storage Spaces Direct volumes.

  • ホストレベルの仮想ディスクサイズの変更Host level virtual disk size change

    仮想マシンを介して公開される仮想ディスクは、同じサイズと特性を保持する必要があります。The virtual disks exposed through the virtual machine must retain the same size and characteristics. 記憶域プールに容量を追加するには、各仮想マシンに仮想ディスクを追加し、プールに追加します。Adding more capacity to the storage pool can be accomplished by adding more virtual disks to each of the virtual machines and adding them to the pool. 現在の仮想ディスクと同じサイズおよび特性の仮想ディスクを使用することを強くお勧めします。It's highly recommended to use virtual disks of the same size and characteristics as the current virtual disks.

その他の参照情報Additional References