記憶域スペースダイレクトのトラブルシューティングTroubleshoot Storage Spaces Direct

適用対象:Windows Server 2019、Windows Server 2016Applies to: Windows Server 2019, Windows Server 2016

記憶域スペースダイレクトの展開のトラブルシューティングを行うには、次の情報を使用します。Use the following information to troubleshoot your Storage Spaces Direct deployment.

一般に、次の手順で開始します。In general, start with the following steps:

  1. Windows server カタログを使用して、SSD の製造元とモデルが Windows Server 2016 および Windows Server 2019 に対して認定されていることを確認します。Confirm the make/model of SSD is certified for Windows Server 2016 and Windows Server 2019 using the Windows Server Catalog. 記憶域スペースダイレクトでドライブがサポートされていることをベンダーに確認します。Confirm with vendor that the drives are supported for Storage Spaces Direct.
  2. 記憶域に障害が発生しているドライブがないかどうかを調べます。Inspect the storage for any faulty drives. 記憶域管理ソフトウェアを使用して、ドライブの状態を確認します。Use storage management software to check the status of the drives. ドライブのいずれかに問題がある場合は、ベンダーと協力してください。If any of the drives are faulty, work with your vendor.
  3. 必要に応じて、記憶域を更新し、ファームウェアをドライブします。Update storage and drive firmware if necessary. すべてのノードに最新の Windows 更新プログラムがインストールされていることを確認します。Ensure the latest Windows Updates are installed on all nodes. Windows Server 2016 の最新の更新プログラムは、windows 10 および windows server 2016 の更新履歴と、windows 10 および windows server 2019 更新プログラムの履歴から windows server 2019 用に入手できます。You can get the latest updates for Windows Server 2016 from Windows 10 and Windows Server 2016 update history and for Windows Server 2019 from Windows 10 and Windows Server 2019 update history.
  4. ネットワークアダプターのドライバーとファームウェアを更新します。Update network adapter drivers and firmware.
  5. クラスター検証を実行し、[記憶域スペースダイレクト] セクションを確認し、キャッシュに使用されるドライブが正しく報告され、エラーが発生していないことを確認します。Run cluster validation and review the Storage Space Direct section, ensure the drives that will used for the cache are reported correctly and no errors.

問題が解決しない場合は、以下のシナリオを確認してください。If you're still having issues, review the scenarios below.

仮想ディスクリソースが冗長状態ではありませんVirtual disk resources are in No Redundancy state

クラッシュまたは電源障害により、記憶域スペースダイレクトシステムのノードが予期せず再起動します。The nodes of a Storage Spaces Direct system restart unexpectedly because of a crash or power failure. 次に、1つまたは複数の仮想ディスクがオンラインにならず、"冗長な情報が不足しています" という説明が表示されます。Then, one or more of the virtual disks may not come online, and you see the description "Not enough redundancy information."

FriendlyNameFriendlyName ResiliencySettingNameResiliencySettingName OperationalStatusOperationalStatus HealthStatusHealthStatus IsManualAttachIsManualAttach サイズSize PSComputerNamePSComputerName
Disk4Disk4 Mirror (ミラー)Mirror OKOK 正常Healthy TrueTrue 10 TB10 TB ノード-01...Node-01.conto...
Disk3Disk3 Mirror (ミラー)Mirror OKOK 正常Healthy TrueTrue 10 TB10 TB ノード-01...Node-01.conto...
Disk2Disk2 Mirror (ミラー)Mirror 冗長性なしNo Redundancy UnhealthyUnhealthy TrueTrue 10 TB10 TB ノード-01...Node-01.conto...
Disk1Disk1 Mirror (ミラー)Mirror {冗長性なし、InService}{No Redundancy, InService} UnhealthyUnhealthy TrueTrue 10 TB10 TB ノード-01...Node-01.conto...

さらに、仮想ディスクをオンラインにしようとすると、次の情報がクラスターログ (DiskRecoveryAction) に記録されます。Additionally, after an attempt to bring the virtual disk online, the following information is logged in the Cluster log (DiskRecoveryAction).

[Verbose] 00002904.00001040::YYYY/MM/DD-12:03:44.891 INFO [RES] Physical Disk <DiskName>: OnlineThread: SuGetSpace returned 0.
[Verbose] 00002904.00001040:: YYYY/MM/DD -12:03:44.891 WARN [RES] Physical Disk < DiskName>: Underlying virtual disk is in 'no redundancy' state; its volume(s) may fail to mount.
[Verbose] 00002904.00001040:: YYYY/MM/DD -12:03:44.891 ERR [RES] Physical Disk <DiskName>: Failing online due to virtual disk in 'no redundancy' state. If you would like to attempt to online the disk anyway, first set this resource's private property 'DiskRecoveryAction' to 1. We will try to bring the disk online for recovery, but even if successful, its volume(s) or CSV may be unavailable. 

ディスクに障害が発生した場合、またはシステムが仮想ディスク上のデータにアクセスできない場合、冗長性のない操作状態が発生する可能性があります。The No Redundancy Operational Status can occur if a disk failed or if the system is unable to access data on the virtual disk. ノードのメンテナンス中にノードで再起動が行われると、この問題が発生する可能性があります。This issue can occur if a reboot occurs on a node during maintenance on the nodes.

この問題を解決するには、次の手順を実行します。To fix this issue, follow these steps:

  1. 影響を受けた仮想ディスクを CSV から削除します。Remove the affected Virtual Disks from CSV. これにより、クラスターの "使用可能記憶域" グループにそれらが配置され、"物理ディスク" の ResourceType として表示されるようになります。This will put them in the "Available storage" group in the cluster and start showing as a ResourceType of "Physical Disk."

    Remove-ClusterSharedVolume -name "VdiskName"
    
  2. 使用可能な記憶域グループを所有しているノードで、冗長性のない状態にあるすべてのディスクに対して次のコマンドを実行します。On the node that owns the Available Storage group, run the following command on every disk that's in a No Redundancy state. "使用可能記憶域" グループがあるノードを特定するには、次のコマンドを実行します。To identify which node the “Available Storage” group is on you can run the following command.

    Get-ClusterGroup
    
  3. ディスクの回復操作を設定してから、ディスクを起動してください。Set the disk recovery action and then start the disk(s).

    Get-ClusterResource "VdiskName" | Set-ClusterParameter -Name DiskRecoveryAction -Value 1
    Start-ClusterResource -Name "VdiskName"
    
  4. 修復が自動的に開始されます。A repair should automatically start. 修復が完了するまで待ちます。Wait for the repair to finish. 中断状態になり、再び開始される可能性があります。It may go into a suspended state and start again. 進行状況を監視するには:To monitor the progress:

    • Get StorageJobを実行して、修復の状態を監視し、いつ完了したかを確認します。Run Get-StorageJob to monitor the status of the repair and to see when it is completed.
    • VirtualDiskを実行し、そのスペースが正常な HealthStatus を返していることを確認します。Run Get-VirtualDisk and verify that the Space returns a HealthStatus of Healthy.
  5. 修復が完了し、仮想ディスクが正常な状態になったら、仮想ディスクのパラメーターを再び変更します。After the repair finishes and the Virtual Disks are Healthy, change the Virtual Disk parameters back.

     Get-ClusterResource "VdiskName" | Set-ClusterParameter -Name DiskRecoveryAction -Value 0
    
  6. ディスクをオフラインにし、もう一度オンラインにして、DiskRecoveryAction が有効になるようにします。Take the disk(s) offline and then online again to have the DiskRecoveryAction take effect:

    Stop-ClusterResource "VdiskName"
    Start-ClusterResource "VdiskName"
    
  7. 影響を受けた仮想ディスクを CSV に再び追加します。Add the affected Virtual Disks back to CSV.

    Add-ClusterSharedVolume -name "VdiskName"
    

Diskrecoveryactionは、チェックを行わずに領域ボリュームを読み取り/書き込みモードでアタッチできる上書きスイッチです。DiskRecoveryAction is an override switch that enables attaching the Space volume in read-write mode without any checks. プロパティを使用すると、ボリュームがオンラインにならない理由について診断を行うことができます。The property enables you to do diagnostics into why a volume won't come online. これはメンテナンスモードによく似ていますが、障害が発生した状態のリソースで呼び出すことができます。It's very similar to Maintenance Mode but you can invoke it on a resource in a Failed state. また、データにアクセスすることもできます。これは、"冗長性がありません" などの状況で役立つことがあります。この場合、可能なデータにアクセスしてコピーできます。It also lets you access the data, which can be helpful in situations such as "No Redundancy," where you can get access to whatever data you can and copy it. DiskRecoveryAction プロパティは、2018年2月22日、更新プログラム、KB 4077525 で追加されました。The DiskRecoveryAction property was added in the February 22, 2018, update, KB 4077525.

クラスターでのデタッチされた状態Detached status in a cluster

VirtualDiskコマンドレットを実行すると、1つまたは複数の記憶域スペースダイレクトの仮想ディスクの OperationalStatus が切断されます。When you run the Get-VirtualDisk cmdlet, the OperationalStatus for one or more Storage Spaces Direct virtual disks is Detached. ただし 、HealthStatus コマンドレットによって報告されるのは、すべての物理ディスクが正常な状態であることを示しています。However, the HealthStatus reported by the Get-PhysicalDisk cmdlet indicates that all the physical disks are in a Healthy state.

VirtualDiskコマンドレットからの出力の例を次に示します。The following is an example of the output from the Get-VirtualDisk cmdlet.

FriendlyNameFriendlyName ResiliencySettingNameResiliencySettingName OperationalStatusOperationalStatus HealthStatusHealthStatus IsManualAttachIsManualAttach サイズSize PSComputerNamePSComputerName
Disk4Disk4 Mirror (ミラー)Mirror OKOK 正常Healthy TrueTrue 10 TB10 TB ノード-01...Node-01.conto...
Disk3Disk3 Mirror (ミラー)Mirror OKOK 正常Healthy TrueTrue 10 TB10 TB ノード-01...Node-01.conto...
Disk2Disk2 Mirror (ミラー)Mirror DetachedDetached UnknownUnknown TrueTrue 10 TB10 TB ノード-01...Node-01.conto...
Disk1Disk1 Mirror (ミラー)Mirror DetachedDetached UnknownUnknown TrueTrue 10 TB10 TB ノード-01...Node-01.conto...

さらに、ノードに次のイベントが記録される場合があります。Additionally, the following events may be logged on the nodes:

Log Name: Microsoft-Windows-StorageSpaces-Driver/Operational
Source: Microsoft-Windows-StorageSpaces-Driver 
Event ID: 311 
Level: Error
User: SYSTEM 
Computer: Node#.contoso.local 
Description: Virtual disk {GUID} requires a data integrity scan.  

Data on the disk is out-of-sync and a data integrity scan is required. 

To start the scan, run the following command:   
Get-ScheduledTask -TaskName "Data Integrity Scan for Crash Recovery" | Start-ScheduledTask                

Once you have resolved the condition listed above, you can online the disk by using the following commands in PowerShell:   

Get-VirtualDisk | ?{ $_.ObjectId -Match "{GUID}" } | Get-Disk | Set-Disk -IsReadOnly $false 
Get-VirtualDisk | ?{ $_.ObjectId -Match "{GUID}" } | Get-Disk | Set-Disk -IsOffline  $false
------------------------------------------------------------

Log Name: System
Source: Microsoft-Windows-ReFS 
Event ID: 134
Level: Error 
User: SYSTEM
Computer: Node#.contoso.local 
Description: The file system was unable to write metadata to the media backing volume <VolumeId>. A write failed with status "A device which does not exist was specified." ReFS will take the volume offline. It may be mounted again automatically.
------------------------------------------------------------
Log Name: Microsoft-Windows-ReFS/Operational
Source: Microsoft-Windows-ReFS 
Event ID: 5 
Level: Error 
User: SYSTEM 
Computer: Node#.contoso.local 
Description: ReFS failed to mount the volume. 
Context: 0xffffbb89f53f4180 
Error: A device which does not exist was specified.
Volume GUID:{00000000-0000-0000-0000-000000000000} 
DeviceName: 
Volume Name:

デタッチされた動作状態は、ダーティ領域追跡 (DRT) ログがいっぱいになった場合に発生する可能性があります。The Detached Operational Status can occur if the dirty region tracking (DRT) log is full. 記憶域スペースは、ミラー化されたスペースに対してダーティ領域の追跡 (DRT) を使用して、電源障害が発生したときに、記憶域スペースを再実行または元に戻して記憶域スペースを柔軟に戻すことができるように、メタデータに対するインフライトの更新をログに記録します。安定した状態で、電源が復元され、システムが復帰します。Storage Spaces uses dirty region tracking (DRT) for mirrored spaces to make sure that when a power failure occurs, any in-flight updates to metadata are logged to make sure that the storage space can redo or undo operations to bring the storage space back into a flexible and consistent state when power is restored and the system comes back up. DRT ログがいっぱいになった場合、DRT メタデータが同期されてフラッシュされるまで、仮想ディスクをオンラインにすることはできません。If the DRT log is full, the virtual disk can't be brought online until the DRT metadata is synchronized and flushed. このプロセスではフルスキャンを実行する必要がありますが、完了するまでに数時間かかることがあります。This process requires running a full scan, which can take several hours to finish.

この問題を解決するには、次の手順を実行します。To fix this issue, follow these steps:

  1. 影響を受けた仮想ディスクを CSV から削除します。Remove the affected Virtual Disks from CSV.

    Remove-ClusterSharedVolume -name "VdiskName"
    
  2. オンラインになっていないすべてのディスクで、次のコマンドを実行します。Run the following commands on every disk that's not coming online.

    Get-ClusterResource -Name "VdiskName" | Set-ClusterParameter DiskRunChkDsk 7
    Start-ClusterResource -Name "VdiskName"
    
  3. デタッチされたボリュームがオンラインになっているすべてのノードで、次のコマンドを実行します。Run the following command on every node in which the detached volume is online.

    Get-ScheduledTask -TaskName "Data Integrity Scan for Crash Recovery" | Start-ScheduledTask 
    

    このタスクは、デタッチされたボリュームがオンラインになっているすべてのノードで開始する必要があります。This task should be initiated on all nodes on which the detached volume is online. 修復が自動的に開始されます。A repair should automatically start. 修復が完了するまで待ちます。Wait for the repair to finish. 中断状態になり、再び開始される可能性があります。It may go into a suspended state and start again. 進行状況を監視するには:To monitor the progress:

    • Get StorageJobを実行して、修復の状態を監視し、いつ完了したかを確認します。Run Get-StorageJob to monitor the status of the repair and to see when it is completed.
    • VirtualDiskを実行し、スペースが正常な HealthStatus を返していることを確認します。Run Get-VirtualDisk and verify the Space returns a HealthStatus of Healthy.
      • "クラッシュ回復のデータ整合性スキャン" は、記憶域ジョブとして表示されないタスクであり、進行状況インジケーターはありません。The "Data Integrity Scan for Crash Recovery" is a task that doesn't show as a storage job, and there is no progress indicator. タスクが実行中であると表示されている場合は、実行されています。If the task is showing as running, it is running. 完了すると、[完了] と表示されます。When it completes, it will show completed.

        また、次のコマンドレットを使用すると、実行中のスケジュールタスクの状態を表示できます。Additionally, you can view the status of a running schedule task by using the following cmdlet:

        Get-ScheduledTask | ? State -eq running
        
  4. "クラッシュ回復のデータ整合性スキャン" が完了するとすぐに、修復が完了し、仮想ディスクが正常な状態に戻り、仮想ディスクのパラメーターを変更します。As soon as the “Data Integrity Scan for Crash Recovery" is finished, the repair finishes and the Virtual Disks are Healthy, change the Virtual Disk parameters back.

    Get-ClusterResource -Name "VdiskName" | Set-ClusterParameter DiskRunChkDsk 0 
    
  5. ディスクをオフラインにし、もう一度オンラインにして、DiskRecoveryAction が有効になるようにします。Take the disk(s) offline and then online again to have the DiskRecoveryAction take effect:

    Stop-ClusterResource "VdiskName"
    Start-ClusterResource "VdiskName"
    
  6. 影響を受けた仮想ディスクを CSV に再び追加します。Add the affected Virtual Disks back to CSV.

    Add-ClusterSharedVolume -name "VdiskName"
    

    Diskrunchkdsk 値 7を使用して、領域ボリュームをアタッチし、パーティションを読み取り専用モードにします。DiskRunChkdsk value 7 is used to attach the Space volume and have the partition in read-only mode. これにより、修復をトリガーすることによって、スペースを自己検出し、自己回復することができます。This enables Spaces to self-discover and self-heal by triggering a repair. 修復は、マウントされると自動的に実行されます。Repair will run automatically once mounted. また、データにアクセスすることもできます。これは、コピーできるあらゆるデータにアクセスするのに役立ちます。It also allows you to access the data, which can be helpful to get access to whatever data you can to copy. 完全な DRT ログなどの一部のエラー状態では、スケジュールされたクラッシュ復旧タスクのデータ整合性スキャンを実行する必要があります。For some fault conditions, such as a full DRT log, you need to run the Data Integrity Scan for Crash Recovery scheduled task.

クラッシュ回復タスクのデータ整合性スキャンは、完全なダーティリージョン追跡 (DRT) ログの同期と消去に使用されます。Data Integrity Scan for Crash Recovery task is used to synchronize and clear a full dirty region tracking (DRT) log. このタスクの完了には数時間かかることがあります。This task can take several hours to complete. "クラッシュ回復のデータ整合性スキャン" は、記憶域ジョブとして表示されないタスクであり、進行状況インジケーターはありません。The "Data Integrity Scan for Crash Recovery" is a task that doesn't show as a storage job, and there is no progress indicator. タスクが実行中であると表示されている場合は、実行されています。If the task is showing as running, it is running. 完了すると、完了として表示されます。When it completes, it will show as completed. このタスクの実行中にタスクをキャンセルするか、ノードを再起動する場合、タスクは最初からやり直す必要があります。If you cancel the task or restart a node while this task is running, the task will need to start over from the beginning.

詳細については、「記憶域スペースダイレクトの正常性と動作状態のトラブルシューティング」を参照してください。For more information, see Troubleshooting Storage Spaces Direct health and operational states.

STATUS_IO_TIMEOUT c00000b5 を使用したイベント5120Event 5120 with STATUS_IO_TIMEOUT c00000b5

重要

Windows Server 2016 の場合: 修正プログラムを適用している間にこれらの現象が発生する可能性を減らすために、以下のストレージメンテナンスモードの手順を使用して、 Windows Server 2016 以降の累積的な更新プログラム (2018)をインストールすることをお勧めします。現在、ノードに2016年5月2018 8日から2018日にリリースされた Windows Server の累積的な更新プログラムがインストールされている場合。For Windows Server 2016: To reduce the chance of experiencing these symptoms while applying the update with the fix, it is recommended to use the Storage Maintenance Mode procedure below to install the October 18, 2018, cumulative update for Windows Server 2016 or a later version when the nodes currently have installed a Windows Server 2016 cumulative update that was released from May 8, 2018 to October 9, 2018.

Windows Server 2016 のノードを再起動した後、5120年5月4103723 2018 8日から10 月9日から 2018 kb 4462917にリリースされた累積的な更新プログラムを使用して、STATUS_IO_TIMEOUT c00000b5 でイベントを受け取る場合があります。You might get event 5120 with STATUS_IO_TIMEOUT c00000b5 after you restart a node on Windows Server 2016 with cumulative update that were released from May 8, 2018 KB 4103723 to October 9, 2018 KB 4462917 installed.

ノードを再起動すると、イベント5120がシステムイベントログに記録され、次のいずれかのエラーコードが表示されます。When you restart the node, Event 5120 is logged in the System event log and includes one of the following error codes:

Event Source: Microsoft-Windows-FailoverClustering
Event ID: 5120
Description:    Cluster Shared Volume 'CSVName' ('Cluster Virtual Disk (CSVName)') has entered a paused state because of 'STATUS_IO_TIMEOUT(c00000b5)'. All I/O will temporarily be queued until a path to the volume is reestablished. 

Cluster Shared Volume ‘CSVName' ('Cluster Virtual Disk (CSVName)') has entered a paused state because of 'STATUS_CONNECTION_DISCONNECTED(c000020c)'. All I/O will temporarily be queued until a path to the volume is reestablished.    

イベント5120がログに記録されると、デバッグ情報を収集するためにライブダンプが生成されます。これにより、追加の現象が発生したり、パフォーマンスに影響が生じたりする可能性があります。When an Event 5120 is logged, a live dump is generated to collect debugging information that may cause additional symptoms or have a performance effect. ライブダンプを生成すると、短い一時停止が作成され、メモリのスナップショットを取得してダンプファイルを書き込むことができるようになります。Generating the live dump creates a brief pause to enable taking a snapshot of memory to write the dump file. 大量のメモリを搭載し、負荷がかかっているシステムでは、ノードがクラスターメンバーシップから削除され、次のイベント1135がログに記録される可能性があります。Systems that have lots of memory and are under stress may cause nodes to drop out of cluster membership and also cause the following Event 1135 to be logged.

Event source: Microsoft-Windows-FailoverClustering
Event ID: 1135  
Description: Cluster node 'NODENAME'was removed from the active failover cluster membership. The Cluster service on this node may have stopped. This could also be due to the node having lost communication with other active nodes in the failover cluster. Run the Validate a Configuration wizard to check your network configuration. If the condition persists, check for hardware or software errors related to the network adapters on this node. Also check for failures in any other network components to which the node is connected such as hubs, switches, or bridges.

2018年5月8で導入された変更は、クラスター内 SMB ネットワークセッション記憶域スペースダイレクトの SMB 弾性ハンドルを追加するための累積的な更新プログラムである Windows Server 2016 です。A change introduced in May 8, 2018 to Windows Server 2016, which was a cumulative update to add SMB Resilient Handles for the Storage Spaces Direct intra-cluster SMB network sessions. これは、一時的なネットワーク障害に対する回復性を向上させ、RoCE がネットワークの輻輳を処理する方法を改善するために行われました。This was done to improve resiliency to transient network failures and improve how RoCE handles network congestion. また、これらの機能強化により、SMB 接続の再接続が試行され、ノードの再起動時のタイムアウトを待機したときに、タイムアウトが大幅に増加しました。These improvements also inadvertently increased time-outs when SMB connections try to reconnect and waits to time-out when a node is restarted. これらの問題は、負荷がかかっているシステムに影響を与える可能性があります。These issues can affect a system that is under stress. 予定外のダウンタイム時には、システムがタイムアウトへの接続を待機している間、最大60秒の IO が一時停止されています。この問題を解決するには、 2018 年10月18日の累積的な更新プログラム (Windows Server 2016 以降のバージョン) をインストールします。During unplanned downtime, IO pauses of up to 60 seconds have also been observed while the system waits for connections to time-out. To fix this issue, install the October 18, 2018, cumulative update for Windows Server 2016 or a later version.

メモこの更新では、CSV タイムアウトと SMB 接続タイムアウトを整合させることで、この問題を解決します。Note This update aligns the CSV time-outs with SMB connection time-outs to fix this issue. 「回避策」セクションで説明したライブダンプ生成を無効にする変更は実装されていません。It does not implement the changes to disable live dump generation mentioned in the Workaround section.

シャットダウンプロセスフロー:Shutdown process flow:

  1. VirtualDisk コマンドレットを実行し、HealthStatus の値が健全であることを確認します。Run the Get-VirtualDisk cmdlet, and make sure that the HealthStatus value is Healthy.

  2. 次のコマンドレットを実行して、ノードをドレインします。Drain the node by running the following cmdlet:

    Suspend-ClusterNode -Drain
    
  3. 次のコマンドレットを実行して、そのノードのディスクをストレージメンテナンスモードにします。Put the disks on that node in Storage Maintenance Mode by running the following cmdlet:

    Get-StorageFaultDomain -type StorageScaleUnit | Where-Object {$_.FriendlyName -eq "<NodeName>"} | Enable-StorageMaintenanceMode
    
  4. Get PhysicalDiskコマンドレットを実行し、OperationalStatus 値がメンテナンスモードであることを確認します。Run the Get-PhysicalDisk cmdlet, and make sure that the OperationalStatus value is In Maintenance Mode.

  5. コンピューターの起動コマンドレットを実行して、ノードを再起動します。Run the Restart-Computer cmdlet to restart the node.

  6. ノードが再起動した後、次のコマンドレットを実行して、そのノードのディスクをストレージメンテナンスモードから削除します。After node restarts, remove the disks on that node from Storage Maintenance Mode by running the following cmdlet:

    Get-StorageFaultDomain -type StorageScaleUnit | Where-Object {$_.FriendlyName -eq "<NodeName>"} | Disable-StorageMaintenanceMode
    
  7. 次のコマンドレットを実行して、ノードを再開します。Resume the node by running the following cmdlet:

    Resume-ClusterNode
    
  8. 次のコマンドレットを実行して、再同期ジョブの状態を確認します。Check the status of the resync jobs by running the following cmdlet:

    Get-StorageJob
    

ライブダンプの無効化Disabling live dumps

メモリが多数あり、ストレスがかかっているシステムでのライブダンプ生成の影響を軽減するために、ライブダンプ生成を無効にすることもできます。To mitigate the effect of live dump generation on systems that have lots of memory and are under stress, you may additionally want to disable live dump generation. 次の3つのオプションがあります。Three options are provided below.

注意事項

この手順を実行すると、この問題の調査に必要な Microsoft サポート診断情報が収集されなくなる可能性があります。This procedure can prevent the collection of diagnostic information that Microsoft Support may need to investigate this problem. サポートエージェントは、特定のトラブルシューティングシナリオに基づいて、ライブダンプ生成を再度有効にするように要求することがあります。A Support agent may have to ask you to re-enable live dump generation based on specific troubleshooting scenarios.

ライブダンプを無効にするには、次に示す2つの方法があります。There are two methods to disable live dumps, as described below.

ライブダンプシステム全体を含め、すべてのダンプを完全に無効にするには、次の手順を実行します。To completely disable all dumps, including live dumps system-wide, follow these steps:

  1. 次のレジストリキーを作成します。HKLM\System\CurrentControlSet\Control\CrashControl\ForceDumpsDisabledCreate the following registry key: HKLM\System\CurrentControlSet\Control\CrashControl\ForceDumpsDisabled
  2. New ForceDumpsDisabledキーの下で、REG_DWORD プロパティを GuardedHost として作成し、その値を0x10000000 に設定します。Under the new ForceDumpsDisabled key, create a REG_DWORD property as GuardedHost, and then set its value to 0x10000000.
  3. 各クラスターノードに新しいレジストリキーを適用します。Apply the new registry key to each cluster node.

注意

N の変更を有効にするには、コンピューターを再起動する必要があります。You have to restart the computer for the nregistry change to take effect.

このレジストリキーが設定されると、ライブダンプの作成は失敗し、"STATUS_NOT_SUPPORTED" エラーが生成されます。After this registry key is set, live dump creation will fail and generate a "STATUS_NOT_SUPPORTED" error.

方法 2Method 2

既定では、Windows エラー報告では、レポートの種類ごとに7日につき1つの LiveDump のみが許可されます。また、コンピューターあたりの LiveDump は、5日につき1つだけです。By default, Windows Error Reporting will allow only one LiveDump per report type per 7 days and only 1 LiveDump per machine per 5 days. これを変更するには、次のレジストリキーを設定します。これにより、コンピューター上の LiveDump を無期限に許可することができます。You can change that by setting the following registry keys to only allow one LiveDump on the machine forever.

reg add "HKLM\Software\Microsoft\Windows\Windows Error Reporting\FullLiveKernelReports" /v SystemThrottleThreshold /t REG_DWORD /d 0xFFFFFFFF /f
reg add "HKLM\Software\Microsoft\Windows\Windows Error Reporting\FullLiveKernelReports" /v ComponentThrottleThreshold /t REG_DWORD /d 0xFFFFFFFF /f

メモ変更を有効にするには、コンピューターを再起動する必要があります。Note You have to restart the computer for the change to take effect.

方法3Method 3

ライブダンプのクラスター生成を無効にするには (イベント5120がログに記録されたときなど)、次のコマンドレットを実行します。To disable cluster generation of live dumps (such as when an Event 5120 is logged), run the following cmdlet:

(Get-Cluster).DumpPolicy = ((Get-Cluster).DumpPolicy -band 0xFFFFFFFFFFFFFFFE)

このコマンドレットは、コンピューターを再起動しなくても、すべてのクラスターノードに直ちに影響します。This cmdlet has an immediate effect on all cluster nodes without a computer restart.

低速 IO パフォーマンスSlow IO performance

IO パフォーマンスの低下が見られる場合は、記憶域スペースダイレクト構成でキャッシュが有効になっているかどうかを確認してください。If you are seeing slow IO performance, check if cache is enabled in your Storage Spaces Direct configuration.

確認するには、次の2つの方法があります。There are two ways to check:

  1. クラスターログを使用します。Using the cluster log. 任意のテキストエディターでクラスターログを開き、"[= = = SBL Disks = = =]" を検索します。Open the cluster log in text editor of choice and search for "[=== SBL Disks ===]." これは、ログが生成されたノード上のディスクの一覧になります。This will be a list of the disk on the node the log was generated on.

    キャッシュが有効なディスクの例:ここで、状態は Cachediskstateinitializer Edandbound であり、ここには GUID があることに注意してください。Cache Enabled Disks Example: Note here that the state is CacheDiskStateInitializedAndBound and there is a GUID present here.

    [=== SBL Disks ===]
     {26e2e40f-a243-1196-49e3-8522f987df76},3,false,true,1,48,{1ff348f1-d10d-7a1a-d781-4734f4440481},CacheDiskStateInitializedAndBound,1,8087,54,false,false,HGST    ,HUH721010AL4200 ,        7PG3N2ER,A21D,{d5e27a3b-42fb-410a-81c6-9d8cc12da20c},[R/M 0 R/U 0 R/T 0 W/M 0 W/U 0 W/T 0],
    

    キャッシュが有効になっていません:ここで、GUID が存在せず、状態が CacheDiskStateNonHybrid であることがわかります。Cache Not Enabled: Here we can see there is no GUID present and the state is CacheDiskStateNonHybrid.

    [=== SBL Disks ===]
    {426f7f04-e975-fc9d-28fd-72a32f811b7d},12,false,true,1,24,{00000000-0000-0000-0000-000000000000},CacheDiskStateNonHybrid,0,0,0,false,false,HGST    ,HUH721010AL4200 ,        7PGXXG6C,A21D,{d5e27a3b-42fb-410a-81c6-9d8cc12da20c},[R/M 0 R/U 0 R/T 0 W/M 0 W/U 0 W/T 0],
    

    キャッシュが有効になっていません:すべてのディスクが同じ種類の場合、既定では有効になりません。Cache Not Enabled: When all disks are of the same type case is not enabled by default. ここで、GUID が存在せず、状態が CacheDiskStateIneligibleDataPartition であることがわかります。Here we can see there is no GUID present and the state is CacheDiskStateIneligibleDataPartition.

    {d543f90c-798b-d2fe-7f0a-cb226c77eeed},10,false,false,1,20,{00000000-0000-0000-0000-000000000000},CacheDiskStateIneligibleDataPartition,0,0,0,false,false,NVMe    ,INTEL SSDPE7KX02,  PHLF7330004V2P0LGN,0170,{79b4d631-976f-4c94-a783-df950389fd38},[R/M 0 R/U 0 R/T 0 W/M 0 W/U 0 W/T 0], 
    
  2. SDDCDiagnosticInfo から Get-PhysicalDisk を使用するUsing Get-PhysicalDisk.xml from the SDDCDiagnosticInfo

    1. "$D = Export-clixml" を使用して XML ファイルを開きます。Open the XML file using "$d = Import-Clixml GetPhysicalDisk.XML"
    2. "Ipmo ストレージ" の実行Run "ipmo storage"
    3. "$d" を実行します。run "$d". 使用法は自動選択であり、Journal ではなく、次のような出力が表示されることに注意してください。Note that Usage is Auto-Select, not Journal You'll see output like this:
    FriendlyNameFriendlyName SerialNumberSerialNumber MediaTypeMediaType CanPoolCanPool OperationalStatusOperationalStatus HealthStatusHealthStatus 使用方法Usage サイズSize
    NVMe INTEL SSDPE7KX02NVMe INTEL SSDPE7KX02 PHLF733000372P0LGNPHLF733000372P0LGN SSDSSD FalseFalse OKOK 正常Healthy 1.82 TB を自動選択Auto-Select 1.82 TB
    NVMe INTEL SSDPE7KX02NVMe INTEL SSDPE7KX02 PHLF7504008J2P0LGNPHLF7504008J2P0LGN SSDSSD FalseFalse OKOK 正常Healthy 自動選択Auto-Select 1.82 TB1.82 TB
    NVMe INTEL SSDPE7KX02NVMe INTEL SSDPE7KX02 PHLF7504005F2P0LGNPHLF7504005F2P0LGN SSDSSD FalseFalse OKOK 正常Healthy 自動選択Auto-Select 1.82 TB1.82 TB
    NVMe INTEL SSDPE7KX02NVMe INTEL SSDPE7KX02 PHLF7504002A2P0LGNPHLF7504002A2P0LGN SSDSSD FalseFalse OKOK 正常Healthy 自動選択Auto-Select 1.82 TB1.82 TB
    NVMe INTEL SSDPE7KX02NVMe INTEL SSDPE7KX02 PHLF7504004T2P0LGNPHLF7504004T2P0LGN SSDSSD FalseFalse OKOK 正常Healthy 自動選択Auto-Select 1.82 TB1.82 TB
    NVMe INTEL SSDPE7KX02NVMe INTEL SSDPE7KX02 PHLF7504002E2P0LGNPHLF7504002E2P0LGN SSDSSD FalseFalse OKOK 正常Healthy 自動選択Auto-Select 1.82 TB1.82 TB
    NVMe INTEL SSDPE7KX02NVMe INTEL SSDPE7KX02 PHLF7330002Z2P0LGNPHLF7330002Z2P0LGN SSDSSD FalseFalse OKOK 正常Healthy 自動選択Auto-Select 1.82 TB1.82 TB
    NVMe INTEL SSDPE7KX02NVMe INTEL SSDPE7KX02 PHLF733000272P0LGNPHLF733000272P0LGN SSDSSD FalseFalse OKOK 正常Healthy 自動選択Auto-Select 1.82 TB1.82 TB
    NVMe INTEL SSDPE7KX02NVMe INTEL SSDPE7KX02 PHLF7330001J2P0LGNPHLF7330001J2P0LGN SSDSSD FalseFalse OKOK 正常Healthy 自動選択Auto-Select 1.82 TB1.82 TB
    NVMe INTEL SSDPE7KX02NVMe INTEL SSDPE7KX02 PHLF733000302P0LGNPHLF733000302P0LGN SSDSSD FalseFalse OKOK 正常Healthy 自動選択Auto-Select 1.82 TB1.82 TB
    NVMe INTEL SSDPE7KX02NVMe INTEL SSDPE7KX02 PHLF7330004D2P0LGNPHLF7330004D2P0LGN SSDSSD FalseFalse OKOK 正常Healthy 自動選択Auto-Select 1.82 TB1.82 TB

同じディスクを再び使用できるように既存のクラスターを破棄する方法How to destroy an existing cluster so you can use the same disks again

記憶域スペースダイレクトクラスターでは、記憶域スペースダイレクトを無効にしてクリーンドライブに記載されているクリーンアッププロセスを使用すると、クラスター化された記憶域プールは依然としてオフライン状態のままで、ヘルスサービスはクラスターから削除されます。In a Storage Spaces Direct cluster, once you disable Storage Spaces Direct and use the clean-up process described in Clean drives, the clustered storage pool still remains in an Offline state, and the Health Service is removed from cluster.

次の手順では、ファントム記憶域プールを削除します。The next step is to remove the phantom storage pool:

Get-ClusterResource -Name "Cluster Pool 1" | Remove-ClusterResource

これで、いずれかのノードでGet-PhysicalDiskを実行すると、プール内にあったすべてのディスクが表示されます。Now, if you run Get-PhysicalDisk on any of the nodes, you'll see all the disks that were in the pool. たとえば、4つの SAS ディスクを搭載した4ノードクラスターを備えたラボでは、各ノードに 100 GB が表示されます。For example, in a lab with a 4-Node cluster with 4 SAS disks, 100GB each presented to each node. この場合、記憶域スペースダイレクトを無効にすると、SBL (記憶域バスレイヤー) が削除されますが、フィルターは解除されます。この場合、 Get PhysicalDiskを実行すると、ローカル OS ディスクを除く4つのディスクを報告する必要があります。In that case, after Storage Space Direct is disabled, which removes the SBL (Storage Bus Layer) but leaves the filter, if you run Get-PhysicalDisk, it should report 4 disks excluding the local OS disk. 代わりに、16を報告しました。Instead it reported 16 instead. これは、クラスター内のすべてのノードで同じです。This is the same for all nodes in the cluster. Get Diskコマンドを実行すると、次のサンプル出力に示すように、ローカルに接続されているディスクの番号が0、1、2などになります。When you run a Get-Disk command, you'll see the locally attached disks numbered as 0, 1, 2 and so on, as seen in this sample output:

数値Number フレンドリ名Friendly Name シリアル番号Serial Number HealthStatusHealthStatus OperationalStatusOperationalStatus 合計サイズTotal Size パーティションの形式Partition Style
00 Msft Virtu...Msft Virtu... 正常Healthy オンラインOnline 127 GB127 GB GPTGPT
Msft Virtu...Msft Virtu... 正常Healthy オフラインOffline 100 GB100 GB RAWRAW
Msft Virtu...Msft Virtu... 正常Healthy オフラインOffline 100 GB100 GB RAWRAW
Msft Virtu...Msft Virtu... 正常Healthy オフラインOffline 100 GB100 GB RAWRAW
Msft Virtu...Msft Virtu... 正常Healthy オフラインOffline 100 GB100 GB RAWRAW
11 Msft Virtu...Msft Virtu... 正常Healthy オフラインOffline 100 GB100 GB RAWRAW
Msft Virtu...Msft Virtu... 正常Healthy オフラインOffline 100 GB100 GB RAWRAW
22 Msft Virtu...Msft Virtu... 正常Healthy オフラインOffline 100 GB100 GB RAWRAW
Msft Virtu...Msft Virtu... 正常Healthy オフラインOffline 100 GB100 GB RAWRAW
Msft Virtu...Msft Virtu... 正常Healthy オフラインOffline 100 GB100 GB RAWRAW
Msft Virtu...Msft Virtu... 正常Healthy オフラインOffline 100 GB100 GB RAWRAW
Msft Virtu...Msft Virtu... 正常Healthy オフラインOffline 100 GB100 GB RAWRAW
44 Msft Virtu...Msft Virtu... 正常Healthy オフラインOffline 100 GB100 GB RAWRAW
33 Msft Virtu...Msft Virtu... 正常Healthy オフラインOffline 100 GB100 GB RAWRAW
Msft Virtu...Msft Virtu... 正常Healthy オフラインOffline 100 GB100 GB RAWRAW
Msft Virtu...Msft Virtu... 正常Healthy オフラインOffline 100 GB100 GB RAWRAW
Msft Virtu...Msft Virtu... 正常Healthy オフラインOffline 100 GB100 GB RAWRAW

Enable-clusters2d を使用して記憶域スペースダイレクトクラスターを作成するときの "サポートされていないメディアの種類" に関するエラーメッセージError message about "unsupported media type" when you create an Storage Spaces Direct cluster using Enable-ClusterS2D

Enable-clusters2dコマンドレットを実行すると、次のようなエラーが表示されることがあります。You might see errors similar to this when you run the Enable-ClusterS2D cmdlet:

シナリオ6のエラーメッセージ

この問題を解決するには、hba アダプターが HBA モードで構成されていることを確認します。To fix this issue, ensure the HBA adapter is configured in HBA mode. RAID モードで構成する必要がある HBA はありません。No HBA should be configured in RAID mode.

"SBL ディスクが表示されるまでの待機中" または 27% で ClusterStorageSpacesDirect がハングするEnable-ClusterStorageSpacesDirect hangs at 'Waiting until SBL disks are surfaced' or at 27%

検証レポートには、次の情報が表示されます。You will see the following information in the validation report:

Disk <identifier> connected to node <nodename> returned a SCSI Port Association and the corresponding enclosure device could not be found. The hardware is not compatible with Storage Spaces Direct (S2D), contact the hardware vendor to verify support for SCSI Enclosure Services (SES). 

この問題は、ディスクと HBA カードの間にある HPE SAS エクスパンダーカードを使用しています。The issue is with the HPE SAS expander card that lies between the disks and the HBA card. SAS エクスパンダーは、エキスパンダーに接続されている最初のドライブとエキスパンダー自体の間に重複する ID を作成します。The SAS expander creates a duplicate ID between the first drive connected to the expander and the expander itself. これは hpe Smart Array controller SAS エクスパンダーファームウェアで解決されました。4.02This has been resolved in HPE Smart Array Controllers SAS Expander Firmware: 4.02.

Intel SSD DC P4600 シリーズには一意ではない n があります。Intel SSD DC P4600 series has a non-unique NGUID

Intel SSD DC P4600 シリーズデバイスが、次の例のように、0100000001000000E4D25C000014E214 や0100000001000000E4D25C0000EEE214 などの複数の名前空間について、同様の16バイトを報告していると思われる問題が発生する可能性があります。You might see an issue where an Intel SSD DC P4600 series device seems to be reporting similar 16 byte NGUID for multiple namespaces such as 0100000001000000E4D25C000014E214 or 0100000001000000E4D25C0000EEE214 in the example below.

uniqueiduniqueid deviceiddeviceid MediaTypeMediaType BusTypeBusType serialnumberserialnumber sizesize canpoolcanpool フレンドリfriendlyname OperationalStatusOperationalStatus
5000CCA251D12E305000CCA251D12E30 00 HDDHDD SASSAS 7PKR197G7PKR197G 1000083134873610000831348736 FalseFalse HGSTHGST HUH721010AL4200HUH721010AL4200
0100000001000000E4D25C000014E214eui.0100000001000000E4D25C000014E214 44 SSDSSD NVMeNVMe 0100_0000_0100_0000_E4D2_5C00_0014_E214.0100_0000_0100_0000_E4D2_5C00_0014_E214. 16003213148161600321314816 TrueTrue INTELINTEL SSDPE2KE016T7SSDPE2KE016T7
0100000001000000E4D25C000014E214eui.0100000001000000E4D25C000014E214 55 SSDSSD NVMeNVMe 0100_0000_0100_0000_E4D2_5C00_0014_E214.0100_0000_0100_0000_E4D2_5C00_0014_E214. 16003213148161600321314816 TrueTrue INTELINTEL SSDPE2KE016T7SSDPE2KE016T7
0100000001000000E4D25C0000EEE214eui.0100000001000000E4D25C0000EEE214 66 SSDSSD NVMeNVMe 0100_0000_0100_0000_E4D2_5C00_00EE_E214.0100_0000_0100_0000_E4D2_5C00_00EE_E214. 16003213148161600321314816 TrueTrue INTELINTEL SSDPE2KE016T7SSDPE2KE016T7
0100000001000000E4D25C0000EEE214eui.0100000001000000E4D25C0000EEE214 77 SSDSSD NVMeNVMe 0100_0000_0100_0000_E4D2_5C00_00EE_E214.0100_0000_0100_0000_E4D2_5C00_00EE_E214. 16003213148161600321314816 TrueTrue INTELINTEL SSDPE2KE016T7SSDPE2KE016T7

この問題を解決するには、Intel ドライブのファームウェアを最新バージョンに更新します。To fix this issue, update the firmware on the Intel drives to the latest version. 2018年5月のファームウェアバージョン QDV101B1 は、この問題を解決することがわかっています。Firmware version QDV101B1 from May 2018 is known to resolve this issue.

INTEL Ssd Data Center ツールの2018年5月リリースには、INTEL Ssd DC P4600 シリーズ用のファームウェア更新プログラム QDV101B1 が含まれています。The May 2018 release of the Intel SSD Data Center Tool includes a firmware update, QDV101B1, for the Intel SSD DC P4600 series.

物理ディスクは "正常" で、動作状態は "プールから削除しています"Physical Disk "Healthy," and Operational Status is "Removing from Pool"

Windows Server 2016 記憶域スペースダイレクトクラスターでは、1つ以上の物理ディスクの HealthStatus が "健全" と表示されることがあります。一方、OperationalStatus は "(プールから削除, OK)" です。In a Windows Server 2016 Storage Spaces Direct cluster, you might see the HealthStatus for one ore more physical disks as "Healthy," while the OperationalStatus is "(Removing from Pool, OK)."

"プールからの削除" は、 remove-PhysicalDiskが呼び出されて状態を維持するために正常性に格納され、削除操作が失敗した場合に回復を許可する場合に設定されます。"Removing from Pool" is an intent set when Remove-PhysicalDisk is called but stored in Health to maintain state and allow recovery if the remove operation fails. 次のいずれかの方法を使用して、OperationalStatus を手動で健全に変更できます。You can manually change the OperationalStatus to Healthy with one of the following methods:

  • 物理ディスクをプールから削除してから、もう一度追加してください。Remove the physical disk from the pool, and then add it back.
  • Clear-PhysicalDiskHealthData スクリプトを実行して目的をクリアします。Run the Clear-PhysicalDiskHealthData.ps1 script to clear the intent. (としてダウンロードできます。TXT ファイル。(Available for download as a .TXT file. これをとして保存する必要があります。PS1 ファイルを実行する前に実行してください)。You'll need to save it as a .PS1 file before you can run it.)

スクリプトの実行方法を示すいくつかの例を次に示します。Here are some examples showing how to run the script:

  • "健全" に設定する必要があるディスクを指定するには、シリアル状態のパラメーターを使用します。Use the SerialNumber parameter to specify the disk you need to set to Healthy. シリアル番号は、 WMI MSFT_PhysicalDiskまたはget-PhysicalDiskから取得できます。You can get the serial number from WMI MSFT_PhysicalDisk or Get-PhysicalDIsk. (以下のシリアル番号には0を使用しています)。(We're just using 0s for the serial number below.)

    Clear-PhysicalDiskHealthData -Intent -Policy -SerialNumber 000000000000000 -Verbose -Force
    
  • UniqueIdパラメーターを使用して、ディスクを指定します ( WMI MSFT_PhysicalDiskまたはGet-PhysicalDiskから再度)。Use the UniqueId parameter to specify the disk (again from WMI MSFT_PhysicalDisk or Get-PhysicalDIsk).

    Clear-PhysicalDiskHealthData -Intent -Policy -UniqueId 00000000000000000 -Verbose -Force
    

ファイルのコピー速度が遅いFile copy is slow

ファイルエクスプローラーを使用して大きな VHD を仮想ディスクにコピーするときに問題が発生することがあります。ファイルのコピーに予想以上に時間がかかっています。You might seen an issue using File Explorer to copy a large VHD to the virtual disk - the file copy is taking longer than expected.

ファイルエクスプローラー、Robocopy、または Xcopy を使用して大規模な VHD を仮想ディスクにコピーすることは、予想されるパフォーマンスよりも低速になるため、では推奨されません。Using File Explorer, Robocopy or Xcopy to copy a large VHD to the virtual disk is not a recommended method to as this will result in slower than expected performance. コピープロセスは、ストレージスタックの下位にある記憶域スペースダイレクトスタックを経由せず、代わりにローカルコピープロセスとして機能します。The copy process does not go through the Storage Spaces Direct stack, which sits lower on the storage stack, and instead acts like a local copy process.

記憶域スペースダイレクトのパフォーマンスをテストする場合は、VMFleet と Diskspd を使用してサーバーを読み込んでストレステストを行ってベースラインを取得し、記憶域スペースダイレクトパフォーマンスの期待値を設定することをお勧めします。If you want to test Storage Spaces Direct performance, we recommend using VMFleet and Diskspd to load and stress test the servers to get a base line and set expectations of the Storage Spaces Direct performance.

ノードの再起動中に、残りのノードに表示されるイベントが想定されています。Expected events that you would see on rest of the nodes during the reboot of a node.

これらのイベントを無視しても安全です。It is safe to ignore these events:

Event ID 205: Windows lost communication with physical disk {XXXXXXXXXXXXXXXXXXXX }. This can occur if a cable failed or was disconnected, or if the disk itself failed. 

Event ID 203: Windows lost communication with physical disk {xxxxxxxxxxxxxxxxxxxxxxxx }. This can occur if a cable failed or was disconnected, or if the disk itself failed. 

Azure Vm を実行している場合は、このイベントを無視してもかまいません。If you're running Azure VMs, you can ignore this event:

Event ID 32: The driver detected that the device \Device\Harddisk5\DR5 has its write cache enabled. Data corruption may occur. 

Intel P3x00 NVMe デバイスを使用する展開で、パフォーマンスが低下したり、"通信が失われました"、"IO エラー"、"切断されました"、"冗長性がありません" エラーが発生するSlow performance or "Lost Communication," "IO Error," "Detached," or "No Redundancy" errors for deployments that use Intel P3x00 NVMe devices

ここでは、"メンテナンスリリース 8" の前に、ファームウェアのバージョンが含まれている NVM Express (NVMe) デバイスの Intel P3x00 ファミリに基づいてハードウェアを使用している一部の記憶域スペースダイレクトユーザーに影響する重大な問題を特定しました。We've identified a critical issue that affects some Storage Spaces Direct users who are using hardware based on the Intel P3x00 family of NVM Express (NVMe) devices with firmware versions before "Maintenance Release 8."

注意

個々の Oem は、固有のファームウェアバージョン文字列を使用して、Intel P3x00 ファミリの NVMe デバイスをベースとするデバイスを持つことができます。Individual OEMs may have devices that are based on the Intel P3x00 family of NVMe devices with unique firmware version strings. 最新のファームウェアバージョンの詳細については、OEM にお問い合わせください。Contact your OEM for more information of the latest firmware version.

デバイスの Intel P3x00 ファミリに基づくハードウェアを展開で使用している場合は、すぐに利用可能な最新のファームウェアを適用することをお勧めします (少なくともメンテナンスリリース 8)。If you are using hardware in your deployment based on the Intel P3x00 family of NVMe devices, we recommend that you immediately apply the latest available firmware (at least Maintenance Release 8). このMicrosoft サポートの記事では、この問題に関する追加情報を提供します。This Microsoft Support article provides additional information about this issue.