Configuration matérielle requise pour les espaces de stockage direct

S’applique à : Windows Server 2022, Windows Server 2019, Windows Server 2016

cette rubrique décrit la configuration matérielle minimale requise pour espaces de stockage Direct sur Windows Server. Pour la configuration matérielle requise sur Azure Stack HCI, notre système d’exploitation conçu pour les déploiements d’hyperconverge avec une connexion au Cloud, consultez avant de déployer Azure Stack HCI : déterminer la configuration matérielle requise.

Pour la production, Microsoft recommande d’acheter une solution matérielle/logicielle validée auprès de nos partenaires, y compris des outils et des procédures de déploiement. Ces solutions sont conçues, assemblées et validées dans le respect de notre architecture de référence pour garantir compatibilité et fiabilité, ce qui vous permet d’être opérationnel rapidement. pour les solutions Windows Server 2019, visitez le site web Azure Stack solutions HCI.

Conseil

vous voulez évaluer espaces de stockage directe mais n’avez pas de matériel ? utilisez des machines virtuelles Hyper-V ou Azure comme décrit dans utilisation de espaces de stockage directe dans les clusters d’ordinateurs virtuels invités.

Configuration de base requise

les systèmes, les composants, les périphériques et les pilotes doivent être certifiés pour le système d’exploitation que vous ’ réutilisez dans le ’. en outre, nous recommandons que les serveurs et les cartes réseau disposent de la norme sddc (software-defined data center) et/ou du centre de données défini par logiciel (sddc) Premium des qualifications supplémentaires (AQs), comme illustré ci-dessous. Il y a plus de 1 000 composants avec le AQs SDDC.

Screenshot of the Windows Server catalog showing a system that includes the Software-Defined Data Center (SDDC) Premium certification

Le cluster entièrement configuré (serveurs, mise en réseau et stockage) doit réussir tous les tests de validation de cluster pour l’Assistant gestionnaire du cluster de basculement ou avec l' applet de commande dans PowerShell.

En outre, les conditions suivantes s’appliquent :

Serveurs

  • Deux serveurs minimum, 16 serveurs maximum
  • Il est recommandé que tous les serveurs soient les mêmes fabricant et modèle

UC

  • Processeur Intel Nehalem ou version ultérieure compatible ; ni
  • Processeur compatible AMD EPYC ou version ultérieure

Mémoire

  • mémoire pour Windows serveur, les machines virtuelles et d’autres applications ou charges de travail ; plus
  • 4 go de RAM par téraoctet (to) de capacité de lecteur de cache sur chaque serveur, pour espaces de stockage les métadonnées directes

Démarrage

  • tout périphérique de démarrage pris en charge par Windows Server, qui comprend désormais SATADOM
  • Le miroir RAID 1 n’est pas requis, mais il est pris en charge pour le démarrage
  • Recommandé : taille minimale de 200 Go

Mise en réseau

espaces de stockage Direct nécessite une bande passante élevée fiable et une connexion réseau à faible latence entre chaque nœud.

Interconnexion minimale pour le nœud à petite échelle 2-3

  • carte d’interface réseau (NIC) 10 Gbits/s ou plus rapide
  • Au moins deux connexions réseau de chaque nœud sont recommandées pour la redondance et les performances

Connexion recommandée pour des performances élevées, à l’échelle ou dans des déploiements de 4 +

  • Cartes réseau prenant en charge l’accès direct à la mémoire à distance (RDMA), iWARP (recommandé) ou RoCE
  • Au moins deux connexions réseau de chaque nœud sont recommandées pour la redondance et les performances
  • carte réseau 25 Gbit/s ou plus rapide

Interconnexions de nœuds commutées ou non

  • Basculement : les commutateurs réseau doivent être correctement configurés pour gérer la bande passante et le type de réseau. Si vous utilisez RDMA qui implémente le protocole RoCE, la configuration du commutateur et du périphérique réseau est encore plus importante.
  • Sans changement : les nœuds peuvent être interconnectés à l’aide de connexions directes, évitant l’utilisation d’un commutateur. Chaque nœud a une connexion directe avec tous les autres nœuds du cluster.

Lecteurs

espaces de stockage fonctionne avec les lecteurs SATA, SAS, NVMe ou mémoire persistante (PMem) à connexion directe qui sont physiquement connectés à un seul serveur. Pour plus d’informations sur le choix des lecteurs, consultez les rubriques choisir des lecteurs et comprendre et déployer la mémoire persistante .

  • Les lecteurs SATA, SAS, mémoire persistante et NVMe (M. 2, U. 2 et Add-in-Card) sont tous pris en charge.
  • les lecteurs natifs 512N, émulation et 4K sont tous pris en charge
  • Les disques SSD doivent fournir une protection contre la perte de puissance
  • Même nombre et types de lecteurs dans chaque serveur – voir –
  • Les appareils du cache doivent être de 32 Go ou plus
  • Les périphériques de mémoire persistants sont utilisés en mode de stockage par blocs.
  • Lors de l’utilisation de périphériques de mémoire persistants comme périphériques de cache, vous devez utiliser des appareils de capacité NVMe ou SSD (vous ne pouvez pas utiliser de disques durs)
  • le pilote NVMe est le fourni par Microsoft inclus dans Windows (stornvme.sys)
  • Recommandé : le nombre de lecteurs de capacité est un multiple entier du nombre de lecteurs de cache
  • recommandé : les lecteurs de Cache doivent avoir une forte endurance en écriture : au moins 3 écritures de lecteur par jour (DWPD) ou au moins 4 téraoctets écrits (TBW) par jour ––

voici comment les lecteurs peuvent être connectés pour espaces de stockage directe :

  • Lecteurs SATA à connexion directe
  • Lecteurs NVMe directement attachés
  • Adaptateur de bus hôte SAS avec lecteurs SAS
  • Adaptateur de bus hôte SAS avec lecteurs SATA
  • non pris en charge : Les cartes de contrôleur RAID ou le stockage SAN (Fibre Channel, iSCSI, FCoE). Les cartes HBA doivent implémenter le mode de transfert simple.

Diagram showing supported drive interconnects, with RAID cards not supported

Les lecteurs peuvent être internes au serveur ou dans un boîtier externe connecté à un seul serveur. SCSI Enclosure Services (SES) est requis pour le mappage et l’identification des emplacements. Chaque boîtier externe doit présenter un identificateur unique (ID unique).

  • Lecteurs internes au serveur
  • Lecteurs d’un boîtier externe (« JBOD ») connectés à un serveur
  • non pris en charge : Boîtiers SAS partagés connectés à plusieurs serveurs ou toute forme de MPIO (Multipath IO) où les lecteurs sont accessibles par plusieurs chemins d’accès.

Diagram showing how internal and external drives connected directly to a server are supported, but shared SAS is not

Nombre minimal de lecteurs (exclut le lecteur de démarrage)

  • Si des disques sont utilisés en cache, il doit y en avoir au moins deux par serveur.
  • Il doit y avoir au moins 4 lecteurs de capacité (non-cache) par serveur
Types de disques présents Nombre minimal requis
Toute la mémoire persistante (même modèle) 4 mémoire persistante
Tous NVMe (même modèle) 4 NVMe
Tous SSD (même modèle) 4 SSD
Mémoire persistante + NVMe ou SSD 2 mémoire persistante + 4 NVMe ou SSD
NVMe + SSD 2 NVMe + 4 SSD
NVMe + HDD 2 NVMe + 4 HDD
SSD + HDD 2 SSD + 4 HDD
NVMe + SSD + HDD 2 NVMe + 4 autres

Notes

Ce tableau fournit la valeur minimale pour les déploiements de matériel. si vous déployez avec des machines virtuelles et un stockage virtualisé, par exemple dans Microsoft Azure, consultez utilisation de espaces de stockage directe dans les clusters de machine virtuelle invitée.

Capacité maximale

Valeurs maximales Windows Server 2019 Windows Server 2016
Capacité brute par serveur 400 To 100 To
Capacité du pool 4 PO (4 000 TO) 1 Po