Netwerkvereisten hosten voor Azure Stack HCI
Van toepassing op: Azure Stack HCI, versies 21H2 en 20H2
In dit onderwerp worden overwegingen en vereisten voor hostnetwerken voor Azure Stack HCI besproken. Zie de vereisten voor het fysieke netwerk voor informatie over datacenterarchitecturen en de fysieke verbindingen tussen servers.
Zie Hostnetwerken vereenvoudigen met Network ATC voor informatie over het vereenvoudigen van hostnetwerken met Network ATC.
Netwerkverkeerstypen
Azure Stack HCI-netwerkverkeer kan worden geclassificeerd met het beoogde doel:
- Rekenverkeer: Verkeer dat afkomstig is van of bestemd is voor een virtuele machine (VM).
- Opslagverkeer: Verkeer dat gebruikmaakt van Server Message Block (SMB), bijvoorbeeld Opslagruimten Direct of livemigratie op basis van SMB.
- Beheerverkeer: Verkeer dat wordt gebruikt door de beheerder voor het beheer van het cluster, waaronder Extern bureaublad, Windows Admin Center, Active Directory, enzovoort.
Selecteer een netwerkadapter
Voor Azure Stack HCI moet u een netwerkadapter kiezen die de SDDC-certificering (Windows Server Software-Defined Data Center) heeft behaald met de Standard- of Premium Additional Qualification (AQ). Deze adapters ondersteunen de meest geavanceerde platformfuncties en hebben de meeste tests ondergaan door onze hardwarepartners. Dit niveau van controle leidt doorgaans tot een vermindering van hardware- en stuurprogrammagerelateerde kwaliteitsproblemen. Deze adapters voldoen ook aan de netwerkvereisten die zijn vastgesteld voor Opslagruimten Direct.
U kunt een adapter met Standard of Premium AQ identificeren door de Windows Server-catalogusvermelding voor de adapter en de toepasselijke versie van het besturingssysteem te controleren. Hier volgt een voorbeeld van de notatie voor Premium AQ:
Overzicht van de belangrijkste netwerkadaptermogelijkheden
Belangrijke netwerkadaptermogelijkheden die worden gebruikt door Azure Stack HCI zijn onder andere:
- Dynamische virtuele machine met meerdere wachtrijen (dynamische VMMQ of d.VMMQ)
- Remote Direct Memory Access (RDMA)
- Gast-RDMA
- Switch ingesloten Teaming (SET)
Dynamische VMMQ
Alle netwerkadapters met de Premium AQ ondersteunen dynamische VMMQ. Dynamische VMMQ vereist het gebruik van Switch Embedded Teaming.
Toepasselijke verkeerstypen: berekenen
Vereiste certificeringen: Premium
Dynamische VMMQ is een intelligente technologie aan de ontvangstzijde. Het bouwt voort op zijn voorgangers van Virtual Machine Queue (VMQ), Virtual Receive Side Scaling (vRSS) en VMMQ, om drie primaire verbeteringen te bieden:
- Optimaliseert de hostefficiëntie door minder CPU-kernen te gebruiken.
- Automatisch afstemmen van netwerkverkeerverwerking naar CPU-kernen, waardoor VM's aan de verwachte doorvoer kunnen voldoen en onderhouden.
- Hiermee kunnen 'bursty'-workloads de verwachte hoeveelheid verkeer ontvangen.
Zie het blogbericht Synthetische versnellingen voor meer informatie over Dynamische VMMQ.
RDMA
RDMA is een netwerkstack-offload naar de netwerkadapter. Hiermee kan SMB-opslagverkeer het besturingssysteem omzeilen voor verwerking.
RDMA maakt netwerken met hoge doorvoer, lage latentie mogelijk, met minimale CPU-resources van de host. Deze CPU-resources van de host kunnen vervolgens worden gebruikt om extra VM's of containers uit te voeren.
Toepasselijke verkeerstypen: hostopslag
Vereiste certificeringen: Standaard
Alle adapters met Standard of Premium AQ ondersteunen RDMA. RDMA is de aanbevolen implementatiekeuze voor opslagworkloads in Azure Stack HCI en kan optioneel worden ingeschakeld voor opslagworkloads (met behulp van SMB) voor VM's. Zie de sectie Gast-RDMA verderop in dit artikel voor meer informatie.
Azure Stack HCI ondersteunt RDMA met behulp van het Internet Wide Area RDMA Protocol (iWARP) of RDMA via geconvergeerde Ethernet-protocolimplementaties (RoCE).
Belangrijk
RDMA-adapters werken alleen met andere RDMA-adapters die hetzelfde RDMA-protocol (iWARP of RoCE) implementeren.
Niet alle netwerkadapters van leveranciers ondersteunen RDMA. De volgende tabel bevat de leveranciers (in alfabetische volgorde) die Premium-gecertificeerde RDMA-adapters aanbieden. Er zijn echter hardwareleveranciers die niet zijn opgenomen in deze lijst die ook RDMA ondersteunen. Zie de Windows Server-catalogus om RDMA-ondersteuning te controleren.
Notitie
InfiniBand (IB) wordt niet ondersteund met Azure Stack HCI.
| NIC-leverancier | iWARP | Roce |
|---|---|---|
| Broadcom | Nee | Ja |
| Chelsio | Ja | Nee |
| Intel | Yes | Ja (sommige modellen) |
| Marvell (Qlogic/Cavium) | Ja | Ja |
| Nvidia (Mellanox) | Nee | Ja |
Voor meer informatie over het implementeren van RDMA downloadt u het document uit de SDN GitHub-opslagplaats.
iWARP
iWARP maakt gebruik van Transmission Control Protocol (TCP) en kan optioneel worden uitgebreid met PFC (Priority-based Flow Control) en Enhanced Transmission Service (ETS).
Gebruik iWARP als:
- U hebt weinig of geen netwerkervaring of u bent ongemakkelijk bij het beheren van netwerkswitches.
- U bepaalt uw ToR-switches (Top-Of-Rack) niet.
- U beheert de oplossing niet na de implementatie.
- U hebt al implementaties die gebruikmaken van iWARP.
- U weet niet welke optie u moet kiezen.
Roce
RoCE maakt gebruik van User Datagram Protocol (UDP) en vereist PFC en ETS om betrouwbaarheid te bieden.
Gebruik RoCE als:
- U hebt al implementaties met RoCE in uw datacenter.
- U kunt de vereisten voor het DCB-netwerk beheren.
Gast-RDMA
Met GAST-RDMA kunnen SMB-workloads voor VM's dezelfde voordelen krijgen als het gebruik van RDMA op hosts.
Toepasselijke verkeerstypen: Opslag op basis van gasten
Vereiste certificeringen: Premium
De belangrijkste voordelen van het gebruik van gast-RDMA zijn:
- CPU-offload naar de NIC voor netwerkverkeerverwerking.
- Extreem lage latentie.
- Hoge doorvoer.
Download voor meer informatie het document uit de SDN GitHub-opslagplaats.
SET
SET is een softwaregebaseerde teamtechnologie die sinds Windows Server 2016 is opgenomen in het Windows Server-besturingssysteem. SET is niet afhankelijk van het type netwerkadapters dat wordt gebruikt.
Toepasselijke verkeerstypen: compute, opslag en beheer
Vereiste certificeringen: geen (SET is ingebouwd in het besturingssysteem)
SET is de enige teamingtechnologie die wordt ondersteund door Azure Stack HCI. SET werkt goed met reken-, opslag- en beheerverkeer.
Belangrijk
Azure Stack HCI biedt geen ondersteuning voor NIC-koppeling met de oudere LBFO-koppelingstechnologieën (Load Balancing/Failover) en LACP-koppelingstechnologieën (Link Aggregation Control Protocol). Zie het blogbericht Teaming in Azure Stack HCI voor meer informatie over LBFO in Azure Stack HCI.
SET is belangrijk voor Azure Stack HCI, omdat dit de enige teamtechnologie is die het volgende mogelijk maakt:
- Koppeling van RDMA-adapters (indien nodig).
- Gast-RDMA.
- Dynamische VMMQ.
- Andere belangrijke Azure Stack HCI-functies (zie Teaming in Azure Stack HCI).
Set vereist het gebruik van symmetrische (identieke) adapters. Koppeling van asymmetrische adapters wordt niet ondersteund. Symmetrische netwerkadapters zijn netwerkadapters die hetzelfde hebben:
- maken (leverancier)
- model (versie)
- snelheid (doorvoer)
- configuratie
De eenvoudigste manier om te bepalen of adapters symmetrisch zijn, is als de snelheden hetzelfde zijn en de interfacebeschrijvingen overeenkomen. Ze kunnen alleen afwijken in het cijfer dat in de beschrijving wordt vermeld. Gebruik de Get-NetAdapterAdvancedProperty cmdlet om ervoor te zorgen dat de gerapporteerde configuratie dezelfde eigenschapswaarden bevat.
Zie de volgende tabel voor een voorbeeld van de interfacebeschrijvingen die alleen afwijken van numeriek (#):
| Naam | Interfacebeschrijving | Snelheid van koppeling |
|---|---|---|
| NIC1 | Netwerkadapter 1 | 25 Gbps |
| NIC2 | Netwerkadapter 2 | 25 Gbps |
| NIC3 | Netwerkadapter #3 | 25 Gbps |
| NIC4 | Netwerkadapter #4 | 25 Gbps |
Notitie
SET ondersteunt alleen switchonafhankelijke configuratie met behulp van dynamische of Hyper-V-poorttaakverdelingsalgoritmen. Voor de beste prestaties wordt Hyper-V Port aanbevolen voor gebruik op alle NIC's met minimaal 10 Gbps.
Overwegingen voor RDMA-verkeer
Als u DCB implementeert, moet u ervoor zorgen dat de PFC- en ETS-configuratie correct wordt geïmplementeerd op elke netwerkpoort, inclusief netwerkswitches. DCB is vereist voor RoCE en optioneel voor iWARP.
Voor gedetailleerde informatie over het implementeren van RDMA downloadt u het document uit de GITHub-opslagplaats SDN.
Voor Op RoCE gebaseerde Azure Stack HCI-implementaties is de configuratie van drie PFC-verkeersklassen vereist, inclusief de standaardverkeersklasse, in de infrastructuur en alle hosts.
Clusterverkeersklasse
Deze verkeersklasse zorgt ervoor dat er voldoende bandbreedte is gereserveerd voor cluster-heartbeats:
- Vereist: ja
- PFC ingeschakeld: Nee
- Aanbevolen verkeersprioriteit: prioriteit 7
- Aanbevolen bandbreedtereservering:
- 10 GbE of lagere RDMA-netwerken = 2 procent
- 25 GbE of hoger RDMA-netwerken = 1 procent
RDMA-verkeersklasse
Deze verkeersklasse zorgt ervoor dat er voldoende bandbreedte is gereserveerd voor verliesloze RDMA-communicatie met behulp van SMB Direct:
- Vereist: ja
- PFC ingeschakeld: Ja
- Aanbevolen prioriteit voor verkeer: prioriteit 3 of 4
- Aanbevolen bandbreedtereservering: 50 procent
Standaardverkeersklasse
Deze verkeersklasse bevat alle andere verkeer dat niet is gedefinieerd in de cluster- of RDMA-verkeersklassen, inclusief VM-verkeer en beheerverkeer:
- Vereist: Standaard (geen configuratie vereist op de host)
- Stroombeheer (PFC) ingeschakeld: Nee
- Aanbevolen verkeersklasse: standaard (Prioriteit 0)
- Aanbevolen bandbreedtereservering: standaard (geen hostconfiguratie vereist)
Modellen voor opslagverkeer
SMB biedt veel voordelen als het opslagprotocol voor Azure Stack HCI, waaronder SMB meerdere kanalen. SMB Meerdere kanalen worden niet behandeld in dit artikel, maar het is belangrijk om te begrijpen dat verkeer wordt gemultixeerd over elke mogelijke koppeling die SMB meerdere kanalen kan gebruiken.
Notitie
U wordt aangeraden meerdere subnetten en VLAN's te gebruiken om opslagverkeer in Azure Stack HCI te scheiden.
Bekijk het volgende voorbeeld van een cluster met vier knooppunten. Elke server heeft twee opslagpoorten (links en rechts). Omdat elke adapter zich op hetzelfde subnet en VLAN bevindt, verspreidt SMB meerdere kanalen verbindingen over alle beschikbare koppelingen. Daarom maakt de poort aan de linkerkant op de eerste server (192.168.1.1) een verbinding met de poort aan de linkerkant op de tweede server (192.168.1.2). De rechterpoort op de eerste server (192.168.1.12) maakt verbinding met de rechterpoort op de tweede server. Vergelijkbare verbindingen worden tot stand gebracht voor de derde en vierde servers.
Dit creëert echter onnodige verbindingen en veroorzaakt congestie bij de interlink (multi-chassis linkaggregatiegroep of MC-LAG) die de ToR-switches verbindt (gemarkeerd met Xs). Zie het volgende diagram:
De aanbevolen methode is om afzonderlijke subnetten en VLAN's te gebruiken voor elke set adapters. In het volgende diagram gebruiken de rechterpoorten nu subnet 192.168.2.x /24 en VLAN2. Hierdoor kan verkeer aan de linkerkant op TOR1 blijven en het verkeer op de poorten aan de rechterkant op TOR2 blijven staan.
Toewijzing van verkeersbandbreedte
In de volgende tabel ziet u voorbeeld van bandbreedtetoewijzingen van verschillende verkeerstypen, met behulp van algemene adaptersnelheden, in Azure Stack HCI. Houd er rekening mee dat dit een voorbeeld is van een geconvergeerde oplossing, waarbij alle verkeerstypen (compute, opslag en beheer) worden uitgevoerd op dezelfde fysieke adapters en worden gekoppeld met SET.
Omdat deze use case de meeste beperkingen vormt, is het een goede basislijn. Rekening houdend met de permutaties voor het aantal adapters en snelheden, moet dit echter worden beschouwd als een voorbeeld en niet als een ondersteuningsvereiste.
De volgende veronderstellingen worden gemaakt voor dit voorbeeld:
Er zijn twee adapters per team.
SBL-verkeer (Storage Bus Layer), Cluster Shared Volume (CSV) en Hyper-V (livemigratie):
- Gebruik dezelfde fysieke adapters.
- Gebruik SMB.
SMB krijgt een bandbreedtetoewijzing van 50 procent met behulp van DCB.
- SBL/CSV is het hoogste prioriteitsverkeer en ontvangt 70 procent van de SMB-bandbreedtereservering.
- Livemigratie (LM) wordt beperkt door de
Set-SMBBandwidthLimitcmdlet te gebruiken en ontvangt 29 procent van de resterende bandbreedte.Als de beschikbare bandbreedte voor livemigratie = 5 Gbps is >en de netwerkadapters geschikt zijn, gebruikt u RDMA. Gebruik de volgende cmdlet om dit te doen:
Set-VMHost VirtualMachineMigrationPerformanceOption SMBAls de beschikbare bandbreedte voor livemigratie 5 Gbps is < , gebruikt u compressie om de black-outtijden te verminderen. Gebruik de volgende cmdlet om dit te doen:
Set-VMHost -VirtualMachineMigrationPerformanceOption Compression
Als u RDMA gebruikt voor livemigratieverkeer, moet u ervoor zorgen dat livemigratieverkeer niet de volledige bandbreedte kan verbruiken die is toegewezen aan de RDMA-verkeersklasse met behulp van een SMB-bandbreedtelimiet. Wees voorzichtig, omdat deze cmdlet invoer in bytes per seconde (bps) accepteert, terwijl netwerkadapters worden vermeld in bits per seconde (bps). Gebruik de volgende cmdlet om een bandbreedtelimiet van 6 Gbps in te stellen, bijvoorbeeld:
Set-SMBBandwidthLimit -Category LiveMigration -BytesPerSecond 750MBNotitie
750 MBps in dit voorbeeld zijn gelijk aan 6 Gbps.
Hier volgt de voorbeeldtabel voor bandbreedtetoewijzing:
| NIC-snelheid | Gekoppelde bandbreedte | SMB-bandbreedtereservering** | SBL/CSV - percentage | SBL/CSV-bandbreedte | Percentage livemigratie | Maximale bandbreedte voor livemigratie | Heartbeat % | Heartbeatbandbreedte |
|---|---|---|---|---|---|---|---|---|
| 10 Gbps | 20 Gbps | 10 Gbps | 70% | 7 Gbps | ** | 200 Mbps | ||
| 25 Gbps | 50 Gbps | 25 Gbps | 70% | 17,5 Gbps | 29% | 7,25 Gbps | 1% | 250 Mbps |
| 40 Gbps | 80 Gbps | 40 Gbps | 70% | 28 Gbps | 29% | 11,6 Gbps | 1% | 400 Mbps |
| 50 Gbps | 100 Gbps | 50 Gbps | 70% | 35 Gbps | 29% | 14,5 Gbps | 1% | 500 Mbps |
| 100 Gbps | 200 Gbps | 100 Gbps | 70% | 70 Gbps | 29% | 29 Gbps | 1% | 1 Gbps |
| 200 Gbps | 400 Gbps | 200 Gbps | 70% | 140 Gbps | 29% | 58 Gbps | 1% | 2 Gbps |
* Gebruik compressie in plaats van RDMA, omdat de bandbreedtetoewijzing voor livemigratieverkeer 5 Gbps is <.
** 50 procent is een voorbeeld van een bandbreedtereservering.
Stretched clusters
Stretched clusters bieden herstel na noodgevallen die meerdere datacenters omvatten. In de eenvoudigste vorm ziet een stretched Azure Stack HCI-clusternetwerk er als volgt uit:
Vereisten voor stretched cluster
Stretched clusters hebben de volgende vereisten en kenmerken:
RDMA is beperkt tot één site en wordt niet ondersteund op verschillende sites of subnetten.
Servers op dezelfde site moeten zich in hetzelfde rek en laag-2-grens bevinden.
Hostcommunicatie tussen sites moet een laag-3 grens overschrijden; stretched Layer-2-topologieën worden niet ondersteund.
Voldoende bandbreedte hebben om de workloads op de andere site uit te voeren. In het geval van een failover moet de alternatieve site al het verkeer uitvoeren. U wordt aangeraden sites in te richten op 50 procent van de beschikbare netwerkcapaciteit. Dit is echter geen vereiste als u tijdens een failover lagere prestaties kunt tolereren.
Replicatie tussen sites (noord-/zuidverkeer) kan dezelfde fysieke NIC's gebruiken als de lokale opslag (oost/west-verkeer). Als u dezelfde fysieke adapters gebruikt, moeten deze adapters zijn gekoppeld aan SET. De adapters moeten ook extra virtuele NIC's hebben ingericht voor routeerbaar verkeer tussen sites.
Adapters die worden gebruikt voor communicatie tussen sites:
Kan fysiek of virtueel zijn (host vNIC). Als adapters virtueel zijn, moet u één vNIC inrichten in een eigen subnet en VLAN per fysieke NIC.
Moet zich op hun eigen subnet en VLAN bevinden die tussen sites kunnen worden gerouteerd.
RDMA moet worden uitgeschakeld met behulp van de
Disable-NetAdapterRDMAcmdlet. We raden u aan om opslagreplica expliciet te vereisen voor het gebruik van specifieke interfaces met behulp van deSet-SRNetworkConstraintcmdlet.Moet voldoen aan eventuele aanvullende vereisten voor Opslagreplica.
Voorbeeld van stretched cluster
In het volgende voorbeeld ziet u een stretched clusterconfiguratie. Gebruik de cmdlet Set-VMNetworkAdapterTeammapping om ervoor te zorgen dat een specifieke virtuele NIC is toegewezen aan een specifieke fysieke adapter.
Hieronder ziet u de details voor de voorbeeldconfiguratie van een stretched cluster.
Notitie
Uw exacte configuratie, inclusief NIC-namen, IP-adressen en VLAN's, kan afwijken van wat wordt weergegeven. Dit wordt alleen gebruikt als referentieconfiguratie die kan worden aangepast aan uw omgeving.
SiteA: lokale replicatie, RDMA ingeschakeld, niet routeerbaar tussen sites
| Naam van knooppunt | vNIC-naam | Fysieke NIC (toegewezen) | VLAN | IP en subnet | Verkeersbereik |
|---|---|---|---|---|---|
| NodeA1 | vSMB01 | pNIC01 | 711 | 192.168.1.1/24 | Alleen lokale site |
| NodeA2 | vSMB01 | pNIC01 | 711 | 192.168.1.2/24 | Alleen lokale site |
| NodeA1 | vSMB02 | pNIC02 | 712 | 192.168.2.1/24 | Alleen lokale site |
| NodeA2 | vSMB02 | pNIC02 | 712 | 192.168.2.2/24 | Alleen lokale site |
SiteB: lokale replicatie, RDMA ingeschakeld, niet routeerbaar tussen sites
| Naam van knooppunt | vNIC-naam | Fysieke NIC (toegewezen) | VLAN | IP en subnet | Verkeersbereik |
|---|---|---|---|---|---|
| NodeB1 | vSMB01 | pNIC01 | 711 | 192.168.1.1/24 | Alleen lokale site |
| NodeB2 | vSMB01 | pNIC01 | 711 | 192.168.1.2/24 | Alleen lokale site |
| NodeB1 | vSMB02 | pNIC02 | 712 | 192.168.2.1/24 | Alleen lokale site |
| NodeB2 | vSMB02 | pNIC02 | 712 | 192.168.2.2/24 | Alleen lokale site |
SiteA : stretched replication, RDMA disabled, routeerbaar tussen sites
| Naam van knooppunt | vNIC-naam | Fysieke NIC (toegewezen) | IP en subnet | Verkeersbereik |
|---|---|---|---|---|
| NodeA1 | Stretch1 | pNIC01 | 173.0.0.1/8 | Routeerbaar op meerdere sites |
| NodeA2 | Stretch1 | pNIC01 | 173.0.0.2/8 | Routeerbaar op meerdere sites |
| NodeA1 | Stretch2 | pNIC02 | 174.0.0.1/8 | Routeerbaar op meerdere sites |
| NodeA2 | Stretch2 | pNIC02 | 174.0.0.2/8 | Routeerbaar op meerdere sites |
SiteB : stretched replication, RDMA disabled, routeerbaar tussen sites
| Naam van knooppunt | vNIC-naam | Fysieke NIC (toegewezen) | IP en subnet | Verkeersbereik |
|---|---|---|---|---|
| NodeB1 | Stretch1 | pNIC01 | 175.0.0.1/8 | Routeerbaar op meerdere sites |
| NodeB2 | Stretch1 | pNIC01 | 175.0.0.2/8 | Routeerbaar voor meerdere sites |
| NodeB1 | Stretch2 | pNIC02 | 176.0.0.1/8 | Routeerbaar voor meerdere sites |
| NodeB2 | Stretch2 | pNIC02 | 176.0.0.2/8 | Routeerbaar voor meerdere sites |
Volgende stappen
- Meer informatie over netwerkswitch- en fysieke netwerkvereisten. Zie de vereisten voor het fysieke netwerk.
- Meer informatie over het vereenvoudigen van hostnetwerken met behulp van Network ATC. Zie Hostnetwerken vereenvoudigen met Network ATC.
- Verfrijk de basisbeginselen van het clusteren van failoverclusters.
- Zie Een cluster maken met Windows Admin Center voor implementatie.
- Zie Een cluster maken met behulp van Windows PowerShell voor implementatie.




