Hostnetwerkadapter voor Azure Stack HCIHost network requirements for Azure Stack HCI

Van toepassing op Azure Stack HCI, versie 20H2Applies to Azure Stack HCI, version 20H2

In dit onderwerp worden Azure Stack overwegingen en vereisten voor HCI-host netwerken besproken.This topic discusses Azure Stack HCI host networking considerations and requirements. Zie fysieke netwerk vereistenvoor meer informatie over de architectuur van data centers en de fysieke verbindingen tussen servers.For information on data center architectures and the physical connections between servers, see Physical network requirements.

Typen netwerk verkeerNetwork traffic types

Azure Stack HCI-netwerk verkeer kan worden geclassificeerd met zijn beoogde doel einden:Azure Stack HCI network traffic can be classified by its intended purpose:

  • Reken verkeer : verkeer dat afkomstig is van of bestemd is voor een virtuele machine (VM)Compute traffic - traffic originating from or destined for a virtual machine (VM)
  • Opslag verkeer : verkeer voor OPSLAGRUIMTEN direct (S2D) met behulp van SMB (Server Message Block)Storage traffic - traffic for Storage Spaces Direct (S2D) using Server Message Block (SMB)
  • Beheer verkeer : verkeer dat belang rijk is voor een beheerder voor cluster beheer, zoals Active Directory, extern bureaublad, Windows-beheer centrum en Windows Power shell.Management traffic - traffic important to an administrator for cluster management, such as Active Directory, Remote Desktop, Windows Admin Center, and Windows PowerShell.

Een netwerk adapter selecterenSelecting a network adapter

Voor Azure Stack HCI is het kiezen van een netwerk adapter die de Windows Server Software-Defined Data Center (SDDC)-certificering heeft behaald met de Standard of Premium extra kwalificatie (AQ).For Azure Stack HCI, we require choosing a network adapter that has achieved the Windows Server Software-Defined Data Center (SDDC) certification with the Standard or Premium Additional Qualification (AQ). Deze adapters ondersteunen de meest geavanceerde platform functies en hebben de meeste tests ondergaan door onze hardware-partners.These adapters support the most advanced platform features and have undergone the most testing by our hardware partners. Dit niveau van controle leidt doorgaans tot een vermindering van de problemen met de hardware en de Stuur Programma's.Typically, this level of scrutiny leads to a reduction in hardware and driver-related quality issues.

U kunt een adapter met standaard-of Premium-AQ identificeren door de vermelding voor de Windows Server-catalogus voor de adapter en de toepasselijke besturingssysteem versie te controleren.You can identify an adapter that has Standard or Premium AQ by reviewing the Windows Server Catalog entry for the adapter and the applicable operating system version. Hieronder ziet u een voor beeld van de notatie voor Premium AQ:Below is an example of the notation for Premium AQ:

Windows-gecertificeerd

Overzicht van de belangrijkste mogelijkheden van netwerk adaptersOverview of key network adapter capabilities

Belang rijke mogelijkheden voor netwerk adapters die worden gebruikt door Azure Stack HCI zijn:Important network adapter capabilities leveraged by Azure Stack HCI include:

  • Dynamische virtuele machine met meerdere wacht rijen (dynamische VMMQ of d. VMMQ)Dynamic Virtual Machine Multi-Queue (Dynamic VMMQ or d.VMMQ)
  • Remote Direct Memory Access (RDMA)Remote Direct Memory Access (RDMA)
  • Gast RDMAGuest RDMA
  • Switch ingesloten Teaming (SET)Switch Embedded Teaming (SET)

Dynamische VMMQDynamic VMMQ

Alle netwerk adapters met Premium AQ ondersteunen dynamische VMMQ.All network adapters with the Premium AQ support Dynamic VMMQ. Dynamische VMMQ vereist het gebruik van Inge sloten koppeling van de switch.Dynamic VMMQ requires the use of Switch Embedded Teaming.

Toepasselijke verkeers typen: computeApplicable traffic types: compute

Vereiste certificeringen: PremiumCertifications required: Premium

Dynamische VMMQ is een intelligente technologie voor de ontvangst zijde die voortbouwt op de voorafgaande taken van Virtual Machine Queue (VMQ), virtueel Schalen aan de ontvangst zijde (vRSS) en VMMQ om drie primaire verbeteringen aan te bieden:Dynamic VMMQ is an intelligent receive-side technology that builds upon its predecessors of Virtual Machine Queue (VMQ), Virtual Receive Side Scaling (vRSS), and VMMQ to provide three primary improvements:

  • Optimaliseert de efficiëntie van de host met behulp van CPU-kernenOptimizes host efficiency by use of CPU cores
  • Automatisch afstemmen van de verwerking van netwerk verkeer naar CPU-kernen, waardoor Vm's kunnen voldoen aan de verwachte door VoerAutomatic tuning of network traffic processing to CPU cores, thus enabling VMs to meet and maintain expected throughput
  • Hiermee worden ' burste ' workloads ingeschakeld om de verwachte hoeveelheid verkeer te ontvangenEnables “bursty” workloads to receive the expected amount of traffic

Zie het blog bericht synthetische versnellingenvoor meer informatie over dynamische VMMQ.For more information on Dynamic VMMQ, see the blog post Synthetic Accelerations.

RDMARDMA

RDMA is een offload van een netwerk stack naar de netwerk adapter die SMB-opslag verkeer toestaat om het besturings systeem te omzeilen voor verwerking.RDMA is a network stack offload to the network adapter allowing SMB storage traffic to bypass the operating system for processing.

RDMA maakt netwerken met hoge door Voer en lage latentie mogelijk terwijl er minimale host-CPU-bronnen worden gebruikt.RDMA enables high-throughput, low-latency networking while using minimal host CPU resources. Deze host-CPU-Resources kunnen vervolgens worden gebruikt om extra Vm's of containers uit te voeren.These host CPU resources can then be used to run additional VMs or containers.

Toepasselijke verkeers typen: Host StorageApplicable traffic types: host storage

Vereiste certificeringen: StandardCertifications required: Standard

Alle adapters met Standard of Premium AQ ondersteunen RDMA (Remote Direct Memory Access).All adapters with Standard or Premium AQ support RDMA (Remote Direct Memory Access). RDMA is de aanbevolen implementatie keuze voor opslag werkbelastingen in Azure Stack HCI en kan eventueel worden ingeschakeld voor opslag werkbelastingen (met behulp van SMB) voor Vm's.RDMA is the recommended deployment choice for storage workloads in Azure Stack HCI and can be optionally enabled for storage workloads (using SMB) for VMs. Zie de sectie ' gast RDMA ' verderop.See the Guest RDMA section later.

Azure Stack HCI ondersteunt RDMA met behulp van de iWARP-of RoCE-protocol implementaties.Azure Stack HCI supports RDMA using either the iWARP or RoCE protocol implementations.

Belangrijk

RDMA-adapters werken alleen met andere RDMA-adapters die hetzelfde RDMA-protocol implementeren (iWARP of RoCE).RDMA adapters only work with other RDMA adapters that implement the same RDMA protocol (iWARP or RoCE).

Niet alle netwerk adapters van leveranciers ondersteunen RDMA.Not all network adapters from vendors support RDMA. De volgende tabel bevat de leveranciers (in alfabetische volg orde) die Premium Certified RDMA-adapters aanbieden.The following table lists those vendors (in alphabetical order) that offer Premium certified RDMA adapters. Er zijn echter hardwareleveranciers die niet zijn opgenomen in deze lijst en die RDMA ondersteunen.However, there are hardware vendors not included in this list that also support RDMA. Zie de Windows Server-catalogus om RDMA-ondersteuning te controleren.See the Windows Server Catalog to verify RDMA support.

Notitie

InfiniBand (IB) wordt niet ondersteund met Azure Stack HCI.InfiniBand (IB) is not supported with Azure Stack HCI.

NIC-leverancierNIC vendor iWARPiWARP RoCERoCE
BroadcomBroadcom NeeNo JaYes
ChelsioChelsio JaYes NeeNo
IntelIntel JaYes Ja (sommige modellen)Yes (some models)
Marvell (QLogic/Cavium)Marvell (Qlogic/Cavium) JaYes JaYes
NVIDIA (Mellanox)Nvidia (Mellanox) NeeNo JaYes

Notitie

Niet alle adapters van de leveranciers ondersteunen RDMA.Not all adapters from the vendors support RDMA. Verifieer RDMA-ondersteuning bij de leverancier van uw specifieke netwerk kaart.Please verify RDMA support with your specific network card vendor.

Down load het Word-document uit de Sdn github opslag plaatsvoor meer informatie over het implementeren van RDMA.For more information on deploying RDMA, download the Word doc from the SDN GitHub repo.

Internet Wide Area RDMA Protocol (iWARP)Internet Wide Area RDMA Protocol (iWARP)

iWARP maakt gebruik van de Transmission Control Protocol (TCP) en kan eventueel worden uitgebreid met DCB (Data Center Bridging) op prioriteit gebaseerde Datatransport besturing (PFC) en Enhanced trans Mission service (ETS).iWARP uses the Transmission Control Protocol (TCP), and can be optionally enhanced with Data Center Bridging (DCB) Priority-based Flow Control (PFC) and Enhanced Transmission Service (ETS).

U wordt aangeraden iWARP te gebruiken als:We recommend that you use iWARP if:

  • U hebt weinig of geen netwerk ervaring of u bent niet vertrouwd met het beheer van netwerk switchesYou have little or no network experience or are uncomfortable managing network switches
  • U beheert uw ToR-switches nietYou do not control your ToR switches
  • U kunt de oplossing niet na de implementatie beherenYou will not be managing the solution after deployment
  • U hebt al implementaties met iWARPYou already have deployments using iWARP
  • U weet niet welke optie u moet kiezenYou are unsure which option to choose

RDMA via geconvergeerde Ethernet (RoCE)RDMA over Converged Ethernet (RoCE)

RoCE maakt gebruik van UDP (User Data gram Protocol) en vereist dat Data Center bridging PFC en ETS betrouw baarheid biedt.RoCE uses User Datagram Protocol (UDP), and requires Data Center Bridging PFC and ETS to provide reliability.

U wordt aangeraden RoCE te gebruiken als:We recommend that you use RoCE if:

  • U hebt al implementaties met RoCE in uw Data CenterYou already have deployments with RoCE in your data center
  • U weet goed met uw vereisten voor uw fysieke netwerkYou are knowledgeable with your physical network requirements

Gast RDMAGuest RDMA

Met gast RDMA kunnen SMB-workloads voor Vm's dezelfde voor delen opleveren voor het gebruik van RDMA op hosts.Guest RDMA enables SMB workloads for VMs to gain the same benefits of using RDMA on hosts.

Toepasselijke verkeers typen: computeApplicable traffic types: compute

Vereiste certificeringen: PremiumCertifications required: Premium

De belangrijkste voor delen van het gebruik van gast RDMA zijn:The primary benefits of using Guest RDMA are:

  • CPU-offload naar de NIC voor de verwerking van netwerk verkeerCPU offload to the NIC for network traffic processing
  • Extreem lage latentieExtremely low latency
  • Hoge doorvoersnelheidHigh throughput

Down load het Word-document van de Sdn github opslag plaatsvoor meer informatie over het implementeren van gast RDMA.For more information including how to deploy Guest RDMA, download the Word doc from the SDN GitHub repo.

Switch ingesloten Teaming (SET)Switch Embedded Teaming (SET)

Switch Inge sloten Teaming (SET) is een op software gebaseerde Teaming technologie die is opgenomen in het besturings systeem Windows Server sinds Windows Server 2016.Switch Embedded Teaming (SET) is a software-based teaming technology that has been included in the Windows Server operating system since Windows Server 2016. De SET is niet afhankelijk van het gebruikte type netwerk adapters.SET is not dependent on the type of network adapters used.

Toepasselijke verkeers typen: compute, Storage en managementApplicable traffic types: compute, storage, and management

Certificeringen vereist: geen (ingebouwd in het besturings systeem)Certifications required: none (built into the OS)

SET is de enige teams technologie die door Azure Stack HCI wordt ondersteund.SET is the only teaming technology supported by Azure Stack HCI. Taak verdeling/failover (LBFO) is een andere teams technologie die vaak wordt gebruikt met Windows Server, maar wordt niet ondersteund met Azure Stack HCI.Load Balancing/Failover (LBFO) is another teaming technology commonly used with Windows Server but is not supported with Azure Stack HCI. Zie het blog bericht team in azure stack HCI voor meer informatie over LBFO in azure stack HCI.See the blog post Teaming in Azure Stack HCI for more information on LBFO in Azure Stack HCI. De SET werkt goed met reken-, opslag-en beheer verkeer.SET works well with compute, storage, and management traffic alike.

SET is belang rijk voor Azure Stack HCI, omdat dit de enige Teaming-technologie is die het volgende mogelijk maakt:SET is important for Azure Stack HCI as it is the only teaming technology that enables:

  • Koppelen van RDMA-adapters (indien nodig)Teaming of RDMA adapters (if needed)
  • Gast RDMAGuest RDMA
  • Dynamische VMMQDynamic VMMQ
  • Andere belang rijke Azure Stack functies HCI (Zie teams in azure stack HCI)Other key Azure Stack HCI features (see Teaming in Azure Stack HCI)

SET biedt aanvullende functies via LBFO, met inbegrip van kwaliteit en prestatie verbeteringen.SET provides additional features over LBFO including quality and performance improvements. Hiervoor moet u het gebruik van symmetrische (identieke) adapters gebruiken: teams van asymmetrische adapters worden niet ondersteund.To do this, SET requires the use of symmetric (identical) adapters – teaming of asymmetric adapters is not supported. Symmetrische netwerk adapters zijn:Symmetric network adapters are those that have the same:

  • maken (leverancier)make (vendor)
  • model (versie)model (version)
  • snelheid (door Voer)speed (throughput)
  • configuratieconfiguration

De eenvoudigste manier om te bepalen of adapters symmetrisch zijn als de snelheid hetzelfde is en de interface beschrijvingen overeenkomen.The easiest way to identify if adapters are symmetric is if the speeds are the same and the interface descriptions match. Ze kunnen alleen worden afwijken van het getal dat in de beschrijving wordt vermeld.They can deviate only in the numeral listed in the description. Gebruik de Get-NetAdapterAdvancedProperty cmdlet om ervoor te zorgen dat de configuratie rapporteert met dezelfde eigenschaps waarden.Use the Get-NetAdapterAdvancedProperty cmdlet to ensure the configuration reported lists the same property values.

Raadpleeg de volgende tabel voor een voor beeld van de interface beschrijvingen die alleen worden afwijken door een cijfer (#):See the following table for an example of the interface descriptions deviating only by numeral (#):

NaamName Interface beschrijvingInterface Description Verbindings snelheidLink Speed
NIC1NIC1 #1 netwerk adapterNetwork Adapter #1 25 Gbps25 Gbps
NIC2NIC2 #2 netwerk adapterNetwork Adapter #2 25 Gbps25 Gbps
NIC3NIC3 #3 netwerk adapterNetwork Adapter #3 25 Gbps25 Gbps
NIC4NIC4 #4 netwerk adapterNetwork Adapter #4 25 Gbps25 Gbps

Aandachtspunten voor RDMA-verkeerRDMA traffic considerations

Als u Data Center bridging (DCB) implementeert, moet u ervoor zorgen dat de PFC en ETS-configuratie op de juiste wijze wordt geïmplementeerd in elke netwerk poort, inclusief netwerk switches.If you implement Data Center Bridging (DCB), you must ensure that the PFC and ETS configuration is implemented properly across every network port, including network switches. DCB is vereist voor RoCE en optioneel voor iWARP.DCB is required for RoCE and optional for iWARP.

Voor gedetailleerde informatie over het implementeren van RDMA downloadt u het Word-document uit de Sdn github opslag plaats.For detailed information on how to deploy RDMA, download the Word doc from the SDN GitHub repo.

Voor RoCE Azure Stack HCI-implementaties is het configureren van drie PFC-verkeers klassen vereist, waaronder de standaard Traffic-klasse, in de infra structuur en alle hosts:RoCE-based Azure Stack HCI implementations requires the configuration of three PFC traffic classes, including the default traffic class, across the fabric and all hosts:

Cluster verkeers klasseCluster traffic class

Deze verkeers klasse zorgt ervoor dat er voldoende band breedte is gereserveerd voor cluster-heartbeats:This traffic class ensures there is enough bandwidth reserved for cluster heartbeats:

  • Vereist: jaRequired: Yes
  • PFC ingeschakeld: NeePFC enabled: No
  • Prioriteit van aanbevolen verkeer: prioriteit 7Recommended traffic priority: Priority 7
  • Aanbevolen bandbreedte reservering:Recommended bandwidth reservation:
    • 10 GbE-of kleine RDMA-netwerken = 2%10 GbE or lower RDMA networks = 2%
    • 25 GbE-of hogere RDMA-netwerken = 1%25 GbE or higher RDMA networks = 1%

RDMA Traffic-klasseRDMA traffic class

Deze verkeers klasse zorgt ervoor dat er voldoende band breedte is gereserveerd voor RDA-communicatie zonder verlies met SMB direct:This traffic class ensures there is enough bandwidth reserved for lossless RDA communications using SMB Direct:

  • Vereist: jaRequired: Yes
  • PFC ingeschakeld: JaPFC enabled: Yes
  • Prioriteit van aanbevolen verkeer: prioriteit 3 of 4Recommended traffic priority: Priority 3 or 4
  • Aanbevolen bandbreedte reservering: 50%Recommended bandwidth reservation: 50%

Standaard Traffic-klasseDefault traffic class

Deze verkeers klasse heeft al het verkeer dat niet is gedefinieerd in de klassen cluster of RDMA Traffic, waaronder VM-verkeer en beheer verkeer:This traffic class carries all other traffic not defined in the cluster or RDMA traffic classes, including VM traffic and management traffic:

  • Vereist: standaard (er is geen configuratie vereist op de host)Required: By default (no configuration necessary on the host)
  • Flow Control (PFC) ingeschakeld: NeeFlow control (PFC) enabled: No
  • Aanbevolen klasse verkeer: standaard (prioriteit 0)Recommended traffic class: By default (Priority 0)
  • Aanbevolen bandbreedte reservering: standaard (geen host configuratie vereist)Recommended bandwidth reservation: By default (no host configuration required)

Opslag verkeers modellenStorage traffic models

SMB biedt veel voor delen als het opslag protocol voor Azure Stack HCI, waaronder SMB meerdere kanalen.SMB provides many benefits as the storage protocol for Azure Stack HCI including SMB Multichannel. SMB meerdere kanalen valt buiten het bereik van dit onderwerp. het is belang rijk om te begrijpen dat verkeer wordt gemultiplext op elke mogelijke koppeling die door SMB meerdere kanalen kan worden gebruikt.While SMB Multichannel is out-of-scope for this topic, it is important to understand that traffic is multiplexed across every possible link that SMB Multichannel can use.

Notitie

Het is raadzaam om meerdere subnetten en VLAN'S te gebruiken voor het scheiden van opslag verkeer in Azure Stack HCI.We recommend using multiple subnets and VLANs to separate storage traffic in Azure Stack HCI.

Bekijk het volgende voor beeld van een cluster met vier knoop punten.Consider the following example of a four node cluster. Elke server heeft twee opslag poorten (links en rechts).Each server has two storage ports (left and right side). Omdat elke adapter zich op hetzelfde subnet en hetzelfde VLAN bevindt, verspreidt SMB meerdere kanalen de verbindingen over alle beschik bare koppelingen.Because each adapter is on the same subnet and VLAN, SMB Multichannel will spread connections across all available links. Daarom maakt de poort aan de linkerkant op de eerste server (192.168.1.1) een verbinding met de poort aan de linkerkant op de tweede server (192.168.1.2).Therefore, the left-side port on the first server (192.168.1.1) will make a connection to the left-side port on the second server (192.168.1.2). De poort aan de rechter kant op de eerste server (192.168.1.12) maakt verbinding met de poort aan de rechter kant op de tweede server.The right-side port on the first server (192.168.1.12) will connect to the right-side port on the second server. Vergelijk bare verbindingen worden tot stand gebracht voor de derde en vierde server.Similar connections are established for the third and fourth servers.

Hierdoor worden echter overbodige verbindingen gemaakt en overbelast aan de interkoppeling (multi-chassis koppelings samenvoegings groep of MC-vertraging) die verbinding maakt met de ToR-switches (top of rack) (aangeduid met XS).However, this creates unnecessary connections and causes congestion at the interlink (multi-chassis link aggregation group or MC-LAG) that connects the top of rack (ToR) switches (marked with Xs). Zie het volgende diagram:See the following diagram:

cluster met vier knoop punten hetzelfde subnet

De aanbevolen aanpak is het gebruik van afzonderlijke subnetten en VLAN'S voor elke set adapters.The recommended approach is to use separate subnets and VLANs for each set of adapters. In het volgende diagram gebruiken de poorten van de rechter kant nu subnet 192.168.2. x/24 en VLAN2.In the following diagram, the right-hand ports now use subnet 192.168.2.x /24 and VLAN2. Hierdoor kan verkeer aan de poorten aan de linkerkant blijven op TOR1 en kan het verkeer aan de poorten aan de rechter kant blijven op TOR2.This allows traffic on the left-side ports to remain on TOR1 and the traffic on the right-side ports to remain on TOR2. Zie het volgende diagram:See the following diagram:

clusters met vier knoop punten verschillende subnetten

Toewijzing van verkeers bandbreedteTraffic bandwidth allocation

In de onderstaande tabel ziet u voor beelden van bandbreedte toewijzingen van verschillende typen verkeer, met behulp van algemene adapter snelheden in Azure Stack HCI.The table below shows example bandwidth allocations of various traffic types, using common adapter speeds, in Azure Stack HCI. Houd er rekening mee dat dit een voor beeld is van een geconvergeerde oplossing waarbij alle typen verkeer (compute, opslag en beheer) worden uitgevoerd op dezelfde fysieke adapters en worden gekoppeld met SET.Note that this is an example of a converged solution where all traffic types (compute, storage, and management) run over the same physical adapters and are teamed using SET.

Omdat deze use-case de meeste beperkingen vormt, vertegenwoordigt deze een goede basis lijn.Since this use case poses the most constraints, it represents a good baseline. Met het oog op de permutaties voor het aantal adapters en snelheden, moet dit echter worden beschouwd als een voor beeld en niet als een ondersteunings vereiste.However, considering the permutations for number of adapters and speeds, this should be considered an example and not a support requirement.

In dit voor beeld worden de volgende hypo Thesen uitgevoerd:The following assumptions are made for this example:

  • Er zijn twee adapters per teamThere are two adapters per team

  • SBL (Storage bus Layer), Cluster Shared Volume (CSV) en Hyper-V-verkeer (Livemigratie):Storage Bus Layer (SBL), Cluster Shared Volume (CSV), and Hyper-V (Live Migration) traffic:

    • Dezelfde fysieke adapters gebruikenUse the same physical adapters
    • SMB gebruikenUse SMB
  • SMB krijgt een bandbreedte toewijzing van 50% met behulp van Data Center bridgingSMB is given a 50% bandwidth allocation using Data Center Bridging

    • SBL/CSV is het verkeer met de hoogste prioriteit en ontvangt 70% van de reserve ring van SMB-band breedte en:SBL/CSV is the highest priority traffic and receives 70% of the SMB bandwidth reservation, and:
    • Livemigratie (LM) is beperkt met behulp Set-SMBBandwidthLimit van de cmdlet en ontvangt 29% van de resterende band breedteLive Migration (LM) is limited using the Set-SMBBandwidthLimit cmdlet and receives 29% of the remaining bandwidth
      • Als de beschik bare band breedte voor Livemigratie >= 5 Gbps is en de netwerk adapters geschikt zijn, gebruikt u RDMA.If the available bandwidth for Live Migration is >= 5 Gbps, and the network adapters are capable, use RDMA. Gebruik de volgende cmdlet om dit te doen:Use the following cmdlet to do so:

        Set-VMHost VirtualMachineMigrationPerformanceOption SMB
        
      • Als de beschik bare band breedte voor Livemigratie < 5 Gbps is, gebruikt u compressie om de tijd van de inkomende periode te verminderen.If the available bandwidth for Live Migration is < 5 Gbps, use compression to reduce blackout times. Gebruik de volgende cmdlet om dit te doen:Use the following cmdlet to do so:

        Set-VMHost -VirtualMachineMigrationPerformanceOption Compression
        
  • Als RDMA met Livemigratie wordt gebruikt, moet u ervoor zorgen dat Livemigratie verkeer de volledige band breedte die is toegewezen aan de RDMA-verkeers klasse niet kan gebruiken door gebruik te maken van een SMB-bandbreedte limiet.If using RDMA with Live Migration, ensure that Live Migration traffic cannot consume the entire bandwidth allocated to the RDMA traffic class by using an SMB bandwidth limit. Wees voorzichtig wanneer deze cmdlet vermelding in bytes per seconde (bps) gebruikt, terwijl netwerk adapters worden weer gegeven in bits per seconde (bps).Be careful as this cmdlet takes entry in bytes per second (Bps) whereas network adapters are listed in bits per second (bps). Gebruik de volgende cmdlet om een bandbreedte limiet van 6 Gbps in te stellen, bijvoorbeeld:Use the following cmdlet to set a bandwidth limit of 6 Gbps for example:

    Set-SMBBandwidthLimit -Category LiveMigration -BytesPerSecond 750MB
    

    Notitie

    750 MBps in dit voor beeld is gelijk aan 6 Gbps750 MBps in this example equates to 6 Gbps

Hier volgt een voor beeld van een bandbreedte toewijzings tabel:Here is the example bandwidth allocation table:

NIC-snelheidNIC Speed Gekoppelde band breedteTeamed Bandwidth Reserve ring SMB-band breedte * *SMB Bandwidth Reservation** SBL/CSV%SBL/CSV % SBL/CSV-band breedteSBL/CSV Bandwidth Livemigratie%Live Migration % Maximale Livemigratie band breedteMax Live Migration Bandwidth HartHeartbeat % Heartbeat-band breedteHeartbeat Bandwidth
10 Gbps10 Gbps 20 Gbps20 Gbps 10 Gbps10 Gbps 70%70% 7 Gbps7 Gbps * * 2%2% 200 Mbps200 Mbps
25 Gbps25 Gbps 50 Gbps50 Gbps 25 Gbps25 Gbps 70%70% 17,5 Gbps17.5 Gbps artikel29% 7,25 Gbps7.25 Gbps 1%1% 250 Mbps250 Mbps
40 Gbps40 Gbps 80 Gbps80 Gbps 40 Gbps40 Gbps 70%70% 28 Gbps28 Gbps artikel29% 11,6 Gbps11.6 Gbps 1%1% 400 Mbps400 Mbps
50 Gbps50 Gbps 100 Gbps100 Gbps 50 Gbps50 Gbps 70%70% 35 Gbps35 Gbps artikel29% 14,5 Gbps14.5 Gbps 1%1% 500 Mbps500 Mbps
100 Gbps100 Gbps 200 Gbps200 Gbps 100 Gbps100 Gbps 70%70% 70 Gbps70 Gbps artikel29% 29 Gbps29 Gbps 1%1% 1 Gbps1 Gbps
200 Gbps200 Gbps 400 Gbps400 Gbps 200 Gbps200 Gbps 70%70% 140 Gbps140 Gbps artikel29% 58 Gbps58 Gbps 1%1% 2 Gbps2 Gbps

*-moet compressie gebruiken in plaats van RDMA als de toewijzing van de band breedte voor Livemigratie verkeer <5 Gbps*- should use compression rather than RDMA as the bandwidth allocation for Live Migration traffic is <5 Gbps

* *-50% is een voor beeld van een bandbreedte reservering voor dit voor beeld**- 50% is an example bandwidth reservation for this example

Overwegingen voor uitgerekte clustersStretched cluster considerations

Uitgerekte clusters bieden nood herstel voor meerdere data centers.Stretched clusters provide disaster recovery that spans multiple data centers. In de meest eenvoudige vorm ziet een uitgerekt Azure Stack HCI-cluster netwerk er als volgt uit:In its simplest form, a stretched Azure Stack HCI cluster network looks like this:

Uitgerekt cluster

Uitgerekte clusters hebben de volgende vereisten en kenmerken:Stretched clusters have the following requirements and characteristics:

  • RDMA is beperkt tot één site en wordt niet ondersteund op verschillende sites of subnetten.RDMA is limited to a single site, and is not supported across different sites or subnets.

  • Servers in dezelfde site moeten zich in hetzelfde rek en laag-2 grenzen bevinden.Servers in the same site must reside in the same rack and Layer-2 boundary.

  • Communicatie tussen sites met een grens van laag 3 uitgerekte Layer 2-topologieën worden niet ondersteund.Communication between sites cross a Layer-3 boundary; stretched Layer-2 topologies are not supported.

  • Als een site RDMA gebruikt voor de opslag adapters, moeten deze adapters zich op een afzonderlijk subnet en een VLAN bevinden dat niet kan worden omgeleid tussen sites.If a site uses RDMA for its storage adapters, these adapters must be on a separate subnet and VLAN that cannot route between sites. Zo voor komt u dat opslag replica RDMA op meerdere sites gebruikt.This prevents Storage Replica from using RDMA across sites.

  • Adapters die worden gebruikt voor communicatie tussen sites:Adapters used for communication between sites:

    • Kan fysiek of virtueel (host-vNIC) zijn.Can be physical or virtual (host vNIC). Als Virtual, moet u één vNIC inrichten in een eigen subnet en VLAN per fysieke NIC.If virtual, you must provision one vNIC in its own subnet and VLAN per physical NIC.
    • Moet zich op een eigen subnet en een VLAN bevinden dat kan worden omgeleid tussen sites.Must be on their own subnet and VLAN that can route between sites.
    • RDMA moet worden uitgeschakeld met de Disable-NetAdapterRDMA cmdlet.RDMA must be disabled using the Disable-NetAdapterRDMA cmdlet. U kunt het beste expliciet een opslag replica vereisen voor het gebruik van specifieke interfaces met de Set-SRNetworkConstraint cmdlet.We recommend that you explicitly require Storage Replica to use specific interfaces using the Set-SRNetworkConstraint cmdlet.
    • Moet voldoen aan eventuele aanvullende vereisten voor opslag replica.Must meet any additional requirements for Storage Replica.
  • In het geval van een failover naar een andere site, moet u ervoor zorgen dat er voldoende band breedte beschikbaar is voor het uitvoeren van de werk belastingen op de andere site.In the event of a failover to another site, you must ensure that enough bandwidth is available to run the workloads at the other site. Een veilige optie is om sites in te richten op 50% van de beschik bare capaciteit.A safe option is to provision sites at 50% of their available capacity. Dit is geen moeilijke vereiste als u tijdens een failover de lagere prestaties kunt verdragen.This is not a hard requirement if you are able to tolerate lower performance during a failover.

Volgende stappenNext steps