Värd nätverks krav för Azure Stack HCIHost network requirements for Azure Stack HCI

Gäller för Azure Stack HCI, version 20H2Applies to Azure Stack HCI, version 20H2

I det här avsnittet beskrivs Azure Stack viktiga nätverks överväganden och krav för HCI-värden.This topic discusses Azure Stack HCI host networking considerations and requirements. Information om data Center arkitekturer och fysiska anslutningar mellan servrar finns i krav för fysiska nätverk.For information on data center architectures and the physical connections between servers, see Physical network requirements.

Nätverks trafik typerNetwork traffic types

Azure Stack HCI-nätverkstrafik kan klassificeras enligt det avsedda syftet:Azure Stack HCI network traffic can be classified by its intended purpose:

  • Beräknings trafik – trafik som härstammar från eller är avsedd för en virtuell dator (VM)Compute traffic - traffic originating from or destined for a virtual machine (VM)
  • Lagrings trafik – trafik för LAGRINGSDIRIGERING (S2D) med Server Message Block (SMB)Storage traffic - traffic for Storage Spaces Direct (S2D) using Server Message Block (SMB)
  • Hanterings trafik – trafik viktig för en administratör för kluster hantering, till exempel Active Directory, fjärr skrivbord, Windows administrations Center och Windows PowerShell.Management traffic - traffic important to an administrator for cluster management, such as Active Directory, Remote Desktop, Windows Admin Center, and Windows PowerShell.

Välja ett nätverkskortSelecting a network adapter

För Azure Stack HCI kräver vi att du väljer ett nätverkskort som har uppnått Windows Server Software-Defined Data Center-certifiering (SDDC) med standard eller Premium ytterligare kvalificering (AQ).For Azure Stack HCI, we require choosing a network adapter that has achieved the Windows Server Software-Defined Data Center (SDDC) certification with the Standard or Premium Additional Qualification (AQ). Dessa kort har stöd för de mest avancerade plattforms funktionerna och har genomgått den mest effektiva testningen av våra maskin varu partner.These adapters support the most advanced platform features and have undergone the most testing by our hardware partners. Den här nivån av granskning leder vanligt vis till en minskning av kvalitets problem med maskin vara och driv rutiner.Typically, this level of scrutiny leads to a reduction in hardware and driver-related quality issues.

Du kan identifiera ett kort som har standard-eller Premium-AQ genom att granska Windows Servers katalog post för kortet och den aktuella operativ system versionen.You can identify an adapter that has Standard or Premium AQ by reviewing the Windows Server Catalog entry for the adapter and the applicable operating system version. Nedan visas ett exempel på notation för Premium-AQ:Below is an example of the notation for Premium AQ:

Windows-certifierad

Översikt över viktiga funktioner för nätverkskortOverview of key network adapter capabilities

Viktiga funktioner för nätverkskort som utnyttjas av Azure Stack HCI är:Important network adapter capabilities leveraged by Azure Stack HCI include:

  • Dynamisk virtuell dator för flera köer (dynamiska VMMQ eller d. VMMQ)Dynamic Virtual Machine Multi-Queue (Dynamic VMMQ or d.VMMQ)
  • Direkt åtkomst till fjärrminne (RDMA)Remote Direct Memory Access (RDMA)
  • Gäst-RDMAGuest RDMA
  • Växla inbäddad team indelning (uppsättning)Switch Embedded Teaming (SET)

Dynamisk VMMQDynamic VMMQ

Alla nätverkskort med Premium-AQ har stöd för dynamisk VMMQ.All network adapters with the Premium AQ support Dynamic VMMQ. Dynamisk VMMQ kräver användning av växla inbäddad team indelning.Dynamic VMMQ requires the use of Switch Embedded Teaming.

Tillämpliga trafik typer: ComputeApplicable traffic types: compute

Nödvändiga certifieringar: PremiumCertifications required: Premium

Dynamisk VMMQ är en intelligent teknik för mottagnings sidan som bygger på dess föregångare av kö för virtuella datorer (VMQ), virtuell skalning på mottagar sidan (vRSS) och VMMQ för att tillhandahålla tre primära förbättringar:Dynamic VMMQ is an intelligent receive-side technology that builds upon its predecessors of Virtual Machine Queue (VMQ), Virtual Receive Side Scaling (vRSS), and VMMQ to provide three primary improvements:

  • Optimerar värd effektiviteten genom användning av processor kärnorOptimizes host efficiency by use of CPU cores
  • Automatisk justering av bearbetning av nätverks trafik till processor kärnor, vilket gör det möjligt för virtuella datorer att möta och underhålla förväntat data flödeAutomatic tuning of network traffic processing to CPU cores, thus enabling VMs to meet and maintain expected throughput
  • Aktiverar "burst"-arbets belastningar för att ta emot förväntad trafik mängdEnables “bursty” workloads to receive the expected amount of traffic

Mer information om dynamiska VMMQ finns i blogg inlägget syntetisk acceleration.For more information on Dynamic VMMQ, see the blog post Synthetic Accelerations.

RDMARDMA

RDMA är en avläsning av nätverks stacken till nätverkskortet som tillåter att SMB-lagringsenheten kringgår operativ systemet för bearbetning.RDMA is a network stack offload to the network adapter allowing SMB storage traffic to bypass the operating system for processing.

RDMA möjliggör stora data flöden och låg latens i nätverk med minimala värd processor resurser.RDMA enables high-throughput, low-latency networking while using minimal host CPU resources. Dessa värd processor resurser kan sedan användas för att köra ytterligare virtuella datorer eller behållare.These host CPU resources can then be used to run additional VMs or containers.

Tillämpliga trafik typer: värd lagringApplicable traffic types: host storage

Certifieringar krävs: standardCertifications required: Standard

Alla kort med standard-eller Premium-AQ har stöd för RDMA (direkt åtkomst till fjärrminne).All adapters with Standard or Premium AQ support RDMA (Remote Direct Memory Access). RDMA är det rekommenderade distributions alternativet för lagrings arbets belastningar i Azure Stack HCI och kan aktive ras för lagrings arbets belastningar (med SMB) för virtuella datorer.RDMA is the recommended deployment choice for storage workloads in Azure Stack HCI and can be optionally enabled for storage workloads (using SMB) for VMs. Se avsnittet om gäst-RDMA senare.See the Guest RDMA section later.

Azure Stack HCI stöder RDMA med antingen iWARP-eller RoCE-protokoll implementeringar.Azure Stack HCI supports RDMA using either the iWARP or RoCE protocol implementations.

Viktigt

RDMA-kort fungerar bara med andra RDMA-kort som implementerar samma RDMA-protokoll (iWARP eller RoCE).RDMA adapters only work with other RDMA adapters that implement the same RDMA protocol (iWARP or RoCE).

Alla nätverkskort från leverantörer stöder inte RDMA.Not all network adapters from vendors support RDMA. I följande tabell visas de leverantörer (i alfabetisk ordning) som erbjuder Premium Certified RDMA-kort.The following table lists those vendors (in alphabetical order) that offer Premium certified RDMA adapters. Det finns dock maskin varu leverantörer som inte ingår i den här listan som också stöder RDMA.However, there are hardware vendors not included in this list that also support RDMA. Se Windows Server-katalogen för att verifiera RDMA-stöd.See the Windows Server Catalog to verify RDMA support.

Anteckning

InfiniBand (IB) stöds inte med Azure Stack HCI.InfiniBand (IB) is not supported with Azure Stack HCI.

NIC-leverantörNIC vendor iWARPiWARP RoCERoCE
BroadcomBroadcom NejNo JaYes
ChelsioChelsio JaYes NejNo
IntelIntel JaYes Ja (vissa modeller)Yes (some models)
Marvell (Qlogic/Cavium)Marvell (Qlogic/Cavium) JaYes JaYes
NVIDIA (Mellanox)Nvidia (Mellanox) NejNo JaYes

Anteckning

Alla kort från leverantörer stöder inte RDMA.Not all adapters from the vendors support RDMA. Verifiera RDMA-stöd med din speciella nätverkskort leverantör.Please verify RDMA support with your specific network card vendor.

Om du vill ha mer information om hur du distribuerar RDMA laddar du ned Word-dokumentet från SDN GitHub-lagrings platsen.For more information on deploying RDMA, download the Word doc from the SDN GitHub repo.

IWARP (Internet Wide Area RDMA Protocol)Internet Wide Area RDMA Protocol (iWARP)

iWARP använder Transmission Control Protocol (TCP) och kan utökas med data Center bryggning (DCB), prioriterad flödes kontroll (PFC) och tjänsten Enhanced transmission.iWARP uses the Transmission Control Protocol (TCP), and can be optionally enhanced with Data Center Bridging (DCB) Priority-based Flow Control (PFC) and Enhanced Transmission Service (ETS).

Vi rekommenderar att du använder iWARP om:We recommend that you use iWARP if:

  • Du har lite eller ingen nätverks upplevelse eller inte är bekväm hantera nätverks växlarYou have little or no network experience or are uncomfortable managing network switches
  • Du styr inte dina ToR-växlarYou do not control your ToR switches
  • Du kommer inte att hantera lösningen efter distributionenYou will not be managing the solution after deployment
  • Du har redan distributioner med iWARPYou already have deployments using iWARP
  • Du är osäker på vilket alternativ du ska väljaYou are unsure which option to choose

RDMA över konvergerat Ethernet (RoCE)RDMA over Converged Ethernet (RoCE)

RoCE använder UDP (User Datagram Protocol) och kräver data Center bryggning PFC och ETS för att tillhandahålla tillförlitlighet.RoCE uses User Datagram Protocol (UDP), and requires Data Center Bridging PFC and ETS to provide reliability.

Vi rekommenderar att du använder RoCE om:We recommend that you use RoCE if:

  • Du har redan distributioner med RoCE i ditt data CenterYou already have deployments with RoCE in your data center
  • Du är kunnig med dina fysiska nätverks kravYou are knowledgeable with your physical network requirements

Gäst-RDMAGuest RDMA

Med gäst-RDMA kan SMB-arbetsbelastningar för virtuella datorer få samma fördelar med att använda RDMA på värdar.Guest RDMA enables SMB workloads for VMs to gain the same benefits of using RDMA on hosts.

Tillämpliga trafik typer: ComputeApplicable traffic types: compute

Nödvändiga certifieringar: PremiumCertifications required: Premium

De främsta fördelarna med att använda gäst-RDMA är:The primary benefits of using Guest RDMA are:

  • CPU-avläsning till NÄTVERKSKORTet för bearbetning av nätverks trafikCPU offload to the NIC for network traffic processing
  • Extremt låg latensExtremely low latency
  • Högt genomflödeHigh throughput

För mer information, inklusive hur du distribuerar gäst-RDMA, laddar du ned Word-dokumentet från SDN GitHub-lagrings platsen.For more information including how to deploy Guest RDMA, download the Word doc from the SDN GitHub repo.

Växla inbäddad team indelning (uppsättning)Switch Embedded Teaming (SET)

Växla inbäddad team indelning (uppsättning) är en programvarubaserad kombinations teknik som har inkluderats i operativ systemet Windows Server sedan Windows Server 2016.Switch Embedded Teaming (SET) is a software-based teaming technology that has been included in the Windows Server operating system since Windows Server 2016. UPPSÄTTNINGEN är inte beroende av vilken typ av nätverkskort som används.SET is not dependent on the type of network adapters used.

Tillämpliga trafik typer: beräkning, lagring och hanteringApplicable traffic types: compute, storage, and management

Certifieringar krävs: ingen (inbyggd i operativ systemet)Certifications required: none (built into the OS)

SET är den enda team teknik som stöds av Azure Stack HCI.SET is the only teaming technology supported by Azure Stack HCI. Belastnings utjämning/redundans (LBFO) är en annan team teknik som ofta används med Windows Server, men som inte stöds med Azure Stack HCI.Load Balancing/Failover (LBFO) is another teaming technology commonly used with Windows Server but is not supported with Azure Stack HCI. Se blogg inlägget Teaming in Azure Stack HCI för mer information om LBFO i Azure Stack HCI.See the blog post Teaming in Azure Stack HCI for more information on LBFO in Azure Stack HCI. Ställ in fungerar bra med både beräknings-, lagrings-och hanterings trafik.SET works well with compute, storage, and management traffic alike.

SET är viktigt för Azure Stack HCI eftersom det är den enda team teknik som gör det möjligt att:SET is important for Azure Stack HCI as it is the only teaming technology that enables:

SET ger ytterligare funktioner över LBFO, inklusive kvalitets-och prestanda förbättringar.SET provides additional features over LBFO including quality and performance improvements. För att göra detta måste du använda symmetriska (identiska) kort – team indelning av asymmetriska adaptrar stöds inte.To do this, SET requires the use of symmetric (identical) adapters – teaming of asymmetric adapters is not supported. Symmetriska nätverkskort är de som har samma:Symmetric network adapters are those that have the same:

  • Fabrikat (leverantör)make (vendor)
  • modell (version)model (version)
  • hastighet (data flöde)speed (throughput)
  • konfigurationconfiguration

Det enklaste sättet att identifiera om korten är symmetriska är om hastigheterna är desamma och att gränssnitts beskrivningarna matchar.The easiest way to identify if adapters are symmetric is if the speeds are the same and the interface descriptions match. De kan bara avvika med siffror som anges i beskrivningen.They can deviate only in the numeral listed in the description. Använd Get-NetAdapterAdvancedProperty cmdleten för att se till att konfigurationen som rapporteras listar samma egenskaps värden.Use the Get-NetAdapterAdvancedProperty cmdlet to ensure the configuration reported lists the same property values.

I följande tabell visas ett exempel på gränssnitts beskrivningarna deviating endast med siffror (#):See the following table for an example of the interface descriptions deviating only by numeral (#):

NamnName Gränssnitts BeskrivningInterface Description Länk hastighetLink Speed
NIC1NIC1 Nätverkskort #1Network Adapter #1 25 Gbit/s25 Gbps
NIC2NIC2 Nätverkskort #2Network Adapter #2 25 Gbit/s25 Gbps
NIC3NIC3 Nätverkskort #3Network Adapter #3 25 Gbit/s25 Gbps
NIC4NIC4 Nätverkskort #4Network Adapter #4 25 Gbit/s25 Gbps

Överväganden för RDMA-trafikRDMA traffic considerations

Om du implementerar Data Center bryggning (DCB) måste du se till att konfigurationen av PFC och ETS är korrekt implementerad i varje nätverks port, inklusive nätverks växlar.If you implement Data Center Bridging (DCB), you must ensure that the PFC and ETS configuration is implemented properly across every network port, including network switches. DCB krävs för RoCE och valfritt för iWARP.DCB is required for RoCE and optional for iWARP.

För detaljerad information om hur du distribuerar RDMA, laddar ned Word-dokumentet från SDN GitHub-lagrings platsen.For detailed information on how to deploy RDMA, download the Word doc from the SDN GitHub repo.

RoCE-baserade Azure Stack HCI-implementeringar kräver konfiguration av tre PFC-trafikklasser, inklusive standard trafik klassen, över hela infrastrukturen och alla värdar:RoCE-based Azure Stack HCI implementations requires the configuration of three PFC traffic classes, including the default traffic class, across the fabric and all hosts:

Kluster trafik klassCluster traffic class

Den här trafik klassen ser till att det finns tillräckligt med bandbredd som är reserverad för kluster pulsslag:This traffic class ensures there is enough bandwidth reserved for cluster heartbeats:

  • Krävs: JaRequired: Yes
  • PFC har Aktiver ATS: NejPFC enabled: No
  • Rekommenderad trafik prioritet: prioritet 7Recommended traffic priority: Priority 7
  • Rekommenderad bandbredds reservation:Recommended bandwidth reservation:
    • 10 GbE eller lägre RDMA-nätverk = 2%10 GbE or lower RDMA networks = 2%
    • 25 GbE-eller större RDMA-nätverk = 1%25 GbE or higher RDMA networks = 1%

RDMA-trafik klassRDMA traffic class

Den här trafik klassen ser till att det finns tillräckligt med bandbredd som reserver ATS för förlustfri RDA-kommunikation med SMB Direct:This traffic class ensures there is enough bandwidth reserved for lossless RDA communications using SMB Direct:

  • Krävs: JaRequired: Yes
  • PFC aktiverat: JaPFC enabled: Yes
  • Rekommenderad trafik prioritet: prioritet 3 eller 4Recommended traffic priority: Priority 3 or 4
  • Rekommenderad bandbredds reservation: 50%Recommended bandwidth reservation: 50%

Standard trafik klassDefault traffic class

Den här trafik klassen innehåller all annan trafik som inte har definierats i klustret eller RDMA-trafik klasser, inklusive VM-trafik och hanterings trafik:This traffic class carries all other traffic not defined in the cluster or RDMA traffic classes, including VM traffic and management traffic:

  • Krävs: som standard (ingen konfiguration krävs på värden)Required: By default (no configuration necessary on the host)
  • Flödes kontroll (PFC) aktiverat: NejFlow control (PFC) enabled: No
  • Rekommenderad trafik klass: som standard (prioritet 0)Recommended traffic class: By default (Priority 0)
  • Rekommenderad bandbredds reservation: som standard (ingen värd konfiguration krävs)Recommended bandwidth reservation: By default (no host configuration required)

Lagrings trafik modellerStorage traffic models

SMB tillhandahåller många fördelar som lagrings protokoll för Azure Stack HCI, inklusive SMB Multichannel.SMB provides many benefits as the storage protocol for Azure Stack HCI including SMB Multichannel. Även om SMB Multichannel är utanför räckvidden för det här avsnittet, är det viktigt att förstå att trafiken är multiplex över alla möjliga länkar som SMB Multichannel kan använda.While SMB Multichannel is out-of-scope for this topic, it is important to understand that traffic is multiplexed across every possible link that SMB Multichannel can use.

Anteckning

Vi rekommenderar att du använder flera undernät och VLAN för att avgränsa lagrings trafiken i Azure Stack HCI.We recommend using multiple subnets and VLANs to separate storage traffic in Azure Stack HCI.

Tänk på följande exempel på ett kluster med fyra noder.Consider the following example of a four node cluster. Varje server har två lagrings portar (vänster och höger sida).Each server has two storage ports (left and right side). Eftersom varje nätverkskort finns i samma undernät och VLAN, kommer SMB Multichannel att sprida anslutningar över alla tillgängliga länkar.Because each adapter is on the same subnet and VLAN, SMB Multichannel will spread connections across all available links. Därför kommer den vänstra porten på den första servern (192.168.1.1) att upprätta en anslutning till den vänstra porten på den andra servern (192.168.1.2).Therefore, the left-side port on the first server (192.168.1.1) will make a connection to the left-side port on the second server (192.168.1.2). Den högra porten på den första servern (192.168.1.12) kommer att ansluta till den högra porten på den andra servern.The right-side port on the first server (192.168.1.12) will connect to the right-side port on the second server. Liknande anslutningar upprättas för de tredje och fjärde servrarna.Similar connections are established for the third and fourth servers.

Detta skapar dock onödiga anslutningar och orsakar överbelastning på länkningen (multibands länk agg regerings grupp eller MC-fördröjning) som ansluter ToR-växlar (Top of rack) (markerade med XS).However, this creates unnecessary connections and causes congestion at the interlink (multi-chassis link aggregation group or MC-LAG) that connects the top of rack (ToR) switches (marked with Xs). Se följande diagram:See the following diagram:

kluster med fyra noder och samma undernät

Den rekommenderade metoden är att använda separata undernät och virtuella lokala nätverk för varje uppsättning nätverkskort.The recommended approach is to use separate subnets and VLANs for each set of adapters. I följande diagram använder nu de högra portarna Subnet 192.168.2. x/24 och VLAN2.In the following diagram, the right-hand ports now use subnet 192.168.2.x /24 and VLAN2. Detta gör att trafik på de portar som finns på den vänstra sidan blir kvar på TOR1 och att trafiken på portarna på den högra sidan blir kvar på TOR2.This allows traffic on the left-side ports to remain on TOR1 and the traffic on the right-side ports to remain on TOR2. Se följande diagram:See the following diagram:

kluster med fyra noder, olika undernät

Allokering av trafik bandbreddTraffic bandwidth allocation

Tabellen nedan visar exempel på bandbredds tilldelningar för olika trafik typer, med hjälp av vanliga hastigheter för nätverkskort, i Azure Stack HCI.The table below shows example bandwidth allocations of various traffic types, using common adapter speeds, in Azure Stack HCI. Observera att detta är ett exempel på en konvergerad lösning där alla typer av trafik (beräkning, lagring och hantering) körs över samma fysiska kort och teamas med SET.Note that this is an example of a converged solution where all traffic types (compute, storage, and management) run over the same physical adapters and are teamed using SET.

Eftersom det här användnings fallet utgör de flesta begränsningar representerar det en felfri bas linje.Since this use case poses the most constraints, it represents a good baseline. Men med tanke på permutationer för antal kort och hastigheter bör detta betraktas som ett exempel och inte ett support krav.However, considering the permutations for number of adapters and speeds, this should be considered an example and not a support requirement.

Följande antaganden görs i det här exemplet:The following assumptions are made for this example:

  • Det finns två kort per teamThere are two adapters per team

  • Lagring Bus Layer (SBL), klusterdelad volym (CSV) och Hyper-V (direktmigrering)-trafik:Storage Bus Layer (SBL), Cluster Shared Volume (CSV), and Hyper-V (Live Migration) traffic:

    • Använd samma fysiska nätverkskortUse the same physical adapters
    • Använd SMBUse SMB
  • SMB får en bandbredds tilldelning på 50% med hjälp av data Center bryggningSMB is given a 50% bandwidth allocation using Data Center Bridging

    • SBL/CSV är den högsta prioritets trafiken och tar emot 70% av SMB-bandbreddens reservation, och:SBL/CSV is the highest priority traffic and receives 70% of the SMB bandwidth reservation, and:
    • Direktmigrering (LM) är begränsat med hjälp av Set-SMBBandwidthLimit cmdleten och tar emot 29% av den återstående bandbreddenLive Migration (LM) is limited using the Set-SMBBandwidthLimit cmdlet and receives 29% of the remaining bandwidth
      • Om den tillgängliga bandbredden för direktmigrering är >= 5 Gbit/s och nätverkskorten är kompatibla använder du RDMA.If the available bandwidth for Live Migration is >= 5 Gbps, and the network adapters are capable, use RDMA. Använd följande cmdlet för att göra det:Use the following cmdlet to do so:

        Set-VMHost VirtualMachineMigrationPerformanceOption SMB
        
      • Om den tillgängliga bandbredden för direktmigrering är < 5 Gbit/s använder du Compression för att minska inaktive rad-tiderna.If the available bandwidth for Live Migration is < 5 Gbps, use compression to reduce blackout times. Använd följande cmdlet för att göra det:Use the following cmdlet to do so:

        Set-VMHost -VirtualMachineMigrationPerformanceOption Compression
        
  • Om du använder RDMA med direktmigrering bör du se till att direktmigrering trafik inte använder hela bandbredden som tilldelats RDMA-trafikklassen genom att använda en SMB-bandbredds gräns.If using RDMA with Live Migration, ensure that Live Migration traffic cannot consume the entire bandwidth allocated to the RDMA traffic class by using an SMB bandwidth limit. Var noga med att denna cmdlet tar upp i byte per sekund (bps) medan nätverkskorten visas i bitar per sekund (bps).Be careful as this cmdlet takes entry in bytes per second (Bps) whereas network adapters are listed in bits per second (bps). Använd följande cmdlet för att ange en bandbredds gräns på 6 Gbit/s till exempel:Use the following cmdlet to set a bandwidth limit of 6 Gbps for example:

    Set-SMBBandwidthLimit -Category LiveMigration -BytesPerSecond 750MB
    

    Anteckning

    750 Mbit/s i det här exemplet motsvarar 6 Gbit/s750 MBps in this example equates to 6 Gbps

Här är exempel på bandbredds tilldelnings tabell:Here is the example bandwidth allocation table:

NIC-hastighetNIC Speed Grupperad bandbreddTeamed Bandwidth Reservation av SMB-bandbredd * *SMB Bandwidth Reservation** SBL/CSV%SBL/CSV % SBL/CSV-bandbreddSBL/CSV Bandwidth Direktmigrering%Live Migration % Maximal direktmigrering bandbreddMax Live Migration Bandwidth TvekaHeartbeat % Bandbredd för pulsslagHeartbeat Bandwidth
10 Gbit/s10 Gbps 20 Gbit/s20 Gbps 10 Gbit/s10 Gbps 70 %70% 7 Gbit/s7 Gbps * * 2 %2% 200 Mbit/s200 Mbps
25 Gbit/s25 Gbps 50 Gbit/s50 Gbps 25 Gbit/s25 Gbps 70 %70% 17,5 Gbit/s17.5 Gbps 29.429% 7,25 Gbit/s7.25 Gbps 1 %1% 250 Mbit/s250 Mbps
40 Gbit/s40 Gbps 80 Gbit/s80 Gbps 40 Gbit/s40 Gbps 70 %70% 28 Gbit/s28 Gbps 29.429% 11,6 Gbit/s11.6 Gbps 1 %1% 400 Mbit/s400 Mbps
50 Gbit/s50 Gbps 100 Gbit/s100 Gbps 50 Gbit/s50 Gbps 70 %70% 35 Gbit/s35 Gbps 29.429% 14,5 Gbit/s14.5 Gbps 1 %1% 500 Mbit/s500 Mbps
100 Gbit/s100 Gbps 200 Gbit/s200 Gbps 100 Gbit/s100 Gbps 70 %70% 70 Gbit/s70 Gbps 29.429% 29 Gbit/s29 Gbps 1 %1% 1 Gbit/s1 Gbps
200 Gbit/s200 Gbps 400 Gbit/s400 Gbps 200 Gbit/s200 Gbps 70 %70% 140 Gbit/s140 Gbps 29.429% 58 Gbit/s58 Gbps 1 %1% 2 Gbit/s2 Gbps

* – bör använda komprimering i stället för RDMA eftersom bandbredds tilldelningen för direktmigrering trafik är <5 Gbit/s*- should use compression rather than RDMA as the bandwidth allocation for Live Migration traffic is <5 Gbps

* *-50% är ett exempel på bandbredds reservation för det här exemplet**- 50% is an example bandwidth reservation for this example

Utsträckta kluster övervägandenStretched cluster considerations

Utsträckta kluster ger haveri beredskap som sträcker sig över flera data Center.Stretched clusters provide disaster recovery that spans multiple data centers. I sin enklaste form ser ett utsträckt Azure Stack HCI-kluster nätverk ut så här:In its simplest form, a stretched Azure Stack HCI cluster network looks like this:

Utsträckt kluster

Utsträckta kluster har följande krav och egenskaper:Stretched clusters have the following requirements and characteristics:

  • RDMA är begränsad till en enda plats och stöds inte på olika platser eller undernät.RDMA is limited to a single site, and is not supported across different sites or subnets.

  • Servrar på samma plats måste finnas i samma rack och nivå 2-gränser.Servers in the same site must reside in the same rack and Layer-2 boundary.

  • Kommunikation mellan platser tvärs över en nivå 3-gränser; utsträckta Layer-2-topologier stöds inte.Communication between sites cross a Layer-3 boundary; stretched Layer-2 topologies are not supported.

  • Om en plats använder RDMA för sina lagrings kort måste dessa kort finnas i ett separat undernät och VLAN som inte kan dirigera mellan platser.If a site uses RDMA for its storage adapters, these adapters must be on a separate subnet and VLAN that cannot route between sites. Detta förhindrar att Storage Replica använder RDMA över platser.This prevents Storage Replica from using RDMA across sites.

  • Kort som används för kommunikation mellan platser:Adapters used for communication between sites:

    • Kan vara fysisk eller virtuell (värd vNIC).Can be physical or virtual (host vNIC). Om virtuell måste du etablera en vNIC i sitt eget undernät och VLAN per fysiskt nätverkskort.If virtual, you must provision one vNIC in its own subnet and VLAN per physical NIC.
    • Måste finnas i ett eget undernät och VLAN som kan dirigera mellan platser.Must be on their own subnet and VLAN that can route between sites.
    • RDMA måste inaktive ras med Disable-NetAdapterRDMA cmdleten.RDMA must be disabled using the Disable-NetAdapterRDMA cmdlet. Vi rekommenderar att du uttryckligen kräver Storage Replica att använda vissa gränssnitt med hjälp av Set-SRNetworkConstraint cmdleten.We recommend that you explicitly require Storage Replica to use specific interfaces using the Set-SRNetworkConstraint cmdlet.
    • Måste uppfylla eventuella ytterligare krav för Storage Replica.Must meet any additional requirements for Storage Replica.
  • I händelse av en redundansväxling till en annan plats måste du se till att det finns tillräckligt med bandbredd för att köra arbets belastningarna på den andra platsen.In the event of a failover to another site, you must ensure that enough bandwidth is available to run the workloads at the other site. Ett säkert alternativ är att etablera webbplatser på 50% av den tillgängliga kapaciteten.A safe option is to provision sites at 50% of their available capacity. Detta är inte ett hård krav om du kan tolerera lägre prestanda under en redundansväxling.This is not a hard requirement if you are able to tolerate lower performance during a failover.

Nästa stegNext steps