Požadavky na síť hostitele pro Azure Stack HCIHost network requirements for Azure Stack HCI

Platí pro Azure Stack HCI, verze 20H2Applies to Azure Stack HCI, version 20H2

Toto téma popisuje Azure Stack a požadavky na síťové sítě a požadavky na hostitele HCI.This topic discusses Azure Stack HCI host networking considerations and requirements. Informace o architekturách datového centra a fyzických připojeních mezi servery najdete v tématu požadavky na fyzickou síť.For information on data center architectures and the physical connections between servers, see Physical network requirements.

Typy síťových přenosůNetwork traffic types

Azure Stack může být síťový provoz HCI klasifikován podle zamýšleného účelu:Azure Stack HCI network traffic can be classified by its intended purpose:

  • Výpočetní provoz – provoz pocházející z nebo určený pro virtuální počítač (VM)Compute traffic - traffic originating from or destined for a virtual machine (VM)
  • Provoz úložiště pro prostory úložiště S přímým přístupem (S2D) pomocí protokolu SMB (Server Message Block)Storage traffic - traffic for Storage Spaces Direct (S2D) using Server Message Block (SMB)
  • Provoz správy – provoz je důležitý pro správce správy clusterů, jako je například služba Active Directory, Vzdálená plocha, centrum pro správu systému Windows a prostředí Windows PowerShell.Management traffic - traffic important to an administrator for cluster management, such as Active Directory, Remote Desktop, Windows Admin Center, and Windows PowerShell.

Výběr síťového adaptéruSelecting a network adapter

Pro Azure Stack HCI vyžadujeme, abyste vybrali síťový adaptér, který dosáhl certifikace Windows serveru Software-Defined Datacenter (SDDC) s využitím dodatečné kvalifikace Standard nebo Premium (AQ).For Azure Stack HCI, we require choosing a network adapter that has achieved the Windows Server Software-Defined Data Center (SDDC) certification with the Standard or Premium Additional Qualification (AQ). Tyto adaptéry podporují nejvíce pokročilých funkcí platformy a prošly tím nejvyšším testováním našimi hardwarovými partnery.These adapters support the most advanced platform features and have undergone the most testing by our hardware partners. Tato úroveň kontroly obvykle vede k omezení potíží s kvalitou hardwaru a ovladačů.Typically, this level of scrutiny leads to a reduction in hardware and driver-related quality issues.

Můžete určit adaptér, který má AQ úrovně Standard nebo Premium, a to tak, že zkontrolujete položku katalogu Windows serveru pro příslušný adaptér a příslušnou verzi operačního systému.You can identify an adapter that has Standard or Premium AQ by reviewing the Windows Server Catalog entry for the adapter and the applicable operating system version. Níže je uveden příklad zápisu pro Premium AQ:Below is an example of the notation for Premium AQ:

Certifikovaný systém Windows

Přehled schopností síťových adaptérů pro klíčOverview of key network adapter capabilities

Důležité možnosti síťového adaptéru, které využívají Azure Stack HCI, zahrnují:Important network adapter capabilities leveraged by Azure Stack HCI include:

  • Dynamická vícenásobná fronta virtuálních počítačů (dynamická VMMQ nebo d. VMMQ)Dynamic Virtual Machine Multi-Queue (Dynamic VMMQ or d.VMMQ)
  • Přímý přístup do paměti vzdáleného počítače (RDMA)Remote Direct Memory Access (RDMA)
  • Host RDMAGuest RDMA
  • Switch Embedded Teaming (SET)Switch Embedded Teaming (SET)

Dynamické VMMQDynamic VMMQ

Všechny síťové adaptéry s podporou Premium AQ podporují Dynamic VMMQ.All network adapters with the Premium AQ support Dynamic VMMQ. Dynamické VMMQ vyžaduje použití seskupování vloženého přepínače.Dynamic VMMQ requires the use of Switch Embedded Teaming.

Použitelné typy provozu: COMPUTEApplicable traffic types: compute

Vyžadované certifikace: PremiumCertifications required: Premium

Dynamická VMMQ je inteligentní technologie pro přijímání na straně příjmu, která se vytváří na základě jejich předchůdců Fronta pro virtuální počítače (VMQ) (VMQ), virtuálního škálování na straně příjmu (vRSS) a VMMQ, aby poskytoval tři primární vylepšení:Dynamic VMMQ is an intelligent receive-side technology that builds upon its predecessors of Virtual Machine Queue (VMQ), Virtual Receive Side Scaling (vRSS), and VMMQ to provide three primary improvements:

  • Optimalizuje efektivitu hostitele pomocí PROCESORových jader.Optimizes host efficiency by use of CPU cores
  • Automatické ladění zpracování síťového provozu na jádra procesoru, čímž umožníte virtuálním počítačům naplnit a udržovat očekávanou propustnostAutomatic tuning of network traffic processing to CPU cores, thus enabling VMs to meet and maintain expected throughput
  • Umožňuje úlohám "shlukování" získat očekávaný objem provozu.Enables “bursty” workloads to receive the expected amount of traffic

Další informace o dynamických VMMQ najdete v blogovém příspěvku syntetických zrychlení.For more information on Dynamic VMMQ, see the blog post Synthetic Accelerations.

RDMARDMA

RDMA je snižování zátěže síťového zásobníku na síťový adaptér, který umožňuje provoz úložiště protokolu SMB obejít operační systém pro zpracování.RDMA is a network stack offload to the network adapter allowing SMB storage traffic to bypass the operating system for processing.

RDMA umožňuje sítě s vysokou propustností a nízkou latencí při používání minimálních prostředků procesoru hostitele.RDMA enables high-throughput, low-latency networking while using minimal host CPU resources. Tyto prostředky hostitelského procesoru pak můžete použít ke spouštění dalších virtuálních počítačů nebo kontejnerů.These host CPU resources can then be used to run additional VMs or containers.

Použitelné typy provozu: úložiště hostiteleApplicable traffic types: host storage

Vyžadované certifikace: StandardCertifications required: Standard

Všechny adaptéry s podporou Standard nebo Premium AQ podporují RDMA (přímý přístup do paměti vzdáleného počítače).All adapters with Standard or Premium AQ support RDMA (Remote Direct Memory Access). RDMA je doporučený výběr nasazení pro úlohy úložiště v Azure Stack HCI a může být volitelně povolen pro úlohy úložiště (pomocí protokolu SMB) pro virtuální počítače.RDMA is the recommended deployment choice for storage workloads in Azure Stack HCI and can be optionally enabled for storage workloads (using SMB) for VMs. Další informace najdete v části Host RDMA pro hosty .See the Guest RDMA section later.

Azure Stack HCI podporuje RDMA buď pomocí implementace protokolu iWARP nebo RoCE.Azure Stack HCI supports RDMA using either the iWARP or RoCE protocol implementations.

Důležité

Adaptéry RDMA fungují jenom s ostatními adaptéry RDMA, které implementují stejný protokol RDMA (iWARP nebo RoCE).RDMA adapters only work with other RDMA adapters that implement the same RDMA protocol (iWARP or RoCE).

Ne všechny síťové adaptéry od dodavatelů podporují RDMA.Not all network adapters from vendors support RDMA. V následující tabulce jsou uvedeni dodavatelé (v abecedním pořadí), které nabízejí certifikované adaptéry RDMA.The following table lists those vendors (in alphabetical order) that offer Premium certified RDMA adapters. V tomto seznamu ale nejsou k dispozici dodavatelé hardwaru, kteří také podporují RDMA.However, there are hardware vendors not included in this list that also support RDMA. Ověřte podporu RDMA v katalogu Windows serveru .See the Windows Server Catalog to verify RDMA support.

Poznámka

InfiniBand (IB) není u Azure Stack HCL podporováno.InfiniBand (IB) is not supported with Azure Stack HCI.

Dodavatel síťových adaptérůNIC vendor iWARPiWARP RoCERoCE
BroadcomBroadcom NeNo AnoYes
ChelsioChelsio AnoYes NeNo
RSSIntel AnoYes Ano (některé modely)Yes (some models)
PERC (QLogic/Cavium)Marvell (Qlogic/Cavium) AnoYes AnoYes
NVIDIA (Mellanox)Nvidia (Mellanox) NeNo AnoYes

Poznámka

Ne všechny adaptéry od dodavatelů podporují RDMA.Not all adapters from the vendors support RDMA. Ověřte prosím podporu RDMA u konkrétního dodavatele síťových karet.Please verify RDMA support with your specific network card vendor.

Pokud chcete získat další informace o nasazení RDMA, Stáhněte si dokument Word z úložiště GitHub SDN.For more information on deploying RDMA, download the Word doc from the SDN GitHub repo.

Protokol Internet iWARP (Internet WAN Area RDMA)Internet Wide Area RDMA Protocol (iWARP)

iWARP používá protokol TCP (Transmission Control Protocol) a je možné ho volitelně rozšířit pomocí řízení toku založeného na prioritách DCB (PFC) a služby Enhanced Transmission Service (ETS).iWARP uses the Transmission Control Protocol (TCP), and can be optionally enhanced with Data Center Bridging (DCB) Priority-based Flow Control (PFC) and Enhanced Transmission Service (ETS).

Doporučujeme použít iWARP, pokud:We recommend that you use iWARP if:

  • Máte málo nebo žádné síťové prostředí nebo se Uncomfortable Správa síťových přepínačů.You have little or no network experience or are uncomfortable managing network switches
  • Neřídíte přepínačům pro mandát.You do not control your ToR switches
  • Řešení nebudete spravovat po nasazení.You will not be managing the solution after deployment
  • Nasazení už máte pomocí iWARP.You already have deployments using iWARP
  • Nejste si jistí, kterou možnost zvolitYou are unsure which option to choose

RDMA přes sblíženou síť Ethernet (RoCE)RDMA over Converged Ethernet (RoCE)

RoCE používá protokol UDP (User Datagram Protocol) a vyžaduje, aby se zajistila spolehlivost přemostění datového centra PFC a ETS.RoCE uses User Datagram Protocol (UDP), and requires Data Center Bridging PFC and ETS to provide reliability.

Doporučujeme použít RoCE, pokud:We recommend that you use RoCE if:

  • V datovém centru už máte nasazení pomocí RoCE.You already have deployments with RoCE in your data center
  • Máte zkušenosti s požadavky vaší fyzické sítěYou are knowledgeable with your physical network requirements

Host RDMAGuest RDMA

Host RDMA umožňuje úlohám SMB pro virtuální počítače získat stejné výhody použití RDMA na hostitelích.Guest RDMA enables SMB workloads for VMs to gain the same benefits of using RDMA on hosts.

Použitelné typy provozu: COMPUTEApplicable traffic types: compute

Vyžadované certifikace: PremiumCertifications required: Premium

Primární výhody použití hosta RDMA jsou:The primary benefits of using Guest RDMA are:

  • Snižování zátěže procesoru pro síťové rozhraní pro zpracování síťových přenosůCPU offload to the NIC for network traffic processing
  • Extrémně nízká latenceExtremely low latency
  • Vysoká propustnostHigh throughput

Pokud potřebujete další informace, včetně toho, jak nasadit hosta RDMA, Stáhněte si dokument Word z úložiště GitHub SDN.For more information including how to deploy Guest RDMA, download the Word doc from the SDN GitHub repo.

Switch Embedded Teaming (SET)Switch Embedded Teaming (SET)

Switch Embedded Teaming (SET) je softwarově založená technologie pro týmovou práci, která je zahrnutá v operačním systému Windows Server od Windows serveru 2016.Switch Embedded Teaming (SET) is a software-based teaming technology that has been included in the Windows Server operating system since Windows Server 2016. SADA není závislá na typu používaných síťových adaptérů.SET is not dependent on the type of network adapters used.

Použitelné typy provozu: výpočty, úložiště a SprávaApplicable traffic types: compute, storage, and management

Vyžadované certifikace: žádné (integrované v operačním systému)Certifications required: none (built into the OS)

SADA je jediná technologie seskupování podporovaná Azure Stackmi HCI.SET is the only teaming technology supported by Azure Stack HCI. Vyrovnávání zatížení/převzetí služeb při selhání (LBFO) je jiná technologie seskupování běžně používaná se systémem Windows Server, ale není podporována Azure Stack HCL.Load Balancing/Failover (LBFO) is another teaming technology commonly used with Windows Server but is not supported with Azure Stack HCI. Další informace o LBFO v Azure Stack HCI najdete v blogovém příspěvku týmu v tématu Azure Stack HCL .See the blog post Teaming in Azure Stack HCI for more information on LBFO in Azure Stack HCI. Tato sada funguje dobře s výpočetními, úložnými a řídicími přenosy dat.SET works well with compute, storage, and management traffic alike.

NASTAVENÍ je důležité pro Azure Stack HCI, protože se jedná o jedinou technologii seskupování, která umožňuje:SET is important for Azure Stack HCI as it is the only teaming technology that enables:

SADA poskytuje další funkce nad LBFO, včetně vylepšení kvality a výkonu.SET provides additional features over LBFO including quality and performance improvements. Aby to bylo možné, sada vyžaduje použití symetrických (stejných) adaptérů – seskupování asymetrických adaptérů není podporováno.To do this, SET requires the use of symmetric (identical) adapters – teaming of asymmetric adapters is not supported. Mezi symetrické síťové adaptéry patří:Symmetric network adapters are those that have the same:

  • Značka (dodavatel)make (vendor)
  • Model (verze)model (version)
  • rychlost (propustnost)speed (throughput)
  • konfiguraceconfiguration

Nejjednodušší způsob, jak zjistit, jestli jsou adaptéry symetrické, je, pokud jsou tyto rychlosti stejné a popisy rozhraní se shodují.The easiest way to identify if adapters are symmetric is if the speeds are the same and the interface descriptions match. Můžou se odchýlit jenom v číslicích uvedených v popisu.They can deviate only in the numeral listed in the description. Pomocí Get-NetAdapterAdvancedProperty rutiny ověřte, že nahlášená konfigurace obsahuje seznam stejných hodnot vlastností.Use the Get-NetAdapterAdvancedProperty cmdlet to ensure the configuration reported lists the same property values.

V následující tabulce najdete příklad popisů rozhraní, které se odchylují jenom od číslic (#):See the following table for an example of the interface descriptions deviating only by numeral (#):

NázevName Popis rozhraníInterface Description Rychlost propojeníLink Speed
NIC1NIC1 #1 síťového adaptéruNetwork Adapter #1 25 GB/s25 Gbps
NIC2NIC2 #2 síťového adaptéruNetwork Adapter #2 25 GB/s25 Gbps
NIC3NIC3 #3 síťového adaptéruNetwork Adapter #3 25 GB/s25 Gbps
NIC4NIC4 #4 síťového adaptéruNetwork Adapter #4 25 GB/s25 Gbps

Požadavky RDMA na provozRDMA traffic considerations

Pokud implementujete přemostění Datacenter (DCB), musíte zajistit, aby se konfigurace PFC a ETS správně implementovala napříč všemi síťovými porty, včetně síťových přepínačů.If you implement Data Center Bridging (DCB), you must ensure that the PFC and ETS configuration is implemented properly across every network port, including network switches. DCB se vyžaduje pro RoCE a volitelné pro iWARP.DCB is required for RoCE and optional for iWARP.

Podrobné informace o tom, jak nasadit RDMA, najdete v dokumentu aplikace Word z úložiště GitHub SDN.For detailed information on how to deploy RDMA, download the Word doc from the SDN GitHub repo.

Implementace Azure Stack HCI založené na RoCE vyžadují konfiguraci tří tříd přenosů PFC, včetně výchozí třídy provozu v rámci prostředků infrastruktury a všech hostitelů:RoCE-based Azure Stack HCI implementations requires the configuration of three PFC traffic classes, including the default traffic class, across the fabric and all hosts:

Třída přenosů clusteruCluster traffic class

Tato třída provozu zajišťuje dostatečnou šířku pásma rezervovanou pro prezenční signály clusteru:This traffic class ensures there is enough bandwidth reserved for cluster heartbeats:

  • Požadováno: AnoRequired: Yes
  • PFC povoleno: nePFC enabled: No
  • Doporučená priorita provozu: priorita 7Recommended traffic priority: Priority 7
  • Doporučená rezervace šířky pásma:Recommended bandwidth reservation:
    • 10 GbE nebo nižší sítě RDMA = 2%10 GbE or lower RDMA networks = 2%
    • 25 GbE nebo vyšší sítě RDMA = 1%25 GbE or higher RDMA networks = 1%

Třída přenosů RDMARDMA traffic class

Tato třída provozu zajišťuje dostatečnou šířku pásma vyhrazenou pro komunikaci s bezeztrátovou RDA pomocí funkce SMB Direct:This traffic class ensures there is enough bandwidth reserved for lossless RDA communications using SMB Direct:

  • Požadováno: AnoRequired: Yes
  • PFC povoleno: AnoPFC enabled: Yes
  • Doporučená priorita provozu: Priorita 3 nebo 4Recommended traffic priority: Priority 3 or 4
  • Doporučená rezervace šířky pásma: 50%Recommended bandwidth reservation: 50%

Výchozí třída provozuDefault traffic class

Tato třída provozu přenáší veškerý provoz, který není definovaný v clusteru nebo třídách provozu RDMA, včetně provozu virtuálních počítačů a provozu správy:This traffic class carries all other traffic not defined in the cluster or RDMA traffic classes, including VM traffic and management traffic:

  • Požadováno: ve výchozím nastavení (na hostiteli není nutná žádná konfigurace)Required: By default (no configuration necessary on the host)
  • Řízení toku (PFC) povoleno: neFlow control (PFC) enabled: No
  • Doporučená třída provozu: ve výchozím nastavení (Priorita 0)Recommended traffic class: By default (Priority 0)
  • Doporučená rezervace šířky pásma: ve výchozím nastavení se nepožaduje konfigurace hostitele.Recommended bandwidth reservation: By default (no host configuration required)

Modely provozu úložištěStorage traffic models

SMB poskytuje spoustu výhod jako protokol úložiště pro Azure Stack HCI včetně protokolu SMB vícekanálový.SMB provides many benefits as the storage protocol for Azure Stack HCI including SMB Multichannel. I když je protokol SMB vícekanálový pro toto téma mimo rozsah, je důležité pochopit, zda je přenos multiplexní všemi možnými propojeními, které může používat funkce SMB vícekanálový.While SMB Multichannel is out-of-scope for this topic, it is important to understand that traffic is multiplexed across every possible link that SMB Multichannel can use.

Poznámka

K oddělení provozu úložiště v Azure Stack HCI doporučujeme použít několik podsítí a sítí VLAN.We recommend using multiple subnets and VLANs to separate storage traffic in Azure Stack HCI.

Vezměte v úvahu následující příklad clusteru se čtyřmi uzly.Consider the following example of a four node cluster. Každý server má dva porty úložiště (levou a pravou stranu).Each server has two storage ports (left and right side). Vzhledem k tomu, že každý adaptér je ve stejné podsíti a síti VLAN, bude se v případě protokolu SMB ve všech dostupných odkazech šířit připojení.Because each adapter is on the same subnet and VLAN, SMB Multichannel will spread connections across all available links. Proto port vlevo na prvním serveru (192.168.1.1) provede připojení k portu na levé straně na druhém serveru (192.168.1.2).Therefore, the left-side port on the first server (192.168.1.1) will make a connection to the left-side port on the second server (192.168.1.2). Port na pravé straně na prvním serveru (192.168.1.12) se připojí k portu na druhém serveru na pravé straně.The right-side port on the first server (192.168.1.12) will connect to the right-side port on the second server. Podobná připojení jsou navázána na třetí a čtvrté servery.Similar connections are established for the third and fourth servers.

Tím se ale vytvoří nepotřebná připojení a dojde k zahlcení mezičlánek (skupina agregace s více šasi nebo MC), která spojuje přepínače regálu (s označením XS).However, this creates unnecessary connections and causes congestion at the interlink (multi-chassis link aggregation group or MC-LAG) that connects the top of rack (ToR) switches (marked with Xs). Podívejte se na následující diagram:See the following diagram:

stejná podsíť clusteru se čtyřmi uzly

Doporučený postup je použít pro každou sadu adaptérů samostatné podsítě a sítě VLAN.The recommended approach is to use separate subnets and VLANs for each set of adapters. V následujícím diagramu teď porty na pravé straně používají podsíť virtuální počítače. x/24 a VLAN2.In the following diagram, the right-hand ports now use subnet 192.168.2.x /24 and VLAN2. To umožňuje, aby přenosy na levé straně zůstaly v TOR1 a provoz na portech na pravé straně zůstal v TOR2.This allows traffic on the left-side ports to remain on TOR1 and the traffic on the right-side ports to remain on TOR2. Podívejte se na následující diagram:See the following diagram:

cluster se čtyřmi uzly různé podsítě

Přidělení šířky pásma provozuTraffic bandwidth allocation

Následující tabulka ukazuje příklad přidělení šířky pásma různých typů provozu pomocí běžných rychlostí adaptéru v Azure Stack HCI.The table below shows example bandwidth allocations of various traffic types, using common adapter speeds, in Azure Stack HCI. Všimněte si, že toto je příklad sblíženého řešení, ve kterém jsou všechny typy provozu (výpočty, úložiště a správa) spouštěny přes stejné fyzické adaptéry a jsou seskupeny pomocí SET.Note that this is an example of a converged solution where all traffic types (compute, storage, and management) run over the same physical adapters and are teamed using SET.

Vzhledem k tomu, že tento případ použití představuje nejvíce omezení, představuje dobrý směrný plán.Since this use case poses the most constraints, it represents a good baseline. S ohledem na permutace pro počet adaptérů a rychlostí je však třeba vzít v úvahu příklad, nikoli požadavek na podporu.However, considering the permutations for number of adapters and speeds, this should be considered an example and not a support requirement.

Pro tento příklad jsou provedeny následující předpoklady:The following assumptions are made for this example:

  • Existují dva adaptéry na tým.There are two adapters per team

  • Provoz vrstvy úložiště (SBL), sdílený svazek clusteru (CSV) a technologie Hyper-V (Migrace za provozu):Storage Bus Layer (SBL), Cluster Shared Volume (CSV), and Hyper-V (Live Migration) traffic:

    • Použít stejné fyzické adaptéryUse the same physical adapters
    • Použití protokolu SMBUse SMB
  • Protokol SMB má přidělenou 50% šířku pásma pomocí přemostění datového centra.SMB is given a 50% bandwidth allocation using Data Center Bridging

    • SBL/CSV je přenos s nejvyšší prioritou a přijímá 70% rezervace šířky pásma protokolu SMB a:SBL/CSV is the highest priority traffic and receives 70% of the SMB bandwidth reservation, and:
    • Migrace za provozu (LM) je omezené pomocí Set-SMBBandwidthLimit rutiny a přijímá 29% zbývající šířky pásma.Live Migration (LM) is limited using the Set-SMBBandwidthLimit cmdlet and receives 29% of the remaining bandwidth
      • Pokud je dostupná šířka pásma pro Migrace za provozu >= 5 GB/s a síťové adaptéry podporují, použijte RDMA.If the available bandwidth for Live Migration is >= 5 Gbps, and the network adapters are capable, use RDMA. K tomu použijte následující rutinu:Use the following cmdlet to do so:

        Set-VMHost VirtualMachineMigrationPerformanceOption SMB
        
      • Pokud je dostupná šířka pásma pro Migrace za provozu < 5 GB/s, použijte kompresi k omezení nedostupnosti časů.If the available bandwidth for Live Migration is < 5 Gbps, use compression to reduce blackout times. K tomu použijte následující rutinu:Use the following cmdlet to do so:

        Set-VMHost -VirtualMachineMigrationPerformanceOption Compression
        
  • Pokud používáte RDMA s Migrace za provozu, ujistěte se, že Migrace za provozu provoz nemůže spotřebovat celou šířku pásma přidělenou třídě provozu RDMA pomocí limitu šířky pásma protokolu SMB.If using RDMA with Live Migration, ensure that Live Migration traffic cannot consume the entire bandwidth allocated to the RDMA traffic class by using an SMB bandwidth limit. Buďte opatrní, protože tato rutina přebírá položku v bajtech za sekundu (b/s), zatímco síťové adaptéry jsou uvedené v bitech za sekundu (b/s).Be careful as this cmdlet takes entry in bytes per second (Bps) whereas network adapters are listed in bits per second (bps). Pomocí následující rutiny nastavte limit šířky pásma 6 GB/s, například:Use the following cmdlet to set a bandwidth limit of 6 Gbps for example:

    Set-SMBBandwidthLimit -Category LiveMigration -BytesPerSecond 750MB
    

    Poznámka

    750 MB/s v tomto příkladu je rovno 6 GB/s.750 MBps in this example equates to 6 Gbps

Tady je ukázková tabulka přidělení šířky pásma:Here is the example bandwidth allocation table:

Rychlost síťové kartyNIC Speed Šířka pásma týmuTeamed Bandwidth Rezervace šířky pásma protokolu SMB * *SMB Bandwidth Reservation** SBL/CSV%SBL/CSV % Šířka pásma SBL/CSVSBL/CSV Bandwidth Migrace za provozu%Live Migration % Maximální šířka pásma Migrace za provozuMax Live Migration Bandwidth SignályHeartbeat % Šířka pásma prezenčního signáluHeartbeat Bandwidth
10 Gb/s10 Gbps 20 GB/s20 Gbps 10 Gb/s10 Gbps 70 %70% 7 GB/s7 Gbps * * 2 %2% 200 Mb/s200 Mbps
25 GB/s25 Gbps 50 GB/s50 Gbps 25 GB/s25 Gbps 70 %70% 17,5 GB/s17.5 Gbps 2929% 7,25 GB/s7.25 Gbps 1 %1% 250 MB/s250 Mbps
40 Gb/s40 Gbps 80 GB/s80 Gbps 40 Gb/s40 Gbps 70 %70% 28 GB/s28 Gbps 2929% 11,6 GB/s11.6 Gbps 1 %1% 400 MB/s400 Mbps
50 GB/s50 Gbps 100 Gb/s100 Gbps 50 GB/s50 Gbps 70 %70% 35 GB/s35 Gbps 2929% 14,5 GB/s14.5 Gbps 1 %1% 500 Mb/s500 Mbps
100 Gb/s100 Gbps 200 Gb/s200 Gbps 100 Gb/s100 Gbps 70 %70% 70 GB/s70 Gbps 2929% 29 GB/s29 Gbps 1 %1% 1 Gb/s1 Gbps
200 Gb/s200 Gbps 400 GB/s400 Gbps 200 Gb/s200 Gbps 70 %70% 140 GB/s140 Gbps 2929% 58 GB/s58 Gbps 1 %1% 2 Gb/s2 Gbps

* – Použijte kompresi místo RDMA, protože přidělení šířky pásma pro Migrace za provozu provoz je <5 GB/s.*- should use compression rather than RDMA as the bandwidth allocation for Live Migration traffic is <5 Gbps

* *-50% je příkladem rezervace šířky pásma pro tento příklad.**- 50% is an example bandwidth reservation for this example

Požadavky na roztažené clusteryStretched cluster considerations

Roztažené clustery poskytují zotavení po havárii, které pokrývá více datových center.Stretched clusters provide disaster recovery that spans multiple data centers. V nejjednodušším tvaru síť s clustery HCI roztaženého Azure Stack vypadá takto:In its simplest form, a stretched Azure Stack HCI cluster network looks like this:

Roztažený cluster

Roztažené clustery mají následující požadavky a charakteristiky:Stretched clusters have the following requirements and characteristics:

  • RDMA je omezený jenom na jednu lokalitu a není podporovaný napříč různými lokalitami nebo podsítěmi.RDMA is limited to a single site, and is not supported across different sites or subnets.

  • Servery ve stejné lokalitě se musí nacházet ve stejném stojanu a hranici vrstvy 2.Servers in the same site must reside in the same rack and Layer-2 boundary.

  • Komunikace mezi lokalitami přes hranici vrstvy 3; roztažené topologie vrstvy 2 se nepodporují.Communication between sites cross a Layer-3 boundary; stretched Layer-2 topologies are not supported.

  • Pokud lokalita používá RDMA pro své adaptéry úložiště, musí být tyto adaptéry v samostatné podsíti a síti VLAN, které nemůžou směrovat mezi lokalitami.If a site uses RDMA for its storage adapters, these adapters must be on a separate subnet and VLAN that cannot route between sites. Tím zabráníte tomu, aby replika úložiště používala RDMA napříč lokalitami.This prevents Storage Replica from using RDMA across sites.

  • Adaptéry používané pro komunikaci mezi lokalitami:Adapters used for communication between sites:

    • Může být fyzický nebo virtuální (hostitelský vNIC).Can be physical or virtual (host vNIC). Pokud je virtuální, musíte zřídit jednu vNIC ve vlastní podsíti a síti VLAN na fyzickou síťovou kartu.If virtual, you must provision one vNIC in its own subnet and VLAN per physical NIC.
    • Musí být ve své vlastní podsíti a síti VLAN, které mohou směrovat mezi lokalitami.Must be on their own subnet and VLAN that can route between sites.
    • RDMA musí být zakázán pomocí Disable-NetAdapterRDMA rutiny.RDMA must be disabled using the Disable-NetAdapterRDMA cmdlet. Doporučujeme, abyste repliku úložiště výslovně využívali pro použití určitých rozhraní pomocí Set-SRNetworkConstraint rutiny.We recommend that you explicitly require Storage Replica to use specific interfaces using the Set-SRNetworkConstraint cmdlet.
    • Musí splňovat všechny další požadavky na repliku úložiště.Must meet any additional requirements for Storage Replica.
  • V případě převzetí služeb při selhání do jiné lokality je nutné zajistit, aby byla k dispozici dostatečná šířka pásma pro spuštění úloh v druhé lokalitě.In the event of a failover to another site, you must ensure that enough bandwidth is available to run the workloads at the other site. Bezpečnou možností je zřídit lokality na 50% dostupné kapacity.A safe option is to provision sites at 50% of their available capacity. Nejedná se o tvrdý požadavek, pokud můžete při převzetí služeb při selhání tolerovat nižší výkon.This is not a hard requirement if you are able to tolerate lower performance during a failover.

Další krokyNext steps