Požadavky na síť hostitele pro Azure Stack HCI
Platí pro: Azure Stack HCI verze 23H2 a 22H2
Toto téma popisuje požadavky a požadavky na síť hostitele pro Azure Stack HCI. Informace o architekturách datacenter a fyzických připojeních mezi servery najdete v tématu Požadavky na fyzickou síť.
Informace o tom, jak zjednodušit síť hostitelů pomocí síťového ATC, najdete v tématu Zjednodušení sítě hostitelů pomocí síťového ATC.
Typy síťového provozu
Síťový provoz Azure Stack HCI je možné klasifikovat podle zamýšleného účelu:
- Provoz správy: Provoz do místního clusteru nebo mimo místní cluster. Například provoz repliky úložiště nebo provoz používaný správcem ke správě clusteru, jako je Vzdálená plocha, Windows Admin Center, Active Directory atd.
- Výpočetní provoz: Provoz pocházející z virtuálního počítače nebo směřující do virtuálního počítače.
- Provoz úložiště: Provoz využívající protokol SMB (Server Message Block), například Prostory úložiště s přímým přístupem nebo migraci za provozu založenou na protokolu SMB. Tento provoz je provozem vrstvy 2 a není směrovatelný.
Důležité
Replika úložiště používá provoz SMB, který není založený na RDMA. Díky této a směrové povaze provozu (sever-jih) je úzce sladěný s provozem "správy" uvedeného výše, podobně jako u tradiční sdílené složky.
Vyberte síťový adaptér.
Síťové adaptéry jsou kvalifikované podle typů síťového provozu (viz výše), se kterými se podporují. Při prohlížení katalogu systému Windows Server teď certifikace Systému Windows Server 2022 označuje jednu nebo více následujících rolí. Před nákupem serveru pro Azure Stack HCI musíte mít minimálně jeden adaptér, který je kvalifikovaný pro správu, výpočetní výkon a úložiště, protože azure Stack HCI vyžaduje všechny tři typy provozu. Pak můžete pomocí síťového ATC nakonfigurovat adaptéry pro příslušné typy přenosů.
Další informace o této kvalifikaci síťové karty na základě role najdete na tomto odkazu.
Důležité
Použití adaptéru mimo jeho kvalifikovaný typ provozu se nepodporuje.
Level | Role správy | Výpočetní role | Role úložiště |
---|---|---|---|
Rozlišení na základě rolí | Správa | Compute Standard | Storage Standard |
Maximální cena | Neuvedeno | Compute Premium | Storage Premium |
Poznámka
Nejvyšší kvalifikace pro jakýkoli adaptér v našem ekosystému bude obsahovat požadavky na správu, výpočty Premium a Storage Premium .
Požadavky na ovladače
Ovladače doručené pošty se s Azure Stack HCI nepodporují. Pokud chcete zjistit, jestli adaptér používá ovladač doručené pošty, spusťte následující rutinu. Adaptér používá ovladač doručené pošty, pokud vlastnost DriverProvider je Microsoft.
Get-NetAdapter -Name <AdapterName> | Select *Driver*
Přehled klíčových možností síťového adaptéru
Mezi důležité možnosti síťového adaptéru, které používá Azure Stack HCI, patří:
- Dynamic Virtual Machine Multi-Queue (Dynamic VMMQ nebo d.VMMQ)
- Přímý přístup do paměti vzdáleného počítače (RDMA)
- RDMA hosta
- Set (Switch Embedded Teaming)
Dynamické VMMQ
Všechny síťové adaptéry s kvalifikací Compute (Premium) podporují dynamické VMMQ. Dynamická funkce VMMQ vyžaduje použití funkce Switch Embedded Teaming.
Použitelné typy přenosů: výpočetní prostředky
Požadované certifikace: Compute (Premium)
Dynamic VMMQ je inteligentní technologie na straně příjmu. Vychází z předchůdců fronty virtuálních počítačů (VMQ), virtuálního škálování na straně příjmu (vRSS) a VMMQ a poskytuje tři hlavní vylepšení:
- Optimalizuje efektivitu hostitele tím, že využívá méně jader procesoru.
- Automatické ladění zpracování síťového provozu do jader procesoru, což umožňuje virtuálním počítačům splnit a udržovat očekávanou propustnost.
- Umožňuje nárazové úlohy přijímat očekávané množství provozu.
Další informace o dynamickém VMMQ najdete v blogovém příspěvku Syntetické akcelerace.
RDMA
RDMA je přesměrování zátěže zásobníku sítě na síťový adaptér. Umožňuje, aby provoz úložiště SMB obešel operační systém ke zpracování.
RDMA umožňuje síť s vysokou propustností a nízkou latencí s minimálním využitím prostředků procesoru hostitele. Tyto prostředky procesoru hostitele pak můžete použít ke spouštění dalších virtuálních počítačů nebo kontejnerů.
Použitelné typy přenosů: úložiště hostitele
Požadované certifikace: Storage (Standard)
Všechny adaptéry s kvalifikací Storage (Standard) nebo Storage (Premium) podporují RDMA na straně hostitele. Další informace o používání RDMA s úlohami hosta najdete v části Host RDMA dále v tomto článku.
Azure Stack HCI podporuje RDMA s implementacemi protokolu iWARP (Internet Wide Area RDMA Protocol) nebo RDMA přes Konverged Ethernet (RoCE).
Důležité
Adaptéry RDMA fungují jenom s jinými adaptéry RDMA, které implementují stejný protokol RDMA (iWARP nebo RoCE).
Ne všechny síťové adaptéry od dodavatelů podporují RDMA. V následující tabulce jsou uvedeni dodavatelé (v abecedním pořadí), kteří nabízejí certifikované adaptéry RDMA. V tomto seznamu ale nejsou uvedení dodavatelé hardwaru, kteří také podporují přímý přístup do paměti do paměti (RDMA). V katalogu Windows Serveru najdete adaptéry s kvalifikací Storage (Standard) nebo Storage (Premium), které vyžadují podporu RDMA.
Poznámka
Azure Stack HCI nepodporuje infiniBand (IB).
Dodavatel síťové karty | iWARP | RoCE |
---|---|---|
Broadcom | No | Yes |
Intel | Yes | Ano (některé modely) |
Marvell (Qlogic) | Yes | Yes |
Nvidia | No | Yes |
Pokud chcete získat další informace o nasazení RDMA pro hostitele, důrazně doporučujeme použít Síťové ATC. Informace o ručním nasazení najdete v úložišti SDN Na GitHubu.
iWARP
iWARP používá protokol TCP (Transmission Control Protocol) a je možné ho volitelně rozšířit o pfc (Priority-based Flow Control) a ETS (Enhanced Transmission Service).
IWARP použijte v následujících případech:
- Nemáte zkušenosti se správou sítí RDMA.
- Nespravujete nebo se vám nelíbí správa přepínačů ToR (Top-of-Rack).
- Po nasazení nebudete řešení spravovat.
- Už máte nasazení, která používají iWARP.
- Nejste si jistí, kterou možnost zvolit.
RoCE
RoCE používá protokol UDP (User Datagram Protocol) a k zajištění spolehlivosti vyžaduje PFC a ETS.
RoCE použijte v následujících případech:
- Ve svém datacentru už máte nasazení s RoCE.
- Máte přehled o správě požadavků na síť DCB.
RDMA hosta
RDMA hosta umožňuje úlohám SMB pro virtuální počítače získat stejné výhody jako použití RDMA na hostitelích.
Použitelné typy přenosů: Úložiště založené na hostech
Požadované certifikace: Compute (Premium)
Hlavní výhody používání RDMA hosta:
- Přesměrování zatížení procesoru na síťovou kartu pro zpracování síťového provozu.
- Extrémně nízká latence.
- Vysoká propustnost.
Pokud chcete získat další informace, stáhněte si dokument z úložiště SDN Na GitHubu.
Set (Switch Embedded Teaming)
SET je softwarová technologie seskupování, která je součástí operačního systému Windows Server od Windows Server 2016. SET je jediná technologie seskupování podporovaná v Azure Stack HCI. Sada SET dobře funguje s přenosy výpočetních prostředků, úložiště a správy a podporuje se až s osmi adaptéry ve stejném týmu.
Použitelné typy provozu: výpočetní prostředky, úložiště a správa
Požadované certifikace: Compute (Standard) nebo Compute (Premium)
SET je jediná technologie seskupování podporovaná v Azure Stack HCI. SET funguje dobře s přenosy výpočetních prostředků, úložiště a správy.
Důležité
Azure Stack HCI nepodporuje seskupování síťových adaptérů se starším vyrovnáváním zatížení nebo převzetím služeb při selhání (LBFO). Další informace o LBFO v Azure Stack HCI najdete v blogovém příspěvku Seskupování ve službě Azure Stack HCI .
Sada SET je důležitá pro Azure Stack HCI, protože je to jediná technologie seskupování, která umožňuje:
- Seskupování adaptérů RDMA (v případě potřeby)
- RDMA hosta.
- Dynamické VMMQ.
- Další klíčové funkce Azure Stack HCI (viz Seskupování v Azure Stack HCI).
SET vyžaduje použití symetrických (identických) adaptérů. Symetrické síťové adaptéry jsou ty, které mají stejné tyto položky:
- značka (dodavatel)
- model (verze)
- rychlost (propustnost)
- konfigurace
Ve 22H2 síťový ATC automaticky rozpozná a informuje vás, jestli jsou zvolené adaptéry asymetrické. Nejjednodušší způsob, jak ručně zjistit, jestli jsou adaptéry symetrické, je, pokud jsou rychlosti a popisy rozhraní přesné shody. Mohou se odchýlit pouze u číslic uvedených v popisu. Pomocí rutiny Get-NetAdapterAdvancedProperty
se ujistěte, že hlášená konfigurace obsahuje stejné hodnoty vlastností.
V následující tabulce najdete příklad popisů rozhraní odchylujících se pouze číslicí (#):
Name | Popis rozhraní | Rychlost propojení |
---|---|---|
NIC1 | Síťový adaptér č. 1 | 25 Gb/s |
NIC2 | Síťový adaptér č. 2 | 25 Gb/s |
NIC3 | Síťový adaptér č. 3 | 25 Gb/s |
NIC4 | Síťový adaptér č. 4 | 25 Gb/s |
Poznámka
SADA podporuje pouze konfiguraci nezávislou na přepínači pomocí algoritmů dynamického nebo hyper-V vyrovnávání zatížení. Pokud chcete dosáhnout nejlepšího výkonu, doporučuje se u všech síťových karet, které fungují rychlostí 10 Gbps a více, použít port Hyper-V. Síťové ATC provádí všechny požadované konfigurace pro SET.
Důležité informace o provozu RDMA
Pokud implementujete DCB, musíte zajistit správnou implementaci konfigurace PFC a ETS napříč všemi síťovými porty, včetně síťových přepínačů. DcB se vyžaduje pro RoCE a volitelné pro iWARP.
Podrobné informace o tom, jak nasadit RDMA, najdete v dokumentu z úložiště SDN GitHub.
Implementace Azure Stack HCI založené na RoCE vyžadují konfiguraci tří tříd provozu PFC, včetně výchozí třídy provozu, napříč prostředky infrastruktury a všemi hostiteli.
Třída provozu clusteru
Tato třída provozu zajišťuje, že je k dispozici dostatečná šířka pásma vyhrazená pro prezenční signály clusteru:
- Požadováno: Ano
- S podporou PFC: Ne
- Doporučená priorita provozu: Priorita 7
- Doporučená rezervace šířky pásma:
- Sítě s 10 GbE nebo nižším RDMA = 2 procenta
- Sítě RDMA s 25 GbE nebo vyšším = 1 procento
Přenosová třída RDMA
Tato třída provozu zajišťuje, že je k dispozici dostatečná šířka pásma vyhrazená pro bezeztrátovou komunikaci SDMA pomocí protokolu SMB Direct:
- Požadováno: Ano
- S podporou PFC: Ano
- Doporučená priorita provozu: Priorita 3 nebo 4
- Doporučená rezervace šířky pásma: 50 procent
Výchozí třída provozu
Tato třída provozu přenáší všechny ostatní přenosy, které nejsou definované v clusteru nebo třídách provozu RDMA, včetně provozu virtuálních počítačů a provozu správy:
- Povinné: Ve výchozím nastavení (na hostiteli není nutná žádná konfigurace)
- S podporou řízení toku (PFC): Ne
- Doporučená třída provozu: Ve výchozím nastavení (priorita 0)
- Doporučená rezervace šířky pásma: Ve výchozím nastavení (nevyžaduje se žádná konfigurace hostitele)
Modely provozu úložiště
Protokol SMB nabízí řadu výhod, jako je protokol úložiště pro Azure Stack HCI, včetně SMB Multichannel. Smb Multichannel není v tomto článku popsaný, ale je důležité si uvědomit, že provoz je multiplexovaný napříč všemi možnými odkazy, které smb Multichannel může použít.
Poznámka
K oddělení provozu úložiště ve službě Azure Stack HCI doporučujeme použít několik podsítí a sítí VLAN.
Podívejte se na následující příklad clusteru se čtyřmi uzly. Každý server má dva porty úložiště (levá a pravá strana). Vzhledem k tomu, že každý adaptér je ve stejné podsíti a síti VLAN, bude smb Multichannel rozprostřet připojení mezi všechna dostupná propojení. Levý port na prvním serveru (192.168.1.1) proto vytvoří připojení k levému portu na druhém serveru (192.168.1.2). Pravý port na prvním serveru (192.168.1.12) se připojí k pravému portu na druhém serveru. Podobná připojení se navazují pro třetí a čtvrtý server.
To však vytváří nepotřebná připojení a způsobuje zahlcení propojení (skupina agregace propojení s více skříněmi nebo MC-LAG), které propojuje přepínače ToR (označené Xs). Podívejte se na následující diagram:
Doporučeným přístupem je použít samostatné podsítě a sítě VLAN pro každou sadu adaptérů. V následujícím diagramu teď pravé porty používají podsíť 192.168.2.x /24 a VLAN2. To umožňuje, aby provoz na levých portech zůstal na TOR1 a provoz na pravých portech zůstal na TOR2.
Přidělení šířky pásma provozu
Následující tabulka ukazuje příklady přidělení šířky pásma různých typů provozu s využitím běžných rychlostí adaptéru ve službě Azure Stack HCI. Všimněte si, že toto je příklad konvergovaného řešení, kde všechny typy provozu (výpočetní prostředky, úložiště a správa) běží na stejných fyzických adaptérech a jsou seskupené pomocí sady SET.
Vzhledem k tomu, že tento případ použití představuje nejvíce omezení, představuje dobrý směrný plán. Vzhledem k permutacím pro počet adaptérů a rychlosti by to však mělo být považováno za příklad, a ne za požadavek podpory.
Pro tento příklad jsou provedeny následující předpoklady:
Každý tým má dva adaptéry.
SBL (Storage Bus Layer), sdílený svazek clusteru (CSV) a provoz Hyper-V (migrace za provozu):
- Používejte stejné fyzické adaptéry.
- Použijte protokol SMB.
Smb má přiděleno 50% přidělení šířky pásma pomocí DCB.
- SBL/CSV je provoz s nejvyšší prioritou a přijímá 70 % rezervace šířky pásma SMB.
- Migrace za provozu (LM) je omezená pomocí
Set-SMBBandwidthLimit
rutiny a přijímá 29 % zbývající šířky pásma.Pokud je >dostupná šířka pásma pro migraci za provozu = 5 Gb/s a síťové adaptéry jsou schopné, použijte RDMA. Použijte k tomu následující rutinu:
Set-VMHost -VirtualMachineMigrationPerformanceOption SMB
Pokud je < dostupná šířka pásma pro migraci za provozu 5 Gb/s, zkraťte dobu výpadku pomocí komprese. Použijte k tomu následující rutinu:
Set-VMHost -VirtualMachineMigrationPerformanceOption Compression
Pokud pro provoz migrace za provozu používáte RDMA, ujistěte se, že provoz migrace za provozu nemůže využívat celou šířku pásma přidělenou třídě provozu RDMA pomocí omezení šířky pásma smb. Buďte opatrní, protože tato rutina přijímá položky v bajtech za sekundu (Bps), zatímco síťové adaptéry jsou uvedeny v bitech za sekundu (bps). Pomocí následující rutiny můžete například nastavit limit šířky pásma 6 Gb/s:
Set-SMBBandwidthLimit -Category LiveMigration -BytesPerSecond 750MB
Poznámka
750 MB/s v tomto příkladu odpovídá 6 Gb/s.
Tady je příklad tabulky přidělení šířky pásma:
Rychlost síťového adaptéru | Seskupovaná šířka pásma | Rezervace šířky pásma SMB** | SBL/CSV % | Šířka pásma SBL/CSV | % migrace za provozu | Maximální šířka pásma migrace za provozu | Prezentní signál % | Šířka pásma prezenčních signálů |
---|---|---|---|---|---|---|---|---|
10 Gb/s | 20 Gb/s | 10 Gb/s | 70 % | 7 Gb/s | ** | 200 Mb/s | ||
25 Gb/s | 50 Gb/s | 25 Gb/s | 70 % | 17,5 Gb/s | 29% | 7,25 Gb/s | 1 % | 250 MB/s |
40 Gb/s | 80 Gb/s | 40 Gb/s | 70 % | 28 Gb/s | 29% | 11,6 Gb/s | 1 % | 400 Mb/s |
50 Gb/s | 100 Gb/s | 50 Gb/s | 70 % | 35 Gb/s | 29% | 14,5 Gb/s | 1 % | 500 Mb/s |
100 Gb/s | 200 Gb/s | 100 Gb/s | 70 % | 70 Gb/s | 29% | 29 Gb/s | 1 % | 1 Gb/s |
200 Gb/s | 400 Gb/s | 200 Gb/s | 70 % | 140 Gb/s | 29% | 58 Gb/s | 1 % | 2 Gb/s |
* Místo RDMA použijte kompresi, protože přidělení šířky pásma pro přenosy migrace za provozu je <5 Gb/s.
** 50 procent je příkladem rezervace šířky pásma.
Roztažené clustery
Roztažené clustery poskytují zotavení po havárii, které zahrnuje více datových center. Roztažená síť clusteru Azure Stack HCI vypadá v nejjednodušší podobě takto:
Požadavky na roztažený cluster
Roztažené clustery mají následující požadavky a charakteristiky:
RDMA je omezený na jednu lokalitu a nepodporuje se napříč různými lokalitami nebo podsítěmi.
Servery ve stejné lokalitě se musí nacházet ve stejném racku a hranici vrstvy 2.
Komunikace hostitele mezi lokalitami musí překročit hranici vrstvy 3; Roztažené topologie vrstvy 2 nejsou podporovány.
Mít dostatečnou šířku pásma pro spouštění úloh v jiné lokalitě. V případě převzetí služeb při selhání bude muset alternativní lokalita spustit veškerý provoz. Doporučujeme zřizovat lokality na 50 % jejich dostupné síťové kapacity. To ale není požadavek, pokud jste schopni tolerovat nižší výkon během převzetí služeb při selhání.
Replikace mezi lokalitami (provoz sever/jih) může používat stejné fyzické síťové karty jako místní úložiště (provoz východ/západ). Pokud používáte stejné fyzické adaptéry, musí být tyto adaptéry seskupené se systémem SET. Adaptéry musí mít také další virtuální síťové karty zřízené pro směrovatelný provoz mezi lokalitami.
Adaptéry používané pro komunikaci mezi lokalitami:
Může být fyzický nebo virtuální (hostitel vNIC). Pokud jsou adaptéry virtuální, musíte zřídit jeden virtuální síťový adaptér ve vlastní podsíti a síť VLAN pro každou fyzickou síťovou kartu.
Musí mít vlastní podsíť a síť VLAN, která může směrovat mezi lokalitami.
RDMA musí být zakázán pomocí rutiny
Disable-NetAdapterRDMA
. Doporučujeme explicitně vyžadovat, aby replika úložiště používala konkrétní rozhraní pomocí rutinySet-SRNetworkConstraint
.Musí splňovat všechny další požadavky na repliku úložiště.
Příklad roztaženého clusteru
Následující příklad znázorňuje roztažené konfigurace clusteru. Pokud chcete zajistit mapování konkrétní virtuální síťové karty na konkrétní fyzický adaptér, použijte rutinu Set-VMNetworkAdapterTeammapping .
Níže jsou uvedeny podrobnosti o příkladu roztažené konfigurace clusteru.
Poznámka
Vaše přesná konfigurace, včetně názvů síťových adaptérů, IP adres a sítí VLAN, se může lišit od zobrazené konfigurace. Používá se pouze jako referenční konfigurace, kterou je možné přizpůsobit vašemu prostředí.
SiteA – místní replikace, povolená technologie RDMA, nesměrovatelná mezi lokalitami
Název uzlu | Název vNIC | Fyzické síťové rozhraní (mapované) | VLAN | IP adresa a podsíť | Rozsah provozu |
---|---|---|---|---|---|
NodeA1 | vSMB01 | pNIC01 | 711 | 192.168.1.1/24 | Pouze místní web |
NodeA2 | vSMB01 | pNIC01 | 711 | 192.168.1.2/24 | Pouze místní web |
NodeA1 | vSMB02 | pNIC02 | 712 | 192.168.2.1/24 | Pouze místní web |
NodeA2 | vSMB02 | pNIC02 | 712 | 192.168.2.2/24 | Pouze místní web |
SiteB – místní replikace, povolená technologie RDMA, nesměrovatelná mezi lokalitami
Název uzlu | Název vNIC | Fyzické síťové rozhraní (mapované) | VLAN | IP adresa a podsíť | Rozsah provozu |
---|---|---|---|---|---|
NodeB1 | vSMB01 | pNIC01 | 711 | 192.168.1.1/24 | Pouze místní web |
NodeB2 | vSMB01 | pNIC01 | 711 | 192.168.1.2/24 | Pouze místní web |
NodeB1 | vSMB02 | pNIC02 | 712 | 192.168.2.1/24 | Pouze místní web |
NodeB2 | vSMB02 | pNIC02 | 712 | 192.168.2.2/24 | Pouze místní web |
SiteA – roztažená replikace, zakázána RDMA, směrovatelná mezi lokalitami
Název uzlu | Název vNIC | Fyzické síťové rozhraní (mapované) | IP adresa a podsíť | Rozsah provozu |
---|---|---|---|---|
NodeA1 | Roztáhnout1 | pNIC01 | 173.0.0.1/8 | Směrovatelná tabulka mezi weby |
NodeA2 | Roztáhnout1 | pNIC01 | 173.0.0.2/8 | Směrovatelné mezi weby |
Uzel A1 | Roztáhnout 2 | pNIC02 | 174.0.0.1/8 | Směrovatelné mezi weby |
NodeA2 | Roztáhnout 2 | pNIC02 | 174.0.0.2/8 | Směrovatelné mezi weby |
SiteB – roztažená replikace, zakázaný přístup RDMA, směrovatelný mezi lokalitami
Název uzlu | Název virtuálních adaptérů | Fyzická síťová karta (mapovaná) | IP adresa a podsíť | Obor přenosů |
---|---|---|---|---|
Uzel B1 | Roztáhnout1 | pNIC01 | 175.0.0.1/8 | Směrovatelné mezi weby |
Uzel B2 | Roztáhnout1 | pNIC01 | 175.0.0.2/8 | Směrovatelné mezi weby |
Uzel B1 | Roztáhnout 2 | pNIC02 | 176.0.0.1/8 | Směrovatelné mezi weby |
Uzel B2 | Roztáhnout 2 | pNIC02 | 176.0.0.2/8 | Směrovatelné mezi weby |
Další kroky
- Seznamte se s požadavky na síťový přepínač a fyzickou síť. Viz Požadavky na fyzickou síť.
- Zjistěte, jak zjednodušit síť hostitelů pomocí síťového ATC. Viz Zjednodušení sítě hostitelů pomocí síťového ATC.
- Základní informace o sítích clusteringu s podporou převzetí služeb při selhání
- Viz Nasazení pomocí Azure Portal.
- Viz Nasazení pomocí šablony ARM.
Váš názor
https://aka.ms/ContentUserFeedback.
Připravujeme: V průběhu roku 2024 budeme postupně vyřazovat problémy z GitHub coby mechanismus zpětné vazby pro obsah a nahrazovat ho novým systémem zpětné vazby. Další informace naleznete v tématu:Odeslat a zobrazit názory pro