Wymagania dotyczące sieci dla Azure Stack HCLHost network requirements for Azure Stack HCI

Dotyczy Azure Stack HCL, wersja 20H2Applies to Azure Stack HCI, version 20H2

W tym temacie omówiono zagadnienia dotyczące Azure Stack i wymagania dotyczące sieci.This topic discusses Azure Stack HCI host networking considerations and requirements. Aby uzyskać informacje na temat architektur centrów danych i połączeń fizycznych między serwerami, zobacz wymagania dotyczące sieci fizycznej.For information on data center architectures and the physical connections between servers, see Physical network requirements.

Typy ruchu sieciowegoNetwork traffic types

Azure Stack Rozruch sieciowy w stanie HCL może być klasyfikowany według zamierzonego celu:Azure Stack HCI network traffic can be classified by its intended purpose:

  • Ruch obliczeniowy — ruch pochodzący z lub przeznaczony dla maszyny wirtualnej (VM)Compute traffic - traffic originating from or destined for a virtual machine (VM)
  • Ruch związany z magazynem — ruch dla bezpośrednie miejsca do magazynowania (S2D) przy użyciu bloku komunikatów serwera (SMB)Storage traffic - traffic for Storage Spaces Direct (S2D) using Server Message Block (SMB)
  • Ruch związany z zarządzaniem — ruch istotny dla administratora do zarządzania klastrami, taki jak Active Directory, pulpit zdalny, centrum administracyjne systemu Windows i programu Windows PowerShell.Management traffic - traffic important to an administrator for cluster management, such as Active Directory, Remote Desktop, Windows Admin Center, and Windows PowerShell.

Wybieranie karty sieciowejSelecting a network adapter

Aby uzyskać Azure Stack HCL, należy wybrać kartę sieciową, która uzyskała certyfikat systemu Windows Server Software-Defined Data Center (SDDC) z dodatkową kwalifikacją (AQ).For Azure Stack HCI, we require choosing a network adapter that has achieved the Windows Server Software-Defined Data Center (SDDC) certification with the Standard or Premium Additional Qualification (AQ). Te karty obsługują najbardziej zaawansowane funkcje platformy i zostały poddane większości testów przez naszych partnerów sprzętowych.These adapters support the most advanced platform features and have undergone the most testing by our hardware partners. Zazwyczaj ten poziom kontroli prowadzi do obniżenia ilości sprzętu i problemów z jakością.Typically, this level of scrutiny leads to a reduction in hardware and driver-related quality issues.

Można zidentyfikować kartę z AQ Standard lub Premium, przeglądając wpis katalogu systemu Windows Server dla karty i odpowiednią wersję systemu operacyjnego.You can identify an adapter that has Standard or Premium AQ by reviewing the Windows Server Catalog entry for the adapter and the applicable operating system version. Poniżej znajduje się przykład notacji dla AQ Premium:Below is an example of the notation for Premium AQ:

Certyfikat systemu Windows

Przegląd najważniejszych możliwości kart sieciowychOverview of key network adapter capabilities

Ważne możliwości karty sieciowej wykorzystywane przez Azure Stack HCL obejmują:Important network adapter capabilities leveraged by Azure Stack HCI include:

  • Dynamiczna wiele kolejek maszyn wirtualnych (dynamiczny VMMQ lub d. VMMQ)Dynamic Virtual Machine Multi-Queue (Dynamic VMMQ or d.VMMQ)
  • Zdalny bezpośredni dostęp do pamięci (RDMA)Remote Direct Memory Access (RDMA)
  • Funkcja RDMA gościaGuest RDMA
  • Przełącznik osadzone tworzenia zespołu (SET)Switch Embedded Teaming (SET)

VMMQ dynamiczneDynamic VMMQ

Wszystkie karty sieciowe z AQ Premium obsługują dynamiczny VMMQ.All network adapters with the Premium AQ support Dynamic VMMQ. Dynamiczny VMMQ wymaga użycia wbudowanego zespołu przełączników.Dynamic VMMQ requires the use of Switch Embedded Teaming.

Odpowiednie typy ruchu: COMPUTEApplicable traffic types: compute

Wymagane certyfikaty: PremiumCertifications required: Premium

Dynamiczny VMMQ to inteligentna technologia po stronie odbierającej, która kompiluje się na podstawie poprzedników kolejka maszyn wirtualnych (VMQ), wirtualnego skalowania po stronie odbierającej (wirtualnego procesora) i VMMQ w celu zapewnienia trzech podstawowych ulepszeń:Dynamic VMMQ is an intelligent receive-side technology that builds upon its predecessors of Virtual Machine Queue (VMQ), Virtual Receive Side Scaling (vRSS), and VMMQ to provide three primary improvements:

  • Optymalizuje wydajność hosta, wykorzystując rdzenie procesora CPUOptimizes host efficiency by use of CPU cores
  • Automatyczne dostrajanie przetwarzania ruchu sieciowego do rdzeni procesora CPU, dzięki czemu maszyny wirtualne mogą zaspokoić i obsługiwać oczekiwaną przepływnośćAutomatic tuning of network traffic processing to CPU cores, thus enabling VMs to meet and maintain expected throughput
  • Włącza obciążenia "rozerwania", aby otrzymać oczekiwany ruchEnables “bursty” workloads to receive the expected amount of traffic

Aby uzyskać więcej informacji na temat dynamicznego VMMQ, Zobacz wpis wblogu.For more information on Dynamic VMMQ, see the blog post Synthetic Accelerations.

Dostęp RDMARDMA

RDMA to odciążanie stosu sieci do karty sieciowej, umożliwiając ruch magazynu SMB pomija system operacyjny do przetwarzania.RDMA is a network stack offload to the network adapter allowing SMB storage traffic to bypass the operating system for processing.

Funkcja RDMA umożliwia obsługę sieci o wysokiej przepływności i małych opóźnieniach przy użyciu minimalnych zasobów procesora CPU hosta.RDMA enables high-throughput, low-latency networking while using minimal host CPU resources. Te zasoby procesora CPU hosta mogą być następnie używane do uruchamiania dodatkowych maszyn wirtualnych lub kontenerów.These host CPU resources can then be used to run additional VMs or containers.

Odpowiednie typy ruchu: Magazyn hostaApplicable traffic types: host storage

Wymagane certyfikaty: StandardCertifications required: Standard

Wszystkie karty z AQ Standard lub Premium obsługują funkcję RDMA (zdalny bezpośredni dostęp do pamięci).All adapters with Standard or Premium AQ support RDMA (Remote Direct Memory Access). Funkcja RDMA jest zalecanym wyborem wdrożenia obciążeń magazynu w Azure Stack HCL i można ją opcjonalnie włączyć dla obciążeń magazynu (przy użyciu protokołu SMB) dla maszyn wirtualnych.RDMA is the recommended deployment choice for storage workloads in Azure Stack HCI and can be optionally enabled for storage workloads (using SMB) for VMs. Zapoznaj się z sekcją RDMA gościa później.See the Guest RDMA section later.

Azure Stack HCL obsługuje funkcję RDMA przy użyciu implementacji protokołów iWARP lub RoCE.Azure Stack HCI supports RDMA using either the iWARP or RoCE protocol implementations.

Ważne

Karty RDMA działają tylko z innymi kartami RDMA, które implementują ten sam protokół RDMA (iWARP lub RoCE).RDMA adapters only work with other RDMA adapters that implement the same RDMA protocol (iWARP or RoCE).

Nie wszystkie karty sieciowe dostawcy obsługują funkcję RDMA.Not all network adapters from vendors support RDMA. Poniższa tabela zawiera listę tych dostawców (w kolejności alfabetycznej) oferujących certyfikowane karty RDMA.The following table lists those vendors (in alphabetical order) that offer Premium certified RDMA adapters. Na tej liście znajdują się jednak dostawcy sprzętu, który również obsługuje funkcję RDMA.However, there are hardware vendors not included in this list that also support RDMA. Zobacz wykaz systemu Windows Server , aby zweryfikować obsługę funkcji RDMA.See the Windows Server Catalog to verify RDMA support.

Uwaga

Program InfiniBand (IB) nie jest obsługiwany w przypadku Azure Stack HCL.InfiniBand (IB) is not supported with Azure Stack HCI.

Dostawca kart sieciowychNIC vendor iWARPiWARP RoCERoCE
BroadcomBroadcom NieNo TakYes
KartyChelsio TakYes NieNo
StronęIntel TakYes Tak (niektóre modele)Yes (some models)
Marvell (QLogic/Cavium)Marvell (Qlogic/Cavium) TakYes TakYes
NVIDIA (Mellanox)Nvidia (Mellanox) NieNo TakYes

Uwaga

Nie wszystkie karty od dostawców obsługują funkcję RDMA.Not all adapters from the vendors support RDMA. Sprawdź, czy obsługa funkcji RDMA została określona dla danego dostawcy karty sieciowej.Please verify RDMA support with your specific network card vendor.

Aby uzyskać więcej informacji na temat wdrażania funkcji RDMA, Pobierz dokument programu Word z repozytorium GitHub SDN.For more information on deploying RDMA, download the Word doc from the SDN GitHub repo.

Internetowy protokół RDMA (iWARP)Internet Wide Area RDMA Protocol (iWARP)

iWARP korzysta z Transmission Control Protocol (TCP) i można ją opcjonalnie zwiększyć przy użyciu sterowania przepływem (DCB) opartego na priorytetach (sterowanie przepływem) i ulepszonej usługi transmisji (ETS).iWARP uses the Transmission Control Protocol (TCP), and can be optionally enhanced with Data Center Bridging (DCB) Priority-based Flow Control (PFC) and Enhanced Transmission Service (ETS).

Zalecamy użycie iWARP, jeśli:We recommend that you use iWARP if:

  • Jest mało lub nie masz doświadczenia z siecią lub nie potrafisz zarządzać przełącznikami sieciowymiYou have little or no network experience or are uncomfortable managing network switches
  • Nie kontrolujesz przełączników ToRYou do not control your ToR switches
  • Nie będziesz zarządzać rozwiązaniem po wdrożeniuYou will not be managing the solution after deployment
  • Masz już wdrożenia korzystające z usługi iWARPYou already have deployments using iWARP
  • Nie masz pewności, którą opcję wybraćYou are unsure which option to choose

Funkcja RDMA Over Converged Ethernet (RoCE)RDMA over Converged Ethernet (RoCE)

RoCE używa protokołu UDP (User Datagram Protocol) i wymaga mostkowania centrum danych sterowanie przepływem i ETS w celu zapewnienia niezawodności.RoCE uses User Datagram Protocol (UDP), and requires Data Center Bridging PFC and ETS to provide reliability.

Zalecamy użycie RoCE, jeśli:We recommend that you use RoCE if:

  • Masz już wdrożenia z usługą RoCE w centrum danychYou already have deployments with RoCE in your data center
  • Posiadasz wiedzę z wymaganiami dotyczącymi sieci fizycznejYou are knowledgeable with your physical network requirements

Funkcja RDMA gościaGuest RDMA

Funkcja RDMA umożliwia obsługę obciążeń SMB na maszynach wirtualnych w celu uzyskania tych samych korzyści z używania funkcji RDMA na hostach.Guest RDMA enables SMB workloads for VMs to gain the same benefits of using RDMA on hosts.

Odpowiednie typy ruchu: COMPUTEApplicable traffic types: compute

Wymagane certyfikaty: PremiumCertifications required: Premium

Główną zaletą korzystania z funkcji RDMA usługi gościa są:The primary benefits of using Guest RDMA are:

  • Odciążanie procesora CPU do karty sieciowej na potrzeby przetwarzania ruchu sieciowegoCPU offload to the NIC for network traffic processing
  • Bardzo małe opóźnieniaExtremely low latency
  • Wysoka przepływnośćHigh throughput

Aby uzyskać więcej informacji, w tym o sposobie wdrażania funkcji RDMA gościa, Pobierz dokument programu Word z repozytorium GitHub SDN.For more information including how to deploy Guest RDMA, download the Word doc from the SDN GitHub repo.

Przełącznik osadzone tworzenia zespołu (SET)Switch Embedded Teaming (SET)

Switch Embedded Teaming (SET) to oparta na oprogramowaniu technologia tworzenia zespołu, która została uwzględniona w systemie operacyjnym Windows Server od systemu Windows Server 2016.Switch Embedded Teaming (SET) is a software-based teaming technology that has been included in the Windows Server operating system since Windows Server 2016. ZESTAW nie zależy od typu używanych kart sieciowych.SET is not dependent on the type of network adapters used.

Odpowiednie typy ruchu: obliczenia, magazyn i zarządzanieApplicable traffic types: compute, storage, and management

Wymagane certyfikaty: brak (wbudowane w system operacyjny)Certifications required: none (built into the OS)

ZESTAW to jedyna technologia tworzenia zespołu obsługiwana przez Azure Stack HCL.SET is the only teaming technology supported by Azure Stack HCI. Równoważenie obciążenia/tryb failover (LBFO) to inna technologia tworzenia zespołu często używana z systemem Windows Server, ale nie jest obsługiwana w przypadku Azure Stack HCL.Load Balancing/Failover (LBFO) is another teaming technology commonly used with Windows Server but is not supported with Azure Stack HCI. Aby uzyskać więcej informacji na temat LBFO w Azure Stack HCL, zobacz temat Tworzenie zespołu na blogu w Azure Stack HCL .See the blog post Teaming in Azure Stack HCI for more information on LBFO in Azure Stack HCI. ZESTAW dobrze sprawdza się w przypadku zasobów obliczeniowych, magazynu i zarządzania.SET works well with compute, storage, and management traffic alike.

ZESTAW jest ważny dla Azure Stack HCL, ponieważ jest to jedyna technologia tworzenia zespołu, która umożliwia:SET is important for Azure Stack HCI as it is the only teaming technology that enables:

ZESTAW oferuje dodatkowe funkcje w porównaniu z LBFO, w tym ulepszenia jakości i wydajności.SET provides additional features over LBFO including quality and performance improvements. Aby to zrobić, zestaw wymaga użycia symetryczne (identyczne) kart — Tworzenie zespołu kart asymetrycznych nie jest obsługiwane.To do this, SET requires the use of symmetric (identical) adapters – teaming of asymmetric adapters is not supported. Symetryczne karty sieciowe są takie same:Symmetric network adapters are those that have the same:

  • Marka (dostawca)make (vendor)
  • Model (wersja)model (version)
  • szybkość (przepływność)speed (throughput)
  • konfiguracjaconfiguration

Najprostszym sposobem na ustalenie, czy karty są symetryczne, jest to, że szybkości są takie same, a opisy interfejsów są zgodne.The easiest way to identify if adapters are symmetric is if the speeds are the same and the interface descriptions match. Mogą odróżnić tylko cyfry wymienione w opisie.They can deviate only in the numeral listed in the description. Użyj Get-NetAdapterAdvancedProperty polecenia cmdlet, aby upewnić się, że raportowana konfiguracja zawiera te same wartości właściwości.Use the Get-NetAdapterAdvancedProperty cmdlet to ensure the configuration reported lists the same property values.

Zapoznaj się z poniższą tabelą, aby zapoznać się z przykładem opisów interfejsu odnoszących się tylko do cyfry (#):See the following table for an example of the interface descriptions deviating only by numeral (#):

NazwaName Opis interfejsuInterface Description Szybkość łączaLink Speed
NIC1NIC1 #1 karty sieciowejNetwork Adapter #1 25 GB/s25 Gbps
NIC2NIC2 #2 karty sieciowejNetwork Adapter #2 25 GB/s25 Gbps
NIC3NIC3 #3 karty sieciowejNetwork Adapter #3 25 GB/s25 Gbps
NIC4NIC4 #4 karty sieciowejNetwork Adapter #4 25 GB/s25 Gbps

Zagadnienia dotyczące ruchu RDMARDMA traffic considerations

Jeśli zaimplementowano mostkowanie centrum danych (DCB), należy upewnić się, że konfiguracja sterowanie przepływem i ETS została prawidłowo zaimplementowana dla każdego portu sieciowego, w tym przełączników sieciowych.If you implement Data Center Bridging (DCB), you must ensure that the PFC and ETS configuration is implemented properly across every network port, including network switches. DCB jest wymagany dla RoCE i opcjonalny dla iWARP.DCB is required for RoCE and optional for iWARP.

Aby uzyskać szczegółowe informacje na temat sposobu wdrażania funkcji RDMA, Pobierz dokument programu Word z repozytorium GitHub SDN.For detailed information on how to deploy RDMA, download the Word doc from the SDN GitHub repo.

Implementacje RoCE Azure Stack HCL wymagają konfiguracji trzech klas ruchu sterowanie przepływem, w tym domyślnej klasy ruchu, między siecią szkieletową i wszystkimi hostami:RoCE-based Azure Stack HCI implementations requires the configuration of three PFC traffic classes, including the default traffic class, across the fabric and all hosts:

Klasa ruchu klastraCluster traffic class

Ta klasa ruchu zapewnia wystarczającą przepustowość zarezerwowaną dla pulsów klastra:This traffic class ensures there is enough bandwidth reserved for cluster heartbeats:

  • Wymagany: TakRequired: Yes
  • Sterowanie przepływem włączone: niePFC enabled: No
  • Zalecany priorytet ruchu: priorytet 7Recommended traffic priority: Priority 7
  • Zalecana rezerwacja przepustowości:Recommended bandwidth reservation:
    • 10 GbE lub niższe sieci RDMA = 2%10 GbE or lower RDMA networks = 2%
    • 25 GbE lub wyższych sieci RDMA = 1%25 GbE or higher RDMA networks = 1%

Klasa ruchu RDMARDMA traffic class

Ta klasa ruchu zapewnia wystarczającą przepustowość zarezerwowaną dla bezstratnej komunikacji RDA przy użyciu usługi SMB Direct:This traffic class ensures there is enough bandwidth reserved for lossless RDA communications using SMB Direct:

  • Wymagany: TakRequired: Yes
  • Sterowanie przepływem włączone: takPFC enabled: Yes
  • Zalecany priorytet ruchu: priorytet 3 lub 4Recommended traffic priority: Priority 3 or 4
  • Zalecana rezerwacja przepustowości: 50%Recommended bandwidth reservation: 50%

Domyślna klasa ruchuDefault traffic class

Ta klasa ruchu przenosi cały ruch, który nie jest zdefiniowany w klasach ruchu RDMA i ruchu maszyn wirtualnych:This traffic class carries all other traffic not defined in the cluster or RDMA traffic classes, including VM traffic and management traffic:

  • Wymagane: domyślnie (brak konfiguracji wymaganej na hoście)Required: By default (no configuration necessary on the host)
  • Włączono sterowanie przepływem (sterowanie przepływem): nieFlow control (PFC) enabled: No
  • Zalecana Klasa ruchu: domyślnie (priorytet 0)Recommended traffic class: By default (Priority 0)
  • Zalecana rezerwacja przepustowości: domyślnie (nie jest wymagana Konfiguracja hosta)Recommended bandwidth reservation: By default (no host configuration required)

Modele ruchu magazynuStorage traffic models

Protokół SMB oferuje wiele korzyści, jak w przypadku protokołu magazynu Azure Stack HCL, w tym wielokanałowości SMB.SMB provides many benefits as the storage protocol for Azure Stack HCI including SMB Multichannel. Chociaż Wielokanałowość protokołu SMB jest poza zakresem tego tematu, ważne jest, aby zrozumieć, że ruch jest przyłączany do każdego możliwego linku, który może być używany przez Wielokanałowość protokołu SMB.While SMB Multichannel is out-of-scope for this topic, it is important to understand that traffic is multiplexed across every possible link that SMB Multichannel can use.

Uwaga

Zalecamy używanie wielu podsieci i sieci VLAN do oddzielenia ruchu magazynu w Azure Stack HCL.We recommend using multiple subnets and VLANs to separate storage traffic in Azure Stack HCI.

Rozważmy poniższy przykład klastra z czterema węzłami.Consider the following example of a four node cluster. Każdy serwer ma dwa porty magazynu (po lewej i po prawej stronie).Each server has two storage ports (left and right side). Ponieważ każda karta znajduje się w tej samej podsieci i sieci VLAN, Wielokanałowość SMB będzie rozłączać połączenia między wszystkimi dostępnymi łączami.Because each adapter is on the same subnet and VLAN, SMB Multichannel will spread connections across all available links. W związku z tym, port po lewej stronie pierwszego serwera (192.168.1.1) nawiąże połączenie z portem po lewej stronie na drugim serwerze (192.168.1.2).Therefore, the left-side port on the first server (192.168.1.1) will make a connection to the left-side port on the second server (192.168.1.2). Port znajdujący się po prawej stronie pierwszego serwera (192.168.1.12) nawiąże połączenie z portem znajdującym się po prawej stronie na drugim serwerze.The right-side port on the first server (192.168.1.12) will connect to the right-side port on the second server. Podobne połączenia są ustanawiane dla trzecich i czwartych serwerów.Similar connections are established for the third and fourth servers.

Jednak spowoduje to utworzenie niepotrzebnych połączeń i powoduje Przeciążenie w wygląda (wieloetapowej grupy agregacji lub MC-LAG), które łączy górne przełączniki stojaka (ToR) (oznaczone symbolem XS).However, this creates unnecessary connections and causes congestion at the interlink (multi-chassis link aggregation group or MC-LAG) that connects the top of rack (ToR) switches (marked with Xs). Zapoznaj się z poniższym diagramem:See the following diagram:

Klaster z czterema węzłami z tą samą podsiecią

Zalecanym podejściem jest użycie oddzielnych podsieci i sieci VLAN dla każdego zestawu kart sieciowych.The recommended approach is to use separate subnets and VLANs for each set of adapters. Na poniższym diagramie porty z prawej strony używają teraz podsieci 192.168.2. x/24 i VLAN2.In the following diagram, the right-hand ports now use subnet 192.168.2.x /24 and VLAN2. Pozwala to na ruch na TOR1 portów po lewej stronie, a ruch na portach znajdujących się po prawej stronie ma pozostać w TOR2.This allows traffic on the left-side ports to remain on TOR1 and the traffic on the right-side ports to remain on TOR2. Zapoznaj się z poniższym diagramem:See the following diagram:

Klaster z czterema węzłami różnych podsieci

Przydział przepustowości ruchuTraffic bandwidth allocation

W poniższej tabeli przedstawiono przykładowe alokacje przepustowości dla różnych typów ruchu sieciowego przy użyciu częstych szybkości kart w Azure Stack HCL.The table below shows example bandwidth allocations of various traffic types, using common adapter speeds, in Azure Stack HCI. Należy zauważyć, że jest to przykładowe rozwiązanie zbieżne, w którym wszystkie typy ruchu (obliczeniowy, magazyn i zarządzanie) działają przez te same karty fizyczne i są połączone w zespół przy użyciu zestawu.Note that this is an example of a converged solution where all traffic types (compute, storage, and management) run over the same physical adapters and are teamed using SET.

Ponieważ ten przypadek użycia stanowi najwięcej ograniczeń, reprezentuje on dobrą linię bazową.Since this use case poses the most constraints, it represents a good baseline. Jednak biorąc pod uwagę permutacje dla liczby kart i szybkości, należy wziąć pod uwagę przykład, a nie wymaganie pomocy technicznej.However, considering the permutations for number of adapters and speeds, this should be considered an example and not a support requirement.

Następujące założenia zostały wykonane dla tego przykładu:The following assumptions are made for this example:

  • Istnieją dwie karty na zespółThere are two adapters per team

  • Ruch sieciowy (SBL), udostępniony wolumin klastra (CSV) i funkcja Hyper-V (migracja na żywo):Storage Bus Layer (SBL), Cluster Shared Volume (CSV), and Hyper-V (Live Migration) traffic:

    • Użyj tych samych kart fizycznychUse the same physical adapters
    • Użyj protokołu SMBUse SMB
  • Protokół SMB otrzymuje alokację przepustowości na 50% przy użyciu mostkowania centrum danychSMB is given a 50% bandwidth allocation using Data Center Bridging

    • SBL/CSV to ruch o najwyższym priorytecie i odbiera 70% rezerwacji przepustowości protokołu SMB:SBL/CSV is the highest priority traffic and receives 70% of the SMB bandwidth reservation, and:
    • Migracja na żywo (LM) jest ograniczone przy użyciu Set-SMBBandwidthLimit polecenia cmdlet i otrzymuje 29% pozostałej przepustowościLive Migration (LM) is limited using the Set-SMBBandwidthLimit cmdlet and receives 29% of the remaining bandwidth
      • Jeśli dostępna przepustowość dla migracja na żywo jest >= 5 GB/s, a karty sieciowe mogą korzystać z funkcji RDMA.If the available bandwidth for Live Migration is >= 5 Gbps, and the network adapters are capable, use RDMA. Aby to zrobić, użyj następującego polecenia cmdlet:Use the following cmdlet to do so:

        Set-VMHost VirtualMachineMigrationPerformanceOption SMB
        
      • Jeśli dostępna przepustowość dla migracja na żywo jest < 5 GB/s, Użyj kompresji, aby skrócić czas niedostępności.If the available bandwidth for Live Migration is < 5 Gbps, use compression to reduce blackout times. Aby to zrobić, użyj następującego polecenia cmdlet:Use the following cmdlet to do so:

        Set-VMHost -VirtualMachineMigrationPerformanceOption Compression
        
  • W przypadku korzystania z funkcji RDMA z migracja na żywo upewnij się, że migracja na żywo ruch nie może zużywać całej przepustowości przydzielonej do klasy ruchu RDMA przy użyciu limitu przepustowości protokołu SMB.If using RDMA with Live Migration, ensure that Live Migration traffic cannot consume the entire bandwidth allocated to the RDMA traffic class by using an SMB bandwidth limit. Należy zachować ostrożność, ponieważ to polecenie cmdlet pobiera wpis w bajtach na sekundę (b/s), a karty sieciowe są wymienione w bitach na sekundę (BPS).Be careful as this cmdlet takes entry in bytes per second (Bps) whereas network adapters are listed in bits per second (bps). Użyj następującego polecenia cmdlet, aby ustawić limit przepustowości wynoszący 6 GB/s na przykład:Use the following cmdlet to set a bandwidth limit of 6 Gbps for example:

    Set-SMBBandwidthLimit -Category LiveMigration -BytesPerSecond 750MB
    

    Uwaga

    750 MB/s w tym przykładzie jest równe 6 GB/s750 MBps in this example equates to 6 Gbps

Oto przykładowa tabela alokacji przepustowości:Here is the example bandwidth allocation table:

Szybkość karty sieciowejNIC Speed Przepustowość zespołuTeamed Bandwidth Rezerwacja przepustowości protokołu SMB * *SMB Bandwidth Reservation** SBL/CSV%SBL/CSV % Przepustowość SBL/CSVSBL/CSV Bandwidth Migracja na żywo%Live Migration % Maksymalna przepustowość migracja na żywoMax Live Migration Bandwidth SygnałyHeartbeat % Przepustowość pulsuHeartbeat Bandwidth
10 Gb/s10 Gbps 20 GB/s20 Gbps 10 Gb/s10 Gbps 70%70% 7 GB/s7 Gbps * * 2%2% 200 Mb/s200 Mbps
25 GB/s25 Gbps 50 GB/s50 Gbps 25 GB/s25 Gbps 70%70% 17,5 GB/s17.5 Gbps dnia29% 7,25 GB/s7.25 Gbps 1%1% 250 MB/s250 Mbps
40 Gb/s40 Gbps 80 GB/s80 Gbps 40 Gb/s40 Gbps 70%70% 28 GB/s28 Gbps dnia29% 11,6 GB/s11.6 Gbps 1%1% 400 MB/s400 Mbps
50 GB/s50 Gbps 100 Gb/s100 Gbps 50 GB/s50 Gbps 70%70% 35 GB/s35 Gbps dnia29% 14,5 GB/s14.5 Gbps 1%1% 500 Mb/s500 Mbps
100 Gb/s100 Gbps 200 Gb/s200 Gbps 100 Gb/s100 Gbps 70%70% 70 GB/s70 Gbps dnia29% 29 GB/s29 Gbps 1%1% 1 Gb/s1 Gbps
200 Gb/s200 Gbps 400 GB/s400 Gbps 200 Gb/s200 Gbps 70%70% 140 GB/s140 Gbps dnia29% 58 GB/s58 Gbps 1%1% 2 Gb/s2 Gbps

*-powinna używać kompresji zamiast RDMA, ponieważ alokacja przepustowości dla migracja na żywo ruchu jest <5 GB/s*- should use compression rather than RDMA as the bandwidth allocation for Live Migration traffic is <5 Gbps

* *-50% to przykładowa rezerwacja przepustowości dla tego przykładu**- 50% is an example bandwidth reservation for this example

Zagadnienia dotyczące rozciągniętych klastrówStretched cluster considerations

Rozproszone klastry umożliwiają odzyskiwanie awaryjne obejmujące wiele centrów danych.Stretched clusters provide disaster recovery that spans multiple data centers. W najprostszej formie sieć klastrów rozciągnięta Azure Stack HCL wygląda następująco:In its simplest form, a stretched Azure Stack HCI cluster network looks like this:

Rozproszony klaster

Rozproszone klastry mają następujące wymagania i cechy:Stretched clusters have the following requirements and characteristics:

  • Funkcja RDMA jest ograniczona do jednej lokacji i nie jest obsługiwana w różnych lokacjach i podsieciach.RDMA is limited to a single site, and is not supported across different sites or subnets.

  • Serwery w tej samej lokacji muszą znajdować się w tym samym stojaku i w warstwie 2.Servers in the same site must reside in the same rack and Layer-2 boundary.

  • Komunikacja między lokacjami przekracza granicę warstwy 3; rozproszone topologie warstwy 2 nie są obsługiwane.Communication between sites cross a Layer-3 boundary; stretched Layer-2 topologies are not supported.

  • Jeśli lokacja używa funkcji RDMA dla kart pamięci, te karty muszą znajdować się w osobnej podsieci i sieci VLAN, która nie może kierować między lokacjami.If a site uses RDMA for its storage adapters, these adapters must be on a separate subnet and VLAN that cannot route between sites. Zapobiega to używaniu funkcji RDMA między lokacjami przez replikę magazynu.This prevents Storage Replica from using RDMA across sites.

  • Karty używane do komunikacji między lokacjami:Adapters used for communication between sites:

    • Może być fizyczny lub wirtualny (wirtualnej karty sieciowej hosta).Can be physical or virtual (host vNIC). Jeśli wirtualna, należy udostępnić jedną wirtualnej karty sieciowej w swojej podsieci i sieci VLAN dla fizycznej karty sieciowej.If virtual, you must provision one vNIC in its own subnet and VLAN per physical NIC.
    • Musi znajdować się w własnej podsieci i sieci VLAN, która może kierować między lokacjami.Must be on their own subnet and VLAN that can route between sites.
    • Funkcję RDMA należy wyłączyć przy użyciu Disable-NetAdapterRDMA polecenia cmdlet.RDMA must be disabled using the Disable-NetAdapterRDMA cmdlet. Zalecamy jawne wymaganie, aby replika magazynu korzystała z określonych interfejsów przy użyciu Set-SRNetworkConstraint polecenia cmdlet.We recommend that you explicitly require Storage Replica to use specific interfaces using the Set-SRNetworkConstraint cmdlet.
    • Muszą spełniać dodatkowe wymagania dotyczące repliki magazynu.Must meet any additional requirements for Storage Replica.
  • W przypadku przejścia w tryb failover do innej lokacji należy upewnić się, że dostępna jest wystarczająca przepustowość do uruchamiania obciążeń w innej lokacji.In the event of a failover to another site, you must ensure that enough bandwidth is available to run the workloads at the other site. Bezpieczną opcją jest udostępnienie witryn na 50% dostępnej pojemności.A safe option is to provision sites at 50% of their available capacity. Nie jest to niezbędne, jeśli można tolerować niższą wydajność podczas pracy w trybie failover.This is not a hard requirement if you are able to tolerate lower performance during a failover.

Następne krokiNext steps