Mi a szoftver Load Balancer ( SLB ) for Sdn?What is Software Load Balancer (SLB) for SDN?

A következőkre vonatkozik: Azure Stack HCI, Version 20H2; Windows Server 2019Applies to: Azure Stack HCI, version 20H2; Windows Server 2019

A Azure stack HCI-ben a szoftveres hálózatkezelést (Sdn) telepítő felhőalapú szolgáltatók (CSP-EK) és a szoftveres Load BALANCER (SLB) segítségével egyenletesen terjeszthetik a bérlői és bérlői ügyfél hálózati forgalmát a virtuális hálózati erőforrások között.Cloud Service Providers (CSPs) and enterprises that are deploying Software Defined Networking (SDN) in Azure Stack HCI can use Software Load Balancer (SLB) to evenly distribute tenant and tenant customer network traffic among virtual network resources. A SLB lehetővé teszi, hogy több kiszolgáló ugyanazt a számítási feladatot működtesse, magas rendelkezésre állást és méretezhetőséget biztosítva.SLB enables multiple servers to host the same workload, providing high availability and scalability.

A szoftver Load Balancer a következő képességeket tartalmazza:Software Load Balancer includes the following capabilities:

  • 4. réteg (L4) terheléselosztási szolgáltatások az Észak-és Dél-, valamint a keleti/nyugati TCP/UDP-forgalomhoz.Layer 4 (L4) load balancing services for north/south and east/west TCP/UDP traffic.

  • Nyilvános hálózat és belső hálózati forgalom terheléselosztása.Public network and Internal network traffic load balancing.

  • Dinamikus IP-címek (DIPs) támogatása a virtuális helyi hálózatok (VLAN-ok) és a Hyper-V hálózati virtualizálás használatával létrehozott virtuális hálózatok esetében.Dynamic IP addresses (DIPs) support on virtual Local Area Networks (VLANs) and on virtual networks that you create by using Hyper-V Network Virtualization.

  • Állapot-mintavételi támogatás.Health probe support.

  • Készen áll a felhőalapú méretezésre, többek között a kibővíthető képességre és a multiplexerek és a gazdagép-ügynökök felskálázására.Ready for cloud scale, including scale-out capability and scale-up capability for multiplexers and host agents.

  • Egy több-bérlős egyesített peremhálózat zökkenőmentesen integrálható az SDN-technológiákkal, például a RAS-átjáróval, az adatközpont-tűzfallal és az útvonal-tükrözéssel.A multitenant unified edge by seamlessly integrating with SDN technologies such as the RAS Gateway, Datacenter Firewall, and Route Reflector.

További információ: a jelen témakör szoftverek Load Balancer szolgáltatásai .For more information, see Software Load Balancer Features in this topic.

Megjegyzés

A hálózati vezérlő nem támogatja a VLAN-ok bérlős.Multitenancy for VLANs is not supported by Network Controller. A VLAN-ok azonban a szolgáltató által felügyelt számítási feladatokhoz, például az adatközpont-infrastruktúrához és a nagy sűrűségű webkiszolgálók SLB használhatók.However, you can use VLANs with SLB for service provider managed workloads, such as the datacenter infrastructure and high density Web servers.

A szoftveres Load Balancer használatával a SLB virtuális gépek (VM-EK) használatával a terheléselosztási funkciókat a többi virtuálisgép-munkaterheléshez használt Hyper-V számítási kiszolgálókon is kibővítheti.Using Software Load Balancer, you can scale out your load balancing capabilities using SLB virtual machines (VMs) on the same Hyper-V compute servers that you use for your other VM workloads. Emiatt a szoftveres terheléselosztás támogatja a CSP-műveletekhez szükséges terheléselosztási végpontok gyors létrehozását és törlését.Because of this, Software Load Balancing supports the rapid creation and deletion of load balancing endpoints that is required for CSP operations. Emellett a szoftveres terheléselosztás a fürtön belül több tízezer gigabájtot is támogat, egyszerű kiépítési modellt biztosít, és könnyen kibővíthető.In addition, Software Load Balancing supports tens of gigabytes per cluster, provides a simple provisioning model, and is easy to scale out and in.

A szoftveres Load Balancer működéseHow Software Load Balancer works

A szoftver Load Balancer úgy működik, hogy a virtuális IP-címeket (VIP) olyan DIPsra rendeli, amely az adatközpontban található erőforrások felhőalapú szolgáltatásának részét képezi.Software Load Balancer works by mapping virtual IP addresses (VIPs) to DIPs that are part of a cloud service set of resources in the datacenter.

A VIP-címek egyetlen IP-cím, amelyek nyilvános hozzáférést biztosítanak egy elosztott terhelésű virtuális gépek készletéhez.VIPs are single IP addresses that provide public access to a pool of load balanced VMs. A VIP-címek például az interneten elérhető IP-címek, így a bérlők és a bérlők ügyfelei csatlakozni tudnak a felhőalapú adatközpontban található bérlői erőforrásokhoz.For example, VIPs are IP addresses that are exposed on the internet so that tenants and tenant customers can connect to tenant resources in the cloud datacenter.

A DIPs egy elosztott terhelésű készlet virtuális gépei IP-címe a VIP mögött.DIPs are the IP addresses of the member VMs of a load balanced pool behind the VIP. A DIPs a felhőalapú infrastruktúrában van hozzárendelve a bérlői erőforrásokhoz.DIPs are assigned within the cloud infrastructure to the tenant resources.

A VIP-EK a SLB Multiplexerben (MUX) találhatók.VIPs are located in the SLB Multiplexer (MUX). A MUX egy vagy több virtuális gépet tartalmaz.The MUX consists of one or more VMs. A hálózati vezérlő minden egyes VIP-MUX biztosít, és mindegyik MUX Border Gateway Protocol (BGP) használatával hirdeti meg az egyes VIP-ket a fizikai hálózaton lévő útválasztók számára/32 útvonalként.Network Controller provides each MUX with each VIP, and each MUX in turn uses Border Gateway Protocol (BGP) to advertise each VIP to routers on the physical network as a /32 route. A BGP lehetővé teszi a fizikai hálózati útválasztók számára a következőket:BGP allows the physical network routers to:

  • Ismerje meg, hogy minden MUX elérhető-e VIP-cím, még akkor is, ha a MUXes a 3. rétegbeli hálózat különböző alhálózatán vannak.Learn that a VIP is available on each MUX, even if the MUXes are on different subnets in a Layer 3 network.

  • A virtuális IP-címek terhelését az összes rendelkezésre álló MUXes egyenlő díjszabású többutas (ECMP) útvonalon keresztül oszthatja szét.Spread the load for each VIP across all available MUXes using Equal Cost Multi-Path (ECMP) routing.

  • A MUX hibájának vagy eltávolításának automatikus észlelése, valamint a sikertelen MUX való adatküldés leállítása.Automatically detect a MUX failure or removal and stop sending traffic to the failed MUX.

  • A sikertelen vagy eltávolított MUX terhelésének elosztása az egészséges MUXes.Spread the load from the failed or removed MUX across the healthy MUXes.

Ha a nyilvános forgalom az internetről érkezik, a SLB MUX megvizsgálja a forgalmat, amely a virtuális IP-címet tartalmazza célhelyként, és leképezi és átírja a forgalmat úgy, hogy az egy adott DIP-ra fog érkezni.When public traffic arrives from the internet, the SLB MUX examines the traffic, which contains the VIP as a destination, and maps and rewrites the traffic so that it will arrive at an individual DIP. A bejövő hálózati forgalom esetében ezt a tranzakciót egy kétlépéses folyamat hajtja végre, amely a MUX virtuális gépek és a Hyper-V-gazdagép között oszlik meg, ahol a cél DIP található:For inbound network traffic, this transaction is performed in a two-step process that is split between the MUX VMs and the Hyper-V host where the destination DIP is located:

  1. Terheléselosztás – a MUX a virtuális IP-címet használja a DIP kiválasztásához, beágyazza a csomagot, és továbbítja a forgalmat arra a Hyper-V-gazdagépre, ahol a DIP található.Load balance - the MUX uses the VIP to select a DIP, encapsulates the packet, and forwards the traffic to the Hyper-V host where the DIP is located.

  2. Hálózati címfordítás (NAT) – a Hyper-V-gazdagép eltávolítja a csomagból a beágyazást, lefordítja a VIP-t egy DIP-re, újraképezi a portokat, és továbbítja a csomagot a DIP virtuális géphez.Network Address Translation (NAT) - the Hyper-V host removes encapsulation from the packet, translates the VIP to a DIP, remaps the ports, and forwards the packet to the DIP VM.

A MUX tudja, hogyan képezhető le a virtuális IP-címek a megfelelő DIPshoz a hálózati vezérlő használatával meghatározott terheléselosztási házirendek miatt.The MUX knows how to map VIPs to the correct DIPs because of load balancing policies that you define by using Network Controller. Ezek a szabályok a következők: protokoll, előtér-port, háttér-port és terjesztési algoritmus (5, 3 vagy 2 rekordok).These rules include Protocol, Front-end Port, Back-end Port, and distribution algorithm (5, 3, or 2 tuples).

Ha a bérlői virtuális gépek válaszolnak, és a kimenő hálózati forgalmat visszaküldik az internetre vagy a távoli bérlői helyekre, mert a NAT-t a Hyper-V-gazdagép hajtja végre, a forgalom megkerüli a MUX, és közvetlenül a peremhálózati útválasztóhoz irányítja a Hyper-V gazdagépet.When tenant VMs respond and send outbound network traffic back to the internet or remote tenant locations, because the NAT is performed by the Hyper-V host, the traffic bypasses the MUX and goes directly to the edge router from the Hyper-V host. Ezt a MUX megkerülő folyamat neve Direct Server Return (DSR).This MUX bypass process is called Direct Server Return (DSR).

A kezdeti hálózati forgalom létrehozása után a bejövő hálózati forgalom teljesen megkerüli a SLB MUX.And after the initial network traffic flow is established, the inbound network traffic bypasses the SLB MUX completely.

Az alábbi ábrán egy ügyfélszámítógép DNS-lekérdezést hajt végre egy vállalati SharePoint-webhely IP-címéhez – ebben az esetben a contoso nevű kitalált vállalatot.In the following illustration, a client computer performs a DNS query for the IP address of a company SharePoint site - in this case, a fictional company named Contoso. A következő folyamat történik:The following process occurs:

  1. A DNS-kiszolgáló visszaadja a VIP-107.105.47.60 az ügyfélnek.The DNS server returns the VIP 107.105.47.60 to the client.

  2. Az ügyfél HTTP-kérést küld a VIP-nek.The client sends an HTTP request to the VIP.

  3. A fizikai hálózat több elérési úttal rendelkezik, amelyekkel elérheti a VIP-t bármely MUX.The physical network has multiple paths available to reach the VIP located on any MUX. Az egyes útválasztók a ECMP használatával veszik fel az elérési út következő szegmensét, amíg a kérelem meg nem érkezik egy MUX.Each router along the way uses ECMP to pick the next segment of the path until the request arrives at a MUX.

  4. A kérést fogadó MUX ellenőrzi a konfigurált házirendeket, és úgy látja, hogy a virtuális hálózaton két, a 10.10.10.5 és a 10.10.20.5 rendelkezésre álló DIPs van, hogy kezelni tudja a kérést a VIP 107.105.47.60The MUX that receives the request checks configured policies, and sees that there are two DIPs available, 10.10.10.5 and 10.10.20.5, on a virtual network to handle the request to the VIP 107.105.47.60

  5. A MUX kijelöli a DIP-10.10.10.5, és a VXLAN használatával beágyazza a csomagokat, hogy az a gazdagép fizikai hálózati címe alapján küldje el a DIP-t tartalmazó gazdagépnek.The MUX selects DIP 10.10.10.5 and encapsulates the packets using VXLAN so that it can send it to the host containing the DIP using the host's physical network address.

  6. A gazdagép megkapja a beágyazott csomagot, és megvizsgálja azt.The host receives the encapsulated packet and inspects it. Eltávolítja a beágyazást, és átírja a csomagot úgy, hogy a cél most a virtuális IP-cím helyett 10.10.10.5 DIP, majd elküldi a forgalmat a DIP virtuális gépre.It removes the encapsulation and rewrites the packet so that the destination is now DIP 10.10.10.5 instead of the VIP, and then sends the traffic to DIP VM.

  7. A kérelem eléri a contoso SharePoint-webhelyet a 2. kiszolgálófarm területén.The request reaches the Contoso SharePoint site in Server Farm 2. A kiszolgáló létrehoz egy választ, és elküldi az ügyfélnek a saját IP-címe forrásként való használatával.The server generates a response and sends it to the client, using its own IP address as the source.

  8. A gazdagép elfogja a virtuális kapcsolón a kimenő csomagot, amely arra a célra emlékszik, hogy az ügyfél most már a cél, az eredeti kérést a VIP-nek.The host intercepts the outgoing packet in the virtual switch which remembers that the client, now the destination, made the original request to the VIP. A gazdagép újraírja a csomag forrását úgy, hogy a VIP legyen, így az ügyfél nem látja a DIP-címet.The host rewrites the source of the packet to be the VIP so that the client does not see the DIP address.

  9. A gazdagép továbbítja a csomagot közvetlenül a fizikai hálózat alapértelmezett átjárójának, amely a szabványos útválasztási táblázat használatával továbbítja a csomagot az ügyfélnek, amely végül megkapja a választ.The host forwards the packet directly to the default gateway for the physical network which uses its standard routing table to forward the packet on to the client, which eventually receives the response.

Szoftveres terheléselosztási folyamat

Belső adatközpont-forgalom terheléselosztásaLoad balancing internal datacenter traffic

Ha az adatközpontba belső hálózati adatforgalmat (például a különböző kiszolgálókon futó bérlői erőforrások és az ugyanazon virtuális hálózat tagjai közötti) terheléselosztást végez, a Hyper-V virtuális kapcsoló, amelyhez a virtuális gépek csatlakoznak, NAT-t hajt végre.When load balancing network traffic internal to the datacenter, such as between tenant resources that are running on different servers and are members of the same virtual network, the Hyper-V virtual switch to which the VMs are connected performs NAT.

A belső forgalom terheléselosztásával az első kérést a MUX küldi el és dolgozza fel, amely kiválasztja a megfelelő DIP-t, majd átirányítja a forgalmat a DIP felé.With internal traffic load balancing, the first request is sent to and processed by the MUX, which selects the appropriate DIP, and then routes the traffic to the DIP. Ettől a ponttól kezdve a létrehozott forgalmi folyamat megkerüli a MUX, és közvetlenül a virtuális gépről a virtuális gépre kerül.From that point forward, the established traffic flow bypasses the MUX and goes directly from VM to VM.

ÁllapotmintákHealth probes

A szoftveres Load Balancer a hálózati infrastruktúra állapotának ellenőrzésére, beleértve a következőket is:Software Load Balancer includes health probes to validate the health of the network infrastructure, including the following:

  • TCP-mintavétel portraTCP probe to port

  • HTTP-mintavétel a port és az URL-cím közöttHTTP probe to port and URL

A hagyományos terheléselosztó berendezéstől eltérően, ahol a mintavétel a berendezésből származik, és a huzalon halad a DIP-ban, a SLB mintavétel azon a gazdagépen történik, ahol a DIP található, és közvetlenül a SLB gazdagép ügynökéről a DIP-be kerül, és tovább terjeszti a munkát a gazdagépek között.Unlike a traditional load balancer appliance where the probe originates on the appliance and travels across the wire to the DIP, the SLB probe originates on the host where the DIP is located and goes directly from the SLB host agent to the DIP, further distributing the work across the hosts.

Szoftver-Load Balancer infrastruktúraSoftware Load Balancer Infrastructure

A szoftveres Load Balancer konfigurálásához először telepítenie kell a hálózati vezérlőt és egy vagy több SLB MUX virtuális gépet.Before you can configure Software Load Balancer, you must first deploy Network Controller and one or more SLB MUX VMs.

Emellett konfigurálnia kell a Azure Stack HCI-gazdagépeket az SDN-kompatibilis Hyper-V virtuális kapcsolóval, és meg kell győződnie arról, hogy a SLB-gazdagép ügynöke fut.In addition, you must configure the Azure Stack HCI hosts with the SDN-enabled Hyper-V virtual switch and ensure that the SLB Host Agent is running. A gazdagépeket kiszolgáló útválasztóknak támogatniuk kell a ECMP Útválasztás és Border Gateway Protocol (BGP) protokollt, és úgy kell konfigurálni, hogy a SLB MUXes fogadjanak el BGP-társi kérelmeket.The routers that serve the hosts must support ECMP routing and Border Gateway Protocol (BGP), and they must be configured to accept BGP peering requests from the SLB MUXes.

Az alábbi ábra áttekintést nyújt a SLB-infrastruktúráról.The following figure provides an overview of the SLB infrastructure.

Szoftver-Load Balancer infrastruktúra

A következő szakaszokban további információkat talál a szoftver Load Balancer infrastruktúra ezen elemeiről.The following sections provide more information about these elements of the Software Load Balancer infrastructure.

Hálózati vezérlőNetwork Controller

A hálózati vezérlő üzemelteti a SLB-kezelőt, és a következő műveleteket hajtja végre a szoftver Load Balancer:Network Controller hosts the SLB Manager and performs the following actions for Software Load Balancer:

  • A irányú API-n keresztül elérhető SLB-parancsokat dolgozza fel a Windows felügyeleti központ, a System Center, a Windows PowerShell vagy más hálózatkezelési alkalmazás használatával.Processes SLB commands that come in through the Northbound API from Windows Admin Center, System Center, Windows PowerShell, or another network management application.

  • Kiszámítja a terjesztési házirendet Azure Stack HCI-gazdagépekre és SLB-MUXes.Calculates policy for distribution to Azure Stack HCI hosts and SLB MUXes.

  • A szoftver Load Balancer-infrastruktúrájának állapotát adja meg.Provides the health status of the Software Load Balancer infrastructure.

A Windows felügyeleti központ vagy a Windows PowerShell segítségével telepítheti és konfigurálhatja a hálózati vezérlőt és más SLB-infrastruktúrát.You can use Windows Admin Center or Windows PowerShell to install and configure Network Controller and other SLB infrastructure.

SLB MUXSLB MUX

A SLB MUX feldolgozza a bejövő hálózati forgalmat, és leképezi a VIP-ket a DIPsba, majd a megfelelő DIP-re továbbítja a forgalmat.The SLB MUX processes inbound network traffic and maps VIPs to DIPs, then forwards the traffic to the correct DIP. Mindegyik MUX a BGP-t is használja a virtuális IP-útvonalak közzétételére a peremhálózati útválasztók számára.Each MUX also uses BGP to publish VIP routes to edge routers. A BGP életben tartása értesíti a MUXes, ha egy MUX meghibásodik, ami lehetővé teszi, hogy az aktív MUXes MUX meghibásodása esetén újraterjessze a terhelést.BGP Keep Alive notifies MUXes when a MUX fails, which allows active MUXes to redistribute the load in case of a MUX failure. Ez lényegében biztosítja a terheléselosztó terheléselosztását.This essentially provides load balancing for the load balancers.

SLB-gazda ügynökSLB Host Agent

A szoftver Load Balancer központi telepítésekor a SLB-gazdagép ügynökét a Windows felügyeleti központot, a System centert, a Windows PowerShellt vagy egy másik felügyeleti alkalmazást kell használnia az összes gazdagépen.When you deploy Software Load Balancer, you must use Windows Admin Center, System Center, Windows PowerShell, or another management application to deploy the SLB Host Agent on every host server.

A SLB-gazda ügynök figyeli a SLB házirend-frissítéseket a hálózati vezérlőről.The SLB Host Agent listens for SLB policy updates from Network Controller. Emellett a gazdagép-ügynök programjai a helyi számítógépen konfigurált, SDN-kompatibilis Hyper-V virtuális kapcsolókra vonatkozó szabályokat is SLB.In addition, the host agent programs rules for SLB into the SDN-enabled Hyper-V virtual switches that are configured on the local computer.

SDN-kompatibilis Hyper-V virtuális kapcsolóSDN-enabled Hyper-V virtual switch

Ahhoz, hogy egy virtuális kapcsoló kompatibilis legyen a SLB, engedélyezni kell a virtuális szűrő platform (VFP) bővítményt a virtuális kapcsolón.For a virtual switch to be compatible with SLB, the Virtual Filtering Platform (VFP) extension must be enabled on the virtual switch. Ezt automatikusan végrehajtja az SDN üzembe helyezési PowerShell-parancsfájlok, a Windows felügyeleti központ telepítése varázsló és a System Center Virtual Machine Manager (SCVMM) telepítése.This is done automatically by the SDN deployment PowerShell scripts, Windows Admin Center deployment wizard, and System Center Virtual Machine Manager (SCVMM) deployment.

A VFP virtuális kapcsolókon való engedélyezésével kapcsolatos információkért tekintse meg a Get-VMSystemSwitchExtension és az enable-VMSwitchExtensionWindows PowerShell-parancsokat.For information on enabling VFP on virtual switches, see the Windows PowerShell commands Get-VMSystemSwitchExtension and Enable-VMSwitchExtension.

Az SDN-kompatibilis Hyper-V virtuális kapcsoló a következő műveleteket hajtja végre a SLB:The SDN-enabled Hyper-V virtual switch performs the following actions for SLB:

  • Feldolgozza a SLB adatelérési útját.Processes the data path for SLB.

  • Bejövő hálózati forgalom fogadása a MUX.Receives inbound network traffic from the MUX.

  • Megkerüli a MUX a kimenő hálózati forgalom számára, és elküldi azt az útválasztónak a DSR használatával.Bypasses the MUX for outbound network traffic, sending it to the router using DSR.

BGP-útválasztóBGP router

A BGP-útválasztó a következő műveleteket hajtja végre a szoftver Load Balancer:The BGP router performs the following actions for Software Load Balancer:

  • A bejövő forgalmat a ECMP használatával irányítja a MUX.Routes inbound traffic to the MUX using ECMP.

  • A kimenő hálózati forgalom esetében a a gazdagép által megadott útvonalat használja.For outbound network traffic, uses the route provided by the host.

  • A SLB MUX származó VIP-címek útvonal-frissítéseinek figyelése.Listens for route updates for VIPs from SLB MUX.

  • Eltávolítja a SLB MUXes a SLB-rotációból, ha az életben maradás sikertelen.Removes SLB MUXes from the SLB rotation if Keep Alive fails.

A szoftver Load Balancer funkcióiSoftware Load Balancer Features

A következő szakaszok ismertetik a szoftverek Load Balancer funkcióit és képességeit.The following sections describe some of the features and capabilities of Software Load Balancer.

Alapvető funkciókCore functionality

  • A SLB 4. rétegbeli terheléselosztási szolgáltatásokat biztosít az Észak-és Dél-, valamint a keleti/nyugati TCP/UDP-forgalomhoz.SLB provides Layer 4 load balancing services for north/south and east/west TCP/UDP traffic.

  • A SLB Hyper-V rendszerű virtualizált hálózatokon is használható.You can use SLB on a Hyper-V Network Virtualization-based network.

  • A SLB-t VLAN-alapú hálózattal használhatja az SDN-t használó Hyper-V virtuális kapcsolóhoz csatlakozó DIP virtuális gépekhez.You can use SLB with a VLAN-based network for DIP VMs connected to a SDN Enabled Hyper-V virtual switch.

  • Egy SLB-példány több bérlőt is képes kezelni.One SLB instance can handle multiple tenants.

  • A SLB és a DIP a DSR által megvalósított skálázható és kis késleltetésű visszatérési útvonalat támogatja.SLB and DIP support a scalable and low-latency return path, as implemented by DSR.

  • SLB függvények, ha a Switch Embedded Teaming (SET) vagy egy root input/output Virtualization (SR-IOV) használatát is használja.SLB functions when you are also using Switch Embedded Teaming (SET) or Single Root Input/Output Virtualization (SR-IOV).

  • A SLB tartalmazza a Internet Protocol Version 6 (IPv6) és a 4-es verziójú (IPv4) támogatást.SLB includes Internet Protocol version 6 (IPv6) and version 4 (IPv4) support.

  • Helyek közötti átjáró esetén a SLB olyan NAT-funkciókat biztosít, amelyek lehetővé teszik az összes helyek közötti kapcsolat használatát egyetlen nyilvános IP-cím kihasználása érdekében.For site-to-site gateway scenarios, SLB provides NAT functionality to enable all site-to-site connections to utilize a single public IP.

Méretezés és teljesítményScale and performance

  • Készen áll a felhőalapú méretezésre, beleértve a kibővíthető és a MUXes és a gazdagép-ügynökökre vonatkozó vertikális Felskálázási képességet.Ready for cloud scale, including scale-out and scale-up capability for MUXes and Host Agents.

  • Egy aktív SLB-kezelő hálózati vezérlő modul nyolc MUX-példányt képes támogatni.One active SLB Manager Network Controller module can support eight MUX instances.

Magas rendelkezésre állásHigh availability

  • Egy aktív/aktív konfigurációban több mint két csomópontra is telepíthet SLB.You can deploy SLB to more than two nodes in an active/active configuration.

  • A MUXes a MUX-készletből a SLB szolgáltatás befolyásolása nélkül adhatók hozzá és távolíthatók el.MUXes can be added and removed from the MUX pool without impacting the SLB service. Ez fenntartja a SLB rendelkezésre állását, ha az egyes MUXes javítás alatt állnak.This maintains SLB availability when individual MUXes are being patched.

  • Az egyes MUX-példányok 99%-os üzemidővel rendelkeznek.Individual MUX instances have an uptime of 99 percent.

  • Az állapot-figyelési adategységek a felügyeleti entitások számára érhetők el.Health monitoring data is available to management entities.

További lépésekNext steps

A kapcsolódó információkkal kapcsolatban lásd még:For related information, see also: