Co je software Load Balancer ( SLB ) pro Sdn?What is Software Load Balancer (SLB) for SDN?

Platí pro: Azure Stack HCI, verze 20H2; Windows Server 2019Applies to: Azure Stack HCI, version 20H2; Windows Server 2019

Poskytovatelé cloudových služeb (CSP) a podniky, které nasazují software definované sítě (SDN) v Azure Stack HCI , můžou k rovnoměrné distribuci síťového provozu klientů a klientů tenanta mezi prostředky virtuální sítě použít software Load BALANCER (SLB).Cloud Service Providers (CSPs) and enterprises that are deploying Software Defined Networking (SDN) in Azure Stack HCI can use Software Load Balancer (SLB) to evenly distribute tenant and tenant customer network traffic among virtual network resources. SLB umožňuje více serverům hostovat stejnou úlohu, což zajišťuje vysokou dostupnost a škálovatelnost.SLB enables multiple servers to host the same workload, providing high availability and scalability.

Load Balancer softwaru obsahuje následující funkce:Software Load Balancer includes the following capabilities:

  • Služby Vyrovnávání zatížení vrstvy 4 (L4) pro přenosy dat pro sever/jih a na východ a na západ TCP/UDP.Layer 4 (L4) load balancing services for north/south and east/west TCP/UDP traffic.

  • Vyrovnávání zatížení veřejných sítí a interních síťových přenosů.Public network and Internal network traffic load balancing.

  • Podpora dynamických IP adres (DIP) u virtuálních místních sítí (VLAN) a ve virtuálních sítích, které vytvoříte pomocí virtualizace sítě Hyper-V.Dynamic IP addresses (DIPs) support on virtual Local Area Networks (VLANs) and on virtual networks that you create by using Hyper-V Network Virtualization.

  • Podpora sondy stavu.Health probe support.

  • Připravené na škálování v cloudu, včetně možností škálování na více instancí a možností škálování pro multiplexor a hostitelské agenty.Ready for cloud scale, including scale-out capability and scale-up capability for multiplexers and host agents.

  • Sjednocený hraniční Server s více klienty bez problémů integrovaných s technologiemi SDN, jako je brána RAS, firewall Datacenter a reflektor trasy.A multitenant unified edge by seamlessly integrating with SDN technologies such as the RAS Gateway, Datacenter Firewall, and Route Reflector.

Další informace najdete v tématu funkce Load Balancer softwaru v tomto tématu.For more information, see Software Load Balancer Features in this topic.

Poznámka

Víceklientská architektura pro sítě VLAN není síťovým adaptérem podporována.Multitenancy for VLANs is not supported by Network Controller. Můžete ale použít sítě VLAN s SLB pro úlohy spravované poskytovateli služeb, jako je například infrastruktura Datacenter a webové servery s vysokou hustotou.However, you can use VLANs with SLB for service provider managed workloads, such as the datacenter infrastructure and high density Web servers.

Pomocí Load Balancer softwaru můžete škálovat možnosti vyrovnávání zatížení pomocí virtuálních počítačů (VM) služby SLB na stejných výpočetních serverech Hyper-V, které používáte pro jiné úlohy virtuálních počítačů.Using Software Load Balancer, you can scale out your load balancing capabilities using SLB virtual machines (VMs) on the same Hyper-V compute servers that you use for your other VM workloads. Z tohoto důvodu podporuje vyrovnávání zatížení softwaru rychlé vytváření a mazání koncových bodů vyrovnávání zatížení, které jsou požadovány pro operace CSP.Because of this, Software Load Balancing supports the rapid creation and deletion of load balancing endpoints that is required for CSP operations. Vyrovnávání zatížení softwaru navíc podporuje desítky gigabajtů na cluster, poskytuje jednoduchý zřizovací model a umožňuje snadné horizontální navýšení a navýšení kapacity.In addition, Software Load Balancing supports tens of gigabytes per cluster, provides a simple provisioning model, and is easy to scale out and in.

Jak funguje Load Balancer softwaruHow Software Load Balancer works

Software Load Balancer funguje tak, že namapuje virtuální IP adresy (VIP) na DIP, které jsou součástí sady prostředků cloudové služby v datacentru.Software Load Balancer works by mapping virtual IP addresses (VIPs) to DIPs that are part of a cloud service set of resources in the datacenter.

VIP jsou jedna IP adresa, která poskytuje veřejný přístup k fondu virtuálních počítačů s vyrovnáváním zatížení.VIPs are single IP addresses that provide public access to a pool of load balanced VMs. Například VIP jsou IP adresy, které jsou zpřístupněny na internetu, aby se klienti a klienti klientů mohli připojovat k prostředkům tenanta v cloudovém datovém centru.For example, VIPs are IP addresses that are exposed on the internet so that tenants and tenant customers can connect to tenant resources in the cloud datacenter.

DIP jsou IP adresy virtuálních počítačů ve fondu s vyrovnáváním zatížení za virtuální IP adresou.DIPs are the IP addresses of the member VMs of a load balanced pool behind the VIP. K prostředkům tenanta se přiřadí v rámci cloudové infrastruktury DIP.DIPs are assigned within the cloud infrastructure to the tenant resources.

Virtuální IP adresy se nacházejí v multiplexu SLB (MUX).VIPs are located in the SLB Multiplexer (MUX). MUX se skládá z jednoho nebo více virtuálních počítačů.The MUX consists of one or more VMs. Síťový adaptér poskytuje každé MUX každé virtuální IP adrese a každé MUX používá Border Gateway Protocol (BGP) k inzerování každé virtuální IP adresy směrovačům ve fyzické síti jako trasu/32.Network Controller provides each MUX with each VIP, and each MUX in turn uses Border Gateway Protocol (BGP) to advertise each VIP to routers on the physical network as a /32 route. Protokol BGP umožňuje směrovačům fyzické sítě:BGP allows the physical network routers to:

  • Přečtěte si, že virtuální IP adresa je k dispozici na všech MUX, i když se MUX nacházejí v různých podsítích v síti vrstvy 3.Learn that a VIP is available on each MUX, even if the MUXes are on different subnets in a Layer 3 network.

  • Rozšíří zatížení každé virtuální IP adresy napříč všemi dostupnými MUX pomocí směrování ECMP (EQUAL cost multi-Path).Spread the load for each VIP across all available MUXes using Equal Cost Multi-Path (ECMP) routing.

  • Automaticky zjistí selhání nebo odebrání MUX a zastaví odesílání provozu do neúspěšného přenosu MUX.Automatically detect a MUX failure or removal and stop sending traffic to the failed MUX.

  • Rozprostře zatížení z neúspěšných nebo odebraných instancí MUX v rámci zdravého Muxu.Spread the load from the failed or removed MUX across the healthy MUXes.

Když se veřejné přenosy dostanou z Internetu, služba SLB MUX prověřuje přenos, který obsahuje VIP jako cíl, a namapuje a přepíše provoz tak, aby se dostal na jednotlivé DIP.When public traffic arrives from the internet, the SLB MUX examines the traffic, which contains the VIP as a destination, and maps and rewrites the traffic so that it will arrive at an individual DIP. Pro příchozí síťový provoz se tato transakce provádí v procesu se dvěma kroky, který je rozdělen mezi virtuální počítače MUX a hostitele technologie Hyper-V, kde je umístěn cílový DIP:For inbound network traffic, this transaction is performed in a two-step process that is split between the MUX VMs and the Hyper-V host where the destination DIP is located:

  1. Vyrovnávání zatížení – MUX používá VIP k výběru DIP, zapouzdřuje paket a přepošle provoz na hostitele Hyper-V, kde se nachází DIP.Load balance - the MUX uses the VIP to select a DIP, encapsulates the packet, and forwards the traffic to the Hyper-V host where the DIP is located.

  2. Překlad síťových adres (NAT) – Hostitel Hyper-V odebírá zapouzdření z paketu, překládá virtuální IP adresu na DIP, přemapuje porty a předává paket na virtuální počítač DIP.Network Address Translation (NAT) - the Hyper-V host removes encapsulation from the packet, translates the VIP to a DIP, remaps the ports, and forwards the packet to the DIP VM.

MUX ví, jak namapovat VIP na správné DIP kvůli zásadám vyrovnávání zatížení, které definujete pomocí síťového adaptéru.The MUX knows how to map VIPs to the correct DIPs because of load balancing policies that you define by using Network Controller. Mezi tato pravidla patří protokol, port front-end, back-end port a distribuční algoritmus (5, 3 nebo 2 řazené kolekce členů).These rules include Protocol, Front-end Port, Back-end Port, and distribution algorithm (5, 3, or 2 tuples).

Když virtuální počítače klienta reagují a odesílají odchozí síťové přenosy zpátky do internetových nebo vzdálených tenantů, protože služba NAT provádí hostitele Hyper-V, přeskočí zatížení MUX a přímo do hraničního směrovače z hostitele Hyper-V.When tenant VMs respond and send outbound network traffic back to the internet or remote tenant locations, because the NAT is performed by the Hyper-V host, the traffic bypasses the MUX and goes directly to the edge router from the Hyper-V host. Tento proces obejití instancí MUX se nazývá přímé vrácení serveru (DSR).This MUX bypass process is called Direct Server Return (DSR).

A po navázání počátečního toku síťových přenosů příchozí síťový provoz obchází všechny instance SLB MUX zcela.And after the initial network traffic flow is established, the inbound network traffic bypasses the SLB MUX completely.

Na následujícím obrázku klientský počítač provede dotaz DNS na IP adresu webu služby SharePoint společnosti, v tomto případě fiktivní společnost s názvem contoso.In the following illustration, a client computer performs a DNS query for the IP address of a company SharePoint site - in this case, a fictional company named Contoso. Dojde k následujícímu procesu:The following process occurs:

  1. Server DNS vrátí VIP 107.105.47.60 klientovi.The DNS server returns the VIP 107.105.47.60 to the client.

  2. Klient odešle požadavek HTTP na virtuální IP adresu.The client sends an HTTP request to the VIP.

  3. Fyzická síť má k dispozici více cest, aby bylo možné dosáhnout virtuální IP adresy nacházející se v rozhraních MUX.The physical network has multiple paths available to reach the VIP located on any MUX. Každý směrovač na cestě používá ECMP k výběru dalšího segmentu cesty, dokud požadavek nepřijde na MUX.Each router along the way uses ECMP to pick the next segment of the path until the request arrives at a MUX.

  4. MUX, který obdrží požadavek, ověří nakonfigurované zásady a zjistí, že ve virtuální síti jsou k dispozici dvě vyhrazené IP adresy, 10.10.10.5 a 10.10.20.5, které zpracovávají požadavek na VIP 107.105.47.60.The MUX that receives the request checks configured policies, and sees that there are two DIPs available, 10.10.10.5 and 10.10.20.5, on a virtual network to handle the request to the VIP 107.105.47.60

  5. MUX vybere DIP 10.10.10.5 a zapouzdřuje pakety pomocí VXLAN, aby ji mohl odeslat do hostitele, který obsahuje DIP, pomocí fyzické síťové adresy hostitele.The MUX selects DIP 10.10.10.5 and encapsulates the packets using VXLAN so that it can send it to the host containing the DIP using the host's physical network address.

  6. Hostitel přijme zapouzdřený paket a zkontroluje ho.The host receives the encapsulated packet and inspects it. Odstraní zapouzdření a přepíše paket tak, aby byl místo virtuální IP adresy 10.10.10.5 místo VIP a pak odeslal provoz na DIP virtuální počítač.It removes the encapsulation and rewrites the packet so that the destination is now DIP 10.10.10.5 instead of the VIP, and then sends the traffic to DIP VM.

  7. Požadavek dosáhne webu služby SharePoint společnosti Contoso v serverové farmě 2.The request reaches the Contoso SharePoint site in Server Farm 2. Server vygeneruje odpověď a pošle ji klientovi pomocí vlastní IP adresy jako zdroje.The server generates a response and sends it to the client, using its own IP address as the source.

  8. Hostitel zachycuje odchozí paket ve virtuálním přepínači, který pamatuje, že klient, nyní cíl, vytvořil původní požadavek na virtuální IP adresu.The host intercepts the outgoing packet in the virtual switch which remembers that the client, now the destination, made the original request to the VIP. Hostitel přepíše zdroj paketu jako virtuální IP adresu, aby klient nevidí adresu DIP.The host rewrites the source of the packet to be the VIP so that the client does not see the DIP address.

  9. Hostitel přepošle paket přímo do výchozí brány pro fyzickou síť, která používá svou standardní směrovací tabulku pro přeposílání paketu klientovi, který obdrží odpověď.The host forwards the packet directly to the default gateway for the physical network which uses its standard routing table to forward the packet on to the client, which eventually receives the response.

Proces vyrovnávání zatížení softwaru

Vyrovnávání zatížení interního datového centraLoad balancing internal datacenter traffic

Při vyrovnávání zatížení sítě interního datového centra, například mezi prostředky tenanta, které běží na různých serverech a jsou členy stejné virtuální sítě, je virtuální přepínač Hyper-V, ke kterému jsou připojené virtuální počítače, provádět NAT.When load balancing network traffic internal to the datacenter, such as between tenant resources that are running on different servers and are members of the same virtual network, the Hyper-V virtual switch to which the VMs are connected performs NAT.

V případě interního vyrovnávání zatížení se první požadavek pošle a zpracovává pomocí MUX, který vybere odpovídající DIP a pak přesměruje provoz do DIP.With internal traffic load balancing, the first request is sent to and processed by the MUX, which selects the appropriate DIP, and then routes the traffic to the DIP. Od tohoto okamžiku předem zavedený tok přenosů obchází MUX a přejde přímo z virtuálního počítače na virtuální počítač.From that point forward, the established traffic flow bypasses the MUX and goes directly from VM to VM.

Sondy stavuHealth probes

Software Load Balancer zahrnuje sondy stavu pro ověření stavu síťové infrastruktury, včetně následujících:Software Load Balancer includes health probes to validate the health of the network infrastructure, including the following:

  • Test TCP na portTCP probe to port

  • Test HTTP na port a adresu URLHTTP probe to port and URL

Na rozdíl od tradičních zařízení pro vyrovnávání zatížení, kde sonda vzchází na zařízení a přenáší do sítě DIP, vychází sonda SLB v hostiteli, kde se nachází DIP, a přímo z agenta hostitele SLB do DIP, dále distribuuje práci mezi hostiteli.Unlike a traditional load balancer appliance where the probe originates on the appliance and travels across the wire to the DIP, the SLB probe originates on the host where the DIP is located and goes directly from the SLB host agent to the DIP, further distributing the work across the hosts.

Infrastruktura Load Balancer softwaruSoftware Load Balancer Infrastructure

Než budete moct nakonfigurovat Load Balancer softwaru, musíte nejdřív nasadit síťový adaptér a jeden nebo víc virtuálních počítačů SLB MUX.Before you can configure Software Load Balancer, you must first deploy Network Controller and one or more SLB MUX VMs.

Kromě toho musíte nakonfigurovat Azure Stack hostitele HCI s virtuálním přepínačem Hyper-V s povoleným SDN a ujistit se, že je agent hostitele SLB spuštěný.In addition, you must configure the Azure Stack HCI hosts with the SDN-enabled Hyper-V virtual switch and ensure that the SLB Host Agent is running. Směrovače, které obsluhují hostitele, musí podporovat směrování ECMP a Border Gateway Protocol (BGP) a musí být nakonfigurované tak, aby přijímaly požadavky na partnerský vztah protokolu BGP z MUX SLB.The routers that serve the hosts must support ECMP routing and Border Gateway Protocol (BGP), and they must be configured to accept BGP peering requests from the SLB MUXes.

Následující obrázek poskytuje přehled infrastruktury SLB.The following figure provides an overview of the SLB infrastructure.

Infrastruktura Load Balancer softwaru

Následující části poskytují další informace o těchto prvcích infrastruktury Load Balancer softwaru.The following sections provide more information about these elements of the Software Load Balancer infrastructure.

Síťový adaptérNetwork Controller

Síťový adaptér je hostitelem Správce služby SLB a provádí následující akce pro Load Balancer softwaru:Network Controller hosts the SLB Manager and performs the following actions for Software Load Balancer:

  • Procesy SLB, které se přidávají prostřednictvím rozhraní Northbound API z centra pro správu Windows, nástroje System Center, Windows PowerShell nebo jiné aplikace pro správu sítě.Processes SLB commands that come in through the Northbound API from Windows Admin Center, System Center, Windows PowerShell, or another network management application.

  • Vypočítá zásadu pro distribuci Azure Stack hostitelé HCI a SLB MUX.Calculates policy for distribution to Azure Stack HCI hosts and SLB MUXes.

  • Poskytuje stav infrastruktury Load Balancer softwaru.Provides the health status of the Software Load Balancer infrastructure.

K instalaci a konfiguraci síťového adaptéru a jiné infrastruktury SLB můžete použít Centrum pro správu Windows nebo Windows PowerShell.You can use Windows Admin Center or Windows PowerShell to install and configure Network Controller and other SLB infrastructure.

SLB MUXSLB MUX

SLB MUX zpracovává příchozí síťový provoz a mapuje VIP na DIP a pak přepošle provoz na správnou DIP.The SLB MUX processes inbound network traffic and maps VIPs to DIPs, then forwards the traffic to the correct DIP. Každé MUX používá protokol BGP také k publikování tras VIP k hraničním směrovačům.Each MUX also uses BGP to publish VIP routes to edge routers. Keep Alive protokolu BGP upozorní MUX, když MUX selže, což umožňuje aktivnímu MUX opětovné distribuci zatížení v případě selhání MUX.BGP Keep Alive notifies MUXes when a MUX fails, which allows active MUXes to redistribute the load in case of a MUX failure. To v podstatě poskytuje vyrovnávání zatížení pro nástroje pro vyrovnávání zatížení.This essentially provides load balancing for the load balancers.

Agent hostitele SLBSLB Host Agent

Když nasadíte Load Balancer softwaru, musíte použít Centrum pro správu Windows, System Center, Windows PowerShell nebo jinou aplikaci pro správu k nasazení agenta hostitele SLB na každý hostitelský server.When you deploy Software Load Balancer, you must use Windows Admin Center, System Center, Windows PowerShell, or another management application to deploy the SLB Host Agent on every host server.

Agent hostitele SLB čeká na aktualizace zásad SLB ze síťového adaptéru.The SLB Host Agent listens for SLB policy updates from Network Controller. Kromě toho hostitelský agent konfiguruje pravidla pro SLB do virtuálních přepínačů Hyper-V s povolenou technologií SDN nakonfigurovaných v místním počítači.In addition, the host agent programs rules for SLB into the SDN-enabled Hyper-V virtual switches that are configured on the local computer.

Virtuální přepínač Hyper-V s povoleným SDNSDN-enabled Hyper-V virtual switch

Aby byl virtuální přepínač kompatibilní s SLB, musí být ve virtuálním přepínači povolený rozšíření VFP (Virtual Filtering Platform).For a virtual switch to be compatible with SLB, the Virtual Filtering Platform (VFP) extension must be enabled on the virtual switch. To je prováděno automaticky pomocí skriptů PowerShell nasazení SDN, Průvodce nasazením centra pro správu systému Windows a nasazení System Center Virtual Machine Manager (SCVMM).This is done automatically by the SDN deployment PowerShell scripts, Windows Admin Center deployment wizard, and System Center Virtual Machine Manager (SCVMM) deployment.

Informace o povolení VFP na virtuálních přepínačích najdete v tématu příkazy Windows PowerShellu Get-VMSystemSwitchExtension a Enable-VMSwitchExtension.For information on enabling VFP on virtual switches, see the Windows PowerShell commands Get-VMSystemSwitchExtension and Enable-VMSwitchExtension.

Virtuální přepínač technologie Hyper-V s povoleným SDN provádí následující akce pro SLB:The SDN-enabled Hyper-V virtual switch performs the following actions for SLB:

  • Zpracuje cestu dat pro SLB.Processes the data path for SLB.

  • Přijímá příchozí síťový provoz od MUX.Receives inbound network traffic from the MUX.

  • Obchází MUX pro odchozí síťový provoz a odesílá ho do směrovače pomocí DSR.Bypasses the MUX for outbound network traffic, sending it to the router using DSR.

Směrovač protokolu BGPBGP router

Směrovač protokolu BGP provádí následující akce Load Balancer softwaru:The BGP router performs the following actions for Software Load Balancer:

  • Směruje příchozí provoz do MUX pomocí ECMP.Routes inbound traffic to the MUX using ECMP.

  • U odchozího síťového provozu používá trasu poskytnutou hostitelem.For outbound network traffic, uses the route provided by the host.

  • Naslouchá aktualizacím VIP pro virtuální IP adresy z SLB MUX.Listens for route updates for VIPs from SLB MUX.

  • Odebere SLB MUX z rotace SLB, pokud se Keep Alive nezdařila.Removes SLB MUXes from the SLB rotation if Keep Alive fails.

Funkce Load Balancer softwaruSoftware Load Balancer Features

Následující části popisují některé funkce a možnosti Load Balancer softwaru.The following sections describe some of the features and capabilities of Software Load Balancer.

Základní funkceCore functionality

  • SLB poskytuje služby Vyrovnávání zatížení vrstvy 4 pro přenosy v oblasti sever/jih a na východ a západ TCP/UDP.SLB provides Layer 4 load balancing services for north/south and east/west TCP/UDP traffic.

  • SLB můžete použít v síti založené na virtualizaci sítě Hyper-V.You can use SLB on a Hyper-V Network Virtualization-based network.

  • Můžete použít SLB se sítí VLAN pro virtuální počítače, které jsou připojené k virtuálnímu přepínači Hyper-V s podporou SDN.You can use SLB with a VLAN-based network for DIP VMs connected to a SDN Enabled Hyper-V virtual switch.

  • Jedna instance SLB může zpracovávat více tenantů.One SLB instance can handle multiple tenants.

  • SLB a DIP podporují zpáteční cestu s nízkou latencí, která je implementovaná přes DSR.SLB and DIP support a scalable and low-latency return path, as implemented by DSR.

  • SLB Functions, když používáte také rozhraní SR-IOV (Switch Embedded Teaming) nebo single root Input/Output Virtualization (SR-IOV).SLB functions when you are also using Switch Embedded Teaming (SET) or Single Root Input/Output Virtualization (SR-IOV).

  • SLB zahrnuje podporu Internet Protocol verze 6 (IPv6) a verze 4 (IPv4).SLB includes Internet Protocol version 6 (IPv6) and version 4 (IPv4) support.

  • Pro scénáře brány typu Site-to-site poskytuje SLB funkce překladu adres (NAT), která umožňuje všem připojením typu Site-to-site využívat jednu veřejnou IP adresu.For site-to-site gateway scenarios, SLB provides NAT functionality to enable all site-to-site connections to utilize a single public IP.

Škálování a výkonScale and performance

  • Připravené na škálování v cloudu, včetně možností škálování na více instancí a škálování pro MUX a agenty hostitele.Ready for cloud scale, including scale-out and scale-up capability for MUXes and Host Agents.

  • Jeden aktivní modul síťového adaptéru nástroje SLB Manager může podporovat osm instancí MUX.One active SLB Manager Network Controller module can support eight MUX instances.

Vysoká dostupnostHigh availability

  • Službu SLB můžete nasadit do více než dvou uzlů v konfiguraci aktivní/aktivní.You can deploy SLB to more than two nodes in an active/active configuration.

  • MUX je možné přidat a odebrat z fondu instancí MUX, aniž by to ovlivnilo službu SLB.MUXes can be added and removed from the MUX pool without impacting the SLB service. Tím se zachová dostupnost SLB při opravách jednotlivých MUX.This maintains SLB availability when individual MUXes are being patched.

  • Jednotlivé instance MUX mají dobu provozu 99 procent.Individual MUX instances have an uptime of 99 percent.

  • Data monitorování stavu jsou k dispozici pro entity správy.Health monitoring data is available to management entities.

Další krokyNext steps

Související informace najdete v tématu také:For related information, see also: