Что такое программное обеспечение Load Balancer ( SLB ) для Sdn?What is Software Load Balancer (SLB) for SDN?

Применимо к: Azure Stack ХЦИ, версия 20H2; Windows Server 2019Applies to: Azure Stack HCI, version 20H2; Windows Server 2019

Поставщики облачных служб (CSP) и предприятия, которые развертывают программно-определяемую сеть (SDN) в Azure Stack хЦи , могут использовать программное обеспечение Load Balancer (SLB) для равномерного распределения сетевого трафика клиентов клиента и клиента между ресурсами виртуальной сети.Cloud Service Providers (CSPs) and enterprises that are deploying Software Defined Networking (SDN) in Azure Stack HCI can use Software Load Balancer (SLB) to evenly distribute tenant and tenant customer network traffic among virtual network resources. SLB позволяет размещать одну и ту же рабочую нагрузку на нескольких серверах, что обеспечивает высокий уровень доступности и масштабирования.SLB enables multiple servers to host the same workload, providing high availability and scalability.

Программное обеспечение Load Balancer включает следующие возможности.Software Load Balancer includes the following capabilities:

  • Службы балансировки нагрузки уровня 4 (на уровне сервера) для трафика TCP/UDP "Север/Юг" и "Восточная/Западная".Layer 4 (L4) load balancing services for north/south and east/west TCP/UDP traffic.

  • Общедоступная и внутренняя балансировка нагрузки сетевого трафика.Public network and Internal network traffic load balancing.

  • Поддержка динамических IP-адресов (DIP) в виртуальных локальных сетях (VLAN) и виртуальных сетях, создаваемых с помощью виртуализации сети Hyper-V.Dynamic IP addresses (DIPs) support on virtual Local Area Networks (VLANs) and on virtual networks that you create by using Hyper-V Network Virtualization.

  • Поддержка пробы работоспособности.Health probe support.

  • Готово к масштабированию в облаке, включая возможности масштабирования и масштабирования для мультиплексоров и агентов узлов.Ready for cloud scale, including scale-out capability and scale-up capability for multiplexers and host agents.

  • Одноклиентская унифицированная сторона, легко интегрированная с технологиями SDN, такими как шлюз RAS, брандмауэр центра обработки данных и отражатель маршрутов.A multitenant unified edge by seamlessly integrating with SDN technologies such as the RAS Gateway, Datacenter Firewall, and Route Reflector.

Дополнительные сведения см. в разделе Software Load Balancer Features этой статьи.For more information, see Software Load Balancer Features in this topic.

Примечание

Мультитенантность для виртуальных ЛС не поддерживается сетевым контроллером.Multitenancy for VLANs is not supported by Network Controller. Однако виртуальные ЛС можно использовать с SLB для управляемых рабочих нагрузок поставщика услуг, таких как инфраструктура центра обработки данных и веб-серверы с высокой плотностью.However, you can use VLANs with SLB for service provider managed workloads, such as the datacenter infrastructure and high density Web servers.

С помощью Load Balancer программного обеспечения можно масштабировать возможности балансировки нагрузки, используя виртуальные машины SLB на тех же серверах вычислений Hyper-V, которые используются для других рабочих нагрузок виртуальных машин.Using Software Load Balancer, you can scale out your load balancing capabilities using SLB virtual machines (VMs) on the same Hyper-V compute servers that you use for your other VM workloads. По этой причине программная балансировка нагрузки поддерживает быстрое создание и удаление конечных точек балансировки нагрузки, необходимых для операций CSP.Because of this, Software Load Balancing supports the rapid creation and deletion of load balancing endpoints that is required for CSP operations. Кроме того, программная балансировка нагрузки поддерживает десятки гигабайт на кластер, предоставляет простую модель подготовки и легко масштабируется и в.In addition, Software Load Balancing supports tens of gigabytes per cluster, provides a simple provisioning model, and is easy to scale out and in.

Как работает программное обеспечение Load BalancerHow Software Load Balancer works

Программное обеспечение Load Balancer работает путем сопоставления виртуальных IP-адресов (VIP) с DIP, которые являются частью набора ресурсов облачной службы в центре обработки данных.Software Load Balancer works by mapping virtual IP addresses (VIPs) to DIPs that are part of a cloud service set of resources in the datacenter.

VIP — это отдельные IP-адреса, которые обеспечивают общий доступ к пулу виртуальных машин с балансировкой нагрузки.VIPs are single IP addresses that provide public access to a pool of load balanced VMs. Например, VIP — это IP-адреса, предоставляемые в Интернете, чтобы клиенты и клиентские заказчики могли подключаться к ресурсам клиента в облачном центре обработки данных.For example, VIPs are IP addresses that are exposed on the internet so that tenants and tenant customers can connect to tenant resources in the cloud datacenter.

DIP — это IP-адреса виртуальных машин, являющихся членами пула с балансировкой нагрузки, за которым находится виртуальная ЛС.DIPs are the IP addresses of the member VMs of a load balanced pool behind the VIP. DIP назначаются в облачной инфраструктуре ресурсам клиента.DIPs are assigned within the cloud infrastructure to the tenant resources.

Виртуальные IP-адреса находятся в мультиплексоре SLB (МУЛЬТИПЛЕКСОРе).VIPs are located in the SLB Multiplexer (MUX). МУЛЬТИПЛЕКСОР состоит из одной или нескольких виртуальных машин.The MUX consists of one or more VMs. Сетевой контроллер обеспечивает каждый МУЛЬТИПЛЕКСОР с каждым виртуальным IP-адресом, и каждый МУЛЬТИПЛЕКСОР в свою очередь использует протокол BGP (BGP) для объявления каждого VIP в маршрутизаторах в физической сети в виде маршрута/32.Network Controller provides each MUX with each VIP, and each MUX in turn uses Border Gateway Protocol (BGP) to advertise each VIP to routers on the physical network as a /32 route. BGP позволяет физическим сетевым маршрутизаторам:BGP allows the physical network routers to:

  • Узнайте, что виртуальный IP-адрес доступен в каждом МУЛЬТИПЛЕКСОРе, даже если мультиплексоров находятся в разных подсетях в сети уровня 3.Learn that a VIP is available on each MUX, even if the MUXes are on different subnets in a Layer 3 network.

  • Распределите нагрузку для каждого доступного виртуального IP-адреса во всех доступных мультиплексоров с помощью маршрутизации с одинаковыми затратами (ECMP).Spread the load for each VIP across all available MUXes using Equal Cost Multi-Path (ECMP) routing.

  • Автоматическое обнаружение сбоя или удаления МУЛЬТИПЛЕКСОРа и прекращение отправки трафика в неисправный МУЛЬТИПЛЕКСОР.Automatically detect a MUX failure or removal and stop sending traffic to the failed MUX.

  • Распределите нагрузку от неисправного или удаленного МУЛЬТИПЛЕКСОРа по работоспособному мультиплексоров.Spread the load from the failed or removed MUX across the healthy MUXes.

Когда общедоступный трафик поступает из Интернета, МУЛЬТИПЛЕКСОР SLB проверяет трафик, который содержит виртуальный IP-адрес в качестве назначения, а затем сопоставляет и переписывает трафик, чтобы он поступал на отдельный DIP.When public traffic arrives from the internet, the SLB MUX examines the traffic, which contains the VIP as a destination, and maps and rewrites the traffic so that it will arrive at an individual DIP. Для входящего сетевого трафика эта транзакция выполняется в двухэтапный процессе, который разбивается между виртуальными машинами МУЛЬТИПЛЕКСОРа и узлом Hyper-V, где находится целевой DIP-адрес:For inbound network traffic, this transaction is performed in a two-step process that is split between the MUX VMs and the Hyper-V host where the destination DIP is located:

  1. Балансировка нагрузки. МУЛЬТИПЛЕКСОР использует виртуальный IP-адрес для выбора DIP, инкапсулирует пакет и перенаправляет трафик на узел Hyper-V, где расположен DIP.Load balance - the MUX uses the VIP to select a DIP, encapsulates the packet, and forwards the traffic to the Hyper-V host where the DIP is located.

  2. Преобразование сетевых адресов (NAT). узел Hyper-V удаляет инкапсуляцию из пакета, Преобразует виртуальный IP-адрес в DIP, пересопоставляет порты и перенаправляет пакет на виртуальную машину DIP.Network Address Translation (NAT) - the Hyper-V host removes encapsulation from the packet, translates the VIP to a DIP, remaps the ports, and forwards the packet to the DIP VM.

МУЛЬТИПЛЕКСОР знает, как сопоставлять виртуальные IP-адреса с правильными DIP из-за политик балансировки нагрузки, определяемых с помощью сетевого контроллера.The MUX knows how to map VIPs to the correct DIPs because of load balancing policies that you define by using Network Controller. Эти правила включают протокол, интерфейсный порт, порт внутренних портов и алгоритм распределения (5, 3 или 2 кортежа).These rules include Protocol, Front-end Port, Back-end Port, and distribution algorithm (5, 3, or 2 tuples).

Когда клиентские виртуальные машины реагируют и отправляют исходящий сетевой трафик обратно в Интернет или удаленные расположения клиента, так как NAT выполняется узлом Hyper-V, трафик обходит МУЛЬТИПЛЕКСОР и переходит непосредственно на пограничные маршрутизаторы с узла Hyper-V.When tenant VMs respond and send outbound network traffic back to the internet or remote tenant locations, because the NAT is performed by the Hyper-V host, the traffic bypasses the MUX and goes directly to the edge router from the Hyper-V host. Этот процесс обхода МУЛЬТИПЛЕКСОРа называется прямым возвратом сервера (DSR).This MUX bypass process is called Direct Server Return (DSR).

После установления первоначального потока сетевого трафика входящий сетевой трафик полностью обходит МУЛЬТИПЛЕКСОР SLB.And after the initial network traffic flow is established, the inbound network traffic bypasses the SLB MUX completely.

На следующем рисунке клиентский компьютер выполняет запрос DNS для IP-адреса сайта SharePoint компании, в данном случае вымышленной компании Contoso.In the following illustration, a client computer performs a DNS query for the IP address of a company SharePoint site - in this case, a fictional company named Contoso. Выполняется следующая процедура.The following process occurs:

  1. DNS-сервер возвращает клиенту 107.105.47.60 виртуальной ЛС.The DNS server returns the VIP 107.105.47.60 to the client.

  2. Клиент отправляет запрос HTTP к виртуальному IP-адресу.The client sends an HTTP request to the VIP.

  3. В физической сети доступно несколько путей для достижения виртуального IP-адреса, расположенного в каком-либо МУЛЬТИПЛЕКСОРе.The physical network has multiple paths available to reach the VIP located on any MUX. Каждый маршрутизатор в пути использует ECMP для выбора следующего сегмента контура, пока запрос не поступит в МУЛЬТИПЛЕКСОР.Each router along the way uses ECMP to pick the next segment of the path until the request arrives at a MUX.

  4. МУЛЬТИПЛЕКСОР, получивший запрос, проверяет настроенные политики и видит наличие двух доступных DIP, 10.10.10.5 и 10.10.20.5 в виртуальной сети для выполнения запроса к виртуальному IP-адресу 107.105.47.60The MUX that receives the request checks configured policies, and sees that there are two DIPs available, 10.10.10.5 and 10.10.20.5, on a virtual network to handle the request to the VIP 107.105.47.60

  5. МУЛЬТИПЛЕКСОР выбирает DIP 10.10.10.5 и инкапсулирует пакеты с помощью ВКСЛАН, чтобы он мог отправить его на узел, содержащий DIP, с помощью физического сетевого адреса узла.The MUX selects DIP 10.10.10.5 and encapsulates the packets using VXLAN so that it can send it to the host containing the DIP using the host's physical network address.

  6. Узел получает инкапсулированный пакет и проверяет его.The host receives the encapsulated packet and inspects it. Он удаляет инкапсуляцию и переписывает пакет, чтобы целевой объект стал DIP 10.10.10.5 вместо виртуального IP-адреса, а затем отправлял трафик на DIP-адрес виртуальной машины.It removes the encapsulation and rewrites the packet so that the destination is now DIP 10.10.10.5 instead of the VIP, and then sends the traffic to DIP VM.

  7. Запрос достигает сайта Contoso SharePoint в ферме серверов 2.The request reaches the Contoso SharePoint site in Server Farm 2. Сервер создает ответ и отправляет его клиенту, используя собственный IP-адрес в качестве источника.The server generates a response and sends it to the client, using its own IP address as the source.

  8. Узел перехватывает исходящий пакет в виртуальном коммутаторе, который запоминает, что клиент (теперь) назначен, сделал исходный запрос к виртуальному IP-адресу.The host intercepts the outgoing packet in the virtual switch which remembers that the client, now the destination, made the original request to the VIP. Узел переписывает источник пакета в виртуальный IP-адрес, чтобы клиент не вижу DIP-адреса.The host rewrites the source of the packet to be the VIP so that the client does not see the DIP address.

  9. Узел перенаправляет пакет непосредственно в шлюз по умолчанию для физической сети, которая использует стандартную таблицу маршрутизации для пересылки пакета клиенту, который в итоге получает ответ.The host forwards the packet directly to the default gateway for the physical network which uses its standard routing table to forward the packet on to the client, which eventually receives the response.

Процесс балансировки нагрузки программного обеспечения

Внутренний трафик центра обработки данных для балансировки нагрузкиLoad balancing internal datacenter traffic

При балансировке нагрузки сетевого трафика в центре обработки данных, например, между ресурсами клиента, работающими на разных серверах и входящими в одну и ту же виртуальную сеть, виртуальный коммутатор Hyper-V, к которому подключены виртуальные машины, выполняет преобразование сетевых адресов (NAT).When load balancing network traffic internal to the datacenter, such as between tenant resources that are running on different servers and are members of the same virtual network, the Hyper-V virtual switch to which the VMs are connected performs NAT.

При внутренней балансировке нагрузки трафика первый запрос отправляется и обрабатывается МУЛЬТИПЛЕКСОРом, который выбирает соответствующий DIP-адрес, а затем направляет трафик на DIP-адрес.With internal traffic load balancing, the first request is sent to and processed by the MUX, which selects the appropriate DIP, and then routes the traffic to the DIP. С этого момента установленный поток трафика обходит МУЛЬТИПЛЕКСОР и перейдет непосредственно из ВИРТУАЛЬНОЙ машины в виртуальную машину.From that point forward, the established traffic flow bypasses the MUX and goes directly from VM to VM.

Пробы работоспособностиHealth probes

Программное обеспечение Load Balancer включает пробы работоспособности для проверки работоспособности сетевой инфраструктуры, включая следующие:Software Load Balancer includes health probes to validate the health of the network infrastructure, including the following:

  • TCP-зонд к портуTCP probe to port

  • HTTP-зонд к порту и URL-адресуHTTP probe to port and URL

В отличие от традиционного устройства подсистемы балансировки нагрузки, на котором проба поступает на устройстве и передается через сеть на DIP, проба SLB создается на узле, где находится DIP, и переходит непосредственно от агента узла SLB в DIP, а затем распределяет работу между узлами.Unlike a traditional load balancer appliance where the probe originates on the appliance and travels across the wire to the DIP, the SLB probe originates on the host where the DIP is located and goes directly from the SLB host agent to the DIP, further distributing the work across the hosts.

Инфраструктура Load Balancer программного обеспеченияSoftware Load Balancer Infrastructure

Прежде чем можно будет настроить Load Balancer программного обеспечения, необходимо сначала развернуть сетевой контроллер и одну или несколько виртуальных машин МУЛЬТИПЛЕКСОРа SLB.Before you can configure Software Load Balancer, you must first deploy Network Controller and one or more SLB MUX VMs.

Кроме того, необходимо настроить узлы Azure Stack ХЦИ с помощью виртуального коммутатора Hyper-V с поддержкой SDN и убедиться в том, что агент узла SLB запущен.In addition, you must configure the Azure Stack HCI hosts with the SDN-enabled Hyper-V virtual switch and ensure that the SLB Host Agent is running. Маршрутизаторы, обслуживающие узлы, должны поддерживать маршрутизацию ECMP и протокол BGP (BGP) и должны быть настроены для приема запросов пиринга BGP от мультиплексоров SLB.The routers that serve the hosts must support ECMP routing and Border Gateway Protocol (BGP), and they must be configured to accept BGP peering requests from the SLB MUXes.

На следующем рисунке представлен обзор инфраструктуры SLB.The following figure provides an overview of the SLB infrastructure.

Инфраструктура Load Balancer программного обеспечения

В следующих разделах содержатся дополнительные сведения об этих элементах инфраструктуры программного обеспечения Load Balancer.The following sections provide more information about these elements of the Software Load Balancer infrastructure.

Сетевой контроллерNetwork Controller

Сетевой контроллер размещает диспетчер SLB и выполняет следующие действия для Load Balancer программного обеспечения:Network Controller hosts the SLB Manager and performs the following actions for Software Load Balancer:

  • Обрабатывает команды SLB, которые поступают через API обмена из центра администрирования Windows, System Center, Windows PowerShell или другого приложения управления сетью.Processes SLB commands that come in through the Northbound API from Windows Admin Center, System Center, Windows PowerShell, or another network management application.

  • Вычисляет политику распределения для Azure Stack узлов ХЦИ и SLB мультиплексоров.Calculates policy for distribution to Azure Stack HCI hosts and SLB MUXes.

  • Предоставляет состояние работоспособности Load Balancer инфраструктуры программного обеспечения.Provides the health status of the Software Load Balancer infrastructure.

Для установки и настройки сетевого контроллера и другой инфраструктуры SLB можно использовать центр администрирования Windows или Windows PowerShell.You can use Windows Admin Center or Windows PowerShell to install and configure Network Controller and other SLB infrastructure.

МУЛЬТИПЛЕКСОР SLBSLB MUX

МУЛЬТИПЛЕКСОР SLB обрабатывает входящий сетевой трафик и сопоставляет VIP с DIP, а затем перенаправляет трафик на правильный DIP.The SLB MUX processes inbound network traffic and maps VIPs to DIPs, then forwards the traffic to the correct DIP. Каждый МУЛЬТИПЛЕКСОР также использует BGP для публикации маршрутов виртуальных IP-адресов на пограничных маршрутизаторах.Each MUX also uses BGP to publish VIP routes to edge routers. Служба "Проверка активности BGP" уведомляет мультиплексоров при сбое МУЛЬТИПЛЕКСОРа, что позволяет активному мультиплексоров распространять нагрузку в случае сбоя МУЛЬТИПЛЕКСОРа.BGP Keep Alive notifies MUXes when a MUX fails, which allows active MUXes to redistribute the load in case of a MUX failure. Это по сути обеспечивает балансировку нагрузки для подсистем балансировки нагрузки.This essentially provides load balancing for the load balancers.

Агент узла SLBSLB Host Agent

При развертывании программного обеспечения Load Balancer необходимо использовать центр администрирования Windows, System Center, Windows PowerShell или другое приложение управления для развертывания агента узла SLB на каждом сервере узла.When you deploy Software Load Balancer, you must use Windows Admin Center, System Center, Windows PowerShell, or another management application to deploy the SLB Host Agent on every host server.

Агент узла SLB прослушивает обновления политики SLB с сетевого контроллера.The SLB Host Agent listens for SLB policy updates from Network Controller. Кроме того, агент узла программирует правила для SLB в виртуальные коммутаторы Hyper-V с поддержкой SDN, настроенные на локальном компьютере.In addition, the host agent programs rules for SLB into the SDN-enabled Hyper-V virtual switches that are configured on the local computer.

Виртуальный коммутатор Hyper-V с поддержкой SDNSDN-enabled Hyper-V virtual switch

Чтобы виртуальный коммутатор был совместим с SLB, на виртуальном коммутаторе должен быть включен модуль Virtual Filtering Platform (VFP).For a virtual switch to be compatible with SLB, the Virtual Filtering Platform (VFP) extension must be enabled on the virtual switch. Это выполняется автоматически с помощью сценариев PowerShell для развертывания SDN, мастера развертывания центра администрирования Windows и развертывания System Center Virtual Machine Manager (SCVMM).This is done automatically by the SDN deployment PowerShell scripts, Windows Admin Center deployment wizard, and System Center Virtual Machine Manager (SCVMM) deployment.

Сведения о включении VFP в виртуальных коммутаторах см. в разделе команды Windows PowerShell Get-вмсистемсвитчекстенсион и Enable-вмсвитчекстенсион.For information on enabling VFP on virtual switches, see the Windows PowerShell commands Get-VMSystemSwitchExtension and Enable-VMSwitchExtension.

Виртуальный коммутатор Hyper-V с поддержкой SDN выполняет следующие действия для SLB:The SDN-enabled Hyper-V virtual switch performs the following actions for SLB:

  • Обрабатывает путь к данным для SLB.Processes the data path for SLB.

  • Получает входящий сетевой трафик от МУЛЬТИПЛЕКСОРа.Receives inbound network traffic from the MUX.

  • Обходит МУЛЬТИПЛЕКСОР для исходящего сетевого трафика, отправляя его маршрутизатору с помощью коммутатора DSR.Bypasses the MUX for outbound network traffic, sending it to the router using DSR.

Маршрутизатор BGPBGP router

Маршрутизатор BGP выполняет следующие действия для Load Balancer программного обеспечения:The BGP router performs the following actions for Software Load Balancer:

  • Направляет входящий трафик в МУЛЬТИПЛЕКСОР с помощью ECMP.Routes inbound traffic to the MUX using ECMP.

  • Для исходящего сетевого трафика использует маршрут, предоставленный узлом.For outbound network traffic, uses the route provided by the host.

  • Прослушивает обновления маршрутов для виртуальных IP-адресов МУЛЬТИПЛЕКСОРа SLB.Listens for route updates for VIPs from SLB MUX.

  • Удаляет мультиплексоров SLB из вращения SLB в случае сбоя проверки активности.Removes SLB MUXes from the SLB rotation if Keep Alive fails.

Функции Load Balancer программного обеспеченияSoftware Load Balancer Features

В следующих разделах описаны некоторые функции и возможности Load Balancer программного обеспечения.The following sections describe some of the features and capabilities of Software Load Balancer.

Основные функциональные возможностиCore functionality

  • SLB предоставляет службы балансировки нагрузки уровня 4 для трафика TCP/UDP «Север/Юг» и «Восток/Западная».SLB provides Layer 4 load balancing services for north/south and east/west TCP/UDP traffic.

  • SLB можно использовать в сети на основе виртуализации Hyper-V.You can use SLB on a Hyper-V Network Virtualization-based network.

  • SLB можно использовать с сетью на основе виртуальной ЛС для DIP-переключателей, подключенных к виртуальному коммутатору Hyper-V с поддержкой SDN.You can use SLB with a VLAN-based network for DIP VMs connected to a SDN Enabled Hyper-V virtual switch.

  • Один экземпляр SLB может обслуживать несколько клиентов.One SLB instance can handle multiple tenants.

  • SLB и DIP поддерживают масштабируемый путь с низкой задержкой, реализованный DSR.SLB and DIP support a scalable and low-latency return path, as implemented by DSR.

  • Функции SLB, если вы также используете объединение встроенных коммутаторов (SET) или виртуализацию ввода-вывода с одним корневым каталогом (SR-IOV).SLB functions when you are also using Switch Embedded Teaming (SET) or Single Root Input/Output Virtualization (SR-IOV).

  • SLB включает поддержку протокола Интернета версии 6 (IPv6) и версии 4 (IPv4).SLB includes Internet Protocol version 6 (IPv6) and version 4 (IPv4) support.

  • Для сценариев шлюза типа "сеть — сеть" SLB предоставляет функции NAT, позволяющие всем подключениям типа "сеть — сеть" использовать один общедоступный IP-адрес.For site-to-site gateway scenarios, SLB provides NAT functionality to enable all site-to-site connections to utilize a single public IP.

Масштаб и производительностьScale and performance

  • Готово к масштабированию в облаке, в том числе возможность масштабирования и масштабирования для мультиплексоров и агентов узлов.Ready for cloud scale, including scale-out and scale-up capability for MUXes and Host Agents.

  • Один модуль сетевого контроллера диспетчера SLB может поддерживать восемь экземпляров МУЛЬТИПЛЕКСОРа.One active SLB Manager Network Controller module can support eight MUX instances.

Высокий уровень доступностиHigh availability

  • Можно развернуть SLB на более чем двух узлах в конфигурации "активный/активный".You can deploy SLB to more than two nodes in an active/active configuration.

  • Мультиплексоров можно добавлять и удалять из пула МУЛЬТИПЛЕКСОРа, не влияя на службу SLB.MUXes can be added and removed from the MUX pool without impacting the SLB service. Это обеспечивает доступность SLB при установке исправлений для отдельных мультиплексоров.This maintains SLB availability when individual MUXes are being patched.

  • У отдельных экземпляров МУЛЬТИПЛЕКСОРа время бесперебойной работы составляет 99%.Individual MUX instances have an uptime of 99 percent.

  • Данные мониторинга работоспособности доступны для сущностей управления.Health monitoring data is available to management entities.

Дальнейшие действияNext steps

Связанные сведения см. также в следующих статьях:For related information, see also: