Требования к сети узла для Azure Stack ХЦИHost network requirements for Azure Stack HCI

Применимо к Azure Stack ХЦИ, версия 20H2Applies to Azure Stack HCI, version 20H2

В этом разделе обсуждаются Azure Stack ХЦИ и требования к сети узла.This topic discusses Azure Stack HCI host networking considerations and requirements. Сведения об архитектуре центра обработки данных и физических подключениях между серверами см. в статье требования к физической сети.For information on data center architectures and the physical connections between servers, see Physical network requirements.

Типы сетевого трафикаNetwork traffic types

Azure Stack сетевой трафик ХЦИ можно классифицировать по предполагаемому назначению:Azure Stack HCI network traffic can be classified by its intended purpose:

  • Трафик для вычислений — трафик, исходящий из виртуальной машины или предназначенный для нееCompute traffic - traffic originating from or destined for a virtual machine (VM)
  • Трафик хранилища — трафик для Локальные дисковые пространства (S2D) с использованием блока сообщений сервера (SMB)Storage traffic - traffic for Storage Spaces Direct (S2D) using Server Message Block (SMB)
  • Трафик управления — это важный для администратора управления кластером трафик, например Active Directory, удаленный рабочий стол, центр администрирования Windows и Windows PowerShell.Management traffic - traffic important to an administrator for cluster management, such as Active Directory, Remote Desktop, Windows Admin Center, and Windows PowerShell.

Выбор сетевого адаптераSelecting a network adapter

Для Azure Stack ХЦИ необходимо выбрать сетевой адаптер, который достиг сертификации Windows Server Software-Defined Data Center (SDDC) с дополнительным квалификациям (AQ) "Стандартный" или "Премиум".For Azure Stack HCI, we require choosing a network adapter that has achieved the Windows Server Software-Defined Data Center (SDDC) certification with the Standard or Premium Additional Qualification (AQ). Эти адаптеры поддерживают самые современные функции платформы и прошли большую часть тестирования наших партнеров по оборудованию.These adapters support the most advanced platform features and have undergone the most testing by our hardware partners. Как правило, этот уровень контроля приводит к уменьшению проблем с качеством оборудования и драйверов.Typically, this level of scrutiny leads to a reduction in hardware and driver-related quality issues.

Адаптер с AQ или Premium можно найти, просмотрев запись каталога Windows Server для адаптера и соответствующую версию операционной системы.You can identify an adapter that has Standard or Premium AQ by reviewing the Windows Server Catalog entry for the adapter and the applicable operating system version. Ниже приведен пример нотации для Premium AQ:Below is an example of the notation for Premium AQ:

Сертификация Windows

Общие сведения о ключевых возможностях сетевого адаптераOverview of key network adapter capabilities

К важным возможностям сетевого адаптера, используемым Azure Stack ХЦИ, относятся:Important network adapter capabilities leveraged by Azure Stack HCI include:

  • Динамическая виртуальная машина с несколькими очередями (Dynamic ВММК или d. ВММК)Dynamic Virtual Machine Multi-Queue (Dynamic VMMQ or d.VMMQ)
  • Удаленный доступ к памяти (RDMA)Remote Direct Memory Access (RDMA)
  • Гостевой RDMAGuest RDMA
  • Переключение объединения внедренных платформ (SET)Switch Embedded Teaming (SET)

Динамический ВММКDynamic VMMQ

Все сетевые адаптеры с Premium AQ поддерживают динамические ВММК.All network adapters with the Premium AQ support Dynamic VMMQ. Для динамического ВММК требуется использовать объединение внедренных коммутаторов.Dynamic VMMQ requires the use of Switch Embedded Teaming.

Применимые типы трафика: COMPUTEApplicable traffic types: compute

Требуемые сертификаты: PremiumCertifications required: Premium

Dynamic ВММК — это интеллектуальная технология приема, которая строится на основе своих предшественников очередь виртуальной машины (VMQ), виртуального масштабирования на стороне приема (vRSS) и ВММК для предоставления трех основных усовершенствований:Dynamic VMMQ is an intelligent receive-side technology that builds upon its predecessors of Virtual Machine Queue (VMQ), Virtual Receive Side Scaling (vRSS), and VMMQ to provide three primary improvements:

  • Оптимизирует эффективность узла за счет использования ядер ЦПOptimizes host efficiency by use of CPU cores
  • Автоматическая настройка обработки сетевого трафика на ядра ЦП, что позволяет виртуальным машинам соответствовать и поддерживать ожидаемую пропускную способность.Automatic tuning of network traffic processing to CPU cores, thus enabling VMs to meet and maintain expected throughput
  • Включает "ускоренные" рабочие нагрузки для получения ожидаемого объема трафика.Enables “bursty” workloads to receive the expected amount of traffic

Дополнительные сведения о динамическом ВММК см. в записи блога: искусственное ускорение.For more information on Dynamic VMMQ, see the blog post Synthetic Accelerations.

RDMARDMA

RDMA — это разгрузка сетевого стека для сетевого адаптера, позволяющая трафику хранилища SMB обходить операционную систему для обработки.RDMA is a network stack offload to the network adapter allowing SMB storage traffic to bypass the operating system for processing.

RDMA обеспечивает сеть с низкой пропускной способностью и малой задержкой при использовании минимальных ресурсов ЦП узла.RDMA enables high-throughput, low-latency networking while using minimal host CPU resources. Затем эти ресурсы ЦП узла можно использовать для запуска дополнительных виртуальных машин или контейнеров.These host CPU resources can then be used to run additional VMs or containers.

Применимые типы трафика: хранилище узлаApplicable traffic types: host storage

Требуемые сертификаты: StandardCertifications required: Standard

Все адаптеры с поддержкой уровня "Стандартный" или "Премиум" AQ поддерживают RDMA (удаленный доступ к памяти).All adapters with Standard or Premium AQ support RDMA (Remote Direct Memory Access). RDMA — это рекомендуемый вариант развертывания рабочих нагрузок хранилища в Azure Stack ХЦИ, который можно дополнительно включить для рабочих нагрузок хранилища (с использованием SMB) для виртуальных машин.RDMA is the recommended deployment choice for storage workloads in Azure Stack HCI and can be optionally enabled for storage workloads (using SMB) for VMs. См. раздел RDMA на виртуальной машине ниже.See the Guest RDMA section later.

Azure Stack ХЦИ поддерживает RDMA с использованием реализаций протокола iWARP или Роце.Azure Stack HCI supports RDMA using either the iWARP or RoCE protocol implementations.

Важно!

Адаптеры RDMA работают только с другими адаптерами RDMA, которые реализуют тот же протокол RDMA (iWARP или Роце).RDMA adapters only work with other RDMA adapters that implement the same RDMA protocol (iWARP or RoCE).

Не все сетевые адаптеры от поставщиков поддерживают RDMA.Not all network adapters from vendors support RDMA. В следующей таблице перечислены поставщики (в алфавитном порядке), которые предлагают сертифицированные адаптеры RDMA уровня "Премиум".The following table lists those vendors (in alphabetical order) that offer Premium certified RDMA adapters. Однако в этот список входят поставщики оборудования, которые также поддерживают RDMA.However, there are hardware vendors not included in this list that also support RDMA. См. каталог Windows Server для проверки поддержки RDMA.See the Windows Server Catalog to verify RDMA support.

Примечание

InfiniBand (геодоступность) не поддерживается с Azure Stack ХЦИ.InfiniBand (IB) is not supported with Azure Stack HCI.

Поставщик сетевого адаптераNIC vendor iWARP;iWARP RoCE.RoCE
BroadcomBroadcom НетNo ДаYes
ChelsioChelsio ДаYes НетNo
IntelIntel ДаYes Да (некоторые модели)Yes (some models)
Контроллер Marvell (QLogic/Кавиум)Marvell (Qlogic/Cavium) ДаYes ДаYes
NVIDIA (Mellanox)Nvidia (Mellanox) НетNo ДаYes

Примечание

Не все адаптеры от поставщиков поддерживают RDMA.Not all adapters from the vendors support RDMA. Проверьте поддержку RDMA для конкретного поставщика сетевой карты.Please verify RDMA support with your specific network card vendor.

Чтобы получить дополнительные сведения о развертывании RDMA, скачайте документ Word из репозитория GitHubна сайте Sdn.For more information on deploying RDMA, download the Word doc from the SDN GitHub repo.

Международный протокол RDMA в Интернете (iWARP)Internet Wide Area RDMA Protocol (iWARP)

iWARP использует протокол TCP и может дополнительно быть расширен с помощью управления потоком с использованием моста (DCB) и расширенной службы передачи данных (ETS).iWARP uses the Transmission Control Protocol (TCP), and can be optionally enhanced with Data Center Bridging (DCB) Priority-based Flow Control (PFC) and Enhanced Transmission Service (ETS).

Рекомендуется использовать iWARP, если:We recommend that you use iWARP if:

  • У вас мало возможностей сети или неудобно управлять сетевыми коммутаторами.You have little or no network experience or are uncomfortable managing network switches
  • Вы не управляете коммутаторами ToRYou do not control your ToR switches
  • Решение не будет управляться после развертыванияYou will not be managing the solution after deployment
  • У вас уже есть развертывания с помощью iWARPYou already have deployments using iWARP
  • Вы не уверены, какой вариант выбратьYou are unsure which option to choose

RDMA с согласованным Ethernet (Роце)RDMA over Converged Ethernet (RoCE)

Роце использует протокол UDP, и для обеспечения надежности требуются мосты мощности и ETS для центра обработки данных.RoCE uses User Datagram Protocol (UDP), and requires Data Center Bridging PFC and ETS to provide reliability.

Рекомендуется использовать Роце, если:We recommend that you use RoCE if:

  • У вас уже есть развертывания с Роце в центре обработки данныхYou already have deployments with RoCE in your data center
  • Вы осведомлены о требованиях к физической сети.You are knowledgeable with your physical network requirements

Гостевой RDMAGuest RDMA

Гостевой RDMA позволяет рабочим нагрузкам SMB использовать для виртуальных машин те же преимущества, что и RDMA на узлах.Guest RDMA enables SMB workloads for VMs to gain the same benefits of using RDMA on hosts.

Применимые типы трафика: COMPUTEApplicable traffic types: compute

Требуемые сертификаты: PremiumCertifications required: Premium

Основные преимущества использования гостевого RDMA:The primary benefits of using Guest RDMA are:

  • Разгрузка ЦП на сетевую карту для обработки сетевого трафикаCPU offload to the NIC for network traffic processing
  • Очень низкая задержкаExtremely low latency
  • Высокая пропускная способностьHigh throughput

Дополнительные сведения о том, как развернуть гостевой RDMA, можно скачать в репозитории GitHubна сайте Sdn.For more information including how to deploy Guest RDMA, download the Word doc from the SDN GitHub repo.

Переключение объединения внедренных платформ (SET)Switch Embedded Teaming (SET)

Включение поддержки объединения внедренных платформ (SET) — это технология объединения программного обеспечения, включенная в операционную систему Windows Server с момента выпуска Windows Server 2016.Switch Embedded Teaming (SET) is a software-based teaming technology that has been included in the Windows Server operating system since Windows Server 2016. НАБОР не зависит от типа используемых сетевых адаптеров.SET is not dependent on the type of network adapters used.

Применимые типы трафика: вычисление, хранение и управлениеApplicable traffic types: compute, storage, and management

Требуемые сертификаты: нет (встроено в ОС)Certifications required: none (built into the OS)

НАБОР — единственная технология объединения, поддерживаемая Azure Stack ХЦИ.SET is the only teaming technology supported by Azure Stack HCI. Балансировка нагрузки и отработка отказа (LBFO) — это еще одна технология объединения, которая обычно используется в Windows Server, но не поддерживается в Azure Stack ХЦИ.Load Balancing/Failover (LBFO) is another teaming technology commonly used with Windows Server but is not supported with Azure Stack HCI. Дополнительные сведения о LBFO в Azure Stack ХЦИ см. в записи блога Объединение записей в блоге Azure Stack хЦи .See the blog post Teaming in Azure Stack HCI for more information on LBFO in Azure Stack HCI. Этот набор хорошо работает с трафиком вычислений, хранения и управления.SET works well with compute, storage, and management traffic alike.

ПАРАМЕТР важен для Azure Stack ХЦИ, так как это единственная технология объединения, которая позволяет:SET is important for Azure Stack HCI as it is the only teaming technology that enables:

  • Объединение адаптеров RDMA (при необходимости)Teaming of RDMA adapters (if needed)
  • Гостевой RDMAGuest RDMA
  • Динамический ВММКDynamic VMMQ
  • Другие ключевые Azure Stack функции ХЦИ (см. раздел объединение в Azure Stack хЦи)Other key Azure Stack HCI features (see Teaming in Azure Stack HCI)

НАБОР предоставляет дополнительные возможности по сравнению с LBFO, включая улучшения качества и производительности.SET provides additional features over LBFO including quality and performance improvements. Для этого задайте для параметра требуется использование симметричных (идентичных) адаптеров — объединение асимметричных адаптеров не поддерживается.To do this, SET requires the use of symmetric (identical) adapters – teaming of asymmetric adapters is not supported. Симметричные сетевые адаптеры — это те же:Symmetric network adapters are those that have the same:

  • Марка (поставщик)make (vendor)
  • Model (версия)model (version)
  • скорость (пропускная способность)speed (throughput)
  • настройкаconfiguration

Самый простой способ узнать, являются ли адаптеры симметричными, — если скорость одинаковая, а описания интерфейсов совпадают.The easiest way to identify if adapters are symmetric is if the speeds are the same and the interface descriptions match. Они могут отклоняться только по числу, указанному в описании.They can deviate only in the numeral listed in the description. С помощью Get-NetAdapterAdvancedProperty командлета убедитесь, что в отчете о конфигурации указаны одинаковые значения свойств.Use the Get-NetAdapterAdvancedProperty cmdlet to ensure the configuration reported lists the same property values.

В следующей таблице приведены примеры описаний интерфейсов, отклоненных только цифрами (#):See the following table for an example of the interface descriptions deviating only by numeral (#):

ИмяName Описание интерфейсаInterface Description Скорость связиLink Speed
NIC1NIC1 #1 сетевого адаптераNetwork Adapter #1 25 Гбит/с25 Gbps
NIC2NIC2 #2 сетевого адаптераNetwork Adapter #2 25 Гбит/с25 Gbps
NIC3NIC3 #3 сетевого адаптераNetwork Adapter #3 25 Гбит/с25 Gbps
NIC4NIC4 #4 сетевого адаптераNetwork Adapter #4 25 Гбит/с25 Gbps

Рекомендации по трафику RDMARDMA traffic considerations

Если вы реализуете мосты центра обработки данных (DCB), необходимо убедиться, что конфигурация коэффициента мощности и ETS правильно реализована для каждого сетевого порта, включая сетевые коммутаторы.If you implement Data Center Bridging (DCB), you must ensure that the PFC and ETS configuration is implemented properly across every network port, including network switches. DCB необходим для Роце и необязателен для iWARP.DCB is required for RoCE and optional for iWARP.

Чтобы получить подробные сведения о развертывании RDMA, скачайте документ Word из репозитория GitHubна сайте Sdn.For detailed information on how to deploy RDMA, download the Word doc from the SDN GitHub repo.

Для реализации Azure Stack ХЦИ на основе Роце требуется настройка трех классов трафика с компенсацией коэффициента мощности, включая класс трафика по умолчанию, в структуре и на всех узлах.RoCE-based Azure Stack HCI implementations requires the configuration of three PFC traffic classes, including the default traffic class, across the fabric and all hosts:

Класс трафика кластераCluster traffic class

Этот класс трафика обеспечивает достаточную пропускную способность, зарезервированную для пульса кластера:This traffic class ensures there is enough bandwidth reserved for cluster heartbeats:

  • Обязательный: да.Required: Yes
  • Коэффициент компенсаций включен: нетPFC enabled: No
  • Рекомендуемый приоритет трафика: приоритет 7Recommended traffic priority: Priority 7
  • Рекомендуемое резервирование пропускной способности:Recommended bandwidth reservation:
    • 10 GbE или более низкие сети RDMA = 2%10 GbE or lower RDMA networks = 2%
    • 25 GbE или выше сетей RDMA = 1%25 GbE or higher RDMA networks = 1%

Класс трафика RDMARDMA traffic class

Этот класс трафика гарантирует достаточную пропускную способность, зарезервированную для обмена данными по протоколу RDA с помощью SMB Direct:This traffic class ensures there is enough bandwidth reserved for lossless RDA communications using SMB Direct:

  • Обязательный: да.Required: Yes
  • Коэффициент компенсаций включен: ДаPFC enabled: Yes
  • Рекомендуемый приоритет трафика: приоритет 3 или 4Recommended traffic priority: Priority 3 or 4
  • Рекомендуемое резервирование пропускной способности: 50%Recommended bandwidth reservation: 50%

Класс трафика по умолчаниюDefault traffic class

Этот класс трафика несет весь остальной трафик, не определенный в классах трафика кластера или RDMA, включая трафик виртуальной машины и трафик управления.This traffic class carries all other traffic not defined in the cluster or RDMA traffic classes, including VM traffic and management traffic:

  • Обязательный: по умолчанию (на узле нет необходимых конфигураций)Required: By default (no configuration necessary on the host)
  • Управление потоком (коэффициент мощности) включено: нетFlow control (PFC) enabled: No
  • Рекомендуемый класс трафика: по умолчанию (приоритет 0)Recommended traffic class: By default (Priority 0)
  • Рекомендуемое резервирование пропускной способности: по умолчанию (Настройка узла не требуется)Recommended bandwidth reservation: By default (no host configuration required)

Модели трафика хранилищаStorage traffic models

Протокол SMB предоставляет множество преимуществ в качестве протокола хранения для Azure Stack ХЦИ, включая многоканальный SMB.SMB provides many benefits as the storage protocol for Azure Stack HCI including SMB Multichannel. Хотя многоканальный канал SMB выходит за рамки этой статьи, важно понимать, что трафик будет мультиплексирован по всем возможным каналам связи, которые может использовать многоканальный протокол SMB.While SMB Multichannel is out-of-scope for this topic, it is important to understand that traffic is multiplexed across every possible link that SMB Multichannel can use.

Примечание

Мы рекомендуем использовать несколько подсетей и виртуальных ЛС для разделения трафика хранилища в Azure Stack ХЦИ.We recommend using multiple subnets and VLANs to separate storage traffic in Azure Stack HCI.

Рассмотрим следующий пример кластера из четырех узлов.Consider the following example of a four node cluster. У каждого сервера есть два порта хранения (слева и справа).Each server has two storage ports (left and right side). Так как каждый адаптер находится в одной подсети и виртуальной ЛС, многоканальный протокол SMB будет распределять подключения по всем доступным ссылкам.Because each adapter is on the same subnet and VLAN, SMB Multichannel will spread connections across all available links. Таким образом, левый порт на первом сервере (192.168.1.1) будет устанавливать соединение с портом слева на втором сервере (192.168.1.2).Therefore, the left-side port on the first server (192.168.1.1) will make a connection to the left-side port on the second server (192.168.1.2). Правый порт на первом сервере (192.168.1.12) будет подключаться к правому порту на втором сервере.The right-side port on the first server (192.168.1.12) will connect to the right-side port on the second server. Аналогичные соединения устанавливаются для третьего и четвертого серверов.Similar connections are established for the third and fourth servers.

Однако это создает ненужные подключения и вызывает перегрузку в Interlink (Группа агрегирования ссылок на многокорпусовую группу или ЗАПАЗДЫВАНИЕ), соединяющую верхнюю часть коммутаторов стойки (ToR) (помеченных XS).However, this creates unnecessary connections and causes congestion at the interlink (multi-chassis link aggregation group or MC-LAG) that connects the top of rack (ToR) switches (marked with Xs). Рассмотрим схему ниже.See the following diagram:

кластер с четырьмя узлами в одной подсети

Рекомендуемый подход заключается в использовании отдельных подсетей и виртуальных ЛС для каждого набора адаптеров.The recommended approach is to use separate subnets and VLANs for each set of adapters. На схеме ниже правильные порты теперь используют подсеть 192.168.2. x/24 и VLAN2.In the following diagram, the right-hand ports now use subnet 192.168.2.x /24 and VLAN2. Это позволяет оставить трафик на портах слева на TOR1, а трафик на правой стороне портов оставить на TOR2.This allows traffic on the left-side ports to remain on TOR1 and the traffic on the right-side ports to remain on TOR2. Рассмотрим схему ниже.See the following diagram:

кластер с четырьмя узлами. разные подсети

Распределение пропускной способности трафикаTraffic bandwidth allocation

В таблице ниже показаны примеры распределения пропускной способности различных типов трафика с использованием стандартных скоростей адаптеров в Azure Stack ХЦИ.The table below shows example bandwidth allocations of various traffic types, using common adapter speeds, in Azure Stack HCI. Обратите внимание, что это пример согласованного решения, в котором все типы трафика (вычислений, хранения и управления) выполняются на одних и тех же физических адаптерах и объединены с помощью SET.Note that this is an example of a converged solution where all traffic types (compute, storage, and management) run over the same physical adapters and are teamed using SET.

Поскольку в этом варианте использования накладывается большинство ограничений, он представляет хороший базовый уровень.Since this use case poses the most constraints, it represents a good baseline. Однако, учитывая перестановки для количества адаптеров и скоростей, этот вариант следует рассматривать как пример, а не как требование к поддержке.However, considering the permutations for number of adapters and speeds, this should be considered an example and not a support requirement.

В этом примере выполняются следующие предположения:The following assumptions are made for this example:

  • У каждой команды есть два адаптераThere are two adapters per team

  • Трафик уровня шины хранилища (SBL), общий том кластера (CSV) и Hyper-V (динамическая миграция):Storage Bus Layer (SBL), Cluster Shared Volume (CSV), and Hyper-V (Live Migration) traffic:

    • Использование одних и тех же физических адаптеровUse the same physical adapters
    • Использование SMBUse SMB
  • Протоколу SMB предоставляется распределение пропускной способности 50% с помощью моста центра обработки данныхSMB is given a 50% bandwidth allocation using Data Center Bridging

    • SBL/CSV — это трафик с наивысшим приоритетом, который получает 70% резервирования пропускной способности SMB и:SBL/CSV is the highest priority traffic and receives 70% of the SMB bandwidth reservation, and:
    • Динамическая миграция (LM) ограничено с помощью Set-SMBBandwidthLimit командлета и получает 29% оставшейся пропускной способности.Live Migration (LM) is limited using the Set-SMBBandwidthLimit cmdlet and receives 29% of the remaining bandwidth
      • Если доступная пропускная способность для динамическая миграция составляет >= 5 Гбит/с, а сетевые адаптеры поддерживаются, используйте RDMA.If the available bandwidth for Live Migration is >= 5 Gbps, and the network adapters are capable, use RDMA. Для этого используйте следующий командлет:Use the following cmdlet to do so:

        Set-VMHost VirtualMachineMigrationPerformanceOption SMB
        
      • Если доступная пропускная способность для динамическая миграция составляет < 5 Гбит/с, используйте сжатие для сокращения времени отключения.If the available bandwidth for Live Migration is < 5 Gbps, use compression to reduce blackout times. Для этого используйте следующий командлет:Use the following cmdlet to do so:

        Set-VMHost -VirtualMachineMigrationPerformanceOption Compression
        
  • При использовании RDMA с динамическая миграция убедитесь, что динамическая миграция трафик не может использовать всю пропускную способность, выделенную для класса трафика RDMA, с использованием ограничения пропускной способности SMB.If using RDMA with Live Migration, ensure that Live Migration traffic cannot consume the entire bandwidth allocated to the RDMA traffic class by using an SMB bandwidth limit. Будьте внимательны, так как этот командлет принимает записи в байтах в секунду (бит/с), а сетевые адаптеры указываются в битах в секунду (бит/с).Be careful as this cmdlet takes entry in bytes per second (Bps) whereas network adapters are listed in bits per second (bps). Используйте следующий командлет, чтобы установить ограничение пропускной способности в 6 Гбит/с, например:Use the following cmdlet to set a bandwidth limit of 6 Gbps for example:

    Set-SMBBandwidthLimit -Category LiveMigration -BytesPerSecond 750MB
    

    Примечание

    750 Мбит/с в этом примере равно 6 Гбит/с750 MBps in this example equates to 6 Gbps

Ниже приведен пример таблицы распределения пропускной способности.Here is the example bandwidth allocation table:

Скорость сетевого адаптера.NIC Speed Совместная пропускная способностьTeamed Bandwidth Резервирование пропускной способности SMB * *SMB Bandwidth Reservation** SBL/CSV%SBL/CSV % Пропускная способность SBL/CSVSBL/CSV Bandwidth Динамическая миграция%Live Migration % Максимальная пропускная способность динамическая миграцияMax Live Migration Bandwidth ПакетHeartbeat % Пропускная способность пульсаHeartbeat Bandwidth
10 Гбит/с10 Gbps 20 Гбит/с20 Gbps 10 Гбит/с10 Gbps 70 %70% 7 Гбит/с7 Gbps * * 2 %2% 200 Мбит/с200 Mbps
25 Гбит/с25 Gbps 50 Гбит/с50 Gbps 25 Гбит/с25 Gbps 70 %70% 17,5 Гбит/с17.5 Gbps 29 %29% 7,25 Гбит/с7.25 Gbps 1 %1% 250 Мбит/с250 Mbps
40 Гбит/с40 Gbps 80 Гбит/с80 Gbps 40 Гбит/с40 Gbps 70 %70% 28 Гбит/с28 Gbps 29 %29% 11,6 Гбит/с11.6 Gbps 1 %1% 400 Мбит/с400 Mbps
50 Гбит/с50 Gbps 100 Гбит/с100 Gbps 50 Гбит/с50 Gbps 70 %70% 35 Гбит/с35 Gbps 29 %29% 14,5 Гбит/с14.5 Gbps 1 %1% 500 Мбит/с500 Mbps
100 Гбит/с100 Gbps 200 Гбит/с200 Gbps 100 Гбит/с100 Gbps 70 %70% 70 Гбит/с70 Gbps 29 %29% 29 Гбит/с29 Gbps 1 %1% 1 Гбит/с1 Gbps
200 Гбит/с200 Gbps 400 Гбит/с400 Gbps 200 Гбит/с200 Gbps 70 %70% 140 Гбит/с140 Gbps 29 %29% 58 Гбит/с58 Gbps 1 %1% 2 Гбит/с2 Gbps

* — следует использовать сжатие, а не RDMA, так как распределение пропускной способности для динамическая миграция трафика составляет <5 Гбит/с*- should use compression rather than RDMA as the bandwidth allocation for Live Migration traffic is <5 Gbps

* *-50% — это пример резервирования пропускной способности для этого примера**- 50% is an example bandwidth reservation for this example

Рекомендации по растянутому кластеруStretched cluster considerations

Растянутые кластеры обеспечивают аварийное восстановление, охватывающее несколько центров обработки данных.Stretched clusters provide disaster recovery that spans multiple data centers. В своей простейшей форме ХЦИ кластерная сеть с Azure Stack растяжением выглядит следующим образом:In its simplest form, a stretched Azure Stack HCI cluster network looks like this:

Растянутый кластер

Растянутые кластеры имеют следующие требования и характеристики.Stretched clusters have the following requirements and characteristics:

  • RDMA ограничен одним сайтом и не поддерживается на разных сайтах или в подсетях.RDMA is limited to a single site, and is not supported across different sites or subnets.

  • Серверы на одном сайте должны находиться в одной стойке и на границе уровня 2.Servers in the same site must reside in the same rack and Layer-2 boundary.

  • Обмен данными между сайтами через границу уровня 3; Растянутые топологии уровня 2 не поддерживаются.Communication between sites cross a Layer-3 boundary; stretched Layer-2 topologies are not supported.

  • Если сайт использует RDMA для своих адаптеров хранилища, эти адаптеры должны находиться в отдельной подсети и виртуальной ЛС, которая не может маршрутизироваться между сайтами.If a site uses RDMA for its storage adapters, these adapters must be on a separate subnet and VLAN that cannot route between sites. В результате Реплика хранилища не сможет использовать RDMA на сайтах.This prevents Storage Replica from using RDMA across sites.

  • Адаптеры, используемые для обмена данными между сайтами:Adapters used for communication between sites:

    • Может быть физическим или виртуальным (Host vNIC).Can be physical or virtual (host vNIC). Если виртуальная сеть, необходимо подготавливать одну vNIC в своей подсети и виртуальной ЛС на физический сетевой адаптер.If virtual, you must provision one vNIC in its own subnet and VLAN per physical NIC.
    • Должен находиться в своей подсети и виртуальной ЛС, которая может маршрутизироваться между сайтами.Must be on their own subnet and VLAN that can route between sites.
    • RDMA должен быть отключен с помощью Disable-NetAdapterRDMA командлета.RDMA must be disabled using the Disable-NetAdapterRDMA cmdlet. Рекомендуется явно требовать, чтобы реплика хранилища использовала определенные интерфейсы с помощью Set-SRNetworkConstraint командлета.We recommend that you explicitly require Storage Replica to use specific interfaces using the Set-SRNetworkConstraint cmdlet.
    • Должен соответствовать любым дополнительным требованиям к реплике хранилища.Must meet any additional requirements for Storage Replica.
  • В случае отработки отказа на другой сайт необходимо убедиться, что доступна достаточная пропускная способность для запуска рабочих нагрузок на другом сайте.In the event of a failover to another site, you must ensure that enough bandwidth is available to run the workloads at the other site. В качестве безопасного варианта можно подготавливать сайты на 50% от доступной емкости.A safe option is to provision sites at 50% of their available capacity. Это не является жестким требованием, если вы можете снизить производительность во время отработки отказа.This is not a hard requirement if you are able to tolerate lower performance during a failover.

Дальнейшие действияNext steps