Развертывание и администрирование кластеров Azure Stack HCI в VMM

В этой статье показано, как настроить кластер Azure Stack HCI в System Center Virtual Machine Manager (VMM). Кластер Azure Stack HCI можно развернуть путем подготовки на серверах без операционной системы или путем добавления существующих узлов. Подробнее о новой ОС Azure Stack HCI.

В накопительном пакете обновления 3 (UR3) VMM 2019 поддерживается Azure Stack HCI версии 20H2. Текущим продуктом является Azure Stack HCI версии 21H2. Начиная с System Center 2022, VMM поддерживает Azure Stack HCI версии 20H2; Azure Stack HCI версии 21H2; и Azure Stack HCI версии 22H2 (поддерживается из VMM 2022 UR1).

Важно!

Кластеры Azure Stack HCI, управляемые Virtual Machine Manager, пока не должны присоединиться к каналу предварительной версии. System Center (включая Virtual Machine Manager, Operations Manager и другие компоненты) в настоящее время не поддерживает предварительные версии Azure Stack. Последние обновления см. в блоге System Center.

Перед началом работы

Убедитесь, что вы используете VMM 2019 UR3 или более поздней версии.

Поддерживаемые возможности

  • Добавление, создание кластеров Azure Stack HCI и управление ими. См. подробные инструкции по созданию кластеров HCI и управлению ими.

  • Возможность подготавливать и развертывать виртуальные машины в кластерах Azure Stack HCI и выполнять операции жизненного цикла виртуальной машины. Виртуальные машины можно подготовить с помощью файлов VHD(x), шаблонов или из существующей виртуальной машины. Подробнее.

  • Настройка сети на основе виртуальной локальной сети в кластерах Azure Stack HCI.

  • Развертывание и управление сетевым контроллером SDN в кластерах Azure Stack HCI.

  • Управление параметрами пула носителей, создание виртуальных дисков, создание общих томов кластера и применение параметров качества обслуживания.

  • Перемещение виртуальных машин между кластерами Windows Server и Azure Stack HCI выполняется с помощью сетевой миграции и миграции виртуальной машины в автономном режиме (завершение работы). В этом сценарии VMM выполняет экспорт и импорт под капотом, несмотря на то, что выполняется как одна операция.

  • Командлеты PowerShell, используемые для управления кластерами Windows Server, можно также использовать для управления кластерами Azure Stack HCI.

Регистрация и отмена регистрации кластеров Azure Stack HCI

В VMM 2022 мы представляем командлеты VMM PowerShell для регистрации и отмены регистрации кластеров Azure Stack HCI.

Для регистрации кластера HCI используйте следующие командлеты:

Register-SCAzStackHCI -VMHostCluster <HostCluster> -SubscriptionID <string>

Для отмены регистрации кластера используйте следующую команду:

Unregister-SCAzStackHCI -VMHostCluster <HostCluster> -SubscriptionID <string>

Подробные сведения о поддерживаемом параметре см. в разделах Register-SCAzStackHCI и Unregister-SCAzStackHCI.

Неподдерживаемые возможности

Примечание

Выполняется динамическая миграция между кластерами Azure Stack HCI, а также между кластерами Windows Server.

  • Единственным типом хранилища, доступным для Azure Stack HCI, является Локальные дисковые пространства (S2D). Создание кластера, отличного от S2D, и управление ими с узлами Azure Stack HCI не поддерживается. Если необходимо использовать любой другой тип хранилища, например SAN, используйте Windows Server в качестве узла виртуализации.

Примечание

При создании кластера Azure Stack HCI необходимо включить функцию S2D. Чтобы включить S2D, в мастере создания кластера перейдите к разделу Общая конфигурация. В разделе Укажите имя кластера и группу узлов выберите Включить Локальные дисковые пространства, как показано ниже:

Снимок экрана с включенным S2D.

После включения кластера с локальными дисковыми пространствами VMM выполняет следующие задачи:

  • включается функция отказоустойчивой кластеризации;
  • Включены реплика хранилища и дедупликация данных.
  • при необходимости выполняется проверка и создание кластера;
  • включается S2D и в VMM создается объект массива хранения с тем же именем, которое указано в мастере.

Если вы используете VMM для создания гиперконвергентного кластера, пул и уровни хранилища автоматически создаются путем запуска Enable-ClusterStorageSpacesDirect -Autoconfig $True.

После выполнения этих предварительных требований следует подготовить кластер и настроить в нем ресурсы хранилища. Затем можно развернуть виртуальные машины в кластере.

Выполните следующие действия.

Шаг 1. Подготовка кластера

Кластер можно подготавливать на узлах Hyper-V и компьютерах без операционной системы:

Подготовка кластера на основе узлов Hyper-V

Если вам нужно добавить узлы Azure Stack HCI в структуру VMM, выполните эти действия. Если они уже имеются в структуре VMM, перейдите к следующему шагу.

Примечание

  • При настройке кластера выберите параметр Включить Локальные дисковые пространства на странице Общая конфигурация мастера Создание кластера Hyper-V.
  • На странице Тип ресурса выберите параметр Существующие серверы, работающие под управлением операционной системы Windows Server, а затем выберите узлы Hyper-V для добавления в кластер.
  • На всех выбранных узлах должна быть установлена ОС Azure Stack HCI.
  • Так как вы включили S2D, необходимо проверить кластер.

Подготовка кластера на основе компьютеров без операционной системы

Примечание

Как правило, для узла S2D требуются параметры RDMA, QoS и SET. Чтобы настроить эти параметры для узла с помощью компьютеров без операционных систем, можно использовать возможность запуска скриптов, выполняемых после развертывания PCP. Ниже приведен пример сценария PCP после развертывания. Этот скрипт также можно использовать для настройки RDMA, QoS и SET при добавлении нового узла в существующее развертывание S2D с компьютеров без операционной системы.

  1. Ознакомьтесь с предварительными требованиями для развертывания кластера без операционной системы.

Примечание

  • Универсальный образ VHD или VHDX в библиотеке VMM должен содержать Azure Stack HCI с последними обновлениями. Необходимо задать значения параметров Операционная система и Платформа виртуализации для жесткого диска.
  • Для развертывания без операционной системы необходимо добавить в структуру VMM сервер протокола удаленной загрузки PXE. PXE-сервер предоставляется посредством служб развертывания Windows. VMM использует собственный образ WinPE, и вам нужно убедиться, что он является последним. Для этого выберитеWinPE-образ обновленияинфраструктуры>структуры> и убедитесь, что задание завершено.
  1. Выполните инструкции по подготовке кластера на основе компьютеров без операционной системы.

Шаг 2. Настройка сетевых подключений для кластера

После того как кластер будет подготовлен и настроен для управления в структуре VMM, необходимо настроить сетевые подключения для узлов кластера.

  1. Сначала создайте логическую сеть для отражения физической сети управления.
  2. Необходимо настроить логический коммутатор с включенным командированием switch Embedded Teaming (SET), чтобы коммутатор знал о виртуализации. Этот коммутатор подключен к логической сети управления и содержит все виртуальные адаптеры узла, необходимые для предоставления доступа к сети управления или настройки сети хранилища. Для обмена данными между узлами локальные дисковые пространства используют сеть. Рекомендуется использовать адаптеры с поддержкой RDMA.
  3. Создайте сети виртуальных машин.

Шаг 3. Настройка параметров DCB в кластере Azure Stack HCI

Примечание

Настройка параметров DCB является необязательным шагом для достижения высокой производительности в процессе создания кластера S2D. Перейдите к шагу 4, если вы не хотите настраивать параметры DCB.

Рекомендации

  • Если вы развернули виртуальные сетевые адаптеры, для оптимальной производительности рекомендуется сопоставить все виртуальные сетевые адаптеры с соответствующими PNIC. Соответствия между vNIC и pNIC задаются операционной системой случайным образом, и могут существовать сценарии, в которых несколько vNIC сопоставляются с одним и тем же pNIC. Чтобы избежать таких сценариев, рекомендуем задать сходство между vNIC и pNIC вручную, выполнив приведенные здесь действия.

  • При создании профиля порта сетевого адаптера рекомендуется разрешить приоритет IEEE. Подробнее.

    Приоритет IEEE можно также задать с помощью следующих команд PowerShell:

    Set-VMNetworkAdapterVlan -VMNetworkAdapterName 'SMB2' -VlanId '101' -Access -ManagementOS
    Set-VMNetworkAdapter -ManagementOS -Name 'SMB2' -IeeePriorityTag on
    

Выполните следующие действия,чтобы настроить параметры DCB.

  1. Выполните действия в статье Подготовка кластера из автономных узлов Hyper-V в структуре VMM, выберите Включить локальные дисковые пространства кластера. В рабочий процесс создания кластера Hyper-V добавляется параметр Конфигурация DCB.

    Снимок экрана: кластер Hyper-V.

  2. В Конфигурация DCB выберите Configure Data Center Bridging (Настроить мостовое соединение для центра обработки данных).

  3. Укажите значения для пунктов Приоритет и Пропускная способность для трафика пульса SMB-Direct и кластера.

Примечание

Параметрам Приоритет и Пропускная способность назначаются значения по умолчанию. Настройте эти значения в соответствии с потребностями вашей организации.

Снимок экрана: пропускная способность приоритета.

Значения по умолчанию:

Класс трафика Приоритет Пропускная способность (%)
Пульс кластера 7 1
SMB-Direct 3 50
  1. Выберите сетевые адаптеры, используемые для трафика хранилища. На этих сетевых адаптерах включен RDMA.

    Примечание

    В сценарии с согласованным сетевым адаптером выберите vNIC хранилища. Базовые pNIC должны поддерживать RDMA, чтобы vNIC отображался и был доступен для выбора.

    Снимок экрана: включение RMDS.

  2. Проверьте параметры и выберите Готово.

    Будет создан кластер Azure Stack HCI, а на всех узлах S2D будут настроены параметры DCB.

    Примечание

    • Параметры DCB можно настроить в существующих кластерах S2D Hyper-V, перейдя на страницу Свойства кластера и перейдя на страницу конфигурации DCB .
    • Все изменения, внесенные по внешнему каналу в параметры DCB на любом из узлов, приведут к тому, что кластер S2D не будет соответствовать требованиям VMM. На странице Конфигурация DCB свойств кластера будет предоставлен параметр "Исправить", который можно использовать для принудительного применения параметров DCB, настроенных в VMM на узлах кластера.

Шаг 4. Регистрация кластера Azure Stack HCI в Azure

Созданный кластер Azure Stack HCI должен быть зарегистрирован в Azure в течение 30 дней после установки согласно условиям использования веб-служб Azure. Если вы используете System Center 2022, используйте Register-SCAzStackHCI командлет в VMM, чтобы зарегистрировать кластер Azure Stack HCI в Azure. Вы также можете зарегистрировать кластер Azure Stack HCI в Azure по этим инструкциям.

После обновления кластера состояние регистрации будет отражено в VMM.

Шаг 5. Просмотр состояния регистрации кластеров Azure Stack HCI

  1. В консоли VMM можно просмотреть состояние регистрации и дату последнего подключения кластеров Azure Stack HCI.

  2. Выберите Структура, щелкните правой кнопкой мыши кластер Azure Stack HCI и выберите Свойства.

    Снимок экрана: состояние регистрации.

  3. Кроме того, запустите Get-SCVMHost и просмотрите свойства возвращаемого объекта, чтобы проверка состояние регистрации.

Шаг 6. Управление пулом и создание томов CSV

Теперь вы можете изменять параметры пула носителей и создавать виртуальные диски и csv-файлы.

  1. ВыберитеМассивыхранилища>структуры>.

  2. Щелкните кластер правой кнопкой мыши, выберите пункт Управление пулом и пул носителей, который был создан по умолчанию. Вы можете изменить имя по умолчанию и добавить классификацию.

  3. Чтобы создать том CSV, щелкните кластер правой кнопкой мыши и выберите >>>.

  4. В разделеТип хранилищамастера> создания томов укажите имя тома и выберите пул носителей.

  5. На странице Емкость можно указать размер тома, файловую систему и параметры устойчивости (отказоустойчивости).

    Снимок экрана: параметры тома.

  6. Выберите Настройка дополнительных параметров хранилища и распределения по уровням , чтобы настроить эти параметры.

    Снимок экрана: настройка параметров хранилища.

  7. В разделе Сводка проверьте параметры и завершите работу мастера. При создании тома будет автоматически создан виртуальный диск.

Шаг 7. Развертывание виртуальных машин в кластере

В гиперконвергентной топологии виртуальные машины можно развернуть непосредственно в кластере. Их виртуальные жесткие диски размещаются в томах, созданных с использованием локальных дисковых пространств. Эти виртуальные машины создаются и развертываются так же, как и любые другие.

Важно!

Если кластер Azure Stack HCI не зарегистрирован в Azure или не подключен к Azure более 30 дней после регистрации, создание виртуальной машины с высоким уровнем доступности (HAVM) будет заблокировано в кластере. Сведения о регистрации кластера см. в шагах 4 и 5.

Шаг 8. Перенос виртуальных машин из Windows Server в кластер Azure Stack HCI

Используйте функции миграции сети в VMM для переноса рабочих нагрузок из Hyper-V (Windows Server 2019 & более поздней версии) в Azure Stack HCI.

Примечание

Динамическая миграция между Windows Server и Azure Stack HCI не поддерживается. Миграция сети из Azure Stack HCI в Windows Server не поддерживается.

  1. Временно отключите динамическую миграцию на целевом узле Azure Stack HCI.
  2. Выберите Виртуальные машины и службы > Все узлы, а затем выберите исходный узел Hyper-V, с которого требуется выполнить миграцию.
  3. Выберите виртуальную машину, которую требуется перенести. Виртуальная машина должна находиться в отключенном состоянии.
  4. Выберите Миграция виртуальной машины.
  5. В разделе Выбор узла просмотрите и выберите целевой узел Azure Stack HCI.
  6. Нажмите кнопку Далее, чтобы инициировать миграцию сети. VMM будет выполнять импорт и экспорт в серверной части.
  7. Чтобы убедиться, что виртуальная машина успешно перенесена, проверка список виртуальных машин на конечном узле. Включите виртуальную машину и повторно включите динамическую миграцию на узле Azure Stack HCI.

Шаг 9. Перенос рабочих нагрузок VMware в кластер Azure Stack HCI с помощью SCVMM

VMM предлагает простой интерфейс на основе мастера для преобразования V2V (виртуальный в виртуальный). Вы можете использовать средство преобразования для переноса рабочих нагрузок в большом масштабе из инфраструктуры VMware в инфраструктуру Hyper-V. Список поддерживаемых серверов VMware см. в разделе Требования к системе.

Предварительные требования и ограничения для преобразования см. в статье Преобразование виртуальной машины VMware в Hyper-V в структуре VMM.

  1. Создайте учетную запись запуска от имени для роли администратора vCenter Server в VMM. Эти учетные данные администратора используются для управления серверами vCenter Server и узлами ESXi. Снимок экрана: страница создания учетной записи запуска от имени.

  2. В консоли VMM в разделе Структура выберите Серверы>Добавить сервер VMware vCenter Server. Снимок экрана: добавление параметра VMware vCenter.

  3. На странице Добавление VMware vCenter Server сделайте следующее:

    1. Имя компьютера. Укажите имя сервера vCenter.
    2. Учетная запись запуска от имени. Выберите учетную запись запуска от имени, созданную для администратора vSphere.
      Снимок экрана: сведения о сервере.
  4. Нажмите кнопку Завершить.

  5. На странице Импорт сертификата выберите Импорт.

    Снимок экрана: параметр импорта сертификатов.

  6. После успешного добавления сервера vCenter все узлы ESXi в vCenter переносятся в VMM.

Добавление узлов

  1. В консоли VMM в разделе Структура выберите Серверы>Добавить узлы и кластеры VMware ESX.
    Снимок экрана: параметр
  2. В мастере добавления ресурсов:
    1. В разделе Учетные данные выберите учетную запись запуска от имени, используемую для порта, и нажмите кнопку Далее. Снимок экрана: вкладка учетных данных.

    2. В разделе Целевые ресурсы выберите все кластеры ESX, которые необходимо добавить в VMM, и нажмите кнопку Далее. Снимок экрана: вкладка

    3. В разделе Параметры узла выберите расположение, в которое вы хотите добавить виртуальные машины, и нажмите кнопку Далее. Снимок экрана: вкладка

    4. В разделе Сводка просмотрите параметры и нажмите кнопку Готово. Наряду с узлами также будут добавлены связанные виртуальные машины.

      Снимок экрана: вкладка

Проверка состояния узла ESXi

  1. Если состояние узла ESXi отображается как ОК (ограничено), щелкните правой кнопкой мышиУправление свойствами>, выберите Учетная запись запуска от имени, используемая для порта, и импортируйте сертификаты для узла.
    Повторите тот же процесс для всех узлов ESXi. Снимок экрана: вкладка После добавления кластеров ESXi все виртуальные машины, работающие в кластерах ESXi, автоматически обнаруживаются в VMM.

Просмотр виртуальных машин

  1. Перейдите в раздел Виртуальные машины и службы , чтобы просмотреть виртуальные машины. Вы также можете управлять основными операциями жизненного цикла этих виртуальных машин из VMM.
    Снимок экрана: узлы ESXi.

  2. Щелкните правой кнопкой мыши виртуальную машину и выберите Выключение (миграции по сети не поддерживаются), которые необходимо перенести и удалить средства VMware из операционной системы на виртуальной машине.

  3. Выберите Главная>Создать Виртуальные машины>Конвертировать виртуальную машину.

  4. В мастере преобразования виртуальной машины выполните следующие действия:

    1. В разделе Выбор источника выберите виртуальную машину, запущенную на сервере ESXi, и нажмите кнопку Далее. Снимок экрана: выбор источника.
    2. В разделе Укажите удостоверение виртуальной машины введите новое имя виртуальной машины, если хотите, и нажмите кнопку Далее.
      Снимок экрана: параметр
  5. В разделе Выбор узла выберите целевой узел Azure Stack HCI, укажите расположение на узле для файлов хранилища виртуальных машин и нажмите кнопку Далее.

    Снимок экрана: выбор параметра узла.

  6. Выберите виртуальную сеть для виртуальной машины и нажмите кнопку Создать , чтобы завершить миграцию.
    Виртуальная машина, работающая в кластере ESXi, успешно перенесена в кластер Azure Stack HCI. Для автоматизации используйте команды PowerShell для преобразования.

Дальнейшие действия