Bereitstellen und Verwalten von Azure Stack HCI-Clustern in VMM

Dieser Artikel enthält Informationen zum Einrichten eines Azure Stack HCI-Clusters der Version 20H2 in System Center Virtual Machine Manager (VMM) 2019 UR3 und höher. Sie können einen Azure Stack HCI-Cluster bereitstellen durch Bereitstellung von Bare-Metal-Servern.

Wichtig

Azure Stack HCI-Cluster, die von Virtual Machine Manager verwaltet werden, sollten dem Vorschaukanal noch nicht beitreten. System Center 2019 (einschließlich Virtual Machine Manager, Operations Manager und anderer Komponenten) unterstützt diese Vorschauversion noch nicht. Aktuelle Informationen finden Sie im System Center-Blog.

Erfahren Sie mehr über das neue Azure Stack HCI-Betriebssystem.

Vorbereitung

Stellen Sie sicher, dass VMM 2019 UR3 oder höher ausgeführt wird.

Was wird unterstützt?

Was wird nicht unterstützt?

  • Die Verwaltung von Azure Stack HCI-Stretched-Clustern wird derzeit in VMM nicht unterstützt.

  • Da Azure Stack HCI als Virtualisierungshost ausgelegt ist, auf dem Sie alle Workloads auf virtuellen Computern ausführen, können Sie gemäß den Azure Stack HCI-Nutzungsbedingungen nur die Vorgänge durchführen, die für das Hosten der virtuellen Computer erforderlich sind. Azure Stack HCI-Cluster sollten nicht für andere Zwecke verwendet werden, wie z. b. WSUS-Server, WDS-Server oder Bibliothek Server. Weitere Informationen zur Verwendung von Azure Stack HCI und Rollen, die Sie ohne Virtualisierung ausführen können, finden Sie unter Anwendungsfälle für Azure Stack HCI.

  • Die Live-Migration des virtuellen Computers wird zwischen keiner Version von Windows Server und Azure Stack HCI-Clustern unterstützt.

  • Die Netzwerk-Migration von Windows Server 2019 zu Azure Stack HCI-Cluster funktioniert ebenso wie die Migration einer Offline-VM (Herunterfahren). VMM führt hier den Export- und Importvorgang aus.

Hinweis

Sie müssen S2D aktivieren, wenn Sie einen Azure Stack HCI-Cluster erstellen. Um S2D im Clustererstellungs-Wizard zu aktivieren, gehen Sie zu Allgemeine Konfiguration und wählen Sie unter Clustername und Hostgruppe angeben die Optione Direkte Speicherplätze aktivieren, wie im Folgenden gezeigt:

S2D aktiviert

Nachdem Sie einen Cluster mit S2D aktiviert haben, führt VMM Folgendes aus:

  • Das Failover-Cluster-Feature ist aktiviert.
  • Speicherreplikat und Datendeduplizierung werden aktiviert.
  • Der Cluster wird optional überprüft und erstellt.
  • S2D ist aktiviert, und es wird ein Speicherarray mit dem Namen erstellt, den Sie im Assistenten angegeben haben.

Wenn Sie PowerShell zum Erstellen eines hyperkonvergenten Clusters verwenden, werden der Pool und die Speicherebene automatisch über die Option Enable-ClusterS2D autoconfig=true erstellt.

Wenn diese Voraussetzungen erfüllt sind, stellen Sie einen Cluster bereit und richten darauf Speicherressourcen ein. Anschließend können Sie VMS im Cluster bereitstellen.

Führen Sie die folgenden Schritte aus:

Schritt 1: Bereitstellen des Clusters

Sie können einen Cluster mithilfe von Hyper-V-Hosts und Bare-Metal-Computern bereitstellen:

Bereitstellen eines Clusters aus Hyper-V-Hosts

Wenn Sie die Azure Stack HCI-Hosts zur VMM-Fabric hinzufügen müssen, führen Sie die folgenden Schritte aus. Wenn sie sich bereits im VMM-Fabric befinden, fahren Sie mit dem nächsten Schritt fort.

Hinweis

  • Wählen Sie beim Einrichten des Clusters die Option Direkte Speicherplätze aktivieren auf der Seite Allgemeine Konfiguration des Assistenten Hyper-V-Cluster erstellen aus.
  • Wählen Sie unter Ressourcentyp die Option Vorhandene Server mit Windows Server-Betriebssystem und dann die Hyper-V-Hosts aus, die dem Cluster hinzugefügt werden sollen.
  • Auf allen ausgewählten Hosts sollte Azure Stack HCI-Betriebssystem installiert sein.
  • Da S2D aktiviert ist, muss der Cluster überprüft werden.

Bereitstellen eines Clusters aus Bare-Metal-Computern

Hinweis

Üblicherweise erfordert ein S2D-Knoten RDMA-, QoS- und SET-Einstellungen. Um diese Einstellungen für einen Knoten zu konfigurieren, der Bare-Metal-Computer verwendet, können Sie die Funktionalität für PCP-Skripts nach der Bereitstellung nutzen. Hier finden Sie das PCP-Beispielskript nach der Bereitstellung. Sie können dieses Skript auch verwenden, um RDMA, QoS und SET zu konfigurieren, während Sie einen neuen Knoten für eine vorhandene S2D-Bereitstellung basierend auf Bare-Metal-Computern hinzufügen.

  1. Lesen Sie die Voraussetzungen für das Bereitstellen von Bare-Metal-Computern. Beachten Sie dabei Folgendes:

    • Die generalisierte VHD oder VHDX in der VMM-Bibliothek sollte Azure Stack HCl mit den neuesten Updates ausführen. Die Werte Betriebssystem und Virtualisierungsplattform für die Festplatte sollten festgelegt sein.
    • Für die Bare-Metal-Bereitstellung müssen Sie einen Pre-Boot eXecution Environment-Server (PXE) zum VMM-Fabric hinzufügen. Der PXE-Server wird über Windows-Bereitstellungsdienste bereitgestellt. VMM verwendet ein eigenes WinPE-Image, und es muss sich dabei um das neueste handeln. Klicken Sie hierzu auf FabricInfrastrukturWinPE-Image aktualisieren, und stellen Sie sicher, dass der Auftrag abgeschlossen wird.
  2. Befolgen Sie die Anweisungen unter Bereitstellen eines Hyper-V-Hosts oder -Clusters basierend auf Bare-Metal-Computern.

Schritt 2: Einrichten des Netzwerks für den Cluster

Nachdem der Cluster bereitgestellt wurde und im VMM-Fabric verwaltet wird, müssen Sie ein Netzwerk für Clusterknoten einrichten.

  1. Beginnen Sie mit dem Erstellen eines logischen Netzwerks, das das physische Verwaltungsnetzwerk spiegelt.
  2. Sie müssen einen logischen Switch einrichten, bei dem Switch Embedded Teaming (SET) aktiviert ist, damit der Switch zur Virtualisierung fähig ist. Dieser Switch ist mit dem logischen Verwaltungsnetzwerk verbunden. Er verfügt über alle virtuellen Host-Adapter, die erforderlich sind, um Zugriff auf das Verwaltungsnetzwerk zu ermöglichen oder ein Speichernetzwerk zu konfigurieren. S2D verfügt über ein Netzwerk für die Kommunikation zwischen Hosts. Es werden RDMA-fähige Adapter empfohlen.
  3. Erstellen von VM-Netzwerken.

Schritt 3: Konfigurieren von DCB-Einstellungen auf dem Azure Stack HCI-Cluster

Hinweis

Die Konfiguration von DCB-Einstellungen ist ein optionaler Schritt, um eine hohe Leistung während des Workflows der Erstellung des S2D-Clusters zu erzielen. Fahren Sie mit Schritt 4 fort, wenn Sie keine DCB-Einstellungen konfigurieren möchten.

Empfehlungen

  • Wenn Sie vNICs bereitgestellt haben, sollten Sie alle Ihre vNICs den entsprechenden pNICs zuordnen, um eine optimale Leistung zu erzielen. Affinitäten zwischen vNIC und pNIC werden vom Betriebssystem nach dem Zufallsprinzip festgelegt, und in manchen Szenarien könnten mehrere vNICs derselben pNIC zugeordnet werden. Sie sollten die Affinität zwischen vNIC und pNIC manuell festlegen, indem Sie die hier aufgeführten Schritte befolgen, um solche Szenarios zu vermeiden.

  • Wenn Sie ein Portprofil für den Netzwerkadapter erstellen, sollten Sie IEEE-Priorität zulassen. Weitere Informationen

    Sie können die IEEE-Priorität auch mithilfe der folgenden PowerShell-Befehle festlegen:

    PS> Set-VMNetworkAdapterVlan -VMNetworkAdapterName SMB2 -VlanId "101" -Access -ManagementOS
    PS> Set-VMNetworkAdapter -ManagementOS -Name SMB2 -IeeePriorityTag on
    

Führen Sie die folgenden Schritte aus, um DCB-Einstellungen zu konfigurieren:

  1. Erstellen Sie einen neuen Hyper-V-Cluster, und wählen Sie „Direkte Speicherplätze“ aktivieren aus. Die Option DCB-Konfiguration wird dem Workflow zum Erstellen von Hyper-V-Clustern hinzugefügt.

    Hyper-V-Cluster

  2. Wählen Sie in DCB-Konfiguration die Option Data Center Bridging konfigurieren aus.

  3. Geben Sie Werte für Priorität und Bandbreite für den Datenverkehr zwischen SMB-Direct und Clustertakt an.

    Hinweis

    Priorität und Bandbreite werden Standardwerte zugewiesen. Passen Sie diese Werte gemäß der Umgebungsanforderungen Ihres Unternehmens an.

    Priorität – Bandbreite

    Standardwerte:

    Datenverkehrsklasse Priority Bandbreite (%)
    Clustertakt 7 1
    SMB-Direct 3 50
  4. Wählen Sie die für den Speicherdatenverkehr verwendeten Netzwerkadapter aus. RDMA ist auf diesen Netzwerkadaptern aktiviert.

    Hinweis

    Wählen Sie in einem konvergierten NIC-Szenario die Speicher-vNICs aus. Die zugrunde liegenden pNICs sollten RDMA-fähig sein, damit vNICs angezeigt und zur Auswahl verfügbar sein können.

    Aktivieren von RMDS

  5. Überprüfen Sie die Zusammenfassung, und wählen Sie Fertig stellen aus.

    Ein Azure Stack HCI-Cluster wird erstellt, und die DCB-Parameter werden für alle S2D-Knoten konfiguriert.

    Hinweis

    • DCB-Einstellungen können auf den vorhandenen Hyper-V S2D-Clustern konfiguriert werden, indem Sie die Seite Clustereigenschaften aufrufen und zur Seite DCB-Konfiguration navigieren.
    • Alle Out-of-Band-Änderungen an den DCB-Einstellungen auf beliebigen Knoten bewirken, dass der S2D-Cluster in VMM nicht kompatibel ist. Eine Option „Wartung ausführen“ ist auf der Seite DCB-Konfiguration der Clustereigenschaften verfügbar, mit der Sie die DCB-Einstellungen erzwingen können, die in VMM auf den Clusterknoten konfiguriert werden.

Schritt 4: Registrierung des Azure Stack HCI-Clusters bei Azure

Nachdem Sie einen Azure Stack HCI-Cluster erstellt haben, muss er innerhalb von 30 Tagen nach der Installation gemäß den Azure Online Services-Nutzungsbedingungen in Azure registriert werden. Führen Sie die hier beschriebenen Schritte aus, um den Azure Stack HCI-Cluster bei Azure zu registrieren.

Der Registrierungsstatus wird in VMM nach einer erfolgreichen Cluster Aktualisierung widerspiegeln.

Schritt 5: Anzeigen des Registrierungsstatus Azure Stack HCI-Clustern

  1. In der VMM-Konsole können Sie den Registrierungsstatus und das Datum der letzten Verbindung von Azure Stack HCI-Clustern anzeigen.

  2. Klicken Sie auf Fabric, klicken Sie mit der rechten Maustaste auf den Azure Stack HCI-Cluster und wählen Sie Eigenschaften.

    Registrierungszustand

  3. Der Get-SCVMM-Host verfügt über neue Eigenschaften zum Überprüfen des Registrierungszustands.

Schritt 6: Verwalten des Pools und Erstellen von CSVs

Sie können nun die Einstellungen des Speicherpools ändern und virtuelle Datenträger und CSVs erstellen.

  1. Klicken Sie auf FabricSpeicherArrays.

  2. Klicken Sie mit der rechten Maustaste auf den Cluster > Pool verwalten, und wählen Sie den Speicherpool aus, der standardmäßig erstellt wurde. Sie können den Standardnamen ändern und eine Klassifizierung hinzufügen.

  3. Klicken Sie zum Erstellen eines CSV mit der rechten Maustaste auf den Cluster und dann auf >>>>.

  4. Geben Sie unter Assistenten zum Erstellen von VolumesSpeichertyp den Volumenamen an, und wählen Sie den Speicherpool aus.

  5. Unter Kapazität können Sie Volumegröße, Dateisystem und Resilienzeinstellungen (zu tolerierende Fehler) angeben.

    Volumeeinstellungen

  6. Klicken Sie auf Erweiterte Speicher- und Ebenenoptionen konfigurieren, um diese Optionen einzurichten.

    Speichereinstellungen konfigurieren

  7. Überprüfen Sie die Einstellungen unter Zusammenfassung, und beenden Sie den Assistenten. Ein virtueller Datenträger wird mit dem Erstellen des Volumes automatisch erstellt.

Wenn Sie Windows PowerShell verwenden, werden der Pool und die Speicherebene automatisch über die Option Enable-ClusterS2D autoconfig=true erstellt.

Schritt 7: Bereitstellen von VMs auf dem Cluster

In einer hyperkonvergenten Topologie können VMs direkt im Cluster bereitgestellt werden. Ihre virtuellen Festplatten werden auf den Volumes, die Sie mit S2D erstellt haben, platziert. Diese VMs können Sie genau wie andere VMs erstellen und bereitstellen.

Wichtig

Wenn der Azure Stack HCI-Cluster nicht bei Azure registriert ist oder seit mehr als 30 Tagen nach der Registrierung nicht mit Azure verbunden ist, wird die Hochverfügbarkeit der virtuellen Maschine (HAVM) im Cluster blockiert. Weitere Informationen zur Clusterregistrierung finden Sie in Schritt 4 und 5.

Nächste Schritte