Planen für Azure Stack HCI-Workloads

Abgeschlossen

Nachdem Sie sich vergewissert haben, dass sich Azure Stack HCI für das Hosten Ihres Workloads eignet, müssen Sie Ihre Infrastrukturanforderungen berücksichtigen, einschließlich Compute-, Speicher- und Netzwerkkomponenten. Diese Überlegungen sind abhängig von der Workload, sodass Sie für ein Szenario wie das von Contoso unterschiedliche Leistungsanforderungen an Microsoft SQL Server und VDI berücksichtigen müssen.

Planen für Azure Stack HCI

Es folgen allgemeine Überlegungen zur Planung einer Azure Stack HCI-Implementierung:

  • Die Anzahl der physischen Server pro Cluster. Diese Zahl muss zwischen 1 und 16 liegen.
  • Die Anzahl der Fehlerdomänen pro Cluster. Standardmäßig ist jeder Knoten in einem „Direkte Speicherplätze“-Cluster eine Fehlerdomäne.
  • Anzahl und Typ der Prozessoren pro Server. Der erste Wert bestimmt die Anzahl der Kerne, der zweite ihre Geschwindigkeit.
  • Größe und Typs des Arbeitsspeichers pro Server, einschließlich etwaige Nutzung von PMEM.
  • Datenträgerleistung, einschließlich der entsprechenden Tiering- und Cachekonfiguration.
  • Die Anzahl, Typen und Funktionen Ihrer Netzwerkadapter
  • Das Azure-Abonnement, in dem Sie Ihre Azure Stack HCI-Bereitstellung registrieren, da für Azure Stack HCI-Cluster je nach Azure-Abonnementtyp laufende Gebühren anfallen.

Die Planungsüberlegungen hinsichtlich Speicherleistung und Kapazität umfassen Folgendes:

  • Anzahl und Typen von Datenträgern, einschließlich HDD, SSD und NVMe.
  • Resilienzebenen für das Feature „Direkte Speicherplätze“.
  • Tiering- und Cachekonfiguration.

Einige andere Netzwerkfaktoren, die berücksichtigt werden sollten:

  • Verwendung von Netzwerkswitches oder Verzicht auf diese (in kleinen Clustern können Server mithilfe eines Full-Mesh-Netzwerks ohne Switches miteinander verbunden werden)
  • Anforderungen an die physische Verkabelung für Adapter (mit und ohne Switches)
  • Die Netzwerkswitches pro Cluster und deren Besitzer

Weitere Überlegungen gelten für Stretched Cluster-Instanzen, einschließlich Anzahl der für die einzelnen Standorte benötigten Server und des Clusterkonfigurationsmodus. Die beiden Modi sind:

  • Aktiv/Passiv-Modus, bei dem ein designierter primärer Standort unidirektional an einen anderen Standort repliziert wird, der Funktionen für die Notfallwiederherstellung bereitstellt.
  • Aktiv/Aktiv-Modus, bei dem zwei Standorte ihre jeweiligen Volumes unidirektional untereinander replizieren, wobei eine Failoverfunktion bereitgestellt wird, wenn einer der Standorte ausfällt. Der Aktiv/Aktiv-Modus trägt zur Minimierung der Kosten für Geschäftskontinuität bei, da Sie keinen dedizierten Standort für die Notfallwiederherstellung benötigen.

Die beabsichtigten Workloads wirken sich auf alle diese Faktoren aus. Tatsächlich sind die zuvor erörterten Anwendungsfälle Grundlage für die Ermittlung einer optimalen Konfiguration von Azure Stack HCI-Hardware. Der Azure Stack HCI-Katalog enthält eine Liste aller von Drittanbietern angebotenen und von Microsoft genehmigten Azure Stack HCI-Lösungen.

Planen für Azure Stack HCI-Hostspeicher

Vereinfacht ausgedrückt umfasst die Planung für Azure Stack HCI-Hostspeicher die Ermittlung des optimalen Kompromisses zwischen Resilienz, Kapazität und Leistung des Features „Direkte Speicherplätze“. Es stellt sich jedoch das Problem, dass die Maximierung eines dieser Kriterien negative Auswirkungen auf mindestens eines der beiden anderen hat. Beispielsweise verringert sich mit zunehmender Resilienz die nutzbare Kapazität, obwohl die resultierende Leistung je nach Resilienztyp variieren kann.

Laufwerke

„Direkte Speicherplätze“ unterstützt Festplattenlaufwerke (HDDs), SSD-Datenträger (SSDs) und NVMe-Laufwerke (Non-volatile Memory Express), einschließlich PMEM. Die Wahl des Laufwerkstyps wirkt sich aufgrund der Unterschiede bei den Leistungseigenschaften der einzelnen Typen und des Cachemechanismus direkt auf die Speicherleistung aus.

Cache für „Direkte Speicherplätze“

Im Allgemeinen weist „Direkte Speicherplätze“ Laufwerke basierend auf dem Laufwerktyp einer von zwei Kategorien zu: Kapazität oder Cache.

  • Kapazitätslaufwerke stellen den tatsächlichen Speicher für den Cluster bereit und sind in der Regel langsamer sowie größer als Cachelaufwerke.
  • Cachelaufwerke werden eingesetzt, um Lese- und Schreibvorgänge auf langsameren Kapazitätslaufwerken zu beschleunigen.

In Clustern mit mehreren Laufwerkstypen weist „Direkte Speicherplätze“ automatisch die schnellsten Laufwerkstypen dem Cache zu und nutzt die verbleibenden Laufwerke für Kapazitätszwecke. Sie können in Szenarien, in denen die Standardkonfiguration keine optimale Leistung bringt, eine manuelle Zwischenspeicherung vornehmen.

Laufwerkssymmetrie

„Direkte Speicherplätze“ funktioniert optimal, wenn jeder Server genau dieselbe Anzahl und Art von Laufwerken hat. Im Allgemeinen sollten Sie Ihren „Direkte Speicherplätze“-Cluster wie folgt konfigurieren:

  • Alle Server mit demselben Laufwerkstyp.
  • Alle Server mit derselben Anzahl von Laufwerken pro Typ.
  • Alle Laufwerke mit der gleichen Modell- und Firmwareversion.
  • Alle Laufwerke mit demselben Typs und derselben Größe.

Die Anzahl der Laufwerke darf bei Fehlern oder während des Hinzufügens oder Entfernens von Laufwerken vorübergehend abweichen. Auch die Laufwerkmodelle und -größen sind nicht exakt festgeschrieben. Es kann beispielsweise passieren, dass Sie ein ausgefallenes Laufwerk nicht durch das gleiche Modell ersetzen können. Wenn die Laufwerke jedoch zu unterschiedlich ausfallen, kann dies zu nicht nutzbarer Kapazität oder ungleicher Leistung führen.

Cluster- und Poolquoren

In einem Failovercluster bezeichnet der Begriff Quorum die Anzahl der Clusterkomponenten, die verfügbar sein müssen, damit der Cluster online bleibt. Diese Komponenten können die Clusterknoten und optional einen Zeugen umfassen. Der Begriff „Zeuge“ gibt eine Ressource an, die ausschließlich zum Einrichten und Verwalten des Quorums dient.

„Direkte Speicherplätze“ bietet zwei Mechanismen für das Quorum:

  • Clusterquorum, der auf Clusterebene agiert und auf Stimmen von Knoten und einem Zeugen basiert. „Direkte Speicherplätze“ unterstützt keinen Datenträgerzeugen, sodass „Cloudzeuge“ und „Dateifreigabezeuge“ die einzigen beiden möglichen Optionen sind.
  • Poolquorum, der auf Speicherpoolebene agiert und auf den Stimmen von Knoten und Speicherresilienz basiert. Um die Konfiguration des Poolquorums bei Implementierung von „Direkte Speicherplätze“ zu optimieren, stellen Sie sicher, dass jeder Clusterknoten über eine entsprechende Speicherkonfiguration verfügt.

Volumes

Das Feature „Direkte Speicherplätze“ ermöglicht Ihnen, Laufwerke im Speicherpool so zu gruppieren, dass die optimale Kombination zum Erfüllen der Anforderungen an Fehlertoleranz, Skalierbarkeit und Leistung erreicht wird. Berücksichtigen Sie Folgendes bei der Planung für Volumes für „Direkte Speicherplätze“:

  • Anzahl der Volumes pro Cluster: Um die Speicherleistung zu optimieren, muss die Anzahl der Volumes pro Server ein Vielfaches der Anzahl der Server pro Cluster betragen.

  • Dateisystem: Für Volumes der Direkten Speicherplätze wird die Verwendung des Robusten Dateisystems (Resilient File System, ReFS) empfohlen.

    Wenn Ihre Workload ein Feature erfordert, das ReFS noch nicht unterstützt, können Sie stattdessen NTFS-Volumes für diese Workload verwenden (Sie können ReFS- und NTFS-Volumes im gleichen Cluster verwenden).

  • Volumegröße: Die Größe eines Volumes in einem Azure Stack HCI-Cluster darf nicht mehr als 64 TB betragen.

  • Reservekapazität: Um die Speicherplatzbelegung auf Datenträgern zu optimieren, sollten Sie pro Server das Äquivalent eines Kapazitätslaufwerks und bis zu vier Laufwerke pro Cluster reservieren.

  • Resilienztyp: Volumeresilienz ist der primäre Mechanismus, der die im Speicherpool befindlichen Daten vor Hardwareproblemen schützt, wie z. B. vor Laufwerk- oder Serverausfällen. Die Auswahl des Resilienztyps ist von der Workload abhängig.

    • Verwenden Sie Spiegelung für Volumes, deren Leistung für Workloads mit strengen Latenzanforderungen oder großen Mengen gemischter, zufälliger IOPS-Vorgänge maximiert werden muss, z. B. Microsoft SQL Server-Datenbanken oder leistungsabhängige Hyper-V-VMs.
    • Verwenden Sie die duale Parität für Volumes, deren Kapazitätseffizienz maximiert werden muss oder die weniger anspruchsvolle E/A-Anforderungen ausweisen, z. B. Dateiserver oder Virtual Desktop Infrastructure (VDI).
    • Verwenden Sie Parität mit Beschleunigung durch Spiegelung, um Leistung und Kapazität von Workloads auszugleichen, die große, sequenzielle Schreibvorgänge ausführen, z. B. Sicherungssoftware.
    • Verwenden Sie die geschachtelte Resilienz in zwei Serverclustern, die Produktionsworkloads ausführen, um die Resilienz gegenüber Laufwerkausfällen zu erhöhen, die auftreten, während ein Server offline ist. Sie können je nach Workload entweder die geschachtelte Spiegelung oder die Parität mit Beschleunigung durch Spiegelung verwenden.

Planen für Azure Stack HCI-Hostnetzbetrieb

Einfach ausgedrückt, müssen Sie bei der Planung von Hostnetzwerken in der Azure Stack HCI die Konfiguration des Adapters und des physischen Switches ermitteln, die Sie verwenden werden. Darüber hinaus werden bei Stretched Cluster-Instanzen auch die Anforderungen an standortübergreifende Netzwerkports und Latenz berücksichtigt.

Hinweise zum physischen Netzwerk

Kunden müssen mindestens Folgendes sicherstellen:

  • Sie verwenden einen kompatiblen Azure Stack HCI-Switch.
  • Sie kennen die IP-Subnetze und VLANs für den Verwaltungs-, Speicher- und Computedatenverkehr.

Andere Netzwerkanforderungen (z. B. Data Center Bridging) müssen unter Umständen ebenfalls mit den Netzwerkanforderungen Ihrer Lösung integriert werden (weitere Informationen hierzu weiter unten).

Network ATC

Network ATC ist ein neuer Dienst, der bei der Bereitstellung und Wartung der Hostnetzwerkkonfiguration hilft und nur in der Azure Stack HCI verfügbar ist. Netzwerk ATC bietet folgende Vorteile:

  • Vereinfachte Bereitstellung des Hostnetzwerks im gesamten Cluster
  • Implementierung der neuesten, von Microsoft überprüften bewährten Methoden
  • Synchronisierung aller Hostnetzwerkkonfigurationen im Cluster
  • Behebung von Fehlkonfigurationen durch Administrator*innen, um einen Konfigurationsdrift zu verhindern
  • Optimierung der Clustererweiterung, um sicherzustellen, dass neue Server genauso wie die bestehenden bereitgestellt werden

Mit Network ATC reduzieren Sie die Hostkonfiguration auf einen einzelnen Befehl oder eine einzelne Benutzeroberfläche (über Windows Admin Center).

RDMA

RDMA ist eine der Hauptnetzwerktechnologien und ermöglicht eine latenzarme Kommunikation mit hohem Durchsatz, die Netzwerkdatenverkehr aus den CPUs auslagert und CPU-Zeit für aktuell ausgeführte Workloads freigibt. Azure Stack HCI-Konfigurationen können eine der zwei folgenden, gängigen RDMA-Technologien verwenden:

  • (Empfohlen) Internet-Wide Area RDMA Protocol (iWarp) über TCP/IP, wobei TCP für die Verwaltung der Flowsteuerung und Überlastung zuständig ist.
  • RDMA over Converged Ethernet (RoCE) über UDP/IP mit Data Center Bridging (DCB)

Wenn Sie nicht sicher sind, welche Technologie Sie verwenden sollen, wird iWARP empfohlen, da die Konfiguration hier einfacher ausfällt.

Planen von Software-Defined Networking

Die Azure Stack HCI umfasst Software-Defined Networking (SDN), womit Netzwerkdienste in Ihrer bestehenden Virtual Local Area Network-Infrastruktur (VLAN) bereitgestellt, Ihre Netzwerke virtualisiert und Netzwerkdienste in virtualisierten Netzwerken bereitgestellt werden können.

SDN-Szenarios in herkömmlichen VLAN-Netzwerken:

  • Mikrosegmentierung: Kunden können mit Zugriffssteuerungslisten (Access Control Lists, ACLs) Sicherheitsrichtlinien anwenden, um ihre Workloads vor externen und internen Angriffen zu schützen.
  • Quality of Service (QoS): Kunden können QoS-Richtlinien anwenden, um zu verhindern, dass eine Anwendung oder Workload-VM die gesamte Bandbreite der Knoten des HCI-Clusters beansprucht.
  • Software Load Balancing (SLB): Kunden können SLB verwenden, um den Datenverkehr des Kundennetzwerks gleichmäßig auf mehrere Ressourcen zu verteilen. SLB ermöglicht es Ihnen, mehrere Server zum Hosten derselben Workload zu aktivieren, um hohe Verfügbarkeit und Skalierbarkeit bereitzustellen. Darüber hinaus bietet der Lastenausgleich Netzwerkadressenübersetzungsdienste (Network Address Translation, NAT).

SDN-Szenarios in virtualisierten Netzwerken:

  • Netzwerkvirtualisierung: Kunden können eigene IP-Netzwerke nutzen und Workloads in diesen Netzwerken bereitstellen.
  • Mikrosegmentierung: Kunden können mit Zugriffssteuerungslisten (Access Control Lists, ACLs) Sicherheitsrichtlinien anwenden, um ihre Workloads vor externen und internen Angriffen zu schützen.
  • Quality of Service (QoS): Kunden können QoS-Richtlinien anwenden, um zu verhindern, dass eine Anwendung oder Workload-VM die gesamte Bandbreite des Clusters beansprucht.
  • Software Load Balancing (SLB): Kunden können den SLB verwenden, um den Datenverkehr des Kundennetzwerks gleichmäßig auf mehrere Ressourcen zu verteilen. Mit dem SLB können mehrere Server die gleiche Workload hosten und Hochverfügbarkeit sowie Skalierbarkeit gewährleisten. Darüber hinaus bietet der Lastenausgleich Netzwerkadressenübersetzungsdienste (Network Address Translation, NAT).
  • Virtuelle Geräte: Kunden können eigene virtuelle Drittanbietergeräte wie Firewalls, Angriffserkennungsgeräte und Lastenausgleiche usw. verwenden und diese an die virtualisierten Netzwerke anfügen.
  • Konnektivität mit externen Netzwerken: Kunden können Konnektivität von ihren virtualisierten Netzwerken zu externen Netzwerken mithilfe von SDN-Gateways bereitstellen. Bei SDN werden Verbindungen zu lokalen Netzwerken über das Internet oder über dedizierte Netzwerke hergestellt. Darüber hinaus ermöglicht SDN Konnektivität zwischen virtualisierten und physischen Netzwerken am selben Standort.

SDN verfügt über drei Infrastrukturkomponenten, und Sie können, basierend auf Ihren Anforderungen, wahlweise einen Teil oder alle Komponenten bereitstellen.

  • Netzwerkcontroller: Dies ist die primäre Komponente von SDN. Der Netzwerkcontroller ist die zentrale Steuerungsebene für SDN. Er empfängt Richtlinien von der Verwaltungsebene und konfiguriert die Datenebene entsprechend der Richtlinie. Mit dem Netzwerkcontroller können Kunden Netzwerkdienste wie die Mikrosegmentierung und QoS für herkömmliche VLAN-Netzwerke und virtualisierte Netzwerke verwalten.
  • Software Load Balancer (SLB): Hierbei handelt es sich um die Infrastrukturkomponente, die die Lastenausgleichs- und NAT-Funktionen für Workloads in herkömmlichen VLAN-Netzwerken und virtualisierten Netzwerken bereitstellt.
  • Gateways: Hierbei handelt es sich um die Infrastrukturkomponenten, die die Konnektivität virtueller Netzwerke mit externen Netzwerken ermöglichen.

Überprüfen Sie Ihr Wissen

1.

Wie hoch ist die Mindestanzahl der Server in einem Azure Stack HCI-Cluster?

2.

Welche Funktion hat Network ATC?