Was sind die Standard- und die empfohlenen Knotenkonfigurationen für Azure HDInsight?What are the default and recommended node configurations for Azure HDInsight?

In diesem Artikel sind die Standard- und die empfohlenen Knotenkonfigurationen für Azure HDInsight erläutert.This article discusses default and recommended node configurations for Azure HDInsight clusters.

In den folgenden Tabellen sind die Standard- und die empfohlenen VM-Größen für HDInsight-Cluster aufgeführt.The following tables list default and recommended virtual machine (VM) sizes for HDInsight clusters. Diese Informationen sind erforderlich, um die VM-Größen zu verstehen, die beim Erstellen von PowerShell- oder Azure CLI-Skripten verwendet werden sollten, mit denen HDInsight-Cluster bereitgestellt werden.This information is necessary to understand the VM sizes to use when you are creating PowerShell or Azure CLI scripts to deploy HDInsight clusters.

Wenn Sie mehr als 32 Workerknoten in einem Cluster benötigen, müssen Sie eine Hauptknotengröße mit mindestens 8 Kernen und 14 GB Arbeitsspeicher (RAM) auswählen.If you need more than 32 worker nodes in a cluster, select a head node size with at least 8 cores and 14 GB of RAM.

Die einzigen Clustertypen, die Datenträger haben, sind Kafka- und HBase-Cluster, wenn für diese das Accelerated Writes-Feature aktiviert ist.The only cluster types that have data disks are Kafka and HBase clusters with the Accelerated Writes feature enabled. HDInsight unterstützt die Datenträgergröße P30 und S30 in diesen Szenarien.HDInsight supports P30 and S30 disk sizes in these scenarios.

Weitere Informationen zur Spezifikation jedes VM-Typs finden Sie in den folgenden Dokumenten:For more details on the specification of each VM type, see the following documents:

Alle unterstützten Regionen, mit Ausnahme von „Brasilien, Süden“ und „Japan, Westen“All supported regions except Brazil south and Japan west

Hinweis

Um den SKU-Bezeichner für die Verwendung in PowerShell und anderen Skripts zu erhalten, fügen Sie Standard_ am Anfang aller VM-SKUs in den folgenden Tabellen hinzu.To get the SKU identifier for use in powershell and other scripts, add Standard_ to the beginning of all of the VM SKUs in the tables below. Beispielsweise wird D12_v2 zu Standard_D12_v2.For example, D12_v2 would become Standard_D12_v2.

ClustertypCluster type HadoopHadoop hbaseHBase Interactive QueryInteractive Query StormStorm SparkSpark ML ServerML Server KafkaKafka
Head – Standard-VM-GrößeHead: default VM size D12_v2D12_v2 D12_v2D12_v2 D13_v2D13_v2 A4_v2A4_v2 D12_v2D12_v2 D12_v2D12_v2 D3_v2D3_v2
Head – empfohlene VM-GrößenHead: recommended VM sizes D13_v2,D13_v2,
D14_v2,D14_v2,
D5_v2D5_v2
D3_v2,D3_v2,
D4_v2,D4_v2,
D12_v2D12_v2
D13_v2,D13_v2,
D14_v2D14_v2
A4_v2,A4_v2,
A8_v2A8_v2
D12_v2,D12_v2,
D13_v2,D13_v2,
D14_v2D14_v2
D12_v2,D12_v2,
D13_v2,D13_v2,
D14_v2D14_v2
D3_v2,D3_v2,
D4_v2,D4_v2,
D12_v2D12_v2
Worker – Standard-VM-GrößeWorker: default VM size D4_v2D4_v2 D4_v2D4_v2 D14_v2D14_v2 D3_v2D3_v2 D13_v2D13_v2 D4_v2D4_v2 4 D12_v2 mit 2 S30-Datenträgern pro Broker4 D12_v2 with 2 S30 disks per broker
Worker – empfohlene VM-GrößenWorker: recommended VM sizes D5_v2,D5_v2,
D12_v2,D12_v2,
D13_v2D13_v2
D3_v2,D3_v2,
D4_v2,D4_v2,
D13_v2D13_v2
D13_v2,D13_v2,
D14_v2D14_v2
D3_v2D3_v2
D4_v2,D4_v2,
D12_v2D12_v2
D12_v2,D12_v2,
D13_v2,D13_v2,
D14_v2D14_v2
D4_v2,D4_v2,
D12_v2,D12_v2,
D13_v2,D13_v2,
D14_v2D14_v2
D3_v2,D3_v2,
D4_v2,D4_v2,
DS3_v2,DS3_v2,
DS4_v2DS4_v2
Zookeeper – Standard-VM-GrößenZooKeeper: default VM size A4_v2A4_v2 A4_v2A4_v2 A4_v2A4_v2 A2_v2A2_v2 A4_v2A4_v2
Zookeeper – empfohlene VM-GrößenZooKeeper: recommended VM sizes A4_v2,A4_v2,
A8_v2,A8_v2,
A2m_v2A2m_v2
A4_v2,A4_v2,
A8_v2,A8_v2,
A2m_v2A2m_v2
A4_v2,A4_v2,
A2_v2,A2_v2,
A8_v2A8_v2
A2_v2A2_v2 A4_v2,A4_v2,
A8_v2,A8_v2,
A2m_v2A2m_v2
ML Services: VM-StandardgrößeML Services: default VM size D4_v2D4_v2
ML Services: empfohlene VM-GrößeML Services: recommended VM size D4_v2,D4_v2,
D12_v2,D12_v2,
D13_v2,D13_v2,
D14_v2D14_v2

Nur „Brasilien, Süden“ und „Japan, Westen“Brazil south and Japan west only

ClustertypCluster type HadoopHadoop hbaseHBase Interactive QueryInteractive Query StormStorm SparkSpark ML ServicesML Services
Head – Standard-VM-GrößeHead: default VM size D12D12 D12D12 D13D13 A4_v2A4_v2 D12D12 D12D12
Head – empfohlene VM-GrößenHead: recommended VM sizes D5_v2,D5_v2,
D13_v2,D13_v2,
D14_v2D14_v2
D3_v2,D3_v2,
D4_v2,D4_v2,
D12_v2D12_v2
D13_v2,D13_v2,
D14_v2D14_v2
A4_v2,A4_v2,
A8_v2A8_v2
D12_v2,D12_v2,
D13_v2,D13_v2,
D14_v2D14_v2
D12_v2,D12_v2,
D13_v2,D13_v2,
D14_v2D14_v2
Worker – Standard-VM-GrößeWorker: default VM size D4D4 D4D4 D14D14 D3D3 D13D13 D4D4
Worker – empfohlene VM-GrößenWorker: recommended VM sizes D5_v2,D5_v2,
D12_v2,D12_v2,
D13_v2D13_v2
D3_v2,D3_v2,
D4_v2,D4_v2,
D13_v2D13_v2
D13_v2,D13_v2,
D14_v2D14_v2
D3_v2,D3_v2,
D4_v2,D4_v2,
D12_v2D12_v2
D12_v2,D12_v2,
D13_v2,D13_v2,
D14_v2D14_v2
D4_v2,D4_v2,
D12_v2,D12_v2,
D13_v2,D13_v2,
D14_v2D14_v2
Zookeeper – Standard-VM-GrößenZooKeeper: default VM size A4_v2A4_v2 A4_v2A4_v2 A4_v2A4_v2 A2_v2A2_v2
Zookeeper – empfohlene VM-GrößenZooKeeper: recommended VM sizes A4_v2,A4_v2,
A8_v2,A8_v2,
A2m_v2A2m_v2
A4_v2,A4_v2,
A8_v2,A8_v2,
A2m_v2A2m_v2
A4_v2,A4_v2,
A8_v2A8_v2
A2_v2A2_v2
ML Services: VM-StandardgrößenML Services: default VM sizes D4D4
ML Services: empfohlene VM-GrößenML Services: recommended VM sizes D4_v2,D4_v2,
D12_v2,D12_v2,
D13_v2,D13_v2,
D14_v2D14_v2

Hinweis

  • Head wird für den Storm-Clustertyp als Nimbus bezeichnet.Head is known as Nimbus for the Storm cluster type.
  • Worker wird für den Storm-Clustertyp als Supervisor bezeichnet.Worker is known as Supervisor for the Storm cluster type.
  • Worker wird für den HBase-Clustertyp als Region bezeichnet.Worker is known as Region for the HBase cluster type.

Nächste SchritteNext steps