Dimensioni delle macchine virtuali di calcolo a prestazioni elevateHigh performance compute virtual machine sizes

Le dimensioni delle serie A8-A11 e H sono note anche come istanze a elevato uso di calcolo.The A8-A11 and H-series sizes are also known as compute-intensive instances. L'hardware che esegue queste dimensioni è progettato e ottimizzato per applicazioni a elevato utilizzo di calcolo e di rete, come applicazioni cluster HPC, modellazione e simulazioni.The hardware that runs these sizes is designed and optimized for compute-intensive and network-intensive applications, including high-performance computing (HPC) cluster applications, modeling, and simulations. La serie A8-A11 usa Intel Xeon E5-2670 a 2,6 GHZ, mentre la serie H usa Intel Xeon E5-2667 v3 a 3,2 GHz.The A8-A11 series uses Intel Xeon E5-2670 @ 2.6 GHZ and the H-series uses Intel Xeon E5-2667 v3 @ 3.2 GHz. Questo articolo offre informazioni sul numero di vCPU, dischi dati e schede di rete, oltre che sulla velocità effettiva di archiviazione e sulla larghezza di banda della rete per ogni dimensione di questo raggruppamento.This article provides information about the number of vCPUs, data disks and NICs as well as storage throughput and network bandwidth for each size in this grouping.

Le macchine virtuali serie H di Azure sono le VM high performance computing di prossima generazione che puntano a risolvere esigenze di calcolo di fascia alta, come modellazione molecolare e fluidodinamica computazionale.Azure H-series virtual machines are the next generation high performance computing VMs aimed at high end computational needs, like molecular modeling, and computational fluid dynamics. Queste VM a 8 e 16 vCPU sono basate sulla tecnologia del processore Intel Haswell E5-2667 V3 con memoria DDR4 e spazio di archiviazione temporaneo basato su unità SSD.These 8 and 16 vCPU VMs are built on the Intel Haswell E5-2667 V3 processor technology featuring DDR4 memory and SSD based temporary storage.

Oltre alla sostanziale potenza della CPU, la serie H offre diverse opzioni per rete RDMA a bassa latenza con FDR InfiniBand e diverse configurazioni di memoria a supporto di requisiti di calcolo a elevato uso di memoria.In addition to the substantial CPU power, the H-series offers diverse options for low latency RDMA networking using FDR InfiniBand and several memory configurations to support memory intensive computational requirements.

Serie HH-series

ACU: 290-300ACU: 290-300

DimensioneSize vCPUvCPU Memoria: GiBMemory: GiB GiB di archiviazione temp (unità SSD)Temp storage (SSD) GiB Valore massimo per dischi di datiMax data disks Velocità effettiva del disco max: IOPSMax disk throughput: IOPS Schede di interfaccia di rete maxMax NICs
Standard_H8Standard_H8 88 5656 10001000 3232 32x50032 x 500 22
Standard_H16Standard_H16 1616 112112 20002000 6464 64 x 50064 x 500 44
Standard_H8mStandard_H8m 88 112112 10001000 3232 32x50032 x 500 22
Standard_H16mStandard_H16m 1616 224224 20002000 6464 64 x 50064 x 500 44
Standard_H16rStandard_H16r 1616 112112 20002000 6464 64 x 50064 x 500 44
Standard_H16mrStandard_H16mr 1616 224224 20002000 6464 64 x 50064 x 500 44

Per le applicazioni MPI, la rete back-end RDMA dedicata viene abilitata dalla rete InfiniBand FDR, che offre latenza estremamente bassa e larghezza di banda elevata.For MPI applications, dedicated RDMA backend network is enabled by FDR InfiniBand network, which delivers ultra-low-latency and high bandwidth.


Serie A - Istanze a elevato utilizzo di calcoloA-series - compute-intensive instances

ACU: 225ACU: 225

DimensioneSize vCPUvCPU Memoria: GiBMemory: GiB Spazio di archiviazione temp (HDD): GiBTemp storage (HDD): GiB Valore massimo per dischi di datiMax data disks Velocità effettiva del disco di dati max: IOPSMax data disk throughput: IOPS Schede di interfaccia di rete maxMax NICs
Standard_A8Standard_A8 88 5656 382382 3232 32x50032x500 22
Standard_A9Standard_A9 1616 112112 382382 6464 64x50064x500 44
Standard_A10Standard_A10 88 5656 382382 3232 32x50032x500 22
Standard_A11Standard_A11 1616 112112 382382 6464 64x50064x500 44

Per le applicazioni MPI, la rete back-end RDMA dedicata viene abilitata dalla rete InfiniBand FDR, che offre latenza estremamente bassa e larghezza di banda elevata.For MPI applications, dedicated RDMA backend network is enabled by FDR InfiniBand network, which delivers ultra-low-latency and high bandwidth.


Definizioni delle tabelle delle dimensioniSize table definitions

  • La capacità di archiviazione viene visualizzata in unità di GiB o 1.024^3 byte.Storage capacity is shown in units of GiB or 1024^3 bytes. Quando si confrontano dischi misurati in GB (1.000^3 byte) con dischi misurati in GiB (1.024^3), tenere presente che i valori di capacità specificati in GiB potrebbero apparire inferiori.When comparing disks measured in GB (1000^3 bytes) to disks measured in GiB (1024^3) remember that capacity numbers given in GiB may appear smaller. Ad esempio, 1.023 GiB = 1.098,4 GBFor example, 1023 GiB = 1098.4 GB
  • La velocità effettiva del disco viene misurata in operazioni di input/output al secondo (IOPS) e MBps, dove il valore di MBps corrisponde a 10^6 byte al secondo.Disk throughput is measured in input/output operations per second (IOPS) and MBps where MBps = 10^6 bytes/sec.
  • I dischi dati possono operare in modalità memorizzata nella cache o non memorizzata nella cache.Data disks can operate in cached or uncached modes. Per il funzionamento dei dischi dati memorizzati nella cache, la modalità di cache host è impostata su ReadOnly o su ReadWrite.For cached data disk operation, the host cache mode is set to ReadOnly or ReadWrite. Per il funzionamento dei dischi dati non memorizzati nella cache, la modalità di cache host è impostata su None.For uncached data disk operation, the host cache mode is set to None.
  • Se si vogliono ottenere prestazioni ottimali per le macchine virtuali, è necessario limitare il numero di dischi dati a 2 per ogni vCPU.If you want to get the best performance for your VMs, you should limit the number of data disks to 2 disks per vCPU.
  • La larghezza di banda della rete prevista è la larghezza di banda aggregata massima allocata per ogni tipo di VM in tutte le schede di interfaccia di rete, per tutte le destinazioni.Expected network bandwidth is the maximum aggregated bandwidth allocated per VM type across all NICs, for all destinations. I limiti massimi non sono garantiti, ma hanno lo scopo di fornire indicazioni per la selezione del tipo di VM corretto per l'applicazione desiderata.Upper limits are not guaranteed, but are intended to provide guidance for selecting the right VM type for the intended application. Le prestazioni di rete effettive dipenderanno da svariati fattori, tra cui congestione della rete, carichi dell'applicazione e impostazioni di rete.Actual network performance will depend on a variety of factors including network congestion, application loads, and network settings. Per informazioni sull'ottimizzazione della velocità effettiva della rete, vedere Ottimizzazione della velocità effettiva di rete per Windows e Linux.For information on optimizing network throughput, see Optimizing network throughput for Windows and Linux. Per realizzare le prestazioni di rete previste in Linux o Windows, potrebbe essere necessario selezionare una versione specifica o ottimizzare la VM.To achieve the expected network performance on Linux or Windows, it may be necessary to select a specific version or optimize your VM. Per altre informazioni, vedere Come eseguire test affidabili della velocità effettiva della macchina virtuale.For more information, see How to reliably test for virtual machine throughput.

  • † Le prestazioni basate su 16 vCPU raggiungeranno stabilmente il limite massimo in una versione futura.† 16 vCPU performance will consistently reach the upper limit in an upcoming release.

Considerazioni sulla distribuzioneDeployment considerations

  • Sottoscrizione di Azure: per distribuire numerose istanze a elevato utilizzo di calcolo, prendere in considerazione una sottoscrizione con pagamento in base al consumo o altre opzioni di acquisto.Azure subscription – To deploy more than a few compute-intensive instances, consider a pay-as-you-go subscription or other purchase options. Con un account gratuito di Azureè possibile usare solo un numero limitato di core di calcolo di Azure.If you're using an Azure free account, you can use only a limited number of Azure compute cores.

  • Prezzi e disponibilità: queste dimensioni di VM sono offerte solo con il piano tariffario Standard.Pricing and availability - These VM sizes are offered only in the Standard pricing tier. Per la disponibilità nelle aree di Azure, vedere Prodotti disponibili in base all'area.Check Products available by region for availability in Azure regions.

  • Quota di core: potrebbe essere necessario aumentare la quota di core nella sottoscrizione di Azure rispetto al valore predefinito.Cores quota – You might need to increase the cores quota in your Azure subscription from the default value. La sottoscrizione può anche limitare il numero di core che è possibile distribuire in alcune famiglie di dimensioni di macchina virtuale, inclusa la serie H.Your subscription might also limit the number of cores you can deploy in certain VM size families, including the H-series. Per richiedere un aumento della quota, è possibile aprire una richiesta di assistenza clienti online senza alcun addebito.To request a quota increase, open an online customer support request at no charge. I limiti predefiniti possono variare in base alla categoria della sottoscrizione.(Default limits may vary depending on your subscription category.)

    Nota

    Se si hanno esigenze di capacità su larga scala, contattare il supporto di Azure.Contact Azure Support if you have large-scale capacity needs. Le quote di Azure sono limiti di credito e non garanzie di capacità.Azure quotas are credit limits, not capacity guarantees. A prescindere dalla quota, viene addebitato solo l'uso dei core effettivamente impiegati.Regardless of your quota, you are only charged for cores that you use.

  • Rete virtuale: non è necessaria una rete virtuale di Azure per usare le istanze a elevato utilizzo di calcolo.Virtual network – An Azure virtual network is not required to use the compute-intensive instances. Per molte distribuzioni è tuttavia necessaria almeno una rete virtuale di Azure basata sul cloud. Per l'accesso alle risorse locali, è necessaria anche una connessione da sito a sito.However, for many deployments you need at least a cloud-based Azure virtual network, or a site-to-site connection if you need to access on-premises resources. Quando è necessaria, creare una nuova rete virtuale per distribuire le istanze.When needed, create a new virtual network to deploy the instances. L'aggiunta di una VM a elevato uso di calcolo a una rete virtuale in un gruppo di affinità non è supportata.Adding compute-intensive VMs to a virtual network in an affinity group is not supported.
  • Ridimensionamento: a causa dell'hardware specializzato, è possibile ridimensionare solo le istanze a elevato uso di calcolo nella stessa famiglia di dimensioni (serie H o serie A a elevato uso di calcolo).Resizing – Because of their specialized hardware, you can only resize compute-intensive instances within the same size family (H-series or compute-intensive A-series). Ad esempio, è possibile ridimensionare una VM della serie H solo da una dimensione della serie H a un'altra.For example, you can only resize an H-series VM from one H-series size to another. Inoltre, non è supportato il ridimensionamento da una dimensione non a elevato uso di calcolo.In addition, resizing from a non-compute-intensive size to a compute-intensive size is not supported.

Istanze con supporto per RDMARDMA-capable instances

Un subset delle istanze a elevato uso di calcolo (H16r, H16mr, A8 e A9) è dotato di un'interfaccia di rete per la connettività ad accesso diretto a memoria remota (RDMA).A subset of the compute-intensive instances (H16r, H16mr, A8, and A9) feature a network interface for remote direct memory access (RDMA) connectivity. Questa interfaccia è un'aggiunta all'interfaccia di rete di Azure standard disponibile per gli altri formati di VM.This interface is in addition to the standard Azure network interface available to other VM sizes.

Questa interfaccia consente alle istanze con supporto per RDMA di comunicare attraverso una rete InfiniBand che funziona a velocità FDR per macchine virtuali H16r e H16mr e a velocità QDR per macchine virtuali A8 e A9.This interface allows the RDMA-capable instances to communicate over an InfiniBand network, operating at FDR rates for H16r and H16mr virtual machines, and QDR rates for A8 and A9 virtual machines. Queste funzionalità RDMA possono migliorare la scalabilità e le prestazioni delle applicazioni di interfaccia MPI (Message Passing) in esecuzione in Intel MPI 5.x o versione successiva.These RDMA capabilities can boost the scalability and performance of Message Passing Interface (MPI) applications running under Intel MPI 5.x or a later version.

Distribuire le VM con supporto per RDMA nello stesso set di disponibilità, se si usa il modello di distribuzione Azure Resource Manager, o nello stesso servizio cloud, se si usa il modello di distribuzione classica.Deploy the RDMA-capable VMs in the same availability set (when you use the Azure Resource Manager deployment model) or the same cloud service (when you use the classic deployment model). Seguono altri requisiti per le macchine virtuali Linux con supporto per RDMA per accedere alla rete RDMA di Azure.Additional requirements for RDMA-capable Linux VMs to access the Azure RDMA network follow.

DistribuzioniDistributions

Distribuire una VM a elevato utilizzo di calcolo da una delle immagini in Azure Marketplace che supporta la connettività RDMA:Deploy a compute-intensive VM from one of the images in the Azure Marketplace that supports RDMA connectivity:

  • Ubuntu: Ubuntu Server 16.04 LTS.Ubuntu - Ubuntu Server 16.04 LTS. Configurare i driver RDMA nella VM ed eseguire la registrazione con Intel per scaricare Intel MPI:Configure RDMA drivers on the VM and register with Intel to download Intel MPI:

    1. Installare dapl, rdmacm, ibverbs e mlx4Install dapl, rdmacm, ibverbs, and mlx4

      sudo apt-get update
      
      sudo apt-get install libdapl2 libmlx4-1
      
    2. In /etc/waagent.conf abilitare RDMA rimuovendo il commento dalle righe di configurazione seguenti.In /etc/waagent.conf, enable RDMA by uncommenting the following configuration lines. Per modificare questo file è necessario l'accesso alla radice.You need root access to edit this file.

      OS.EnableRDMA=y
      
      OS.UpdateRdmaDriver=y
      
    3. Aggiungere o modificare le impostazioni della memoria seguenti espresse in KB nel file /etc/security/limits.conf.Add or change the following memory settings in KB in the /etc/security/limits.conf file. Per modificare questo file è necessario l'accesso alla radice.You need root access to edit this file. A scopo di test è possibile impostare memlock su unlimited.For testing purposes you can set memlock to unlimited. Ad esempio: <User or group name> hard memlock unlimited.For example: <User or group name> hard memlock unlimited.

      <User or group name> hard    memlock <memory required for your application in KB>
      
      <User or group name> soft    memlock <memory required for your application in KB>
      
    4. Installare la libreria Intel MPI.Install Intel MPI Library. Acquistare e scaricare la libreria da Intel o scaricare la versione di valutazione gratuita.Either purchase and download the library from Intel or download the free evaluation version.

      wget http://registrationcenter-download.intel.com/akdlm/irc_nas/tec/11595/l_mpi_2017.3.196.tgz
      

      Per la procedura di installazione, vedere Intel MPI Library installation guide (Guida all'installazione di Intel MPI Library).For installation steps, see the Intel MPI Library Installation Guide.

    5. Abilitare ptrace per i processi non di debugger non radice (necessari per le versioni più recenti di Intel MPI).Enable ptrace for non-root non-debugger processes (needed for the most recent versions of Intel MPI).

      echo 0 | sudo tee /proc/sys/kernel/yama/ptrace_scope
      
  • SUSE Linux Enterprise Server: SLES 12 SP3 per HPC, SLES 12 SP3 per HPC (Premium), SLES 12 SP1 per HPC, SLES 12 SP1 per HPC (Premium).SUSE Linux Enterprise Server - SLES 12 SP3 for HPC, SLES 12 SP3 for HPC (Premium), SLES 12 SP1 for HPC, SLES 12 SP1 for HPC (Premium). I driver RDMA vengono installati e i pacchetti Intel MPI vengono distribuiti nella VM.RDMA drivers are installed and Intel MPI packages are distributed on the VM. Installare MPI con questo comando:Install MPI by running the following command:

    sudo rpm -v -i --nodeps /opt/intelMPI/intel_mpi_packages/*.rpm
    
  • HPC basato su CentOS: HPC basato su CentOS 7.3, HPC basato su CentOS 7.1, HPC basato su CentOS 6.8 o HPC basato su CentOS 6.5. Per la serie H, si consiglia la versione 7.1 o successiva.CentOS-based HPC - CentOS-based 7.3 HPC, CentOS-based 7.1 HPC, CentOS-based 6.8 HPC, or CentOS-based 6.5 HPC (for H-series, version 7.1 or later is recommended). I driver RDMA e Intel MPI 5.1 vengono installati nella VM.RDMA drivers and Intel MPI 5.1 are installed on the VM.

    Nota

    Nelle immagini HPC basate su CentOS gli aggiornamenti del kernel sono disabilitati nel file di configurazione yum .On the CentOS-based HPC images, kernel updates are disabled in the yum configuration file. In questo modo i driver Linux RDMA vengono distribuiti come pacchetto RPM e gli aggiornamenti dei driver potrebbero non funzionare se il kernel viene aggiornato.This is because the Linux RDMA drivers are distributed as an RPM package, and driver updates might not work if the kernel is updated.

Configurazione del clusterCluster configuration

Per eseguire processi MPI su macchine virtuali n cluster, è necessaria una configurazione di sistema aggiuntiva.Additional system configuration is needed to run MPI jobs on clustered VMs. In un cluster di macchine virtuali, ad esempio, è necessario stabilire una relazione di trust tra i nodi di calcolo.For example, on a cluster of VMs, you need to establish trust among the compute nodes. Per le impostazioni tipiche, vedere Configurazione di un cluster Linux RDMA per eseguire applicazioni MPI.For typical settings, see Set up a Linux RDMA cluster to run MPI applications.

Considerazioni sulla topologia di reteNetwork topology considerations

  • Nelle macchine virtuali Linux con supporto per RDMA in Azure, Eth1 è riservato al traffico di rete RDMA.On RDMA-enabled Linux VMs in Azure, Eth1 is reserved for RDMA network traffic. Non modificare le impostazioni di Eth1 o le informazioni nel file di configurazione riferite a questa rete.Do not change any Eth1 settings or any information in the configuration file referring to this network. Eth0 è riservato per il normale traffico di rete di Azure.Eth0 is reserved for regular Azure network traffic.

  • In Azure, IP over InfiniBand (IB) non è supportato.In Azure, IP over InfiniBand (IB) is not supported. Solo RDMA over IB è supportato.Only RDMA over IB is supported.

Utilizzo di HPC PackUsing HPC Pack

HPC Pack, la soluzione di gestione di processi e cluster HPC gratuita di Microsoft, è un'opzione per l'uso di istanze a elevato utilizzo di calcolo con Linux.HPC Pack, Microsoft’s free HPC cluster and job management solution, is one option for you to use the compute-intensive instances with Linux. La versione più recente di HPC Pack supporta varie distribuzioni Linux per l'esecuzione su nodi di calcolo distribuiti in VM di Azure, gestite da un nodo head di Windows Server.The latest releases of HPC Pack support several Linux distributions to run on compute nodes deployed in Azure VMs, managed by a Windows Server head node. Grazie ai nodi di calcolo Linux con supporto per RDMA che eseguono Intel MPI, HPC Pack può pianificare ed eseguire applicazioni Linux MPI che hanno accesso alla rete RDMA.With RDMA-capable Linux compute nodes running Intel MPI, HPC Pack can schedule and run Linux MPI applications that access the RDMA network. Vedere l'articolo di introduzione ai nodi di calcolo Linux in un cluster HPC Pack in Azure.See Get started with Linux compute nodes in an HPC Pack cluster in Azure.

Altre dimensioniOther sizes

Passaggi successiviNext steps