Share via


Mpi Classe

Gère les paramètres de l’interface de passage de messages (MPI) pour les travaux de formation distribués.

DÉPRÉCIÉ. Utilise la classe MpiConfiguration.

MPI peut être spécifié pour un travail avec le paramètre distributed_training d’estimateurs préconfigurés Chainer, PyTorch et TensorFlow, ou avec un élément générique Estimator.

Classe pour la gestion des paramètres MPI pour les travaux.

Héritage
azureml.train._distributed_training._DistributedTraining
Mpi

Constructeur

Mpi(process_count_per_node=1)

Paramètres

Nom Description
process_count_per_node
int

Nombre de processus (ou « workers ») à exécuter sur chaque nœud.

valeur par défaut: 1
process_count_per_node
Obligatoire
int

Lors de l’utilisation de MPI, nombre de processus par nœud.