Compartir a través de


Nccl Clase

Administra la configuración de Nccl para los trabajos de entrenamiento distribuidos.

EN DESUSO. Utilice la clase PyTorchConfiguration.

Nccl se puede especificar para un trabajo de entrenamiento con el parámetro distributed_training del estimador PyTorch preconfigurado o cualquier Estimator genérico compatible con Nccl.

Clase para administrar la configuración de Nccl para trabajos.

Herencia
azureml.train._distributed_training._DistributedTraining
Nccl

Constructor

Nccl()