Share via


Images Docker prédéfinies pour l’inférence

Les images conteneur Docker prédéfinies pour l’inférence sont utilisées durant le déploiement d’un modèle avec Azure Machine Learning. Les images sont prédéfinies avec des frameworks de machine learning et des packages Python populaires. Vous pouvez également étendre les packages pour ajouter d’autres packages à l’aide de l’une des méthodes suivantes :

Pourquoi utiliser des images prédéfinies ?

  • Permet de réduire la latence du modèle de déploiement
  • Permet d’améliorer le taux de réussite du modèle de déploiement
  • Permet d’éviter une génération d’image inutile pendant le modèle de déploiement
  • Permet d’inclure uniquement les dépendances et droits d’accès requis à l’image/au conteneur

Liste des images Docker prédéfinies pour l’inférence

Important

La liste fournie dans le tableau suivant comprend uniquement les images Docker d’inférence qu’Azure Machine Learning prend actuellement en charge.

  • Toutes les images Docker s’exécutent comme utilisateur non racine.
  • Nous vous recommandons d’utiliser la balise latest pour des images Docker. Les images Docker prédéfinies pour l’inférence sont publiées dans le registre de conteneurs Microsoft (MCR). Pour obtenir des informations sur la façon d’interroger la liste de balises disponibles, consultez le référentiel GitHub MCR.
  • Si vous souhaitez utiliser une balise spécifique pour toute image Docker d’inférence, Azure Machine Learning prend en charge les balises dont la durée varie entre latest et six mois de plus que latest.

Inférence des images de base minimales

Version du framework UC/GPU Packages préinstallés Chemin MCR
N/D Processeur N/D mcr.microsoft.com/azureml/minimal-ubuntu20.04-py38-cpu-inference:latest
N/D GPU N/D mcr.microsoft.com/azureml/minimal-ubuntu20.04-py38-cuda11.6.2-gpu-inference:latest
N/D Processeur N/D mcr.microsoft.com/azureml/minimal-ubuntu22.04-py39-cpu-inference:latest
N/D GPU NA mcr.microsoft.com/azureml/minimal-ubuntu22.04-py39-cuda11.8-gpu-inference:latest