Share via


Runtimes dans le flux rapide

Dans le flux d’invite Azure Machine Learning, l’exécution des flux est facilitée en utilisant des runtimes.

Runtimes

Dans le flux d’invite, les runtimes servent de ressources de calcul pour permettre aux clients d’exécuter leurs flux en toute transparence. Un runtime est équipé d’une image Docker prédéfinie contenant nos outils intégrés, ce qui garantit la disponibilité des outils nécessaires pour l’exécution.

Dans l’espace de travail Azure Machine Learning, les utilisateurs peuvent créer un runtime à l’aide de l’environnement prédéfini par défaut. Cet environnement par défaut est configuré pour référencer l’image Docker prédéfinie, offrant aux utilisateurs un moyen pratique et efficace pour bien démarrer. Nous mettons régulièrement à jour l’environnement par défaut pour nous assurer d’utiliser la dernière version de l’image Docker.

Pour les utilisateurs recherchant une personnalisation supplémentaire, le flux rapide offre la possibilité de créer un environnement d’exécution personnalisé. En utilisant notre image Docker prédéfinie comme base, les utilisateurs peuvent facilement personnaliser leur environnement par l’ajout de leurs packages, configurations ou autres dépendances préférés. Une fois personnalisé, l’environnement peut être publié en tant qu’environnement personnalisé dans l’espace de travail Azure Machine Learning, permettant aux utilisateurs de créer un runtime en fonction de leur environnement personnalisé.

En plus de l’exécution du flux, le runtime sert également à valider et garantir l’exactitude et la fonctionnalité des outils incorporés au flux, lorsque les utilisateurs effectuent des mises à jour du contenu de l’invite ou du code.

Étapes suivantes