Erste Schritte mit MLflow-Experimenten

In dieser Sammlung von Notebooks wird veranschaulicht, wie Sie mit MLflow-Experimentausführungen loslegen können.

MLflow-Komponenten

MLflow ist eine Open-Source-Plattform für die Verwaltung des gesamten Machine Learning-Lebenszyklus. MLflow umfasst drei Hauptkomponenten:

  • Nachverfolgung
  • Modelle
  • Projekte

Mit der Komponente für die MLflow-Nachverfolgung können Sie Trainingssitzungen (Ausführungen) für Computermodelle mithilfe der folgenden APIs protokollieren und abfragen:

Eine MLflow-Ausführung ist eine Sammlung von Parametern, Metriken, Tags und Artefakten, die einem Machine Learning-Modelltrainingsprozess zugeordnet sind.

Was sind Experimente in MLflow?

Experimente sind die primäre Organisationseinheit in MLflow. alle MLflow-Läufe gehören zu einem Experiment. Mit jedem Experiment können Sie Ausführungen visualisieren, durchsuchen und vergleichen sowie Ausführungsartefakte oder Metadaten für die Analyse in anderen Tools herunterladen. Experimente werden auf einem Azure Databricks gehosteten MLflow-Nachverfolgungsserver verwaltet.

Experimente befinden sich in der Dateistruktur Arbeitsbereich. Sie verwalten Experimente mit den gleichen Tools, die Sie auch zum Verwalten anderer Arbeitsbereichsobjekte wie Ordner, Notebooks und Bibliotheken verwenden.

MLflow-Beispielnotebooks

Die folgenden Notebooks veranschaulichen das Erstellen und Protokollieren bei einer MLflow-Ausführung mithilfe der MLflow-Nachverfolgungs-APIs sowie die Verwendung der Experimentbenutzeroberfläche zum Anzeigen der Ausführung. Diese Notebooks sind in Python, Scala und R verfügbar.

Die Python- und R-Notebooks verwenden ein Notebookexperiment. Das Scala-Notebook erstellt ein Experiment im Shared-Ordner.

Hinweis

Bei Databricks Runtime 10.4 LTS ML und höher ist die automatische Databricks-Protokollierung standardmäßig für Python-Notebooks aktiviert.