Laden eines trainierten Modells

Laden eines im Internet gehosteten trainierten Modells

Kategorie: Dateneingabe und-Ausgabe

Hinweis

Gilt für: Machine Learning Studio (klassisch)

Dieser Inhalt bezieht sich nur auf Studio (klassisch). Ähnliche Drag & Drop-Module wurden Azure Machine Learning-Designer hinzugefügt. Weitere Informationen finden Sie in diesem Artikel zum Vergleich der beiden Versionen.

Modulübersicht

In diesem Artikel wird beschrieben, wie Sie das Modul Load trainierte Model in Azure Machine Learning Studio (klassisch) verwenden, um ein bereits trainiertes Modell für die Verwendung in einem Experiment zu laden.

Dieses Modul erfordert ein vorhandenes trainiertes Modell. In der Regel erstellen und trainieren Sie das Modell in einem anderen Experiment und speichern das Modell dann entweder in Ihrem Arbeitsbereich oder in einer der unterstützten Cloud-Speicheroptionen.

Anschließend verwenden Sie das Modul Load trainierte Model , um das trainierte Modell zu erhalten und es in einem neuen Experiment auszuführen.

Vorgehensweise beim Laden eines trainierten Modells

So verwenden Sie ein vorhandenes Modell, um Vorhersagen für neue Daten zu treffen:

  • Das Modell muss bereits trainiert und dann im ilearner-Format gespeichert worden sein.
  • Auf das Modell muss entweder über die URL oder in Azure BLOB Storage zugegriffen werden können.

In diesem Abschnitt wird beschrieben, wie Sie ein Modell speichern, ein gespeichertes Modell erhalten und ein gespeichertes Modell anwenden.

Speichern eines trainierten Modells

Sie können Modelle mithilfe der Studio-Schnittstelle (klassisch) oder mithilfe eines Experiments speichern, das als Webdienst ausgeführt wird.

Speichern eines Modells mithilfe eines Webdiensts

  1. Erstellen Sie ein Experiment, das das Training oder das erneute Trainieren des Modells als Webdienst durchführt.
  2. Veröffentlichen Sie das Experiment als Webdienst.
  3. Wenn Sie den BES-Endpunkt des trainingsweb Diensts aufzurufen, speichert der Webdienst ein trainiertes Modell mithilfe der ilearner-Schnittstelle und speichert die Datei im Azure BLOB Storage-Konto, das Sie angeben.

Schritt-für-Schritt-Informationen zum Erstellen eines trainingsweb Diensts finden Sie in den folgenden Artikeln:

Speichern eines Modells in Studio (klassisch)

  1. Führen Sie das Experiment aus, mit dem das Modell erstellt und trainiert wird.
  2. Klicken Sie nach Abschluss des Trainings mit der rechten Maustaste auf das Modul, das für das Training verwendet wurde, wählen Sie trainiertes Modell aus, und klicken Sie dann auf als trainiertes Modell speichern
  3. Standardmäßig werden Modelle in Ihrem (klassischen) Studio-Arbeitsbereich gespeichert. Sie können Sie mithilfe der Benutzeroberfläche von Studio (klassisch) anzeigen.

Die folgenden Module können ein gespeichertes Modell erstellen, das die erforderliche ilearner -Schnittstelle verwendet:

Hinweis

Beliebige Modelle werden nicht unterstützt. das Modell muss im standardmäßigen Binärformat gespeichert worden sein, das zum Beibehalten von Azure Machine Learning Modellen verwendet wird.

Laden des Modells in ein neues Experiment

  1. Fügen Sie das Modul Load trainierte Model zu Ihrem Experiment in Studio (klassisch) hinzu.

  2. Geben Sie unter Datenquelle den Speicherort des trainierten Modells an, indem Sie eine der folgenden Optionen verwenden:

    • Web-URL über HTTP: Geben Sie eine URL an, die auf das Experiment zeigt, und die Datei, die das trainierte Modell darstellt. In Azure Machine Learning werden trainierte Modelle standardmäßig im ilearner -Format gespeichert.

    • Azure BLOB Storage: Wählen Sie diese Option nur aus, wenn Sie das trainierte Modell in Azure Storage exportiert haben. Anschließend müssen Sie den Kontonamen und den Kontoschlüssel sowie den Pfad zum Container, Verzeichnis oder BLOB angeben.

  3. Wenn Sie beabsichtigen, einen Request-Response Webdienst zu erstellen, der auf dem aktuellen Experiment basiert, wählen Sie die Option für die Verwendung in RRS zulassen aus. Andernfalls wird die Bewertung mithilfe der Option für den Batch Ausführungs Dienst (Batch Execution Service, BES) ausgeführt, was empfohlen wird. Weitere Informationen finden Sie im Abschnitt Technische Hinweise .

  4. Wählen Sie die Option zwischengespeicherte Ergebnisse verwenden aus, wenn Sie das trainierte Modell aus dem Cache laden möchten, wenn der Cache verfügbar und aufgefüllt ist. Diese Option wird ignoriert, nachdem das Experiment als Webdienst-API bereitgestellt wurde.

Beispiele

Beispiele für die Verwendung dieses Moduls finden Sie in der Cortana Intelligence Gallery.

  • Laden eines trainierten Deep Learning-Modells: im Beispiel wird ein benutzerdefiniertes neuronales Netzwerk für die Bild Erkennung erstellt Mithilfe des Moduls Load trainierte Model können Sie dieses Modell problemlos wieder verwenden, ohne es trainieren zu müssen, was zeitaufwändig sein kann.

    Diese Sammlung enthält ein Trainings Experiment, um das Modell zu erstellen, und ein Vorhersage Experiment, in dem das Modell als Webdienst geladen und für Vorhersagen verwendet wird.

Technische Hinweise

Dieser Abschnitt enthält Implementierungsdetails, Tipps und Antworten auf häufig gestellte Fragen.

Häufig gestellte Fragen

Warum ist die RRS-Verwendung standardmäßig nicht aktiviert

Im Allgemeinen wird erwartet, dass RRS-Aufrufe Ergebnisse innerhalb einer kurzen Zeitspanne zurückgeben. Da das Modul jedoch das trainierte Modell in Form eines BLOBs aus einem Azure Storage-Konto oder einer Datei laden muss, die auf einem öffentlichen HTTP-Endpunkt gehostet wird, können Datei Vorgänge zu unvorhersehbaren Verzögerungen führen.

Daher wird im Allgemeinen empfohlen, den Webdienst im Batch Ausführungs Modus (Batch Execution Mode, BES) auszuführen. Wenn Sie die Option für. Execution mithilfe von RRS auswählen, achten Sie auf das potenzielle Risiko einer Verzögerung. Allgemeine Informationen zu Ausführungszeiten finden Sie unter Azure Machine Learning SLA.

Wird das trainierte Modell schneller geladen, wenn die Option für zwischengespeicherte Ergebnisse verwendet wird.

Ja, aber nur, wenn das Experiment in Azure Machine Learning Studio (klassisch) ausgeführt wird, und erst nachdem der Cache durch die erste Ausführung gefüllt wurde. Nachdem das Experiment als Webdienst bereitgestellt wurde, wird dieses Flag von der Webdienst Ausführung ignoriert.

Gibt es eine Möglichkeit, den Prozess zu automatisieren.

Sie können PowerShell verwenden, um viele Aufgaben in Azure Machine Learning zu vereinfachen oder zu automatisieren. Beispielsweise können Sie den Inhalt eines gesamten Experiments oder eines bestimmten Moduls herunterladen, die Definition des Webdiensts exportieren oder die Webdienst-Ausführungs-API aufrufen. Weitere Informationen finden Sie unter PowerShell-Modul für Microsoft Azure Machine Learning.

Modulparameter

Name Range type Standard BESCHREIBUNG
Verwendung in RRS zulassen Wahr/falsch Boolean false Ermöglicht, dass dieses Modul im Anforderungs Antwort-Webdienst ausgeführt wird, was unvorhersehbare Verzögerungen verursachen kann.
Datenquelle Web-URL über HTTP oder Azure BLOB Storage T_DataSourceOrSink Azure Blob Storage Die Datenquelle kann http oder eine Datei in Azure BLOB Storage sein (erforderlich).
Für Web-URL über HTTP:
Datenquellen-URL any String URL für http
Azure BLOB Storage:
Kontoname any String Kontoname
Kontoschlüssel any SecureString Der Schlüssel, der dem Microsoft Azure Storage-Konto zugeordnet ist
Pfad zu Container oder Verzeichnis oder BLOB any String Der Pfad zum Blob oder der Name einer Tabelle

Ausgaben

Name Typ BESCHREIBUNG
Trainiertes Modell ILearner-Schnittstelle Trainiertes Modell

Ausnahmen

Ausnahme Beschreibung
Fehler 0003 Eine Ausnahme tritt auf, wenn mindestens eine Eingabe NULL oder leer ist.

Eine Liste der Fehler, die für Studio-Module (klassisch) spezifisch sind, finden Sie unter Machine Learning Fehlercodes.

Eine Liste der API-Ausnahmen finden Sie unter Machine Learning Rest-API-Fehler Codes.

Weitere Informationen

Dateneingabe und -ausgabe