Laden eines trainierten Modells

Wichtig

Der Support für Machine Learning Studio (klassisch) endet am 31. August 2024. Es wird empfohlen, bis zu diesem Datum auf Azure Machine Learning umzustellen.

Ab dem 1. Dezember 2021 können Sie keine neuen Ressourcen in Machine Learning Studio (klassisch) mehr erstellen. Bis zum 31. August 2024 können Sie die vorhandenen Ressourcen in Machine Learning Studio (klassisch) weiterhin verwenden.

Die Dokumentation zu ML Studio (klassisch) wird nicht mehr fortgeführt und kann künftig nicht mehr aktualisiert werden.

Laden eines im Web gehosteten trainierten Modells

Kategorie: Dateneingabe und -ausgabe

Hinweis

Gilt nur für: Machine Learning Studio (klassisch)

Ähnliche Drag & Drop-Module sind im Azure Machine Learning-Designer verfügbar.

Modulübersicht

In diesem Artikel wird beschrieben, wie Sie das Modul Load Trained Model in Machine Learning Studio (klassisch) verwenden, um ein bereits trainiertes Modell für die Verwendung in einem Experiment zu laden.

Dieses Modul erfordert ein vorhandenes trainiertes Modell. In der Regel erstellen und trainieren Sie das Modell in einem anderen Experiment und speichern das Modell dann entweder in Ihrem Arbeitsbereich oder in einer der unterstützten Cloudspeicheroptionen.

Anschließend verwenden Sie das Modul Load Trained model (Trainiertes Modell laden ), um das trainierte Modell abzurufen und es in einem neuen Experiment auszuführen.

Verwenden des trainierten Modells "Laden"

So verwenden Sie ein vorhandenes Modell, um Vorhersagen für neue Daten zu treffen:

  • Das Modell muss zuvor trainiert und dann im iLearner-Format gespeichert worden sein.
  • Auf das Modell muss entweder über die URL oder in Azure Blob Storage zugegriffen werden können.

In diesem Abschnitt wird beschrieben, wie Sie ein Modell speichern, ein gespeichertes Modell abrufen und ein gespeichertes Modell anwenden.

Speichern eines trainierten Modells

Sie können Modelle speichern, indem Sie die (klassische) Studio-Schnittstelle oder ein Experiment verwenden, das als Webdienst ausgeführt wird.

Speichern eines Modells mithilfe eines Webdiensts

  1. Erstellen eines Experiments, das das Trainieren oder erneute Trainieren des Modells als Webdienst übernimmt
  2. Veröffentlichen Sie dieses Experiment als Webdienst.
  3. Wenn Sie den BES-Endpunkt des Trainingswebdiensts aufrufen, speichert der Webdienst ein trainiertes Modell mithilfe der iLearner-Schnittstelle und speichert die Datei im von Ihnen angegebenen Azure Blob Storage-Konto.

Schritt-für-Schritt-Informationen zum Erstellen eines Trainingswebdiensts finden Sie in den folgenden Artikeln:

Speichern eines Modells in Studio (klassisch)

  1. Führen Sie das Experiment aus, das das Modell erstellt und trainiert.
  2. Klicken Sie nach Abschluss des Trainings mit der rechten Maustaste auf das Modul, das für das Training verwendet wurde, wählen Sie Trainiertes Modell aus, und klicken Sie dann auf Als trainiertes Modell speichern.
  3. Standardmäßig werden Modelle in Ihrem (klassischen) Studio-Arbeitsbereich gespeichert. Sie können sie über die (klassische) Benutzeroberfläche von Studio anzeigen.

Die folgenden Module können ein gespeichertes Modell erstellen, das die erforderliche iLearner-Schnittstelle verwendet:

Hinweis

Beliebige Modelle werden nicht unterstützt. Das Modell muss im Standardbinärformat gespeichert worden sein, das zum Beibehalten von Machine Learning Modellen verwendet wird.

Laden des Modells in ein neues Experiment

  1. Fügen Sie ihrem Experiment in Studio (klassisch) das Modul Load Trained Model hinzu.

  2. Geben Sie für Datenquelle den Speicherort des trainierten Modells an, indem Sie eine der folgenden Optionen verwenden:

    • Web-URL über HTTP: Geben Sie eine URL an, die auf das Experiment und die Datei verweist, die das trainierte Modell darstellt. In Machine Learning werden trainierte Modelle standardmäßig im ILearner-Format gespeichert.

    • Azure Blob Storage: Wählen Sie diese Option nur aus, wenn Sie das trainierte Modell in Azure Storage exportiert haben. Anschließend müssen Sie den Kontonamen und den Kontoschlüssel sowie den Pfad zum Container, Verzeichnis oder Blob angeben.

  3. Wenn Sie beabsichtigen, einen Request-Response Webdienst zu erstellen, der auf dem aktuellen Experiment basiert, wählen Sie die Option Allow to use in RRS (Verwendung in RRS zulassen) aus. Andernfalls wird die Bewertung mithilfe der Option Batchausführungsdienst (Batch Execution Service, BES) durchgeführt. Dies wird empfohlen. Weitere Informationen finden Sie im Abschnitt Technische Hinweise .

  4. Wählen Sie die Option Zwischengespeicherte Ergebnisse verwenden aus, wenn Sie das trainierte Modell aus dem Cache laden möchten, wenn der Cache verfügbar und aufgefüllt ist. Diese Option wird ignoriert, nachdem das Experiment als Webdienst-API bereitgestellt wurde.

Beispiele

Beispiele für die Verwendung dieses Moduls finden Sie im Cortana Intelligence-Katalog.

  • Laden eines trainierten Deep Learning-Modells: Im Beispiel wird ein benutzerdefiniertes neuronales Netzwerk für die Bilderkennung erstellt. Mithilfe des Moduls Load Trained Model können Sie dieses Modell problemlos wiederverwenden, ohne es trainieren zu müssen. Dies kann zeitaufwändig sein.

    Diese Sammlung enthält ein Trainingsexperiment zum Erstellen des Modells und ein Vorhersageexperiment, in dem das Modell als Webdienst geladen und für Vorhersagen verwendet wird.

Technische Hinweise

Dieser Abschnitt enthält Implementierungsdetails, Tipps und Antworten auf häufig gestellte Fragen.

Häufig gestellte Fragen

Warum ist die RRS-Verwendung nicht standardmäßig aktiviert?

Es wird allgemein erwartet, dass RRS-Aufrufe Ergebnisse innerhalb kurzer Zeit zurückgeben. Da das Modul das trainierte Modell jedoch in Form eines Blobs aus einem Azure-Speicherkonto oder einer Datei laden muss, die auf einem öffentlichen HTTP-Endpunkt gehostet wird, können Dateivorgänge zu unvorhersehbaren Verzögerungen führen.

Daher wird im Allgemeinen empfohlen, den Webdienst im Batchausführungsmodus (Batch Execution Mode, BES) auszuführen. Wenn Sie die Option für die Ausführung mit RRS auswählen, sollten Sie die potenzielle Verzögerung beachten. Allgemeine Informationen zu Ausführungszeiten finden Sie in der Machine Learning-SLA.

Wird das trainierte Modell schneller geladen, wenn ich die Option zwischengespeicherte Ergebnisse verwende?

Ja, aber nur, wenn das Experiment in Machine Learning Studio (klassisch) ausgeführt wird, und erst, nachdem der Cache durch die erste Ausführung gefüllt wurde. Nachdem das Experiment als Webdienst bereitgestellt wurde, wird dieses Flag von der Webdienstausführung ignoriert.

Gibt es eine Möglichkeit, den Prozess zu automatisieren?

Sie können PowerShell verwenden, um viele Aufgaben in Machine Learning zu vereinfachen oder zu automatisieren. Beispielsweise können Sie den Inhalt eines gesamten Experiments oder eines bestimmten Moduls herunterladen, die Definition des Webdiensts exportieren oder die Webdienstausführungs-API aufrufen. Weitere Informationen finden Sie unter PowerShell-Modul für Microsoft Machine Learning.

Modulparameter

Name Range type Standard Beschreibung
Verwendung in RRS zulassen TRUE/FALSE Boolean false Zulassen der Ausführung dieses Moduls im Anforderung/Antwort-Webdienst, was zu unvorhersehbaren Verzögerungen führen kann
Datenquellen- Web-URL über HTTP oder Azure Blob Storage T_DataSourceOrSink Azure Blob Storage Die Datenquelle kann HTTP oder eine Datei in Azure Blob Storage sein (erforderlich).
Für Web-URL über HTTP:
Datenquellen-URL any Zeichenfolge URL für HTTP
Für Azure Blob Storage:
Kontoname any Zeichenfolge Kontoname
Kontoschlüssel any SecureString Der Schlüssel, der dem Microsoft Azure Storage-Konto zugeordnet ist
Pfad zu Container, Verzeichnis oder Blob any Zeichenfolge Der Pfad zum Blob oder der Name einer Tabelle

Ausgaben

Name Type Beschreibung
Trainiertes Modell ILearner-Schnittstelle Trainiertes Modell

Ausnahmen

Ausnahme Beschreibung
Fehler 0003 Eine Ausnahme tritt auf, wenn mindestens eine Eingabe NULL oder leer ist.

Eine Liste der Fehler, die für Studio-Module (klassisch) spezifisch sind, finden Sie unter Machine Learning Fehlercodes.

Eine Liste der API-Ausnahmen finden Sie unter Machine Learning REST-API-Fehlercodes.

Siehe auch

Dateneingabe und -ausgabe