Getraind model laden

Belangrijk

De ondersteuning voor Azure Machine Learning-studio (klassiek) eindigt op 31 augustus 2024. U wordt aangeraden om vóór die datum over te stappen naar Azure Machine Learning.

Vanaf 1 december 2021 kunt u geen nieuwe resources voor Azure Machine Learning-studio (klassiek) meer maken. Tot en met 31 augustus 2024 kunt u de bestaande resources van Azure Machine Learning-studio (klassiek) blijven gebruiken.

De documentatie van ML-studio (klassiek) wordt buiten gebruik gesteld en wordt in de toekomst mogelijk niet meer bijgewerkt.

Een door het web gehost getraind model laden

Categorie: Gegevensinvoer en -uitvoer

Notitie

Van toepassing op: Machine Learning Studio (klassiek)

Vergelijkbare modules voor slepen en neerzetten zijn beschikbaar in Azure Machine Learning designer.

Moduleoverzicht

In dit artikel wordt beschreven hoe u de module Getraind model laden in Machine Learning Studio (klassiek) gebruikt om een al getraind model te laden voor gebruik in een experiment.

Voor deze module is een bestaand getraind model vereist. Normaal gesproken maakt en traint u het model vervolgens in een ander experiment. Vervolgens sla u het model op in uw werkruimte of in een van de ondersteunde opties voor cloudopslag.

Vervolgens gebruikt u de module Getraind model laden om het getrainde model op te halen en uit te voeren in een nieuw experiment.

Getraind model voor belasting gebruiken

Een bestaand model gebruiken om voorspellingen te doen voor nieuwe gegevens:

  • Het model moet eerder zijn getraind en vervolgens zijn opgeslagen in de iLearner-indeling.
  • Het model moet toegankelijk zijn via een URL of via Azure Blob Storage.

In deze sectie wordt beschreven hoe u een model op kunt slaan, een opgeslagen model op kunt halen en een opgeslagen model kunt toepassen.

Een getraind model opslaan

U kunt modellen opslaan met behulp van de Studio-interface (klassiek) of met behulp van een experiment dat wordt uitgevoerd als een webservice.

Een model opslaan met behulp van een webservice

  1. Een experiment maken dat het model traint of opnieuw traint als een webservice
  2. Publiceer dat experiment als een webservice.
  3. Wanneer u het BES-eindpunt van de trainingswebservice aanroept, slaat de webservice een getraind model op met behulp van de iLearner-interface en slaat het bestand op in het Azure Blob Storage-account dat u opgeeft.

Zie de volgende artikelen voor stapsgewijs informatie over het maken van een trainingswebservice:

Een model opslaan in Studio (klassiek)

  1. Voer het experiment uit dat het model bouwt en traint.
  2. Wanneer de training is voltooid, klikt u met de rechtermuisknop op de module die is gebruikt voor de training, selecteert u Getraind model en klikt u vervolgens op Opslaan als getraind model.
  3. Standaard worden modellen opgeslagen in uw Studio-werkruimte (klassiek). U kunt ze weergeven met behulp van de gebruikersinterface van Studio (klassiek).

Met de volgende modules kunt u een opgeslagen model maken dat gebruikmaakt van de vereiste iLearner-interface :

Notitie

Willekeurige modellen worden niet ondersteund; het model moet zijn opgeslagen in de standaard binaire indeling die wordt gebruikt voor het persistent maken Machine Learning modellen.

Het model laden in een nieuw experiment

  1. Voeg de module Getraind model laden toe aan uw experiment in Studio (klassiek).

  2. Geef bij Gegevensbron de locatie van het getrainde model aan met behulp van een van de volgende opties:

    • Web-URL via HTTP: Geef een URL op die wijst naar het experiment en het bestand dat het getrainde model vertegenwoordigt. In Machine Learning worden getrainde modellen standaard opgeslagen in de ILearner-indeling.

    • Azure Blob Storage: selecteer deze optie alleen als u het getrainde model naar Azure Storage hebt geëxporteerd. Vervolgens moet u de accountnaam en accountsleutel en het pad naar de container, map of blob verstrekken.

  3. Als u van plan bent een Request-Response webservice te maken die is gebaseerd op het huidige experiment, selecteert u de optie Toestaan om te gebruiken in RRS. Anders wordt de score uitgevoerd met behulp van de optie Batch Execution Service (BES). Dit wordt aanbevolen. Zie de sectie Technische notities voor meer informatie.

  4. Selecteer de optie In cache opgeslagen resultaten gebruiken als u het getrainde model uit de cache wilt laden wanneer de cache beschikbaar en gevuld is. Deze optie wordt genegeerd nadat het experiment is geïmplementeerd als een webservice-API.

Voorbeelden

Zie de Cortana Intelligence Gallery voor voorbeelden van het gebruik van deze module.

  • Een getraind Deep Learning-model laden: In het voorbeeld wordt een aangepast neuraal netwerk voor afbeeldingsdetectie gemaakt. Met behulp van de module Getraind model laden kunt u dit model eenvoudig opnieuw gebruiken zonder het te trainen, wat tijdrovend kan zijn.

    Deze verzameling bevat een trainingsexperiment om het model te maken en een voorspellend experiment, waarin het model wordt geladen als een webservice en wordt gebruikt voor voorspellingen.

Technische opmerkingen

Deze sectie bevat implementatiedetails, tips en antwoorden op veelgestelde vragen.

Veelgestelde vragen

Waarom is RRS-gebruik niet standaard ingeschakeld

Over het algemeen wordt verwacht dat RRS-aanroepen binnen een korte periode resultaten retourneren. Omdat de module het getrainde model echter moet laden in de vorm van een blob vanuit een Azure-opslagaccount of een bestand dat wordt gehost op een openbaar HTTP-eindpunt, kunnen bestandsbewerkingen onvoorspelbare vertragingen tot gevolg hebben.

Daarom raden we over het algemeen aan dat de webservice wordt uitgevoerd in de batchuitvoeringsmodus (BES). Als u de optie voor .execution met behulp van RRS selecteert, moet u rekening houden met de mogelijke vertraging. Zie de SLA voor Machine Learning informatie over uitvoeringstijden.

Laadt het getrainde model sneller als ik de optie voor resultaten in de cache gebruik?

Ja, maar alleen wanneer het experiment wordt uitgevoerd in Machine Learning Studio (klassiek) en pas nadat de cache is gevuld door de eerste run. Nadat het experiment is geïmplementeerd als webservice, wordt deze vlag genegeerd door de uitvoering van de webservice.

Is er een manier om het proces te automatiseren

U kunt PowerShell gebruiken voor het vereenvoudigen of automatiseren van veel taken in Machine Learning. U kunt bijvoorbeeld de inhoud van een volledig experiment of een bepaalde module downloaden, de definitie van de webservice exporteren of de webservice-uitvoerings-API aanroepen. Zie PowerShell Module for Microsoft Machine Learning (PowerShell-module voor Microsoft Machine Learning.

Moduleparameters

Name Bereik Type Standaard Beschrijving
Toestaan om te gebruiken in RRS Waar/onwaar Boolean-waarde onjuist Toestaan dat deze module wordt uitgevoerd in de webservice request-response, wat kan leiden tot onvoorspelbare vertragingen
Gegevensbron Web-URL via HTTP of Azure Blob Storage T_DataSourceOrSink Azure Blob Storage De gegevensbron kan HTTP of een bestand in Azure Blob Storage zijn (vereist)
Voor web-URL via HTTP:
Gegevensbron-URL alle Tekenreeks URL voor HTTP
Voor Azure Blob Storage:
Accountnaam alle Tekenreeks Accountnaam
Accountsleutel alle SecureString Sleutel die is gekoppeld aan het Windows Azure Storage account
Pad naar container of map of blob alle Tekenreeks Pad naar blob of naam van tabel

Uitvoerwaarden

Naam Type Description
Getraind model ILearner-interface Getraind model

Uitzonderingen

Uitzondering Description
Fout 0003 Uitzondering treedt op als een of meer invoer null of leeg zijn.

Zie Foutcodes voor een lijst met fouten die specifiek zijn Machine Learning voor Studio-modules (klassiek).

Zie Foutcodes voor een lijst Machine Learning REST API API-uitzonderingen.

Zie ook

Gegevensinvoer en -uitvoer