Share via


AutoML-regressie

In dit artikel wordt een onderdeel in de Azure Machine Learning-ontwerpfunctie beschreven.

Gebruik dit onderdeel om een machine learning-model te maken dat is gebaseerd op de AutoML-regressie.

Configureren

Voor dit model is een trainingsgegevensset vereist. Validatie- en testgegevenssets zijn optioneel.

AutoML maakt parallel een aantal pijplijnen die verschillende algoritmen en parameters voor uw model proberen. De service doorloopt ML-algoritmen die zijn gekoppeld aan functieselecties, waarbij elke iteratie een model met een trainingsscore produceert. U kunt de metrische gegevens kiezen waarvoor u het model wilt optimaliseren. Hoe beter de score voor de gekozen metrische gegevens, hoe beter het model wordt beschouwd als 'passend' voor uw gegevens. U kunt een afsluitcriterium voor het experiment definiëren. De afsluitcriteria zijn een model met een specifieke trainingsscore die autoML moet zoeken. Deze wordt gestopt zodra het voldoet aan de gedefinieerde afsluitcriteria. Dit onderdeel voert vervolgens het beste model uit dat is gegenereerd aan het einde van de uitvoering voor uw gegevensset. Ga naar deze koppeling voor meer informatie over afsluitcriteria (beëindigingsbeleid).

  1. Voeg het onderdeel AutoML-regressie toe aan uw pijplijn.

  2. Geef de doelkolom op die het model moet uitvoeren

  3. (Optioneel) Extra configuratie-instellingen weergeven: aanvullende instellingen die u kunt gebruiken om de trainingstaak beter te beheren. Anders worden de standaardinstellingen toegepast op basis van de selectie en gegevens van het experiment.

    Aanvullende configuraties Beschrijving
    Primaire metrische gegevens Belangrijkste metrische gegevens die worden gebruikt voor het scoren van uw model. Meer informatie over metrische modelgegevens.
    Foutopsporingsmodel via het dashboard voor verantwoordelijke AI Genereer een verantwoordelijk AI-dashboard om een holistische evaluatie en foutopsporing van het aanbevolen beste model uit te voeren. Dit omvat inzichten zoals modeluitleg, fairness en Performance Explorer, Data Explorer en modelfoutanalyse. Meer informatie over hoe u een verantwoordelijk AI-dashboard kunt genereren.
    Geblokkeerd algoritme Selecteer algoritmen die u wilt uitsluiten van de trainingstaak.

    Het toestaan van algoritmen is alleen beschikbaar voor SDK-experimenten.
    Bekijk de ondersteunde algoritmen voor elk taaktype.
    Criterium voor afsluiten Wanneer aan een van deze criteria wordt voldaan, wordt de trainingstaak gestopt.
    Tijd van trainingstaak (uren): hoe lang moet de trainingstaak worden uitgevoerd.
    Drempelwaarde voor metrische score: minimale metrische score voor alle pijplijnen. Dit zorgt ervoor dat als u een gedefinieerde doelwaarde hebt die u wilt bereiken, u niet meer tijd besteedt aan de trainingstaak dan nodig is.
    Gelijktijdigheid Maximum aantal gelijktijdige iteraties: maximum aantal pijplijnen (iteraties) dat in de trainingstaak moet worden getest. De taak wordt niet meer uitgevoerd dan het opgegeven aantal iteraties. Meer informatie over hoe geautomatiseerde ML meerdere onderliggende taken uitvoert op clusters.
  4. Met het formulier [Optioneel] Valideren en testen kunt u het volgende doen.

    1. Geef het type validatie op dat moet worden gebruikt voor uw trainingstaak.

    2. Geef een testgegevensset (preview) op om het aanbevolen model te evalueren dat geautomatiseerde ML aan het einde van uw experiment voor u genereert. Wanneer u testgegevens opgeeft, wordt er automatisch een testtaak geactiveerd aan het einde van uw experiment. Deze testtaak is alleen een taak op het beste model dat is aanbevolen door geautomatiseerde ML.

      Belangrijk

      Het leveren van een testgegevensset voor het evalueren van gegenereerde modellen is een preview-functie. Deze mogelijkheid is een experimentele preview-functie en kan op elk gewenst moment worden gewijzigd.

      • Testgegevens worden beschouwd als los van training en validatie, zodat de resultaten van de testtaak van het aanbevolen model niet worden beïnvloed. Meer informatie over vooroordelen tijdens modelvalidatie.
      • U kunt uw eigen testgegevensset opgeven of ervoor kiezen om een percentage van uw trainingsgegevensset te gebruiken. Testgegevens moeten de vorm hebben van een Azure Machine Learning TabularDataset.
      • Het schema van de testgegevensset moet overeenkomen met de trainingsgegevensset. De doelkolom is optioneel, maar als er geen doelkolom wordt aangegeven, worden er geen metrische testgegevens berekend.
      • De testgegevensset mag niet hetzelfde zijn als de trainingsgegevensset of de validatiegegevensset.
      • Prognosetaken bieden geen ondersteuning voor splitsing van trainen/testen.

Volgende stappen

Bekijk de set onderdelen die beschikbaar zijn voor Azure Machine Learning.