SgdNonCalibratedTrainer Třída

Definice

Trénování IEstimator<TTransformer> logistické regrese pomocí paralelní metody stochastického přechodu

public sealed class SgdNonCalibratedTrainer : Microsoft.ML.Trainers.SgdBinaryTrainerBase<Microsoft.ML.Trainers.LinearBinaryModelParameters>
type SgdNonCalibratedTrainer = class
    inherit SgdBinaryTrainerBase<LinearBinaryModelParameters>
Public NotInheritable Class SgdNonCalibratedTrainer
Inherits SgdBinaryTrainerBase(Of LinearBinaryModelParameters)
Dědičnost

Poznámky

K vytvoření tohoto trenéra použijte SgdNonCalibrated nebo SgdNonCalibrated(Options).

Vstupní a výstupní sloupce

Vstupní data sloupce popisku musí být Boolean. Vstupní funkce sloupcová data musí být vektorem známé velikosti Single. Tento trenér vypíše následující sloupce:

Název výstupního sloupce Typ sloupce Description
Score Single Nevázané skóre, které model vypočítal.
PredictedLabel Boolean Predikovaný popisek na základě znaménka skóre. Záporná skóre mapuje na false a kladná skóre se mapuje na true.

Charakteristiky trenéra

Úloha strojového učení Binární klasifikace
Vyžaduje se normalizace? Yes
Vyžaduje se ukládání do mezipaměti? No
Požadovaný NuGet kromě Microsoft.ML Žádné
Exportovatelné do ONNX Yes

Podrobnosti trénovacího algoritmu

Stochastic Gradient Sestup (SGD) je jedním z oblíbených stochastických optimalizačních postupů, které lze integrovat do několika úloh strojového učení pro dosažení nejmodernějšího výkonu. Tento trenér implementuje Hogwild Stochastic Gradient Descent pro binární klasifikaci, která podporuje vícevláknové dělení bez jakéhokoli uzamčení. Pokud je přidružený problém optimalizace řídký, Hogwild Stochastic Gradient Sestup dosáhne téměř optimální míry konvergence. Další podrobnosti o Hogwild Stochastic Gradient Sestup najdete zde.

V části Viz také najdete odkazy na příklady použití.

Pole

FeatureColumn

Sloupec funkcí, který trenér očekává.

(Zděděno od TrainerEstimatorBase<TTransformer,TModel>)
LabelColumn

Sloupec popisku, který trenér očekává. Může to být null, což označuje, že popisek se nepoužívá pro trénování.

(Zděděno od TrainerEstimatorBase<TTransformer,TModel>)
WeightColumn

Sloupec hmotnosti, který trenér očekává. Může to být null, což značí, že váha se nepoužívá pro trénování.

(Zděděno od TrainerEstimatorBase<TTransformer,TModel>)

Vlastnosti

Info

Trénování IEstimator<TTransformer> logistické regrese pomocí paralelní metody stochastického přechodu

(Zděděno od SgdBinaryTrainerBase<TModel>)

Metody

Fit(IDataView)

Vlaky a vrací hodnotu ITransformer.

(Zděděno od TrainerEstimatorBase<TTransformer,TModel>)
Fit(IDataView, LinearModelParameters)

Pokračuje v trénování SdcaLogisticRegressionBinaryTrainer pomocí již natrénovaného modelParameters a vrátí Microsoft.ML.Data.BinaryPredictionTransformerhodnotu .

(Zděděno od SgdBinaryTrainerBase<TModel>)
GetOutputSchema(SchemaShape)

Trénování IEstimator<TTransformer> logistické regrese pomocí paralelní metody stochastického přechodu

(Zděděno od TrainerEstimatorBase<TTransformer,TModel>)

Metody rozšíření

AppendCacheCheckpoint<TTrans>(IEstimator<TTrans>, IHostEnvironment)

Připojte k řetězci estimátoru kontrolní bod ukládání do mezipaměti. Tím zajistíte, aby podřízené estimátory byly vytrénovány proti datům uloženým v mezipaměti. Před průchodem více dat je užitečné mít kontrolní bod ukládání do mezipaměti.

WithOnFitDelegate<TTransformer>(IEstimator<TTransformer>, Action<TTransformer>)

Vzhledem k estimátoru vraťte zalamovací objekt, který zavolá delegáta jednou Fit(IDataView) . Často je důležité, aby odhadovač vrátil informace o tom, co bylo vhodné, což je důvod, proč Fit(IDataView) metoda vrací konkrétně typ objekt, nikoli jen obecné ITransformer. Ve stejnou dobu se však často vytvářejí do kanálů s mnoha objekty, takže možná budeme muset vytvořit řetězec estimátorů, kde EstimatorChain<TLastTransformer> je odhadovač, IEstimator<TTransformer> pro který chceme získat transformátor, zakopán někde v tomto řetězci. Pro tento scénář můžeme prostřednictvím této metody připojit delegáta, který bude volána po zavolání fit.

Platí pro

Viz také