Share via


FastTreeBinaryTrainer.Options Klasse

Definition

Optionen für die FastTreeBinaryTrainer , wie sie in FastTree(Optionen) verwendet werden.

public sealed class FastTreeBinaryTrainer.Options : Microsoft.ML.Trainers.FastTree.BoostedTreeOptions, Microsoft.ML.Runtime.IComponentFactory<Microsoft.ML.ITrainer>
type FastTreeBinaryTrainer.Options = class
    inherit BoostedTreeOptions
    interface IComponentFactory<ITrainer>
    interface IComponentFactory
Public NotInheritable Class FastTreeBinaryTrainer.Options
Inherits BoostedTreeOptions
Implements IComponentFactory(Of ITrainer)
Vererbung
Implementiert
IComponentFactory IComponentFactory<Microsoft.ML.ITrainer>

Konstruktoren

FastTreeBinaryTrainer.Options()

Erstellen Sie ein neues FastTreeBinaryTrainer.Options Objekt mit Standardwerten.

Felder

AllowEmptyTrees

Wenn eine Stammaufteilung nicht möglich ist, lassen Sie das Training fort.

(Geerbt von TreeOptions)
BaggingExampleFraction

Prozentsatz der Trainingsbeispiele, die in jeder Tasche verwendet werden. Der Standardwert ist 0,7 (70 %).

(Geerbt von TreeOptions)
BaggingSize

Anzahl der Bäume in jeder Tasche (0 zum Deaktivieren des Sackens).

(Geerbt von TreeOptions)
BestStepRankingRegressionTrees

Option für die Verwendung der besten Regressionsschrittstrukturen.

(Geerbt von BoostedTreeOptions)
Bias

Bias zum Berechnen des Farbverlaufs für jede Feature-Bin für ein kategorisches Feature.

(Geerbt von TreeOptions)
Bundling

Bündelung von Behältern mit geringer Befüllung. Bundle.None(0): keine Bündelung, Bundle.AggregateLowPopulation(1): Bundle low population, Bundle.Adjacent(2): Neighbor low population bundle.

(Geerbt von TreeOptions)
CategoricalSplit

Gibt an, ob eine Aufteilung basierend auf mehreren kategorischen Featurewerten durchgeführt werden soll.

(Geerbt von TreeOptions)
CompressEnsemble

Komprimieren Sie das Strukturensemble.

(Geerbt von TreeOptions)
DiskTranspose

Gibt an, ob der Datenträger oder die nativen Umsetzungsmöglichkeiten der Daten (sofern zutreffend) bei der Durchführung der Transponierung verwendet werden sollen.

(Geerbt von TreeOptions)
DropoutRate

Abbruchrate für die Struktur regularisierung.

(Geerbt von BoostedTreeOptions)
EnablePruning

Aktivieren Sie die Strukturbereinigung nach dem Training, um eine Überanpassung zu vermeiden. Es ist ein Validierungssatz erforderlich.

(Geerbt von BoostedTreeOptions)
EntropyCoefficient

Der Entropiekoeffizienten (Regularisierung) zwischen 0 und 1.

(Geerbt von TreeOptions)
ExampleWeightColumnName

Zu verwendende Spalte, z. B. Gewichtung.

(Geerbt von TrainerInputBaseWithWeight)
ExecutionTime

Aufschlüsselung der Druckausführungszeit auf ML.NET Kanal.

(Geerbt von TreeOptions)
FeatureColumnName

Spalte, die für Features verwendet werden soll.

(Geerbt von TrainerInputBase)
FeatureFirstUsePenalty

Das Feature verwendet zuerst den Strafkoeffizienten.

(Geerbt von TreeOptions)
FeatureFlocks

Gibt an, ob Features während der Datasetvorbereitung gesammelt werden sollen, um das Training zu beschleunigen.

(Geerbt von TreeOptions)
FeatureFraction

Der Anteil der Features (zufällig ausgewählt), die bei jeder Iteration verwendet werden sollen. Verwenden Sie 0.9, wenn nur 90 % der Features benötigt werden. Niedrigere Zahlen tragen dazu bei, die Überanpassung zu reduzieren.

(Geerbt von TreeOptions)
FeatureFractionPerSplit

Der Anteil der Features (zufällig ausgewählt), die für jede Aufteilung verwendet werden sollen. Wenn der Wert 0,9 ist, würden 90 % aller Features in Erwartung gelöscht.

(Geerbt von TreeOptions)
FeatureReusePenalty

Der Koeffizienten für die Wiederverwendung (Regularisierung) der Funktion.

(Geerbt von TreeOptions)
FeatureSelectionSeed

Der Seed der aktiven Featureauswahl.

(Geerbt von TreeOptions)
FilterZeroLambdas

Filtern Sie null Lambdas während des Trainings.

(Geerbt von BoostedTreeOptions)
GainConfidenceLevel

Strukturanpassungsanforderung: Vertrauenserfordernis. Erwägen Sie nur einen Gewinn, wenn seine Wahrscheinlichkeit im Vergleich zu einem zufälligen Auswahlgewinn über diesem Wert liegt.

(Geerbt von TreeOptions)
GetDerivativesSampleRate

Beispielen Sie jede Abfrage 1 in k in der GetDerivatives-Funktion.

(Geerbt von BoostedTreeOptions)
HistogramPoolSize

Die Anzahl der Histogramme im Pool (zwischen 2 und numLeaves).

(Geerbt von TreeOptions)
LabelColumnName

Spalte, die für Bezeichnungen verwendet werden soll.

(Geerbt von TrainerInputBaseWithLabel)
LearningRate

Die Lernrate.

(Geerbt von BoostedTreeOptions)
MaximumBinCountPerFeature

Maximale Anzahl unterschiedlicher Werte (Bins) pro Feature.

(Geerbt von TreeOptions)
MaximumCategoricalGroupCountPerNode

Maximale kategorische Aufteilung von Gruppen, die beim Aufteilen in einem kategorischen Feature berücksichtigt werden müssen. Geteilte Gruppen sind eine Sammlung von geteilten Punkten. Dies wird verwendet, um die Überanpassung zu reduzieren, wenn viele kategorische Features vorhanden sind.

(Geerbt von TreeOptions)
MaximumCategoricalSplitPointCount

Maximale kategorische Teilungspunkte, die beim Teilen eines kategorischen Features berücksichtigt werden müssen.

(Geerbt von TreeOptions)
MaximumNumberOfLineSearchSteps

Anzahl der Suchschritte nach Klammern.

(Geerbt von BoostedTreeOptions)
MaximumTreeOutput

Obergrenze für den absoluten Wert der Ausgabe einer einzelnen Struktur.

(Geerbt von BoostedTreeOptions)
MemoryStatistics

Drucken Sie Speicherstatistiken in ML.NET Kanal.

(Geerbt von TreeOptions)
MinimumExampleCountPerLeaf

Die minimale Anzahl von Datenpunkten, die zum Bilden eines neuen Baumblatts erforderlich sind.

(Geerbt von TreeOptions)
MinimumExampleFractionForCategoricalSplit

Minimaler kategorischer Beispielprozentsatz in einer Bin, der für eine Aufteilung berücksichtigt werden soll. Der Standardwert beträgt 0,1 % aller Trainingsbeispiele.

(Geerbt von TreeOptions)
MinimumExamplesForCategoricalSplit

Minimale kategorische Beispielanzahl in einer Bin, die für eine Aufteilung berücksichtigt werden soll.

(Geerbt von TreeOptions)
MinimumStepSize

Minimale Zeilensuchschrittgröße.

(Geerbt von BoostedTreeOptions)
NumberOfLeaves

Die maximale Anzahl von Blättern in jeder Regressionsstruktur.

(Geerbt von TreeOptions)
NumberOfThreads

Die Anzahl der zu verwendenden Threads.

(Geerbt von TreeOptions)
NumberOfTrees

Gesamtanzahl der zu erstellenden Entscheidungsstrukturen im Ensemble.

(Geerbt von TreeOptions)
OptimizationAlgorithm

Zu verwendende Optimierungsalgorithmus.

(Geerbt von BoostedTreeOptions)
PruningThreshold

Der Toleranzschwellenwert für die Beschneidung.

(Geerbt von BoostedTreeOptions)
PruningWindowSize

Die Größe des sich bewegenden Fensters für das Zuschneiden.

(Geerbt von BoostedTreeOptions)
RandomStart

Das Training beginnt mit der zufälligen Reihenfolge (bestimmt durch /r1).

(Geerbt von BoostedTreeOptions)
RowGroupColumnName

Zu verwendende Spalte, z. B. groupId.

(Geerbt von TrainerInputBaseWithGroupId)
Seed

Der Seed des Zufallszahlengenerators.

(Geerbt von TreeOptions)
Shrinkage

Schrumpfung.

(Geerbt von BoostedTreeOptions)
Smoothing

Glättungsparameter für die Strukturregulärisierung.

(Geerbt von TreeOptions)
SoftmaxTemperature

Die Temperatur der randomisierten Softmax-Verteilung für die Auswahl des Features.

(Geerbt von TreeOptions)
SparsifyThreshold

Die Sparsity-Ebene ist erforderlich, um die Darstellung von Sparsefeatures zu verwenden.

(Geerbt von TreeOptions)
TestFrequency

Berechnen Sie Metrikwerte für train/valid/test für alle k-Runden.

(Geerbt von TreeOptions)
UnbalancedSets

Gibt an, ob Derivate verwendet werden sollen, die für unausgewogene Trainingsdaten optimiert sind.

UseLineSearch

Bestimmt, ob die Zeilensuche für eine Schrittgröße verwendet werden soll.

(Geerbt von BoostedTreeOptions)
UseTolerantPruning

Verwenden Sie Fenster und Toleranz für die Beschneidung.

(Geerbt von BoostedTreeOptions)
WriteLastEnsemble

Schreiben Sie das letzte Ensemble anstelle des ensembles, das durch frühzeitiges Beenden bestimmt wurde.

(Geerbt von BoostedTreeOptions)

Eigenschaften

EarlyStoppingMetric

Metriken frühzeitig beenden.

EarlyStoppingRule

Die Regel zum Vorzeitigen Beenden des Trainings wird verwendet, sobald ein bestimmtes Kriterium erfüllt wurde. Mögliche Optionen sind EarlyStoppingRuleBaseImplementierungen wie TolerantEarlyStoppingRule und GeneralityLossRule.

(Geerbt von BoostedTreeOptions)

Explizite Schnittstellenimplementierungen

IComponentFactory<ITrainer>.CreateComponent(IHostEnvironment)

Optionen für die FastTreeBinaryTrainer , wie sie in FastTree(Optionen) verwendet werden.

Gilt für: