Share via


SdcaRegressionTrainer Sınıf

Tanım

IEstimator<TTransformer> Stokastik çift koordinatlı yükseliş yöntemini kullanarak regresyon modelini eğitmek için.

public sealed class SdcaRegressionTrainer : Microsoft.ML.Trainers.SdcaTrainerBase<Microsoft.ML.Trainers.SdcaRegressionTrainer.Options,Microsoft.ML.Data.RegressionPredictionTransformer<Microsoft.ML.Trainers.LinearRegressionModelParameters>,Microsoft.ML.Trainers.LinearRegressionModelParameters>
type SdcaRegressionTrainer = class
    inherit SdcaTrainerBase<SdcaRegressionTrainer.Options, RegressionPredictionTransformer<LinearRegressionModelParameters>, LinearRegressionModelParameters>
Public NotInheritable Class SdcaRegressionTrainer
Inherits SdcaTrainerBase(Of SdcaRegressionTrainer.Options, RegressionPredictionTransformer(Of LinearRegressionModelParameters), LinearRegressionModelParameters)
Devralma

Açıklamalar

Bu eğitmeni oluşturmak için Sdca veya Sdca(Seçenekler) kullanın.

Giriş ve Çıkış Sütunları

Giriş etiketi sütun verileri olmalıdır Single. Giriş özellikleri sütun verileri bilinen boyutlu bir vektör Singleolmalıdır.

Bu eğitmen aşağıdaki sütunları oluşturur:

Çıkış Sütunu Adı Sütun Türü Description
Score Single Model tarafından tahmin edilen ilişkisiz puan.

Eğitmen Özellikleri

Makine öğrenmesi görevi Regresyon
Normalleştirme gerekli mi? Yes
Önbelleğe alma gerekli mi? No
Microsoft.ML ek olarak gerekli NuGet Hiçbiri
ONNX'e aktarılabilir Yes

Eğitim Algoritması Ayrıntıları

Bu eğitmen, dışbükey nesnel fonksiyonlar için son teknoloji bir iyileştirme tekniği olan Stochastic Dual Coordinate Ascent (SDCA) yöntemini temel alır. Algoritma, bir KDD en iyi çalışmasında açıklandığı gibi bir akış eğitim algoritması olduğundan ölçeklendirilebilir.

Yakınsama, ayrı bir iş parçacığında ilkel ve çift değişkenler arasında eşitlemenin düzenli aralıklarla zorunlu kılınarak yazılır. Menteşe kaybı ve lojistik kayıp gibi çeşitli kayıp işlevleri seçenekleri de sağlanır. Kullanılan kayıplara bağlı olarak, eğitilen model destek vektör makinesi veya lojistik regresyon olabilir. SDCA yöntemi, akış öğrenmesi yapma (veri kümesinin tamamını belleğinize sığdırmadan), tüm veri kümesinin birkaç taramasıyla makul bir sonuca ulaşma (örneğin, bu makaledeki denemelere bakın) ve seyrek veri kümelerindeki sıfırlara hesaplama harcamama gibi en iyi özelliklerden birkaçını birleştirir.

SDCA'nın stokastik ve akış iyileştirme algoritması olduğunu unutmayın. Durdurma toleransı yeterince sıkı olmadığından sonuç eğitim verilerinin sırasına bağlıdır. Güçlü dışbükey iyileştirmede, en uygun çözüm benzersizdir ve bu nedenle sonunda herkes aynı yere ulaşır. Güçlü olmayan dışbükey durumlarda bile çalıştırmadan çalıştırmaya eşit derecede iyi çözümler elde edersiniz. Yeniden üretilebilir sonuçlar için birinin 'Shuffle' değerini False ve 'NumThreads' değerini 1 olarak belirlemesi önerilir.

Bu sınıf, toplanan veriler temelinde oluşturulan iyileştirme sorununu formüle etmek için ampirik risk minimizasyonu (ERM) kullanır. Ampirik riskin genellikle modelin toplanan veri noktalarındaki tahminlerine bir kayıp işlevi uygulanarak ölçüldüğünü unutmayın. Eğitim verileri yeterli veri noktası içermiyorsa (örneğin, doğrusal modeli $n$boyutlu alanda eğitmek için en az $n$ veri noktalarına ihtiyacımız vardır), ERM tarafından üretilen modelin eğitim verilerini açıklamada iyi olması ancak görünmeyen olaylarda doğru sonuçları tahmin etmede başarısız olması için fazla uygunluk gerçekleşebilir. Düzenlileştirme , model parametrelerinin büyüklüğünü (genellikle norm işleviyle ölçülür) azaltarak böyle bir olguyu hafifletmek için yaygın bir tekniktir. Bu eğitmen, L1-norm (LASSO), $|| doğrusal bir bileşimini cezalandıran esnek net düzenlileştirmeyi destekler \textbf{w}_c || _1$ ve L2-norm (sırt), $|| \textbf{w}_c || _2^2$ $c=1,\dots,m$ için normalleştirmeler. L1-norm ve L2-norm düzenlileştirmelerinin farklı etkileri ve belirli açılardan tamamlayıcı olan kullanımları vardır.

Uygulanan iyileştirme algoritmasıyla birlikte L1-norm normalleştirmesi, $\textbf{w}_1,\dots,\textbf{w}_m$ model ağırlıklarının sıklığını artırabilir. Yüksek boyutlu ve seyrek veri kümelerinde, kullanıcılar L1 norm katsayısını dikkatle seçerse, tahmin gücünü etkilemeden yalnızca birkaç sıfır dışı ağırlığa (toplam model ağırlıklarının %1'i) sahip bir modelle iyi bir tahmin kalitesi elde etmek mümkündür. Buna karşılık, L2-norm eğitilen modelin sparsity'sini artıramaz, ancak yine de büyük parametre değerlerinden kaçınarak fazla uygunluğu önleyebilir. Bazen L2-norm kullanmak daha iyi bir tahmin kalitesine yol açar, bu nedenle kullanıcılar yine de bunu denemek ve L1-norm ve L2-norm katsayılarına ince ayar yapmak isteyebilir. Kavramsal olarak L1-norm kullanmanın tüm model parametrelerinin dağılımının bir Laplace dağılımı olduğunu, L2 norm ise onlar için Gauss dağılımını ifade ettiğini unutmayın.

Agresif bir düzenlileştirme (yani L1-norm veya L2 normlu normalleştirme terimlerine büyük katsayılar atamak), önemli değişkenleri modelden dışlayarak tahmine dayalı kapasiteye zarar verebilir. Örneğin, çok büyük bir L1 norm katsayısı tüm parametreleri sıfır olmaya zorlayabilir ve önemsiz bir modele yol açabilir. Bu nedenle, doğru normalleştirme katsayılarının seçilmesi pratikte önemlidir.

Daha fazla bilgi için bkz.

Kullanım örneklerinin bağlantıları için Ayrıca Bkz. bölümüne bakın.

Alanlar

FeatureColumn

Eğitmenin beklediği özellik sütunu.

(Devralındığı yer: TrainerEstimatorBase<TTransformer,TModel>)
LabelColumn

Eğitmenin beklediği etiket sütunu. etiketin eğitim için kullanılmadığını gösteren olabilir null.

(Devralındığı yer: TrainerEstimatorBase<TTransformer,TModel>)
WeightColumn

Eğitmenin beklediği ağırlık sütunu. olabilir null, bu da ağırlığın eğitim için kullanılmadığını gösterir.

(Devralındığı yer: TrainerEstimatorBase<TTransformer,TModel>)

Özellikler

Info

IEstimator<TTransformer> Stokastik çift koordinatlı yükseliş yöntemini kullanarak regresyon modelini eğitmek için.

(Devralındığı yer: StochasticTrainerBase<TTransformer,TModel>)

Yöntemler

Fit(IDataView)

Bir ITransformereğiter ve döndürür.

(Devralındığı yer: TrainerEstimatorBase<TTransformer,TModel>)
GetOutputSchema(SchemaShape)

IEstimator<TTransformer> Stokastik çift koordinatlı yükseliş yöntemini kullanarak regresyon modelini eğitmek için.

(Devralındığı yer: TrainerEstimatorBase<TTransformer,TModel>)

Uzantı Metotları

AppendCacheCheckpoint<TTrans>(IEstimator<TTrans>, IHostEnvironment)

Tahmin aracı zincirine bir 'önbelleğe alma denetim noktası' ekler. Bu, aşağı akış tahmincilerinin önbelleğe alınan verilere karşı eğitilmesini sağlar. Birden çok veri geçişi alan eğitmenlerden önce bir önbelleğe alma denetim noktası olması yararlıdır.

WithOnFitDelegate<TTransformer>(IEstimator<TTransformer>, Action<TTransformer>)

Tahmin aracı verildiğinde, çağrıldıktan sonra Fit(IDataView) temsilci çağıracak bir sarmalama nesnesi döndürün. Tahmin aracının neyin uygun olduğu hakkında bilgi döndürmesi genellikle önemlidir. Bu nedenle Fit(IDataView) yöntem yalnızca genel ITransformerbir nesne yerine özel olarak yazılan bir nesne döndürür. Bununla birlikte, aynı zamanda, IEstimator<TTransformer> genellikle birçok nesneye sahip işlem hatları halinde oluşturulur, bu nedenle transformatör almak istediğimiz tahmin aracının EstimatorChain<TLastTransformer> bu zincirde bir yere gömülü olduğu bir tahmin aracı zinciri oluşturmamız gerekebilir. Bu senaryo için, bu yöntem aracılığıyla sığdır çağrıldıktan sonra çağrılacak bir temsilci ekleyebiliriz.

Şunlara uygulanır

Ayrıca bkz.