logisticRegression : logisticRegression

Crée une liste contenant le nom et les arguments de la fonction pour effectuer l’apprentissage d’un modèle de régression logistique avec rxEnsemble.

Utilisation

  logisticRegression(l2Weight = 1, l1Weight = 1, optTol = 1e-07,
    memorySize = 20, initWtsScale = 0, maxIterations = 2147483647,
    showTrainingStats = FALSE, sgdInitTol = 0, trainThreads = NULL,
    denseOptimizer = FALSE, ...)
 

Arguments

l2Weight

Pondération de régularisation L2. Sa valeur doit être supérieure ou égale à 0 et la valeur par défaut est 1.

l1Weight

Pondération de régularisation L1. Sa valeur doit être supérieure ou égale à 0 et la valeur par défaut est 1.

optTol

Valeur de seuil de convergence de l’optimiseur. Si l’amélioration entre les itérations est inférieure à ce seuil, l’algorithme s’arrête et renvoie le modèle actuel. Les valeurs plus petites sont plus lentes, mais plus précises. La valeur par défaut est 1e-07.

memorySize

Taille mémoire pour L-BFGS, qui indique le nombre de positions passées et de gradients à stocker pour le calcul de l’étape suivante. Ce paramètre d’optimisation limite la quantité de mémoire utilisée pour calculer l’importance et la direction de l’étape suivante. Lorsque vous spécifiez moins de mémoire, l’apprentissage est plus rapide mais moins précis. Doit être supérieur ou égal à 1 et la valeur par défaut est 20.

initWtsScale

Définit le diamètre des pondérations initiales qui spécifie la plage à partir de laquelle les valeurs sont dessinées pour les pondérations initiales. Ces pondérations sont initialisées de façon aléatoire dans cette plage. Par exemple, si le diamètre est spécifié comme étant d, les pondérations sont distribuées uniformément entre -d/2 et d/2. La valeur par défaut est 0, qui spécifie que toutes les pondérations sont initialisées à 0.

maxIterations

Définit le nombre maximal d’itérations. Après ce nombre d’étapes, l’algorithme s’arrête même s’il n’a pas satisfait les critères de convergence.

showTrainingStats

Spécifiez TRUE pour afficher les statistiques des données d’apprentissage et le modèle formé, sinon FALSE. La valeur par défaut est FALSE. Pour plus d’informations sur les statistiques du modèle, consultez summary.mlModel.

sgdInitTol

Définissez sur un nombre supérieur à 0 pour utiliser la descente de gradient stochastique pour rechercher les paramètres initiaux. Une valeur différente de zéro spécifie la tolérance utilisée par la descente de gradient stochastique pour déterminer la convergence. La valeur par défaut 0 spécifie que la descente de gradient stochastique n’est pas utilisée.

trainThreads

Nombre de threads à utiliser pour la formation du modèle. Ce nombre doit être défini sur le nombre de cœurs présents sur l’ordinateur. Notez que le multi-threading de L-BFGS tente de charger le jeu de données en mémoire. En cas de problèmes de mémoire insuffisante, affectez à trainThreads la valeur 1 pour désactiver le multi-threading. Si NULL valeur n’est définie, le nombre de threads utilisés est déterminé en interne. La valeur par défaut est NULL.

denseOptimizer

Si TRUE, force la densification des vecteurs d’optimisation internes. Si FALSE, permet à l’optimiseur de régression logistique d’utiliser des États internes éparpillés ou denses lorsqu’il le trouve approprié. L’affectation de la valeur denseOptimizer à TRUE exige que l’optimiseur interne utilise un état interne dense, ce qui peut aider à réduire la charge sur le récupérateur de mémoire pour certains types de problèmes plus importants.

...

Arguments supplémentaires.