Compartir a través de


rxLogisticRegression: regresión logística

Regresión logística en el aprendizaje automático

Uso

  rxLogisticRegression(formula = NULL, data, type = c("binary", "multiClass"),
    l2Weight = 1, l1Weight = 1, optTol = 1e-07, memorySize = 20,
    initWtsScale = 0, maxIterations = 2147483647, showTrainingStats = FALSE,
    sgdInitTol = 0, trainThreads = NULL, denseOptimizer = FALSE,
    normalize = "auto", mlTransforms = NULL, mlTransformVars = NULL,
    rowSelection = NULL, transforms = NULL, transformObjects = NULL,
    transformFunc = NULL, transformVars = NULL, transformPackages = NULL,
    transformEnvir = NULL, blocksPerRead = rxGetOption("blocksPerRead"),
    reportProgress = rxGetOption("reportProgress"), verbose = 1,
    computeContext = rxGetOption("computeContext"),
    ensemble = ensembleControl(), ...)

Argumentos

formula

Se refiere a la fórmula tal como se describe en rxFormula. Los términos de interacción y F() no se admiten actualmente en MicrosoftML.

data

Objeto de origen de datos o cadena de caracteres que especifica un archivo .xdf o un objeto de trama de datos.

type

Cadena de caracteres que especifica el tipo de regresión logística: "binary" para la regresión logística de clasificación binaria predeterminada, o "multi" para la regresión logística multinomial.

l2Weight

Peso de la regularización L2. Su valor debe ser mayor o igual que 0 y el valor predeterminado se establece en 1.

l1Weight

Peso de la regularización L1. Su valor debe ser mayor o igual que 0 y el valor predeterminado se establece en 1.

optTol

Umbral de convergencia del optimizador. Si la mejora entre las iteraciones es menor que el umbral, el algoritmo se detiene y devuelve el modelo actual. Los valores más pequeños son más lentos, pero más precisos. El valor predeterminado es 1e-07.

memorySize

El tamaño de la memoria para L-BFGS indica el número de posiciones anteriores y gradientes que deben almacenarse para el cálculo del siguiente paso. Este parámetro de optimización limita la cantidad de memoria que se usa para calcular la magnitud y la dirección del siguiente paso. Cuando especifica menos memoria, el entrenamiento es más rápido, pero menos preciso. Debe ser mayor o igual que 1 y el valor predeterminado se establece en 20.

initWtsScale

Establece el diámetro de pesos inicial que especifica el intervalo desde el que se dibujan los valores para los pesos iniciales. Estos pesos se inicializan aleatoriamente desde este intervalo. Por ejemplo, si se especifica que el diámetro es d, los pesos se distribuyen uniformemente entre -d/2 y d/2. El valor predeterminado es 0, que especifica que todos los pesos se inicializan en 0.

maxIterations

Establece el número máximo de iteraciones. Después de este número de pasos, el algoritmo se detiene incluso si no ha cumplido los criterios de convergencia.

showTrainingStats

Especifique TRUE para mostrar las estadísticas de los datos de entrenamiento y el modelo entrenado; de lo contrario, especifique FALSE. El valor predeterminado es FALSE. Para más información sobre las estadísticas de los modelos, consulte summary.mlModel.

sgdInitTol

Especifique un número mayor que 0 para usar el descenso del gradiente estocástico (SGD) con el fin de buscar los parámetros iniciales. Un conjunto de valores distinto de cero especifica la tolerancia que SGD usa para determinar la convergencia. El valor predeterminado es 0, que indica que no se use SGD.

trainThreads

Número de subprocesos que se usan en el entrenamiento del modelo. Debe establecerse en el número de núcleos de la máquina. Tenga en cuenta que la funcionalidad multithreading de L-BFGS intenta cargar el conjunto de datos en la memoria. En el caso de que no haya memoria suficiente, establezca trainThreads en 1 para desactivar la funcionalidad multithreading. Si se especifica NULL, el número de subprocesos que se usa se determina internamente. El valor predeterminado es NULL.

denseOptimizer

Si es TRUE, fuerza la densificación de los vectores de optimización internos. Si es FALSE, habilita el optimizador de la regresión logística y usa los estados internos disperso o denso según lo considere apropiado. Si denseOptimizer se establece en TRUE, el optimizador interno debe usar el estado interno denso, que puede ayudar a mitigar la carga en el recolector de elementos no utilizados para algunos tipos de problemas mayores.

normalize

Especifica el tipo de normalización automática que se usa:

  • "auto": si la normalización es necesaria, se realiza automáticamente. Esta es la opción predeterminada.
  • "no": no se realiza ninguna normalización.
  • "yes": se lleva a cabo la normalización.
  • "warn": si la normalización es necesaria, se muestra un mensaje de advertencia, pero no se lleva a cabo la normalización.
    La normalización aplica una escala estándar a intervalos de datos dispares. El escalado de características asegura que las distancias entre los puntos de datos sean proporcionales y permite que varios métodos de optimización, como el descenso del gradiente, converjan mucho más rápido. Si se lleva a cabo la normalización, se usa un normalizador MaxMin. Normaliza los valores de un intervalo [a, b], donde -1 <= a <= 0, 0 <= b <= 1 y b - a = 1. Este normalizador mantiene la dispersión asignando cero a cero.

mlTransforms

Especifica una lista de transformaciones de MicrosoftML que deben realizarse en los datos antes del entrenamiento, o bien NULL si no hay que realizar ninguna transformación. Consulte featurizeText, categorical y categoricalHash para saber cuáles son las transformaciones compatibles. Estas transformaciones se realizan después de cualquier transformación de R especificada. El valor predeterminado es NULL.

mlTransformVars

Especifica un vector de caracteres de nombres de variable que deben usarse en mlTransforms, o NULL si no hay que usar ninguno. El valor predeterminado es NULL.

rowSelection

Especifica las filas (observaciones) del conjunto de datos que debe usar el modelo con el nombre de una variable lógica del conjunto de datos (entre comillas) o con una expresión lógica que usa variables en el conjunto de datos. Por ejemplo, rowSelection = "old" solo usará observaciones en las que el valor de la variable old sea TRUE. rowSelection = (age > 20) & (age < 65) & (log(income) > 10) solo usa observaciones en las que el valor de la variable age está entre 20 y 65, y el valor de log de la variable income es mayor que 10. La selección de fila se realiza después de procesar las transformaciones de datos (vea los argumentos transforms o transformFunc). Al igual que con todas las expresiones, rowSelection se puede definir fuera de la llamada de función mediante la función de expresión.

transforms

Expresión del formulario list(name = expression, ``...) que representa la primera ronda de transformaciones de variables. Al igual que con todas las expresiones, transforms (o rowSelection) se puede definir fuera de la llamada de función mediante la función de expresión.

transformObjects

Lista con nombre que contiene objetos a los que pueden hacer referencia transforms, transformsFunc y rowSelection.

transformFunc

Función de transformación de variables. Consulte rxTransform para más detalles.

transformVars

Vector de caracteres de variables del conjunto de datos de entrada necesarias para la función de transformación. Consulte rxTransform para más detalles.

transformPackages

Vector de caracteres que especifica paquetes de R adicionales (aparte de los especificados en rxGetOption("transformPackages")) que deben cargarse previamente y estar disponibles para usarlos en las funciones de transformación de variables. Por ejemplo, los definidos explícitamente en las funciones de RevoScaleR mediante los argumentos transforms y transformFunc, o los definidos implícitamente con los argumentos formula o rowSelection. El argumento transformPackages también puede ser NULL, que indica que no se cargan previamente más paquetes aparte de los de rxGetOption("transformPackages").

transformEnvir

Entorno definido por el usuario que sirve como primario de todos los entornos desarrollados internamente y que se usa para la transformación de datos variables. Si transformEnvir = NULL, un entorno "hash" nuevo con baseenv() primario se usa en su lugar.

blocksPerRead

Especifica el número de bloques que se leerán para cada fragmento de datos leídos del origen de datos.

reportProgress

Valor entero que especifica el nivel de notificación del progreso del procesamiento de filas:

  • 0: no se notifica el progreso.
  • 1: se imprime y actualiza el número de filas procesadas.
  • 2: se notifican las filas procesadas y los intervalos.
  • 3: se notifican las filas procesadas y todos los intervalos.

verbose

Valor entero que especifica la cantidad de salida deseada. Si es 0, no se imprime ninguna salida detallada durante los cálculos. Los valores enteros de 1 a 4 proporcionan cantidades crecientes de información.

computeContext

Establece el contexto en el que se ejecutan los cálculos, especificado con un RxComputeContext válido. Actualmente, se admiten los contextos de proceso local y RxInSqlServer.

ensemble

Parámetros de control para la formación de conjuntos.

...

Argumentos adicionales que se pasarán directamente al motor de proceso de Microsoft.

Detalles

La regresión logística es un método de clasificación que se usa para predecir el valor de una variable dependiente categórica a partir de su relación con una o más variables independientes que se supone que tienen una distribución logística. Si la variable dependiente solo tiene dos valores posibles (correcto/incorrecto), la regresión logística es binaria. Si la variable dependiente tiene más de dos valores posibles (grupo sanguíneo según los resultados de una prueba diagnóstica), la regresión logística es multinomial.

La técnica de optimización que se usa para rxLogisticRegression es la memoria limitada Broyden-Fletcher-Goldfarb-Shanno (L-BFGS). Los algoritmos L-BFGS y BFGS normal usan métodos casi newtonianos para calcular la matriz hessiana de uso intensivo de recursos de proceso en la ecuación usada por el método de Newton para calcular los pasos. Pero la aproximación L-BFGS utiliza solo una cantidad limitada de memoria para calcular la dirección del siguiente paso, por lo que está especialmente indicada para problemas con un gran número de variables. El parámetro memorySize especifica el número de posiciones anteriores y gradientes que deben almacenarse para el cálculo del siguiente paso.

Este aprendiz puede usar la regularización de red elástica, que es una combinación lineal de las regularizaciones L1 (lazo) y L2 (cresta). La regularización es un método que puede hacer que un problema mal planteado sea más manejable imponiendo restricciones que proporcionan información para complementar los datos y que evita el sobreajuste mediante la penalización de modelos con valores de coeficiente extremos. Esto puede mejorar la generalización del modelo aprendido seleccionando la complejidad óptima en el equilibrio entre sesgo y varianza. La regularización funciona agregando la penalización asociada a los valores de coeficiente al error de la hipótesis. Un modelo preciso con valores de coeficiente extremos se penalizaría más, y un modelo menos preciso con valores más conservadores se penalizaría menos. Las regularizaciones L1 y L2 tienen efectos y usos diferentes que son complementarios en ciertos aspectos.

l1Weight: se puede aplicar a modelos dispersos, cuando se trabaja con datos de alta dimensionalidad. Extrae a 0 las características asociadas a pesos pequeños que son relativamente insignificantes.

l2Weight: es preferible para los datos que no están dispersos. Extrae los pesos grandes a cero.

Agregar la penalización de cresta a la regularización soluciona algunas de las limitaciones de la
opción de lazo. Puede mejorar su precisión predictiva, por ejemplo, cuando el número de predictores es mayor que el tamaño de la muestra. Si x = l1Weight y y = l2Weight, entonces ax + by = c define el intervalo lineal de los términos de la regularización. El valor predeterminado de x e y es 1 en ambos casos. Una regularización agresiva puede dañar la capacidad predictiva al excluir variables importantes del modelo. Por tanto, elegir los valores óptimos para los parámetros de la regularización es importante de cara al rendimiento del modelo de regresión logística.

Value

rxLogisticRegression: objeto rxLogisticRegression con el modelo entrenado.

LogisticReg: objeto de especificación de aprendiz de clase maml para el instructor de regresión logística.

Notas

Este algoritmo intentará cargar todo el conjunto de datos en la memoria cuando se use trainThreads > 1 (multithreading).

Autores

Microsoft Corporation Microsoft Technical Support

Referencias

Wikipedia: L-BFGS

regression

Training of L1-Regularized Log-Linear Models

and L2 Regularization for Machine Learning

Consulte también

rxFastTrees, rxFastForest, rxFastLinear, rxNeuralNet, rxOneClassSvm, featurizeText, categorical, categoricalHash, rxPredict.mlModel.

Ejemplos


 # Estimate a logistic regression model
 logitModel <- rxLogisticRegression(isCase ~ age + parity + education + spontaneous + induced,
                   transforms = list(isCase = case == 1),
                   data = infert)
 # Print a summary of the model
 summary(logitModel)

 # Score to a data frame
 scoreDF <- rxPredict(logitModel, data = infert, 
     extraVarsToWrite = "isCase")

 # Compute and plot the Radio Operator Curve and AUC
 roc1 <- rxRoc(actualVarName = "isCase", predVarNames = "Probability", data = scoreDF) 
 plot(roc1)
 rxAuc(roc1)

 #######################################################################################
 # Multi-class logistic regression  
 testObs <- rnorm(nrow(iris)) > 0
 testIris <- iris[testObs,]
 trainIris <- iris[!testObs,]
 multiLogit <- rxLogisticRegression(
     formula = Species~Sepal.Length + Sepal.Width + Petal.Length + Petal.Width,
     type = "multiClass", data = trainIris)

 # Score the model
 scoreMultiDF <- rxPredict(multiLogit, data = testIris, 
     extraVarsToWrite = "Species")    
 # Print the first rows of the data frame with scores
 head(scoreMultiDF)
 # Look at confusion matrix
 table(scoreMultiDF$Species, scoreMultiDF$PredictedLabel)

 # Look at the observations with incorrect predictions
 badPrediction = scoreMultiDF$Species != scoreMultiDF$PredictedLabel
 scoreMultiDF[badPrediction,]