fastLinear: fastLinear

Crea una lista que contiene el nombre de la función y los argumentos para entrenar un modelo de lineal rápido con rxEnsemble.

Uso

  fastLinear(lossFunction = NULL, l2Weight = NULL, l1Weight = NULL,
    trainThreads = NULL, convergenceTolerance = 0.1, maxIterations = NULL,
    shuffle = TRUE, checkFrequency = NULL, ...)
 

Argumentos

lossFunction

Especifica la función de pérdida empírica que se optimizará. Para la clasificación binaria, están disponibles las siguientes opciones:

  • logLoss: pérdida de registro. Este es el valor predeterminado.
  • hingeLoss: pérdida de bisagra de SVM. Su parámetro representa el tamaño del margen.
  • smoothHingeLoss: pérdida de bisagra suavizada. Su parámetro representa la constante de suavizado.
    En el caso de la regresión lineal, actualmente se admite squaredLoss de pérdida cuadrada. Cuando este parámetro se establece en NULL, su valor predeterminado depende del tipo de aprendizaje:
  • logLoss para la clasificación binaria.
  • squaredLoss para la regresión lineal.

l2Weight

Especifica el peso de regularización L2. El valor debe ser no negativo o NULL. Si se especifica NULL, el valor real se calcula automáticamente en función del conjunto de datos. El valor predeterminado es NULL.

l1Weight

Especifica el peso de regularización L1. El valor debe ser no negativo o NULL. Si se especifica NULL, el valor real se calcula automáticamente en función del conjunto de datos. El valor predeterminado es NULL.

trainThreads

Especifica cuántos subprocesos simultáneos se pueden usar para ejecutar el algoritmo. Cuando este parámetro se establece en NULL, el número de subprocesos usados se determina en función del número de procesadores lógicos disponibles para el proceso, así como de la dispersión de los datos. Establézcalo en 1 para ejecutar el algoritmo en un único subproceso.

convergenceTolerance

Especifica el umbral de tolerancia utilizado como criterio de convergencia. Debe estar entre 0 y 1. El valor predeterminado es 0.1. Se considera que el algoritmo ha convergido si la diferencia de dualidad relativa, que es la relación entre la diferencia de dualidad y la pérdida primaria, está por debajo de la tolerancia de convergencia especificada.

maxIterations

Especifica un límite superior en el número de iteraciones de entrenamiento. Este parámetro debe ser positivo o NULL. Si se especifica NULL, el valor real se calcula automáticamente en función del conjunto de datos. Cada iteración requiere un paso completo sobre los datos de entrenamiento. El entrenamiento finaliza una vez que el número total de iteraciones alcanza el límite superior especificado o cuando converge la función de pérdida, lo que ocurra primero.

shuffle

Especifica si se ordenan aleatoriamente los datos de entrenamiento. Establezca este valor en TRUE para ordenar aleatoriamente los datos y en FALSE para no ordenarlos aleatoriamente. El valor predeterminado es TRUE. El SDCA es un algoritmo de optimización estocástico. Si se activa el orden aleatorio, los datos de entrenamiento se ordenan aleatoriamente en cada iteración.

checkFrequency

Número de iteraciones después de las cuales la función de pérdida se calcula y se comprueba para determinar si ha convergido. El valor especificado debe ser un entero positivo o NULL. Si es NULL, el valor real se calcula automáticamente en función del conjunto de datos. De lo contrario, por ejemplo, si se especifica checkFrequency = 5, el cálculo de la función de pérdida y la comprobación de la convergencia se realizan cada 5 iteraciones. El cálculo de la función de pérdida requiere un paso completo independiente sobre los datos de entrenamiento.

...

Argumentos adicionales.