Partilhar via


fastLinear: fastLinear

Cria uma lista que contém o nome e os argumentos da função para treinar um modelo Linear Rápido com rxEnsemble.

Uso

  fastLinear(lossFunction = NULL, l2Weight = NULL, l1Weight = NULL,
    trainThreads = NULL, convergenceTolerance = 0.1, maxIterations = NULL,
    shuffle = TRUE, checkFrequency = NULL, ...)
 

Argumentos

lossFunction

Especifica a função de perda empírica a ser otimizada. Para classificação binária, as seguintes opções estão disponíveis:

  • logLoss: a perda de log. Esse é o padrão.
  • hingeLoss: a perda de dobradiça do SVM. O respectivo parâmetro representa o tamanho da margem.
  • smoothHingeLoss: a perda de dobradiça suavizada. O respectivo parâmetro representa a constante de suavização.
    Para a regressão linear, no momento há suporte para a perda quadrática squaredLoss. Quando esse parâmetro é definido como NULL, o valor padrão depende do tipo de aprendizado:
  • logLoss para classificação binária.
  • squaredLoss para regressão linear.

l2Weight

Especifica o peso de regularização de L2. O valor precisa ser não negativo ou NULL. Se NULL for especificado, o valor real será computado automaticamente com base no conjunto de dados. NULL é o valor padrão.

l1Weight

Especifica o peso de regularização de L1. O valor precisa ser não negativo ou NULL. Se NULL for especificado, o valor real será computado automaticamente com base no conjunto de dados. NULL é o valor padrão.

trainThreads

Especifica quantos threads simultâneos podem ser usados para executar o algoritmo. Quando esse parâmetro é definido como NULL, o número de threads usados é determinado com base no número de processadores lógicos disponíveis para o processo, bem como pela dispersão de dados. Defina-o como 1 para executar o algoritmo em um só thread.

convergenceTolerance

Especifica o limite de tolerância usado como um critério de convergência. Ele precisa estar entre 0 e 1. O valor padrão é 0.1. O algoritmo é considerado convergido quando a lacuna de dualidade relativa, que é a proporção entre a lacuna de dualidade e a perda primária, cai abaixo da tolerância de convergência especificada.

maxIterations

Especifica um limite superior no número de iterações de treinamento. Esse parâmetro precisa ser positivo ou NULL. Se NULL for especificado, o valor real será computado automaticamente com base no conjunto de dados. Cada iteração exige uma passagem completa nos dados de treinamento. O treinamento é encerrado depois que ocorre uma das duas opções: o número total de iterações atinge o limite superior especificado ou a função de perda é convergida.

shuffle

Especifica se os dados de treinamento devem ser embaralhados. Defina TRUE para embaralhar os dados e FALSE para não os embaralhar. O valor padrão é TRUE. O SDCA é um algoritmo estocástico de otimização. Quando o embaralhamento está ativado, os dados de treinamento são embaralhados em cada iteração.

checkFrequency

O número de iterações após o qual a função de perda é computada e verificada para determinar se ela foi convergida. O valor especificado precisa ser um inteiro positivo ou NULL. Se for NULL, o valor real será computado automaticamente com base no conjunto de dados. Caso contrário, por exemplo, se checkFrequency = 5 for especificado, a função de perda será computada e a convergência será verificada a cada cinco iterações. A computação da função de perda exige uma passagem completa separada nos dados de treinamento.

...

Argumentos adicionais.