Share via


stopwordsDefault: trasformazione del testo di Machine Learning

Trasformazione testuale che può essere eseguita sui dati prima di eseguire il training di un modello.

Utilizzo

  stopwordsDefault()

  stopwordsCustom(dataFile = "")

  termDictionary(terms = "", dataFile = "", sort = "occurrence")

  featurizeText(vars, language = "English", stopwordsRemover = NULL,
    case = "lower", keepDiacritics = FALSE, keepPunctuations = TRUE,
    keepNumbers = TRUE, dictionary = NULL,
    wordFeatureExtractor = ngramCount(), charFeatureExtractor = NULL,
    vectorNormalizer = "l2", ...)

Arguments

dataFile

character: <stringa>. File di dati contenente i termini (dati in formato breve).

terms

Vettore di caratteri facoltativo di termini o categorie.

sort

Specifica come ordinare gli elementi in caso di vettorizzazione. Sono supportati due ordini:

  • "occurrence": gli elementi vengono visualizzati nell'ordine rilevato.
  • "value": gli elementi vengono ordinati in base al confronto predefinito. Ad esempio, l'ordinamento del testo farà distinzione tra maiuscole e minuscole, ad esempio 'A' quindi 'Z' quindi 'a'.

vars

Elenco denominato di vettori di caratteri di nomi di variabili di input e nome della variabile di output. Si noti che le variabili di input devono essere dello stesso tipo. Per i mapping uno-a-uno tra le variabili di input e di output, è possibile usare un vettore di caratteri denominato.

language

Specifica la lingua usata nel set di dati. Sono supportati i valori seguenti:

  • "AutoDetect": per il rilevamento automatico della lingua.
  • "English".
  • "French".
  • "German".
  • "Dutch".
  • "Italian".
  • "Spanish".
  • "Japanese".

stopwordsRemover

Specifica la funzione di rimozione di parole non significative da usare. Sono supportate tre opzioni:

  • NULL Non viene usata alcuna funzione di rimozione di parole non significative.
  • stopwordsDefault: viene usato un elenco precompilato di parole non significative specifico per la lingua che include le parole più comuni di Microsoft Office.
  • stopwordsCustom: elenco definito dall'utente di parole non significative. Accetta l'opzione seguente: dataFile.
    Il valore predefinito è NULL.

case

Maiuscole e minuscole usando le regole delle impostazioni cultura inglese non dipendenti da paese/area geografica. Accetta i valori seguenti:

  • "lower".
  • "upper".
  • "none".
    Il valore predefinito è "lower".

keepDiacritics

FALSE per rimuovere i segni diacritici; TRUE per mantenerli. Il valore predefinito è FALSE.

keepPunctuations

FALSE per rimuovere la punteggiatura; TRUE per mantenerla. Il valore predefinito è TRUE.

keepNumbers

FALSE per rimuovere i numeri; TRUE per conservarli. Il valore predefinito è TRUE.

dictionary

termDictionary di termini consentiti che accetta le opzioni seguenti:

  • terms,
  • dataFile e
  • sort.
    Il valore predefinito è NULL. Si noti che l'elenco di parole non significative ha la precedenza sull'elenco di elementi consentiti del dizionario perché le parole non significative vengono rimosse prima che vengano elencate le condizioni del dizionario.

wordFeatureExtractor

Specifica gli argomenti di estrazione delle caratteristiche delle parole. Esistono due diversi meccanismi di estrazione delle caratteristiche:

  • ngramCount: estrazione delle caratteristiche basata sul conteggio (equivalente a WordBag). Accetta le opzioni seguenti: maxNumTerms e weighting.
  • ngramHash: estrazione delle caratteristiche basata su hashing (equivalente a WordHashBag). Accetta le opzioni seguenti: hashBits, seed, ordered e invertHash.
    Il valore predefinito è ngramCount.

charFeatureExtractor

Specifica gli argomenti di estrazione delle caratteristiche dei caratteri. Esistono due diversi meccanismi di estrazione delle caratteristiche:

  • ngramCount: estrazione delle caratteristiche basata sul conteggio (equivalente a WordBag). Accetta le opzioni seguenti: maxNumTerms e weighting.
  • ngramHash: estrazione delle caratteristiche basata su hashing (equivalente a WordHashBag). Accetta le opzioni seguenti: hashBits, seed, ordered e invertHash.
    Il valore predefinito è NULL.

vectorNormalizer

Normalizza i vettori (righe) singolarmente ridimensionandoli in base a una norma unitaria. Accetta uno dei valori seguenti:

  • "none".
  • "l2".
  • "l1".
  • "linf". Il valore predefinito è "l2".

...

Argomenti aggiuntivi inviati al motore di calcolo.

Dettagli

La trasformazione featurizeText produce un contenitore di conteggi di
sequenze di parole consecutive, denominate n-grammi, da un determinato corpus di testo. Questa operazione può essere eseguita in due modi:

creare un dizionario di n-grammi e usare l'ID nel dizionario come indice nel contenitore;

eseguire l'hash di ogni n-grammo e usare il valore hash come indice nel contenitore.

Lo scopo dell'hashing consiste nel convertire documenti di testo di lunghezza variabile in vettori di funzioni numeriche di lunghezza uguale per supportare la riduzione della dimensionalità e accelerare la ricerca dei pesi delle funzioni.

La trasformazione di testo viene applicata alle colonne di input di testo. Offre rilevamento della lingua, tokenizzazione, rimozione di parole non significative, normalizzazione del testo e generazione di caratteristiche. Supporta le lingue seguenti per impostazione predefinita: inglese, francese, tedesco, olandese, italiano, spagnolo e giapponese.

Gli n-grammi sono rappresentati come vettori di conteggio, con slot vettoriali corrispondenti a n-grammi (creati usando ngramCount) o agli hash (creati usando ngramHash). L'incorporamento di n-grammi in uno spazio vettoriale consente di confrontare il contenuto in modo efficiente. I valori dello slot nel vettore possono essere ponderati in base ai fattori seguenti:

frequenza termini : numero di occorrenze dello slot nel testo

frequenza inversa del documento : rapporto (logaritmo della frequenza di slot relativa inversa) che misura le informazioni fornite da uno slot determinando quanto sia comune o raro nell'intero testo.

frequenza del documento inversa della frequenza dei termini: frequenza del termine del prodotto e frequenza inversa del documento.

Valore

Oggetto maml che definisce la trasformazione.

Autore/i

Microsoft Corporation Microsoft Technical Support

Vedi anche

ngramCount, ngramHash, rxFastTrees, rxFastForest, rxNeuralNet, rxOneClassSvm, rxLogisticRegression.

Esempi


 trainReviews <- data.frame(review = c( 
         "This is great",
         "I hate it",
         "Love it",
         "Do not like it",
         "Really like it",
         "I hate it",
         "I like it a lot",
         "I kind of hate it",
         "I do like it",
         "I really hate it",
         "It is very good",
         "I hate it a bunch",
         "I love it a bunch",
         "I hate it",
         "I like it very much",
         "I hate it very much.",
         "I really do love it",
         "I really do hate it",
         "Love it!",
         "Hate it!",
         "I love it",
         "I hate it",
         "I love it",
         "I hate it",
         "I love it"),
      like = c(TRUE, FALSE, TRUE, FALSE, TRUE,
         FALSE, TRUE, FALSE, TRUE, FALSE, TRUE, FALSE, TRUE,
         FALSE, TRUE, FALSE, TRUE, FALSE, TRUE, FALSE, TRUE, 
         FALSE, TRUE, FALSE, TRUE), stringsAsFactors = FALSE
     )

     testReviews <- data.frame(review = c(
         "This is great",
         "I hate it",
         "Love it",
         "Really like it",
         "I hate it",
         "I like it a lot",
         "I love it",
         "I do like it",
         "I really hate it",
         "I love it"), stringsAsFactors = FALSE)


 outModel <- rxLogisticRegression(like ~ reviewTran, data = trainReviews,
     mlTransforms = list(featurizeText(vars = c(reviewTran = "review"),
     stopwordsRemover = stopwordsDefault(), keepPunctuations = FALSE)))
 # 'hate' and 'love' have non-zero weights
 summary(outModel)

 # Use the model to score
 scoreOutDF5 <- rxPredict(outModel, data = testReviews, 
     extraVarsToWrite = "review")
 scoreOutDF5