Condividi tramite


microsoftml.featurize_text: converte le colonne di testo in caratteristiche numeriche

Utilizzo

microsoftml.featurize_text(cols: [str, dict, list], language: ['AutoDetect',
    'English', 'French', 'German', 'Dutch', 'Italian', 'Spanish',
    'Japanese'] = 'English', stopwords_remover=None, case: ['Lower',
    'Upper', 'None'] = 'Lower', keep_diacritics: bool = False,
    keep_punctuations: bool = True, keep_numbers: bool = True,
    dictionary: dict = None, word_feature_extractor={'Name': 'NGram',
    'Settings': {'Weighting': 'Tf', 'MaxNumTerms': [10000000],
    'NgramLength': 1, 'AllLengths': True, 'SkipLength': 0}},
    char_feature_extractor=None, vector_normalizer: ['None', 'L1', 'L2',
    'LInf'] = 'L2', **kargs)

Descrizione

Trasformazione testuale che può essere eseguita sui dati prima di eseguire il training di un modello.

Dettagli

La trasformazione featurize_text produce un contenitore di conteggi di sequenze di parole consecutive, denominate n-grammi, da un determinato corpus di testo. Questa operazione può essere eseguita in due modi:

  • creare un dizionario di n-grammi e usare l'ID nel dizionario come indice nel contenitore;

  • eseguire l'hash di ogni n-grammo e usare il valore hash come indice nel contenitore.

Lo scopo dell'hashing consiste nel convertire documenti di testo di lunghezza variabile in vettori di funzioni numeriche di lunghezza uguale per supportare la riduzione della dimensionalità e accelerare la ricerca dei pesi delle funzioni.

La trasformazione di testo viene applicata alle colonne di input di testo. Offre rilevamento della lingua, tokenizzazione, rimozione di parole non significative, normalizzazione del testo e generazione di caratteristiche. Supporta le lingue seguenti per impostazione predefinita: inglese, francese, tedesco, olandese, italiano, spagnolo e giapponese.

Gli n-grammi sono rappresentati come vettori di conteggio, con slot vettoriali corrispondenti a n-grammi (creati usando n_gram) o agli hash (creati usando n_gram_hash). L'incorporamento di n-grammi in uno spazio vettoriale consente di confrontare il contenuto in modo efficiente. I valori dello slot nel vettore possono essere ponderati in base ai fattori seguenti:

  • frequenza termini : numero di occorrenze dello slot nel testo

  • frequenza inversa del documento : rapporto (logaritmo della frequenza di slot relativa inversa) che misura le informazioni fornite da uno slot determinando quanto sia comune o raro nell'intero testo.

  • frequenza del documento inversa della frequenza dei termini: frequenza del termine del prodotto e frequenza inversa del documento.

Argomenti

cols

Stringa di caratteri o elenco di nomi di variabili da trasformare. Se dict, le chiavi rappresentano i nomi delle nuove variabili da creare.

Linguaggio

Specifica la lingua usata nel set di dati. Sono supportati i valori seguenti:

  • "AutoDetect": per il rilevamento automatico della lingua.

  • "English"

  • "French"

  • "German"

  • "Dutch"

  • "Italian"

  • "Spanish"

  • "Japanese"

stopwords_remover

Specifica la funzione di rimozione di parole non significative da usare. Sono supportate tre opzioni:

  • None: non viene usata alcuna funzione di rimozione di parole non significative.

  • predefined: viene usato un elenco precompilato di parole non significative specifico per la lingua che include le parole più comuni di Microsoft Office.

  • custom: elenco definito dall'utente di parole non significative. Accetta l'opzione seguente: stopword.

Il valore predefinito è None.

case

Maiuscole e minuscole usando le regole delle impostazioni cultura inglese non dipendenti da paese/area geografica. Accetta i valori seguenti:

  • "Lower"

  • "Upper"

  • "None"

Il valore predefinito è "Lower".

keep_diacritics

False per rimuovere i segni diacritici; True per mantenerli. Il valore predefinito è False.

keep_punctuations

False per rimuovere la punteggiatura; True per mantenerla. Il valore predefinito è True.

keep_numbers

False per rimuovere i numeri; True per conservarli. Il valore predefinito è True.

dictionary

Dizionario di termini consentiti che accetta le opzioni seguenti:

  • term: vettore di caratteri facoltativo di termini o categorie.

  • dropUnknowns: eliminazione elementi

  • sort: specifica come ordinare gli elementi in caso di vettorizzazione. Sono supportati due ordini:

    • "occurrence": gli elementi vengono visualizzati nell'ordine rilevato.
    • "value": gli elementi vengono ordinati in base al confronto predefinito. Ad esempio, l'ordinamento del testo farà distinzione tra maiuscole e minuscole, ad esempio 'A' quindi 'Z' quindi 'a'.

Il valore predefinito è None. Si noti che l'elenco di parole non significative ha la precedenza sull'elenco di elementi consentiti del dizionario perché le parole non significative vengono rimosse prima che vengano elencate le condizioni del dizionario.

word_feature_extractor

Specifica gli argomenti di estrazione delle caratteristiche delle parole. Esistono due diversi meccanismi di estrazione delle caratteristiche:

  • n_gram(): estrazione delle caratteristiche basata sul conteggio (equivalente a WordBag). Accetta le opzioni seguenti: max_num_terms e weighting.

  • n_gram_hash(): estrazione delle caratteristiche basata su hashing (equivalente a WordHashBag). Accetta le opzioni seguenti: hash_bits, seed, ordered e invert_hash.

Il valore predefinito è n_gram.

char_feature_extractor

Specifica gli argomenti di estrazione delle caratteristiche dei caratteri. Esistono due diversi meccanismi di estrazione delle caratteristiche:

  • n_gram(): estrazione delle caratteristiche basata sul conteggio (equivalente a WordBag). Accetta le opzioni seguenti: max_num_terms e weighting.

  • n_gram_hash(): estrazione delle caratteristiche basata su hashing (equivalente a WordHashBag). Accetta le opzioni seguenti: hash_bits, seed, ordered e invert_hash.

Il valore predefinito è None.

vector_normalizer

Normalizza i vettori (righe) singolarmente ridimensionandoli in base a una norma unitaria. Accetta uno dei valori seguenti:

  • "None"

  • "L2"

  • "L1"

  • "LInf"

Il valore predefinito è "L2".

kargs

Argomenti aggiuntivi inviati al motore di calcolo.

Restituisce

Un oggetto che definisce la trasformazione.

Vedi anche

n_gram, n_gram_hash, n_gram, n_gram_hash, get_sentiment.

Esempio

'''
Example with featurize_text and rx_logistic_regression.
'''
import numpy
import pandas
from microsoftml import rx_logistic_regression, featurize_text, rx_predict
from microsoftml.entrypoints._stopwordsremover_predefined import predefined


train_reviews = pandas.DataFrame(data=dict(
    review=[
        "This is great", "I hate it", "Love it", "Do not like it", "Really like it",
        "I hate it", "I like it a lot", "I kind of hate it", "I do like it",
        "I really hate it", "It is very good", "I hate it a bunch", "I love it a bunch",
        "I hate it", "I like it very much", "I hate it very much.",
        "I really do love it", "I really do hate it", "Love it!", "Hate it!",
        "I love it", "I hate it", "I love it", "I hate it", "I love it"],
    like=[True, False, True, False, True, False, True, False, True, False,
        True, False, True, False, True, False, True, False, True, False, True,
        False, True, False, True]))
        
test_reviews = pandas.DataFrame(data=dict(
    review=[
        "This is great", "I hate it", "Love it", "Really like it", "I hate it",
        "I like it a lot", "I love it", "I do like it", "I really hate it", "I love it"]))

out_model = rx_logistic_regression("like ~ review_tran",
                    data=train_reviews,
                    ml_transforms=[
                        featurize_text(cols=dict(review_tran="review"),
                            stopwords_remover=predefined(),
                            keep_punctuations=False)])
                            
# Use the model to score.
score_df = rx_predict(out_model, data=test_reviews, extra_vars_to_write=["review"])
print(score_df.head())

Output:

Beginning processing data.
Rows Read: 25, Read Time: 0, Transform Time: 0
Beginning processing data.
Beginning processing data.
Rows Read: 25, Read Time: 0, Transform Time: 0
Beginning processing data.
Not adding a normalizer.
Beginning processing data.
Rows Read: 25, Read Time: 0, Transform Time: 0
Beginning processing data.
Beginning processing data.
Rows Read: 25, Read Time: 0, Transform Time: 0
Beginning processing data.
LBFGS multi-threading will attempt to load dataset into memory. In case of out-of-memory issues, turn off multi-threading by setting trainThreads to 1.
Warning: Too few instances to use 4 threads, decreasing to 1 thread(s)
Beginning optimization
num vars: 11
improvement criterion: Mean Improvement
L1 regularization selected 3 of 11 weights.
Not training a calibrator because it is not needed.
Elapsed time: 00:00:00.3725934
Elapsed time: 00:00:00.0131199
Beginning processing data.
Rows Read: 10, Read Time: 0, Transform Time: 0
Beginning processing data.
Elapsed time: 00:00:00.0635453
Finished writing 10 rows.
Writing completed.
           review PredictedLabel     Score  Probability
0   This is great           True  0.443986     0.609208
1       I hate it          False -0.668449     0.338844
2         Love it           True  0.994339     0.729944
3  Really like it           True  0.443986     0.609208
4       I hate it          False -0.668449     0.338844

Estrattori di n-grammi

Funzioni di rimozione delle parole non significative