Share via


ClassicTokenizer interface

Tokenizzatore basato su grammatica adatto per l'elaborazione della maggior parte dei documenti in lingua europea. Questo tokenizzatore viene implementato usando Apache Lucene.

Extends

Proprietà

maxTokenLength

Lunghezza massima del token. Il valore predefinito è 255. I token con lunghezza superiore a quella massima vengono suddivisi. La lunghezza massima del token che può essere usata è di 300 caratteri.

odatatype

Discriminazione polimorfica, che specifica i diversi tipi che questo oggetto può essere

Proprietà ereditate

name

Nome del tokenizer. Può contenere solo lettere, numeri, spazi, trattini o caratteri di sottolineatura, deve iniziare e terminare con caratteri alfanumerici e non può contenere più di 128 caratteri.

Dettagli proprietà

maxTokenLength

Lunghezza massima del token. Il valore predefinito è 255. I token con lunghezza superiore a quella massima vengono suddivisi. La lunghezza massima del token che può essere usata è di 300 caratteri.

maxTokenLength?: number

Valore della proprietà

number

odatatype

Discriminazione polimorfica, che specifica i diversi tipi che questo oggetto può essere

odatatype: "#Microsoft.Azure.Search.ClassicTokenizer"

Valore della proprietà

"#Microsoft.Azure.Search.ClassicTokenizer"

Dettagli proprietà ereditate

name

Nome del tokenizer. Può contenere solo lettere, numeri, spazi, trattini o caratteri di sottolineatura, deve iniziare e terminare con caratteri alfanumerici e non può contenere più di 128 caratteri.

name: string

Valore della proprietà

string

Ereditato daBaseLexicalTokenizer.name