Share via


LuceneStandardTokenizer interface

Suddivide il testo in base alle regole di segmentazione del testo Unicode. Questo tokenizzatore viene implementato usando Apache Lucene.

Proprietà

maxTokenLength

Lunghezza massima del token. Il valore predefinito è 255. I token con lunghezza superiore a quella massima vengono suddivisi. La lunghezza massima del token che può essere usata è di 300 caratteri. Valore predefinito: 255.

name

Nome del tokenizer. Può contenere solo lettere, numeri, spazi, trattini o caratteri di sottolineatura, deve iniziare e terminare con caratteri alfanumerici e non può contenere più di 128 caratteri.

odatatype

Discriminazione polimorfica

Dettagli proprietà

maxTokenLength

Lunghezza massima del token. Il valore predefinito è 255. I token con lunghezza superiore a quella massima vengono suddivisi. La lunghezza massima del token che può essere usata è di 300 caratteri. Valore predefinito: 255.

maxTokenLength?: number

Valore della proprietà

number

name

Nome del tokenizer. Può contenere solo lettere, numeri, spazi, trattini o caratteri di sottolineatura, deve iniziare e terminare con caratteri alfanumerici e non può contenere più di 128 caratteri.

name: string

Valore della proprietà

string

odatatype

Discriminazione polimorfica

odatatype: "#Microsoft.Azure.Search.StandardTokenizer" | "#Microsoft.Azure.Search.StandardTokenizerV2"

Valore della proprietà

"#Microsoft.Azure.Search.StandardTokenizer" | "#Microsoft.Azure.Search.StandardTokenizerV2"