Share via


EdgeNGramTokenizer interface

Tokenisiert die Eingabe von einer Kante in n Gramm der angegebenen Größe(n). Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

Extends

Eigenschaften

maxGram

Die maximale Länge von n Gramm. Standard ist 2. Der Höchstwert ist 300.

minGram

Die mindeste n-Gramm-Länge. Der Standardwert ist 1. Der Höchstwert ist 300. Muss kleiner als der Wert von maxGram sein.

odatatype

Polymorpher Diskriminator, der die verschiedenen Typen angibt, die dieses Objekt sein kann

tokenChars

Zeichenklassen, die in den Token beibehalten werden sollen.

Geerbte Eigenschaften

name

Der Name des Tokenizers. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

Details zur Eigenschaft

maxGram

Die maximale Länge von n Gramm. Standard ist 2. Der Höchstwert ist 300.

maxGram?: number

Eigenschaftswert

number

minGram

Die mindeste n-Gramm-Länge. Der Standardwert ist 1. Der Höchstwert ist 300. Muss kleiner als der Wert von maxGram sein.

minGram?: number

Eigenschaftswert

number

odatatype

Polymorpher Diskriminator, der die verschiedenen Typen angibt, die dieses Objekt sein kann

odatatype: "#Microsoft.Azure.Search.EdgeNGramTokenizer"

Eigenschaftswert

"#Microsoft.Azure.Search.EdgeNGramTokenizer"

tokenChars

Zeichenklassen, die in den Token beibehalten werden sollen.

tokenChars?: TokenCharacterKind[]

Eigenschaftswert

Geerbte Eigenschaftsdetails

name

Der Name des Tokenizers. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

name: string

Eigenschaftswert

string

Geerbt vonBaseLexicalTokenizer.name