Share via


CustomAnalyzer interface

Ermöglicht Es Ihnen, die Kontrolle über den Prozess der Konvertierung von Text in indizierbare/durchsuchbare Token zu übernehmen. Es handelt sich um eine benutzerdefinierte Konfiguration, die aus einem einzelnen vordefinierten Tokenizer und einem oder mehreren Filtern besteht. Der Tokenizer ist für das Aufteilen von Text in Token und die Filter zum Ändern von Token verantwortlich, die vom Tokenizer ausgegeben werden.

Eigenschaften

charFilters

Eine Liste von Zeichenfiltern, die zum Vorbereiten von Eingabetext verwendet werden, bevor er vom Tokenizer verarbeitet wird. Beispielsweise kann er bestimmte Zeichen oder Symbole ersetzen. Die Filter werden in der Reihenfolge ausgeführt, in der sie aufgelistet sind.

name

Der Name des Analysetools. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

odatatype

Polymorpher Diskriminator

tokenFilters

Eine Liste von Tokenfiltern, die zum Herausfiltern oder Ändern der von einem Tokenizer generierten Token verwendet werden. Sie können beispielsweise einen Filter für Kleinbuchstaben angeben, mit dem alle Zeichen in Kleinbuchstaben konvertiert werden. Die Filter werden in der Reihenfolge ausgeführt, in der sie aufgelistet sind.

tokenizerName

Der Name des Tokenizers, der verwendet werden soll, um fortlaufenden Text in eine Sequenz von Token zu unterteilen, z. B. einen Satz in Wörter aufzuteilen. KnownTokenizerNames ist eine Enumeration, die integrierte Tokenizernamen enthält.

Details zur Eigenschaft

charFilters

Eine Liste von Zeichenfiltern, die zum Vorbereiten von Eingabetext verwendet werden, bevor er vom Tokenizer verarbeitet wird. Beispielsweise kann er bestimmte Zeichen oder Symbole ersetzen. Die Filter werden in der Reihenfolge ausgeführt, in der sie aufgelistet sind.

charFilters?: string[]

Eigenschaftswert

string[]

name

Der Name des Analysetools. Er darf nur Buchstaben, Ziffern, Leerzeichen, Bindestriche und Unterstriche enthalten. Er muss mit alphanumerischen Zeichen beginnen und enden und darf maximal 128 Zeichen lang sein.

name: string

Eigenschaftswert

string

odatatype

Polymorpher Diskriminator

odatatype: "#Microsoft.Azure.Search.CustomAnalyzer"

Eigenschaftswert

"#Microsoft.Azure.Search.CustomAnalyzer"

tokenFilters

Eine Liste von Tokenfiltern, die zum Herausfiltern oder Ändern der von einem Tokenizer generierten Token verwendet werden. Sie können beispielsweise einen Filter für Kleinbuchstaben angeben, mit dem alle Zeichen in Kleinbuchstaben konvertiert werden. Die Filter werden in der Reihenfolge ausgeführt, in der sie aufgelistet sind.

tokenFilters?: string[]

Eigenschaftswert

string[]

tokenizerName

Der Name des Tokenizers, der verwendet werden soll, um fortlaufenden Text in eine Sequenz von Token zu unterteilen, z. B. einen Satz in Wörter aufzuteilen. KnownTokenizerNames ist eine Enumeration, die integrierte Tokenizernamen enthält.

tokenizerName: string

Eigenschaftswert

string