Partager via


LexicalTokenizerName Structure

Définition

Définit les noms de tous les générateurs de jetons pris en charge par Recherche cognitive Azure.

public readonly struct LexicalTokenizerName : IEquatable<Azure.Search.Documents.Indexes.Models.LexicalTokenizerName>
type LexicalTokenizerName = struct
Public Structure LexicalTokenizerName
Implements IEquatable(Of LexicalTokenizerName)
Héritage
LexicalTokenizerName
Implémente

Constructeurs

LexicalTokenizerName(String)

Initialise une nouvelle instance de LexicalTokenizerName.

Propriétés

Classic

Générateur de jetons basé sur la grammaire adapté au traitement de la plupart des documents en langue européenne. Consultez http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html.

EdgeNGram

Tokenise l’entrée d’un bord en n-grammes de la ou des tailles données. Consultez https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html.

Keyword

Génère la totalité de l’entrée sous la forme d’un unique jeton. Consultez http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html.

Letter

Divise un texte à l’endroit des caractères qui ne sont pas des lettres. Consultez http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html.

Lowercase

Divise le texte à l’endroit des caractères qui ne sont pas des lettres et le convertit en minuscules. Consultez http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html.

MicrosoftLanguageStemmingTokenizer

Divise le texte en utilisant des règles spécifiques à la langue et réduit les mots à leurs formes de base.

MicrosoftLanguageTokenizer

Divise le texte en utilisant des règles spécifiques à la langue.

NGram

Génère des jetons à partir de l’entrée en n-grammes d’une ou plusieurs tailles données. Consultez http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html.

PathHierarchy

Générateur de jetons pour les hiérarchies de type chemin. Consultez http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html.

Pattern

Générateur de jetons qui utilise la correspondance de modèle regex pour construire des jetons distincts. Consultez http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html.

Standard

Analyseur Lucene standard; Composé du générateur de jetons standard, du filtre en minuscules et du filtre d’arrêt. Consultez http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html.

UaxUrlEmail

Génère des jetons pour des URL et des e-mails sous la forme d’un seul jeton. Consultez http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html.

Whitespace

Divise le texte au niveau des espaces. Consultez http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html.

Méthodes

Equals(LexicalTokenizerName)

Indique si l'objet actuel est égal à un autre objet du même type.

ToString()

Retourne le nom de type qualifié complet de cette instance.

Opérateurs

Equality(LexicalTokenizerName, LexicalTokenizerName)

Détermine si deux LexicalTokenizerName valeurs sont identiques.

Implicit(String to LexicalTokenizerName)

Convertit une chaîne en LexicalTokenizerName.

Inequality(LexicalTokenizerName, LexicalTokenizerName)

Détermine si deux LexicalTokenizerName valeurs ne sont pas identiques.

S’applique à