次の方法で共有


TokenFilterName type

TokenFilterName の値を定義します。
<xref:KnownTokenFilterName> TokenFilterName と同じ意味で使用できます。この列挙型には、サービスでサポートされている既知の値が含まれています。

サービスでサポートされている既知の値

arabic_normalization: アラビア語のノーマライザーを適用してオーソグラフィを正規化するトークン フィルター。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html」を参照してください。
アポストロフィ: アポストロフィ (アポストロフィ自体を含む) の後のすべての文字を取り除きます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html」を参照してください。
asciifolding: 最初の 127 個の ASCII 文字 ("Basic Latin" Unicode ブロック) にないアルファベット、数字、記号の Unicode 文字を、ASCII に相当する文字 (存在する場合) に変換します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html」を参照してください。
cjk_bigram: 標準トークナイザーから生成される CJK 用語のビッグラムを形成します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html」を参照してください。
cjk_width: CJK 幅の違いを正規化します。 全角 ASCII バリアントを同等の基本ラテン語に、半角カタカナバリアントを同等のかなに折りたたみます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html」を参照してください。
classic: 頭字語から英語の所有物とドットを削除します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html」を参照してください。
common_grams: インデックス作成中に頻繁に発生する用語のビッグラムを構築します。 1 つの用語も、バイグラムがオーバーレイされてインデックス付けされます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html」を参照してください。
edgeNGram_v2: 入力トークンの前面または背面から、指定したサイズの n グラムを生成します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html」を参照してください。
elision: エリシオンを削除します。 たとえば、"l'avion" (平面) は "avion" (平面) に変換されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html」を参照してください。
german_normalization: German2 snowball アルゴリズムのヒューリスティックに従って、ドイツ語の文字を正規化します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html」を参照してください。
hindi_normalization: ヒンディー語のテキストを正規化して、スペル バリエーションの違いをいくつか削除します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html」を参照してください。
indic_normalization: インド言語でのテキストの Unicode 表記を正規化します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html」を参照してください。
keyword_repeat: 各受信トークンを 2 回、キーワード (keyword)として 1 回、非キーワード (keyword)として出力します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html」を参照してください。
kstem: 英語用の高性能 kstem フィルター。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html」を参照してください。
length: 長すぎる単語または短すぎる単語を削除します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html」を参照してください。
limit: インデックス作成中のトークンの数を制限します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html」を参照してください。
小文字: トークン テキストを小文字に正規化します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.htm」を参照してください。
nGram_v2: 指定したサイズの n グラムを生成します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html」を参照してください。
persian_normalization: ペルシア語の正規化を適用します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html」を参照してください。
ふりがな: ふりがなのトークンを作成します。 「https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html」を参照してください。
porter_stem: Porter ステミング アルゴリズムを使用してトークン ストリームを変換します。 「http://tartarus.org/~martin/PorterStemmer」を参照してください。
reverse: トークン文字列を逆にします。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html」を参照してください。
scandinavian_normalization: 交換可能なスカンジナビア文字の使用を正規化します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html」を参照してください。
scandinavian_folding: スカンジナビア文字 åÅäæÄÆ-a と öÖøØ-o>> を折りたたむ。 また、重母音 aa、ae、ao、oe、oo の使用を判別し、最初の 1 つだけが残されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html」を参照してください。
shingle: トークンの組み合わせを 1 つのトークンとして作成します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html」を参照してください。
snowball: Snowball で生成されたステマーを使用して単語をステミングするフィルター。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html」を参照してください。
sorani_normalization: Sorani テキストの Unicode 表現を正規化します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html」を参照してください。
stemmer: 言語固有のステミング フィルター。 「https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters」を参照してください。
stopwords: トークン ストリームからストップ ワードを削除します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html」を参照してください。
trim: トークンから先頭と末尾の空白をトリミングします。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html」を参照してください。
truncate: 用語を特定の長さに切り捨てます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html」を参照してください。
unique: 前のトークンと同じテキストを持つトークンをフィルター処理します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html」を参照してください。
大文字: トークン テキストを大文字に正規化します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html」を参照してください。
word_delimiter: 単語をサブワードに分割し、サブワード グループに対してオプションの変換を実行します。

type TokenFilterName = string