@azure/search-documents package

クラス

AzureKeyCredential

基になるキー値の更新をサポートする静的キーベースの資格情報。

GeographyPoint

グローバル座標の地理的な点を表します。

IndexDocumentsBatch

インデックスに対して複数のドキュメントを含むバッチ操作を実行するために使用されるクラス。

SearchClient

インデックス内のドキュメントのクエリ、追加、更新、削除など、検索インデックスに対する操作を実行するために使用されるクラス。

SearchIndexClient

インデックス、& シノニムマップを管理 (作成、更新、リスト/削除) するための操作を実行するクラス。

SearchIndexerClient

インデクサー、データソース、& スキルセットを管理 (作成、更新、リスト/削除) するための操作を実行するクラス。

SearchIndexingBufferedSender

検索インデックスに対してバッファー処理を実行するために使用されるクラス (追加、更新、削除など)。

インターフェイス

AnalyzeRequest

そのテキストをトークンに分割するために使用されるテキストおよび分析コンポーネントを指定します。

AnalyzeResult

テキストでアナライザーをテストした結果。

AnalyzedTokenInfo

アナライザーによって返されるトークンに関する情報。

AsciiFoldingTokenFilter

最初の 127 文字の ASCII 文字 ("Basic Latin" Unicode ブロック) にないアルファベット、数字、および記号の Unicode 文字を、ASCII に相当する文字に変換します (そのような文字が存在する場合)。 このトークン フィルターは、Apache Lucene を使用して実装されます。

AutocompleteItem

オートコンプリート要求の結果。

AutocompleteRequest

あいまい一致のパラメーター、およびその他のオートコンプリート クエリの動作。

AutocompleteResult

オートコンプリート クエリの結果。

AzureActiveDirectoryApplicationCredentials

Azure Key Vaultに格納されている暗号化キーへの認証済みアクセスに使用される、検索サービス用に作成された登録済みアプリケーションの資格情報。

BM25Similarity

Okapi BM25 類似性アルゴリズムに基づくランク付け関数。 BM25 は TF-IDF に似たアルゴリズムであり、長さの正規化 ('b' パラメーターによって制御) と用語周波数飽和 ('k1' パラメーターによって制御) が含まれます。

BaseCharFilter

文字フィルターの基本型。

BaseCognitiveServicesAccount

スキルセットにアタッチされている Azure AI サービス リソースを記述するための基本型。

BaseDataChangeDetectionPolicy

データ変更検出ポリシーの基本型。

BaseDataDeletionDetectionPolicy

データ削除検出ポリシーの基本の種類。

BaseLexicalAnalyzer

アナライザーの基本型。

BaseLexicalTokenizer

トークナイザーの基本型。

BaseScoringFunction

ランク付け中にドキュメント スコアを変更できる関数の基本型。

BaseSearchIndexerSkill

スキルの基本型。

BaseSearchRequestOptions

フィルター処理、並べ替え、ファセット、ページング、およびその他の検索クエリ動作のパラメーター。

BaseTokenFilter

トークン フィルターの基本型。

BaseVectorQuery

ベクター検索クエリとハイブリッド検索クエリのクエリ パラメーター。

BaseVectorSearchAlgorithmConfiguration

インデックス作成やクエリ中に使用されるアルゴリズムに固有の構成オプションが含まれます。

CjkBigramTokenFilter

標準トークナイザーから生成される CJK 用語の bigrams を形成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

ClassicSimilarity

TF-IDF の Lucene TFIDFSimilarity 実装を使用するレガシ類似性アルゴリズム。 この TF-IDF のバリエーションでは、静的なドキュメント長の正規化と、検索されたクエリに部分的にのみ一致するドキュメントを罰する調整要因が導入されています。

ClassicTokenizer

ほとんどのヨーロッパ言語ドキュメントの処理に適した文法ベースのトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。

CognitiveServicesAccountKey

スキルセットにアタッチされたキーを使用してプロビジョニングされた Azure AI サービス リソース。

CommonGramTokenFilter

インデックス付けの間に、頻繁に発生する用語に対してバイグラムが作成されます。 1 つの用語も、バイグラムがオーバーレイされてインデックス付けされます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

ComplexField

フィールドの名前、データ型、および検索動作を記述するインデックス定義のフィールドを表します。

ConditionalSkill

ブール演算を必要とするシナリオで、出力に割り当てるデータを決定できるようにするスキル。

CorsOptions

インデックスのクロスオリジン リソース共有 (CORS) を制御するオプションを定義します。

CreateOrUpdateIndexOptions

インデックスの作成/更新操作のオプション。

CreateOrUpdateSkillsetOptions

スキルセットの作成/更新操作のオプション。

CreateOrUpdateSynonymMapOptions

シノニムマップの作成/更新操作のオプション。

CreateorUpdateDataSourceConnectionOptions

データソースの作成/更新操作のオプション。

CreateorUpdateIndexerOptions

インデクサーの作成/更新操作のオプション。

CustomAnalyzer

テキストをインデックス付き/検索可能なトークンに変換するプロセスを制御できます。 これは、1 つの定義済みトークナイザーと 1 つ以上のフィルターで構成されるユーザー定義の構成です。 トークナイザーは、テキストをトークンに分割し、トークナイザーによって出力されるトークンを変更するためのフィルターを担当します。

CustomEntity

検出された一致と関連するメタデータに関する情報を含む オブジェクト。

CustomEntityAlias

ルート エンティティ名の代替スペルまたはシノニムを指定するために使用できる複合オブジェクト。

CustomEntityLookupSkill

スキルは、ユーザー定義の単語と語句のカスタム リストからテキストを検索します。

DefaultCognitiveServicesAccount

スキルセットの既定の Azure AI サービス リソースを表す空のオブジェクト。

DeleteDataSourceConnectionOptions

データソースの削除操作のオプション。

DeleteIndexOptions

インデックスの削除操作のオプション。

DeleteIndexerOptions

インデクサーの削除操作のオプション。

DeleteSkillsetOptions

スキルセットの削除操作のオプション。

DeleteSynonymMapOptions

シノニムマップの削除操作のオプション。

DictionaryDecompounderTokenFilter

多くのゲルマン言語に出現する複合語を分解します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

DistanceScoringFunction

地理的な場所からの距離に基づいてスコアをブーストする関数を定義します。

DistanceScoringParameters

距離スコアリング関数にパラメーター値を提供します。

DocumentExtractionSkill

エンリッチメント パイプライン内のファイルからコンテンツを抽出するスキル。

EdgeNGramTokenFilter

入力トークンの前面または背面から、指定したサイズの n グラムを生成します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

EdgeNGramTokenizer

エッジからの入力を、指定されたサイズの n グラムにトークン化します。 このトークナイザーは、Apache Lucene を使用して実装されます。

ElisionTokenFilter

省略記号が削除されます。 たとえば、"l'avion" (平面) は "avion" (平面) に変換されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

EntityLinkingSkill

Text Analytics API を使用して、リンクされたエンティティをテキストから抽出します。

EntityRecognitionSkill

テキスト分析エンティティ認識。

EntityRecognitionSkillV3

Text Analytics API を使用して、テキストからさまざまな種類のエンティティを抽出します。

ExhaustiveKnnParameters

完全な KNN アルゴリズムに固有のパラメーターが含まれています。

ExtractiveQueryAnswer

自然言語で質問として表現されたクエリに応答して返されるドキュメントの内容から回答候補を抽出します。

ExtractiveQueryCaption

検索クエリに関連する文章を含む一致するドキュメントからキャプションを抽出します。

FacetResult

ファセット クエリ結果の 1 つのバケット。 フィールド値が特定の範囲内にあるか、特定の値または間隔を持つドキュメントの数を報告します。

FieldMapping

データ ソース内のフィールドとインデックス内のターゲット フィールドの間のマッピングを定義します。

FieldMappingFunction

インデックスを作成する前にデータ ソースから値を変換する関数を表します。

FreshnessScoringFunction

日時フィールドの値に基づいてスコアをブーストする関数を定義します。

FreshnessScoringParameters

鮮度スコアリング関数にパラメーター値を提供します。

GetDocumentOptions

1 つのドキュメントを取得するためのオプション。

HighWaterMarkChangeDetectionPolicy

高いウォーター マーク列の値に基づいて変更をキャプチャするデータ変更検出ポリシーを定義します。

HnswParameters

hnsw アルゴリズムに固有のパラメーターを格納します。

ImageAnalysisSkill

画像ファイルを分析するスキル。 画像コンテンツに基づいて豊富なビジュアル機能のセットを抽出します。

IndexDocumentsClient

インデックス ドキュメント クライアント

IndexDocumentsOptions

インデックスバッチ変更操作のオプション。

IndexDocumentsResult

インデックス作成要求内のすべてのドキュメントの操作の状態を含む応答。

IndexerExecutionResult

個々のインデクサー実行の結果を表します。

IndexingParameters

インデクサー実行のパラメーターを表します。

IndexingParametersConfiguration

インデクサー固有の構成プロパティのディクショナリ。 各名前は、特定のプロパティの名前です。 各値はプリミティブ型である必要があります。

IndexingResult

1 つのドキュメントのインデックス作成操作の状態。

IndexingSchedule

インデクサー実行のスケジュールを表します。

InputFieldMappingEntry

スキルの入力フィールド マッピング。

KeepTokenFilter

指定した単語の一覧に含まれるテキストを持つトークンのみを保持するトークン フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。

KeyPhraseExtractionSkill

キー フレーズ抽出にテキスト分析を使用するスキル。

KeywordMarkerTokenFilter

用語がキーワードとしてマークされます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

KeywordTokenizer

入力全体が 1 つのトークンとして生成されます。 このトークナイザーは、Apache Lucene を使用して実装されます。

LanguageDetectionSkill

入力テキストの言語を検出し、要求で送信されたすべてのドキュメントに対して 1 つの言語コードを報告するスキル。 言語コードは、分析の信頼度を示すスコアとペアになっています。

LengthTokenFilter

長すぎる単語または短すぎる単語が削除されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

LimitTokenFilter

インデックス付けの間に、トークンの数が制限されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

ListSearchResultsPageSettings

検索結果の次のページを取得するための引数。

LuceneStandardAnalyzer

Standard Apache Lucene アナライザー。標準のトークナイザー、小文字のフィルター、および停止フィルターで構成されます。

LuceneStandardTokenizer

Unicode テキスト セグメント化ルールに従ってテキストを分割します。 このトークナイザーは、Apache Lucene を使用して実装されます。

MagnitudeScoringFunction

数値フィールドの大きさに基づいてスコアをブーストする関数を定義します。

MagnitudeScoringParameters

マグニチュード スコアリング関数にパラメーター値を提供します。

MappingCharFilter

マッピング オプションで定義されたマッピングを適用する文字フィルター。 一致は最長一致です (特定ポイントでの最長パターン マッチングを優先)。 空の文字列での置換が許可されます。 この文字フィルターは、Apache Lucene を使用して実装されます。

MergeSkill

2 つ以上の文字列を 1 つの統合文字列にマージするスキル。オプションのユーザー定義区切り記号で各コンポーネント パーツを区切ります。

MicrosoftLanguageStemmingTokenizer

言語固有のルールを使用してテキストが分割され、基本フォームに単語が減らされます。

MicrosoftLanguageTokenizer

言語固有のルールを使用してテキストが分割されます。

NGramTokenFilter

指定サイズの n グラムが生成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

NGramTokenizer

入力が指定サイズの n グラムにトークン化されます。 このトークナイザーは、Apache Lucene を使用して実装されます。

OcrSkill

イメージ ファイルからテキストを抽出するスキル。

OutputFieldMappingEntry

スキルの出力フィールド マッピング。

PIIDetectionSkill

Text Analytics API を使用して、入力テキストから個人情報を抽出し、それをマスクするオプションを提供します。

PathHierarchyTokenizer

パスのような階層のトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。

PatternAnalyzer

正規表現のパターンを使用してテキストを用語に柔軟に分割します。 このアナライザーは、Apache Lucene を使用して実装されます。

PatternCaptureTokenFilter

Java 正規表現を使用して、1 つ以上のパターンでキャプチャ グループごとに 1 つずつ、複数のトークンを出力します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

PatternReplaceCharFilter

入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して維持する文字のシーケンスが識別され、置換パターンを使用して置換する文字が識別されます。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 この文字フィルターは、Apache Lucene を使用して実装されます。

PatternReplaceTokenFilter

入力文字列内の文字を置き換える文字フィルター。 正規表現を使用して維持する文字のシーケンスが識別され、置換パターンを使用して置換する文字が識別されます。 たとえば、入力テキスト "aa bb aa bb"、パターン "(aa)\s+(bb)"、置換後の "$1#$2" を指定すると、結果は "aa#bb aa#bb" になります。 このトークン フィルターは、Apache Lucene を使用して実装されます。

PatternTokenizer

正規表現パターン マッチングを使用して個別のトークンを構築するトークナイザー。 このトークナイザーは、Apache Lucene を使用して実装されます。

PhoneticTokenFilter

音声一致用のトークンが作成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

QueryAnswerResult

回答は、クエリに一致した最も関連性の高いドキュメントの内容から抽出されたテキストの一節です。 回答は上位の検索結果から抽出されます。 回答候補がスコア付けされ、上位の回答が選択されます。

QueryCaptionResult

キャプションは、ドキュメントから検索クエリまでの最も代表的な一節です。 多くの場合、ドキュメントの概要として使用されます。 キャプションは、 型 semanticのクエリに対してのみ返されます。

ResourceCounter

リソースの使用量とクォータを表します。

ScoringProfile

検索クエリのスコアリングに影響を与える検索インデックスのパラメーターを定義します。

SearchClientOptions

Cognitive Search API 要求の構成に使用されるクライアント オプション。

SearchDocumentsPageResult

インデックスからの検索ページの結果を含む応答。

SearchDocumentsResult

インデックスからの検索結果を含む応答。

SearchDocumentsResultBase

インデックスからの検索結果を含む応答。

SearchIndex

インデックスのフィールドと検索動作を記述する検索インデックス定義を表します。

SearchIndexClientOptions

Cognitive Search API 要求の構成に使用されるクライアント オプション。

SearchIndexStatistics

特定のインデックスの統計。 統計は定期的に収集され、常に最新であるとは限りません。

SearchIndexer

インデクサーを表します。

SearchIndexerClientOptions

Cognitive Search API 要求の構成に使用されるクライアント オプション。

SearchIndexerDataContainer

インデックスが作成されるエンティティ (Azure SQL テーブルや CosmosDB コレクションなど) に関する情報を表します。

SearchIndexerDataSourceConnection

インデクサーの構成に使用できるデータソース定義を表します。

SearchIndexerError

アイテムレベルまたはドキュメントレベルのインデックス作成エラーを表します。

SearchIndexerKnowledgeStore

エンリッチされたデータの Azure BLOB、テーブル、またはファイルへの追加のプロジェクションの定義。

SearchIndexerKnowledgeStoreBlobProjectionSelector

具象セレクター間でプロパティを共有する抽象クラス。

SearchIndexerKnowledgeStoreFileProjectionSelector

Azure Filesに格納するデータのプロジェクション定義。

SearchIndexerKnowledgeStoreObjectProjectionSelector

Azure Blob に格納するデータのプロジェクション定義。

SearchIndexerKnowledgeStoreProjection

さまざまなプロジェクション セレクターのコンテナー オブジェクト。

SearchIndexerKnowledgeStoreProjectionSelector

具象セレクター間でプロパティを共有する抽象クラス。

SearchIndexerKnowledgeStoreTableProjectionSelector

Azure Tables に格納するデータの説明。

SearchIndexerLimits
SearchIndexerSkillset

スキルの一覧。

SearchIndexerStatus

インデクサーの現在の状態と実行の履歴を表します。

SearchIndexerWarning

アイテム レベルの警告を表します。

SearchIndexingBufferedSenderOptions

SearchIndexingBufferedSender のオプション。

SearchResourceEncryptionKey

Azure Key Vaultのカスタマー マネージド暗号化キー。 作成および管理するキーは、インデックスやシノニム マップなど、Azure Cognitive Searchの保存データを暗号化または暗号化解除するために使用できます。

SearchServiceStatistics

サービス統計の取得要求からの応答。 成功した場合は、サービス レベルのカウンターと制限が含まれます。

SearchSuggester

Suggest API をインデックス内のフィールドのグループに適用する方法を定義します。

SemanticConfiguration

セマンティック機能のコンテキストで使用する特定の構成を定義します。

SemanticField

セマンティック構成の一部として使用されるフィールド。

SemanticPrioritizedFields

セマンティック ランク付け、キャプション、強調表示、回答に使用するタイトル、コンテンツ、キーワードのフィールドについて説明します。

SemanticSearch

セマンティック機能に影響を与える検索インデックスのパラメーターを定義します。

SemanticSearchOptions

セマンティック検索クエリのオプションを定義します

SentimentSkill

テキスト分析の肯定的-否定的な感情分析。0 から 1 の範囲の浮動小数点値としてスコア付けされます。

SentimentSkillV3

Text Analytics API を使用して、非構造化テキストを評価し、各レコードに対して、文とドキュメント レベルでサービスによって見つかった最高の信頼度スコアに基づいてセンチメント ラベル ("negative"、"neutral"、"positive" など) を提供します。

ServiceCounters

サービス レベルのリソース カウンターとクォータを表します。

ServiceLimits

さまざまなサービス レベルの制限を表します。

ShaperSkill

出力を再作成するためのスキル。 複合フィールド (マルチパート フィールドとも呼ばれます) をサポートする複合型を作成します。

ShingleTokenFilter

トークンの組み合わせが 1 つのトークンとして作成されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

Similarity

類似性アルゴリズムの基本型。 類似性アルゴリズムは、クエリをドキュメントに結び付けるスコアを計算するために使用されます。 スコアが高いほど、その特定のクエリに対するドキュメントの関連性が高くなります。 これらのスコアは、検索結果のランク付けに使用されます。

SimpleField

フィールドの名前、データ型、および検索動作を記述する、インデックス定義内のフィールドを表します。

SnowballTokenFilter

Snowball で生成されたステマーを使用して単語をステミングするフィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。

SoftDeleteColumnDeletionDetectionPolicy

論理的な削除戦略を実装するデータ削除検出ポリシーを定義します。 指定された "論理的な削除" 列の値に基づいて、アイテムを削除するかどうかを決定します。

SplitSkill

文字列をテキストのチャンクに分割するスキル。

SqlIntegratedChangeTrackingPolicy

Azure SQL Database の統合Change Tracking機能を使用して変更をキャプチャするデータ変更検出ポリシーを定義します。

StemmerOverrideTokenFilter

ユーザー辞書ベースのステミングを使用して、他のステミング フィルターをオーバーライドする機能を提供します。 辞書で語幹を付けた用語はキーワードとしてマークされるため、チェーンの下のステマーで語幹を付けなくなります。 すべてのステミング フィルターの前に配置する必要があります。 このトークン フィルターは、Apache Lucene を使用して実装されます。

StemmerTokenFilter

言語固有のステミング フィルター。 このトークン フィルターは、Apache Lucene を使用して実装されます。

StopAnalyzer

テキストを文字以外で分割します。小文字とストップワードのトークン フィルターを適用します。 このアナライザーは、Apache Lucene を使用して実装されます。

StopwordsTokenFilter

トークン ストリームからストップワードが削除されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

SuggestDocumentsResult

インデックスからの提案クエリ結果を含む応答。

SuggestRequest

フィルター処理、並べ替え、あいまい一致、およびその他の候補のクエリ動作のパラメーター。

SynonymMap

シノニム マップ定義を表します。

SynonymTokenFilter

トークン ストリーム内の単一または複数単語のシノニムと一致します。 このトークン フィルターは、Apache Lucene を使用して実装されます。

TagScoringFunction

特定のタグの一覧に一致する文字列値を持つドキュメントのスコアを向上させる関数を定義します。

TagScoringParameters

タグ スコアリング関数にパラメーター値を提供します。

TextTranslationSkill

ある言語から別の言語にテキストを翻訳するスキル。

TextWeights

検索クエリで一致がスコアリングを向上させるインデックス フィールドの重みを定義します。

TruncateTokenFilter

用語を特定の長さに切り捨てます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

UaxUrlEmailTokenizer

URL と電子メールが 1 つのトークンとしてトークン化されます。 このトークナイザーは、Apache Lucene を使用して実装されます。

UniqueTokenFilter

前のトークンと同じテキストのトークンが除外されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

VectorSearch

ベクター検索に関連する構成オプションが含まれています。

VectorSearchOptions

ベクター検索クエリのオプションを定義します

VectorSearchProfile

ベクター検索で使用する構成の組み合わせを定義します。

VectorizedQuery

生のベクター値が指定されている場合にベクター検索に使用するクエリ パラメーター。

WebApiSkill

Web API エンドポイントを呼び出すことができるスキル。カスタム コードを呼び出すことでスキルセットを拡張できます。

WordDelimiterTokenFilter

単語がサブ単語に分割され、部分語のグループに対してオプションの変換が実行されます。 このトークン フィルターは、Apache Lucene を使用して実装されます。

型エイリアス

AnalyzeTextOptions

テキストの分析操作のオプション。

AutocompleteMode

AutocompleteMode の値を定義します。

AutocompleteOptions

部分 searchText の入力候補テキストを取得するためのオプション。

BlobIndexerDataToExtract

サービスでサポートされている既知の値

storageMetadata: 標準の BLOB プロパティとユーザー指定のメタデータのみをインデックス化します。 allMetadata: Azure BLOB ストレージ サブシステムによって提供されるメタデータとコンテンツ タイプ固有のメタデータ (たとえば、.png ファイルのみに固有のメタデータがインデックス付けされます) を抽出します。 contentAndMetadata: 各 BLOB からすべてのメタデータとテキスト コンテンツを抽出します。

BlobIndexerImageAction

サービスでサポートされている既知の値

none: データ セット内の埋め込みイメージまたはイメージ ファイルを無視します。 既定値です。 generateNormalizedImages: 画像からテキストを抽出し (たとえば、トラフィック停止記号から "STOP" という単語)、コンテンツ フィールドに埋め込みます。 このアクションでは、"dataToExtract" が "contentAndMetadata" に設定されている必要があります。 正規化された画像とは、画像を視覚的な検索結果に含めるときに、一貫性のあるレンダリングを促進するためにサイズを変更して回転する、均一な画像出力をもたらす追加の処理を指します。 このオプションを使用すると、各画像に対してこの情報が生成されます。 generateNormalizedImagePerPage: 画像 (たとえば、トラフィック停止記号から "STOP" という単語) からテキストを抽出し、コンテンツ フィールドに埋め込みますが、各ページが画像としてレンダリングされ、埋め込まれた画像を抽出するのではなく、それに応じて正規化されるという点で PDF ファイルの処理方法が異なります。 PDF 以外のファイルの種類は、"generateNormalizedImages" が設定されている場合と同じように扱われます。

BlobIndexerPDFTextRotationAlgorithm

サービスでサポートされている既知の値

none: 通常のテキスト抽出を利用します。 既定値です。 detectAngles: テキストを回転させた PDF ファイルから、より適切で読みやすいテキスト抽出が生成される場合があります。 このパラメーターを使用すると、パフォーマンス速度への影響が小さくなる可能性があることに注意してください。 このパラメーターは PDF ファイルにのみ適用され、テキストが埋め込まれた PDF にのみ適用されます。 回転したテキストが PDF の埋め込み画像内に表示される場合、このパラメーターは適用されません。

BlobIndexerParsingMode

サービスでサポートされている既知の値

default: 通常のファイル処理の場合は既定値に設定します。 text: BLOB ストレージ内のプレーン テキスト ファイルのインデックス作成のパフォーマンスを向上させるために、テキストに設定します。 delimitedText: BLOB がプレーン CSV ファイルの場合は、delimitedText に設定します。 json: JSON ファイルから構造化コンテンツを抽出するには、json に設定します。 jsonArray: jsonArray に設定すると、JSON 配列の個々の要素がAzure Cognitive Search内の個別のドキュメントとして抽出されます。 jsonLines: jsonLines に設定すると、新しい行で区切られた個々の JSON エンティティが、Azure Cognitive Search内の個別のドキュメントとして抽出されます。

CharFilter

CharFilter の可能性のあるケースが含まれます。

CharFilterName

CharFilterName の値を定義します。
<xref:KnownCharFilterName> は CharFilterName と同じ意味で使用できます。この列挙型には、サービスでサポートされている既知の値が含まれています。

サービスでサポートされている既知の値

html_strip: HTML コンストラクトを取り除こうとする文字フィルター。 「https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html」を参照してください。

CjkBigramTokenFilterScripts

CjkBigramTokenFilterScripts の値を定義します。

CognitiveServicesAccount

CognitiveServicesAccount で考えられるケースが含まれます。

ComplexDataType

ComplexDataType の値を定義します。 使用できる値は、'Edm.ComplexType'、'Collection(Edm.ComplexType)' です。

CountDocumentsOptions

インデックスに対してカウント操作を実行するためのオプション。

CreateDataSourceConnectionOptions

データソースの作成操作のオプション。

CreateIndexOptions

インデックス作成操作のオプション。

CreateIndexerOptions

インデクサーの作成操作のオプション。

CreateSkillsetOptions

スキルセット操作を作成するためのオプション。

CreateSynonymMapOptions

シノニムマップの作成操作のオプション。

CustomEntityLookupSkillLanguage

CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage でサポートされている言語を定義します。この型と同じ意味で使用できます

DataChangeDetectionPolicy

DataChangeDetectionPolicy で考えられるケースが含まれます。

DataDeletionDetectionPolicy

DataDeletionDetectionPolicy で考えられるケースが含まれます。

DeleteDocumentsOptions

ドキュメントの削除操作のオプション。

EdgeNGramTokenFilterSide

EdgeNGramTokenFilterSide の値を定義します。

EntityCategory
EntityRecognitionSkillLanguage

EntityRecognitionSkillKnownEntityRecognitionSkillLanguage でサポートされている言語を定義します。この型と同じ意味で使用できます

ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

クエリ中に使用される完全な KNN アルゴリズムに固有の構成オプションが含まれています。これにより、ベクター インデックス全体でブルート フォース検索が実行されます。

ExtractDocumentKey
GetDataSourceConnectionOptions

データソースの取得操作のオプション。

GetIndexOptions

インデックスの取得操作のオプション。

GetIndexStatisticsOptions

インデックス統計の取得操作のオプション。

GetIndexerOptions

インデクサーの取得操作のオプション。

GetIndexerStatusOptions

インデクサーの状態の取得操作のオプション。

GetServiceStatisticsOptions

サービス統計の取得操作のオプション。

GetSkillSetOptions

スキルセットの取得操作のオプション。

GetSynonymMapsOptions

シノニムマップの取得操作のオプション。

HnswAlgorithmConfiguration

インデックス作成時に使用される hnsw 近似最近隣アルゴリズムに固有の構成オプションが含まれます。

ImageAnalysisSkillLanguage

ImageAnalysisSkillKnownImageAnalysisSkillLanguage でサポートされている言語を定義します。この型と同じ意味で使用できます

ImageDetail
IndexActionType

IndexActionType の値を定義します。

IndexDocumentsAction

ドキュメントに対して動作するインデックス アクションを表します。

IndexIterator

Search Serviceに存在するインデックスを一覧表示するための反復子。 イテレーション中に必要に応じて要求を行います。 .byPage() を使用して、イテレーションごとにサーバーに対して 1 つの要求を行います。

IndexNameIterator

Search Serviceに存在するインデックスを一覧表示するための反復子。 イテレーション中に必要に応じて要求を行います。 .byPage() を使用して、イテレーションごとにサーバーに対して 1 つの要求を行います。

IndexerExecutionEnvironment

サービスでサポートされている既知の値

standard: Azure Cognitive Searchがインデクサーを実行する場所を決定できることを示します。 これは、何も指定されていない場合の既定の環境であり、推奨される値です。 private: 検索サービス専用にプロビジョニングされた環境でインデクサーを実行する必要があることを示します。 これは、インデクサーが共有プライベート リンク リソース経由でリソースに安全にアクセスする必要がある場合にのみ、実行環境として指定する必要があります。

IndexerExecutionStatus

IndexerExecutionStatus の値を定義します。

IndexerStatus

IndexerStatus の値を定義します。

KeyPhraseExtractionSkillLanguage

KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage でサポートされている言語を定義します。この型と同じ意味で使用できます

LexicalAnalyzer

アナライザーで使用できるケースが含まれています。

LexicalAnalyzerName

LexicalAnalyzerName の値を定義します。
<xref:KnownLexicalAnalyzerName> LexicalAnalyzerName と同じ意味で使用できます。この列挙型には、サービスでサポートされている既知の値が含まれています。

サービスでサポートされている既知の値

ar.microsoft: アラビア語用 Microsoft アナライザー。
ar.lucene: アラビア語用の Lucene アナライザー。
hy.lucene: アルメニア語用 Lucene アナライザー。
bn.microsoft: Bangla 用 Microsoft アナライザー。
eu.lucene: バスク語用の Lucene アナライザー。
bg.microsoft: ブルガリア語用の Microsoft アナライザー。
bg.lucene: ブルガリア語用 Lucene アナライザー。
ca.microsoft: カタロニア語用の Microsoft アナライザー。
ca.lucene: カタロニア語用 Lucene アナライザー。
zh-Hans.microsoft: Microsoft Analyzer for Chinese (簡体字)。
zh-Hans.lucene: Lucene analyzer for Chinese (簡体字)。
zh-Hant.microsoft: Microsoft Analyzer for Chinese (繁体字)。
zh-Hant.lucene: Lucene analyzer for Chinese (繁体字)。
hr.microsoft: クロアチア語用 Microsoft アナライザー。
cs.microsoft: チェコ語用 Microsoft アナライザー。
cs.lucene: チェコ語用 Lucene アナライザー。
da.microsoft: デンマーク語用 Microsoft アナライザー。
da.lucene: デンマーク語用 Lucene アナライザー。
nl.microsoft: オランダ語用 Microsoft アナライザー。
nl.lucene: オランダ語用 Lucene アナライザー。
en.microsoft: 英語用 Microsoft アナライザー。
en.lucene: 英語用 Lucene アナライザー。
et.microsoft: エストニア語用 Microsoft アナライザー。
fi.microsoft: フィンランド語用 Microsoft アナライザー。
fi.lucene: フィンランド語用 Lucene アナライザー。
fr.microsoft: フランス語用 Microsoft アナライザー。
fr.lucene: フランス語用 Lucene アナライザー。
gl.lucene: ガリシア語用 Lucene アナライザー。
de.microsoft: ドイツ語用 Microsoft アナライザー。
de.lucene: ドイツ語用 Lucene アナライザー。
el.microsoft: ギリシャ語用 Microsoft アナライザー。
el.lucene: ギリシャ語用 Lucene アナライザー。
gu.microsoft: Gujarati 用の Microsoft アナライザー。
he.microsoft: ヘブライ語用 Microsoft アナライザー。
hi.microsoft: ヒンディー語用 Microsoft アナライザー。
hi.lucene: ヒンディー語用 Lucene アナライザー。
hu.microsoft: ハンガリー語用 Microsoft アナライザー。
hu.lucene: ハンガリー語用 Lucene アナライザー。
is.microsoft: アイスランドの Microsoft アナライザー。
id.microsoft: インドネシア語 (Bahasa) 用の Microsoft アナライザー。
id.lucene: インドネシア語用 Lucene アナライザー。
ga.lucene: アイルランド語用 Lucene アナライザー。
it.microsoft: イタリア語用 Microsoft アナライザー。
it.lucene: イタリア語用 Lucene アナライザー。
ja.microsoft: 日本語用 Microsoft アナライザー。
ja.lucene: 日本語用 Lucene アナライザー。
kn.microsoft: カンナダ用 Microsoft アナライザー。
ko.microsoft: 韓国語用 Microsoft アナライザー。
ko.lucene: 韓国語用 Lucene アナライザー。
lv.microsoft: ラトビア語用 Microsoft アナライザー。
lv.lucene: ラトビア語用 Lucene アナライザー。
lt.microsoft: リトアニア語用 Microsoft アナライザー。
ml.microsoft: Malayalam 用 Microsoft アナライザー。
ms.microsoft: Microsoft Analyzer for Malay (Latin)。
mr.microsoft: Marathi 用 Microsoft アナライザー。
nb.microsoft: ノルウェー語用 Microsoft アナライザー (Bokmål)。
no.lucene: ノルウェー語用 Lucene アナライザー。
fa.lucene: ペルシャ語用 Lucene アナライザー。
pl.microsoft: ポーランド語用 Microsoft アナライザー。
pl.lucene: ポーランド語用 Lucene アナライザー。
pt-BR.microsoft: ポルトガル語 (ブラジル) 用の Microsoft アナライザー。
pt-BR.lucene: ポルトガル語 (ブラジル) 用の Lucene アナライザー。
pt-PT.microsoft: ポルトガル語 (ポルトガル) 用の Microsoft アナライザー。
pt-PT.lucene: ポルトガル語 (ポルトガル) 用の Lucene アナライザー。
pa.microsoft: Punjabi 用 Microsoft アナライザー。
ro.microsoft: ルーマニア語用 Microsoft アナライザー。
ro.lucene: ルーマニア語用 Lucene アナライザー。
ru.microsoft: ロシア語用 Microsoft アナライザー。
ru.lucene: ロシア語用 Lucene アナライザー。
sr-cyrillic.microsoft: セルビア語 (キリル) 用の Microsoft アナライザー。
sr-latin.microsoft: セルビア語 (ラテン) 用の Microsoft アナライザー。
sk.microsoft: スロバキア語用 Microsoft アナライザー。
sl.microsoft: スロベニア語用の Microsoft アナライザー。
es.microsoft: スペイン語用 Microsoft アナライザー。
es.lucene: スペイン語用 Lucene アナライザー。
sv.microsoft: スウェーデン語用 Microsoft アナライザー。
sv.lucene: スウェーデン語用 Lucene アナライザー。
ta.microsoft: Tamil 用 Microsoft アナライザー。
te.microsoft: Telugu 用 Microsoft アナライザー。
th.microsoft: タイ語用 Microsoft アナライザー。
th.lucene: タイ語用 Lucene アナライザー。
tr.microsoft: トルコ語用 Microsoft アナライザー。
tr.lucene: トルコ語用の Lucene アナライザー。
uk.microsoft: ウクライナ語用 Microsoft アナライザー。
your.microsoft: Urdu 用 Microsoft アナライザー。
vi.microsoft: ベトナム語用 Microsoft アナライザー。
standard.lucene: Standard Lucene アナライザー。
standardasciifolding.lucene: Standard ASCII フォールディング Lucene アナライザー。 「https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers」を参照してください。
キーワード (keyword): フィールドの内容全体を 1 つのトークンとして扱います。 これは、郵便番号、ID、製品名などのデータで役立ちます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html」を参照してください。
pattern: 正規表現パターンを使用してテキストを用語に柔軟に分離します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html」を参照してください。
simple: テキストを非文字で分割し、小文字に変換します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html」を参照してください。
stop: テキストを文字以外で分割します。小文字とストップワードのトークン フィルターを適用します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html」を参照してください。
空白: 空白トークナイザーを使用するアナライザー。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html」を参照してください。

LexicalTokenizer

トークナイザーで使用できるケースが含まれます。

LexicalTokenizerName

LexicalTokenizerName の値を定義します。
<xref:KnownLexicalTokenizerName> LexicalTokenizerName と同じ意味で使用できます。この列挙型には、サービスでサポートされている既知の値が含まれています。

サービスでサポートされている既知の値

classic: ほとんどのヨーロッパ言語ドキュメントの処理に適した文法ベースのトークナイザー。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html」を参照してください。
edgeNGram: エッジからの入力を、指定されたサイズの n グラムにトークン化します。 「https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html」を参照してください。
keyword_v2: 入力全体を 1 つのトークンとして出力します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html」を参照してください。
letter: テキストを文字以外で分割します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html」を参照してください。
小文字: テキストを文字以外で分割し、小文字に変換します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html」を参照してください。
microsoft_language_tokenizer: 言語固有のルールを使用してテキストを分割します。
microsoft_language_stemming_tokenizer: 言語固有のルールを使用してテキストを分割し、単語を基本フォームに減らします。
nGram: 指定したサイズの n-gram に入力をトークン化します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html」を参照してください。
path_hierarchy_v2: パスに似た階層のトークナイザー。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html」を参照してください。
pattern: 正規表現パターン マッチングを使用して個別のトークンを構築するトークナイザー。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html」を参照してください。
standard_v2: Standard Lucene アナライザー。標準のトークナイザー、小文字のフィルター、および停止フィルターで構成されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html」を参照してください。
uax_url_email: URL と電子メールを 1 つのトークンとしてトークン化します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html」を参照してください。
空白: 空白文字でテキストを分割します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html」を参照してください。

ListDataSourceConnectionsOptions

リスト データ ソース操作のオプション。

ListIndexersOptions

リスト インデクサー操作のオプション。

ListIndexesOptions

リスト インデックス操作のオプション。

ListSkillsetsOptions

リスト スキルセット操作のオプション。

ListSynonymMapsOptions

list synonymMaps 操作のオプション。

MergeDocumentsOptions

ドキュメントの差し込み印刷操作のオプション。

MergeOrUploadDocumentsOptions

ドキュメントのマージまたはアップロード操作のオプション。

MicrosoftStemmingTokenizerLanguage

MicrosoftStemmingTokenizerLanguage の値を定義します。

MicrosoftTokenizerLanguage

MicrosoftTokenizerLanguage の値を定義します。

NarrowedModel

選択したフィールドのみを含むようにモデルの種類を絞り込みます

OcrSkillLanguage

OcrSkillKnownOcrSkillLanguage でサポートされている言語を定義し、この型と同じ意味で使用できます

PIIDetectionSkillMaskingMode

PIIDetectionSkillMaskingMode の値を定義します。

サービスでサポートされている既知の値

none: マスクは発生せず、maskedText 出力は返されません。 replace: 検出されたエンティティを、maskingCharacter パラメーターで指定された文字に置き換えます。 オフセットが入力テキストと出力 maskedText の両方に正しく対応するように、文字は検出されたエンティティの長さに繰り返されます。

PhoneticEncoder

PhoneticEncoder の値を定義します。

QueryAnswer

検索応答の一部として回答を返すかどうかを示す 値。 このパラメーターは、クエリの種類が 'semantic' の場合にのみ有効です。 が に extractive設定されている場合、クエリは、最上位のランク付けされたドキュメントの主要な箇所から抽出された回答を返します。

QueryCaption

検索応答の一部としてキャプションを返す必要があるかどうかを示す 値。 このパラメーターは、クエリの種類が 'semantic' の場合にのみ有効です。 設定されている場合、クエリは、最上位のランク付けされたドキュメント内の主要な部分から抽出されたキャプションを返します。 キャプションが "抽出" の場合、強調表示は既定で有効になっています。 既定値は 'none' です。

QueryType

QueryType の値を定義します。

RegexFlags

正規表現パターン マッチングのフラグを定義します

サービスでサポートされている既知の値

CANON_EQ: 正規の等価性を有効にします。 CASE_INSENSITIVE: 大文字と小文字を区別しない照合を有効にします。 COMMENTS: パターン内の空白とコメントを許可します。 DOTALL: dotall モードを有効にします。 LITERAL: パターンのリテラル解析を有効にします。 MULTILINE: マルチライン モードを有効にします。 UNICODE_CASE: Unicode 対応のケース フォールディングを有効にします。 UNIX_LINES: Unix 行モードを有効にします。

ResetIndexerOptions

インデクサーのリセット操作のオプション。

RunIndexerOptions

インデクサーの実行操作のオプション。

ScoringFunction

ScoringFunction の可能性のあるケースが含まれます。

ScoringFunctionAggregation

ScoringFunctionAggregation の値を定義します。

ScoringFunctionInterpolation

ScoringFunctionInterpolation の値を定義します。

ScoringStatistics

ScoringStatistics の値を定義します。

SearchField

フィールドの名前、データ型、および検索動作を記述するインデックス定義のフィールドを表します。

SearchFieldArray

が型指定されていないオブジェクトの場合 TModel は、型指定されていない文字列配列。それ以外の場合は の TModelスラッシュ区切りのフィールド。

SearchFieldDataType

SearchFieldDataType の値を定義します。 使用できる値は、'Edm.String'、'Edm.Int32'、'Edm.Int64'、'Edm.Double'、'Edm.Boolean'、'Edm.DateTimeOffset'、'Edm.GeographyPoint'、 'Collection(Edm.String)'、'Collection(Edm.Int32)'、'Collection(Edm.Int64)'、'Collection(Edm.Double)'、'Collection(Edm.Boolean)'、'Collection(Edm.DateTimeOffset)'、'Collection(Edm.GeographyPoint)'、'Collection(Edm.Single)'

NB: Edm.Single 単独では有効なデータ型ではありません。 コレクション型の一部として使用する必要があります。

SearchIndexerDataSourceType
SearchIndexerSkill

Skill の考えられるケースが含まれます。

SearchIndexingBufferedSenderDeleteDocumentsOptions

SearchIndexingBufferedSenderDeleteDocuments のオプション。

SearchIndexingBufferedSenderFlushDocumentsOptions

SearchIndexingBufferedSenderFlushDocuments のオプション。

SearchIndexingBufferedSenderMergeDocumentsOptions

SearchIndexingBufferedSenderMergeDocuments のオプション。

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

SearchIndexingBufferedSenderMergeOrUploadDocuments のオプション。

SearchIndexingBufferedSenderUploadDocumentsOptions

SearchIndexingBufferedSenderUploadDocuments のオプション。

SearchIterator

paticular クエリの検索結果の反復子。 イテレーション中に必要に応じて要求を行います。 .byPage() を使用して、イテレーションごとにサーバーに対して 1 つの要求を行います。

SearchMode

SearchMode の値を定義します。

SearchOptions

完全な検索要求をコミットするためのオプション。

SearchPick

有効な Cognitive Search OData $select パスを使用して、T のフィールドを深く選択します。

SearchRequestOptions

フィルター処理、並べ替え、ファセット、ページング、およびその他の検索クエリ動作のパラメーター。

SearchRequestQueryTypeOptions
SearchResult

検索クエリによって検出されたドキュメントと、関連するメタデータが含まれます。

SelectArray

が指定されていない場合 TFields は、型指定されていない文字列配列。それ以外の場合は、使用する型の他の場所で使用される縮小 Fields[] された型。

SelectFields

T にルート化されたフィールド ツリーの後順序トラバーサルを使用して、T の有効な Cognitive Search OData $select パスの和集合を生成します。

SemanticErrorMode

partial: セマンティック処理が失敗した場合でも、部分的な結果が返されます。 部分的な結果の定義は、失敗したセマンティック ステップと失敗の理由によって異なります。

fail: セマンティック処理ステップ中に例外がある場合、クエリは失敗し、エラーに応じて適切な HTTP コードを返します。

SemanticErrorReason

maxWaitExceeded: 'semanticMaxWaitInMilliseconds' が設定され、セマンティック処理期間がその値を超えた場合。 基本結果のみが返されました。

capacityOverloaded: 要求が調整されました。 基本結果のみが返されました。

transient: セマンティック プロセスの少なくとも 1 つのステップが失敗しました。

SemanticSearchResultsType

baseResults: セマンティック エンリッチメントや再ランク付けのない結果。

rerankedResults: 結果は再ランカー モデルで再ランク付けされ、セマンティック キャプションが含まれます。 回答、回答の強調表示、またはキャプションの強調表示は含まれません。

SentimentSkillLanguage

SentimentSkill KnownSentimentSkillLanguage でサポートされている言語を定義します。この型と同じ意味で使用できます

SimilarityAlgorithm

類似性の可能性のあるケースが含まれています。

SnowballTokenFilterLanguage

SnowballTokenFilterLanguage の値を定義します。

SplitSkillLanguage

SplitSkillKnownSplitSkillLanguage でサポートされている言語を定義します。この型と同じ意味で使用できます

StemmerTokenFilterLanguage

StemmerTokenFilterLanguage の値を定義します。

StopwordsList

StopwordsList の値を定義します。

SuggestNarrowedModel
SuggestOptions

searchText に基づいて候補を取得するためのオプション。

SuggestResult

提案クエリによって検出されたドキュメントと、関連付けられているメタデータを含む結果。

TextSplitMode
TextTranslationSkillLanguage

TextTranslationSkillKnownTextTranslationSkillLanguage でサポートされている言語を定義します。この型と同じ意味で使用できます

TokenCharacterKind

TokenCharacterKind の値を定義します。

TokenFilter

TokenFilter で考えられるケースが含まれています。

TokenFilterName

TokenFilterName の値を定義します。
<xref:KnownTokenFilterName> TokenFilterName と同じ意味で使用できます。この列挙型には、サービスでサポートされている既知の値が含まれています。

サービスでサポートされている既知の値

arabic_normalization: アラビア語のノーマライザーを適用して序数を正規化するトークン フィルター。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html」を参照してください。
apostrophe: アポストロフィの後のすべての文字 (アポストロフィ自体を含む) を削除します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html」を参照してください。
asciifolding: 最初の 127 文字の ASCII 文字 ("Basic Latin" Unicode ブロック) にないアルファベット文字、数値文字、およびシンボリック Unicode 文字を、ASCII に相当する文字に変換します (該当する文字が存在する場合)。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html」を参照してください。
cjk_bigram: 標準トークナイザーから生成される CJK 用語のビッグラムを形成します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html」を参照してください。
cjk_width: CJK の幅の違いを正規化します。 全角 ASCII バリアントを同等の基本的なラテン語に、半角カタカナのバリアントを同等のかなに折りたたみます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html」を参照してください。
classic: 英語の所有物とドットを頭字語から削除します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html」を参照してください。
common_grams: インデックス作成中に頻繁に発生する用語のビッグラムを構築します。 1 つの用語も、バイグラムがオーバーレイされてインデックス付けされます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html」を参照してください。
edgeNGram_v2: 入力トークンの前面または背面から開始して、指定されたサイズの n グラムを生成します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html」を参照してください。
elision: エリシオンを削除します。 たとえば、"l'avion" (平面) は "avion" (平面) に変換されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html」を参照してください。
german_normalization: ドイツ語 2 スノーボール アルゴリズムのヒューリスティックに従ってドイツ語の文字を正規化します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html」を参照してください。
hindi_normalization: ヒンディー語のテキストを正規化して、スペル の違いを削除します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html」を参照してください。
indic_normalization: インド言語のテキストの Unicode 表記を正規化します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html」を参照してください。
keyword_repeat: 各受信トークンを 2 回 、1 回は キーワード (keyword)、1 回は非キーワード (keyword)として出力します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html」を参照してください。
kstem: 英語用の高性能 kstem フィルター。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html」を参照してください。
length: 長すぎる単語または短すぎる単語を削除します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html」を参照してください。
limit: インデックス作成中のトークンの数を制限します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html」を参照してください。
小文字: トークン テキストを小文字に正規化します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.htm」を参照してください。
nGram_v2: 指定したサイズの n グラムを生成します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html」を参照してください。
persian_normalization: ペルシア語の正規化を適用します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html」を参照してください。
ふりがな: ふりがなのトークンを作成します。 「https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html」を参照してください。
porter_stem: Porter ステミング アルゴリズムを使用してトークン ストリームを変換します。 「http://tartarus.org/~martin/PorterStemmer」を参照してください。
reverse: トークン文字列を逆にします。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html」を参照してください。
scandinavian_normalization: 交換可能なスカンジナビア文字の使用を正規化します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html」を参照してください。
scandinavian_folding: スカンジナビア文字 åÅäæÄÆ-a> と öÖøØ-o> をフォールドします。 また、重母音 aa、ae、ao、oe、oo の使用を判別し、最初の 1 つだけが残されます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html」を参照してください。
shingle: トークンの組み合わせを 1 つのトークンとして作成します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html」を参照してください。
snowball: Snowball で生成されたステマーを使用して単語をステミングするフィルター。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html」を参照してください。
sorani_normalization: Sorani テキストの Unicode 表現を正規化します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html」を参照してください。
stemmer: 言語固有のステミング フィルター。 「https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters」を参照してください。
stopwords: トークン ストリームからストップ ワードを削除します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html」を参照してください。
trim: トークンから先頭と末尾の空白をトリミングします。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html」を参照してください。
truncate: 用語を特定の長さに切り捨てます。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html」を参照してください。
unique: 前のトークンと同じテキストを持つトークンをフィルター処理します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html」を参照してください。
大文字: トークン テキストを大文字に正規化します。 「http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html」を参照してください。
word_delimiter: 単語をサブワードに分割し、サブワード グループに対して省略可能な変換を実行します。

UnionToIntersection
UploadDocumentsOptions

ドキュメントのアップロード操作のオプション。

VectorFilterMode

ベクター検索の実行前または実行後にフィルターを適用するかどうかを指定します。

VectorQuery

ベクター検索クエリとハイブリッド検索クエリのクエリ パラメーター。

VectorQueryKind
VectorSearchAlgorithmConfiguration

インデックス作成やクエリ中に使用されるアルゴリズムに固有の構成オプションが含まれます。

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric

ベクター比較に使用する類似性メトリック。

VisualFeature

列挙型

KnownAnalyzerNames

AnalyzerName の値を定義します。 「https://docs.microsoft.com/rest/api/searchservice/Language-support」を参照してください。

KnownBlobIndexerDataToExtract

サービスが受け入れる BlobIndexerDataToExtract の既知の値。

KnownBlobIndexerImageAction

サービスが受け入れる BlobIndexerImageAction の既知の値。

KnownBlobIndexerPDFTextRotationAlgorithm

サービスが受け入れる BlobIndexerPDFTextRotationAlgorithm の既知の値。

KnownBlobIndexerParsingMode

サービスが受け入れる BlobIndexerParsingMode の既知の値。

KnownCharFilterNames

サービスが受け入れる CharFilterName の既知の値。

KnownCustomEntityLookupSkillLanguage

サービスが受け入れる CustomEntityLookupSkillLanguage の既知の値。

KnownEntityCategory

サービスが受け入れる EntityCategory の既知の値。

KnownEntityRecognitionSkillLanguage

サービスが受け入れる EntityRecognitionSkillLanguage の既知の値。

KnownImageAnalysisSkillLanguage

サービスが受け入れる ImageAnalysisSkillLanguage の既知の値。

KnownImageDetail

サービスが受け入れる ImageDetail の既知の値。

KnownKeyPhraseExtractionSkillLanguage

サービスが受け入れる KeyPhraseExtractionSkillLanguage の既知の値。

KnownOcrSkillLanguage

サービスが受け入れる OcrSkillLanguage の既知の値。

KnownRegexFlags

サービスが受け入れる RegexFlags の既知の値。

KnownSearchAudience

検索対象ユーザーの既知の値

KnownSearchIndexerDataSourceType

サービスが受け入れる SearchIndexerDataSourceType の既知の値。

KnownSentimentSkillLanguage

サービスが受け入れる SentimentSkillLanguage の既知の値。

KnownSplitSkillLanguage

サービスが受け入れる SplitSkillLanguage の既知の値。

KnownTextSplitMode

サービスが受け入れる TextSplitMode の既知の値。

KnownTextTranslationSkillLanguage

サービスが受け入れる TextTranslationSkillLanguage の既知の値。

KnownTokenFilterNames

サービスが受け入れる TokenFilterName の既知の値。

KnownTokenizerNames

サービスが受け入れる LexicalTokenizerName の既知の値。

KnownVisualFeature

サービスが受け入れる VisualFeature の既知の値。

機能

createSynonymMapFromFile(string, string)

SynonymMap オブジェクトを作成するヘルパー メソッド。 これは NodeJS のみのメソッドです。

odata(TemplateStringsArray, unknown[])

文字列リテラルを引用符で囲むエラーを回避するために、odata フィルター式をエスケープします。 使用例:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

サポートされている構文の詳細については、次を参照してください。 https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

関数の詳細

createSynonymMapFromFile(string, string)

SynonymMap オブジェクトを作成するヘルパー メソッド。 これは NodeJS のみのメソッドです。

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

パラメーター

name

string

SynonymMap の名前。

filePath

string

シノニムを含むファイルのパス (改行で区切ります)

戻り値

Promise<SynonymMap>

SynonymMap オブジェクト

odata(TemplateStringsArray, unknown[])

文字列リテラルを引用符で囲むエラーを回避するために、odata フィルター式をエスケープします。 使用例:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

サポートされている構文の詳細については、次を参照してください。 https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

パラメーター

strings

TemplateStringsArray

式の文字列の配列

values

unknown[]

式の値の配列

戻り値

string