Share via


@azure/search-documents package

클래스

AzureKeyCredential

기본 키 값 업데이트를 지원하는 정적 키 기반 자격 증명입니다.

GeographyPoint

전역 좌표의 지리적 점을 나타냅니다.

IndexDocumentsBatch

인덱스에 대한 여러 문서를 사용하여 일괄 처리 작업을 수행하는 데 사용되는 클래스입니다.

SearchClient

인덱스의 문서 쿼리, 추가, 업데이트 및 제거를 포함하여 검색 인덱스에 대한 작업을 수행하는 데 사용되는 클래스입니다.

SearchIndexClient

인덱스, & 동의어를 관리(만들기, 업데이트, 나열/삭제)하는 작업을 수행하는 클래스입니다.

SearchIndexerClient

인덱서, 데이터 원본 & 기술 세트를 관리(만들기, 업데이트, 나열/삭제)하는 작업을 수행하는 클래스입니다.

SearchIndexingBufferedSender

추가, 업데이트 및 제거를 포함하여 검색 인덱스에 대해 버퍼링된 작업을 수행하는 데 사용되는 클래스입니다.

인터페이스

AnalyzeRequest

해당 텍스트를 토큰으로 분리하는 데 사용되는 일부 텍스트 및 분석 구성 요소를 지정합니다.

AnalyzeResult

텍스트에서 분석기를 테스트한 결과입니다.

AnalyzedTokenInfo

분석기에서 반환된 토큰에 대한 정보입니다.

AsciiFoldingTokenFilter

처음 127개의 ASCII 문자("기본 라틴 문자" 유니코드 블록)에 없는 알파벳, 숫자 및 기호 유니코드 문자를 ASCII 등가물(있는 경우)로 변환합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

AutocompleteItem

자동 완성 요청의 결과입니다.

AutocompleteRequest

유사 항목 일치 및 기타 자동 완성 쿼리 동작에 대한 매개 변수입니다.

AutocompleteResult

자동 완성 쿼리의 결과입니다.

AzureActiveDirectoryApplicationCredentials

Azure Key Vault 저장된 암호화 키에 대한 인증된 액세스에 사용되는 검색 서비스에 대해 생성된 등록된 애플리케이션의 자격 증명입니다.

BM25Similarity

Okapi BM25 유사성 알고리즘을 기반으로 하는 순위 함수입니다. BM25는 길이 정규화('b' 매개 변수로 제어됨)와 용어 빈도 포화('k1' 매개 변수로 제어됨)를 포함하는 TF-IDF와 유사한 알고리즘입니다.

BaseCharFilter

문자 필터의 기본 형식입니다.

BaseCognitiveServicesAccount

기술 세트에 연결된 Azure AI 서비스 리소스를 설명하기 위한 기본 형식입니다.

BaseDataChangeDetectionPolicy

데이터 변경 검색 정책의 기본 형식입니다.

BaseDataDeletionDetectionPolicy

데이터 삭제 검색 정책의 기본 형식입니다.

BaseLexicalAnalyzer

분석기 기본 형식입니다.

BaseLexicalTokenizer

토큰라이저의 기본 형식입니다.

BaseScoringFunction

순위가 지정되는 동안 문서 점수를 수정할 수 있는 함수의 기본 형식입니다.

BaseSearchIndexerSkill

기술에 대한 기본 형식입니다.

BaseSearchRequestOptions

필터링, 정렬, 패싯, 페이징 및 기타 검색 쿼리 동작에 대한 매개 변수입니다.

BaseTokenFilter

토큰 필터의 기본 형식입니다.

BaseVectorQuery

벡터 및 하이브리드 검색 쿼리에 대한 쿼리 매개 변수입니다.

BaseVectorSearchAlgorithmConfiguration

인덱싱 및/또는 쿼리 중에 사용되는 알고리즘과 관련된 구성 옵션을 포함합니다.

CjkBigramTokenFilter

표준 토큰화기에서 생성된 CJK 용어의 bigrams를 형성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

ClassicSimilarity

TF-IDF의 Lucene TFIDFSimilarity 구현을 사용하는 레거시 유사성 알고리즘입니다. 이러한 TF-IDF 변형은 정적 문서 길이 정규화뿐만 아니라 검색된 쿼리와 부분적으로만 일치하는 문서를 처벌하는 요인을 조정합니다.

ClassicTokenizer

대부분의 유럽 언어 문서를 처리하는 데 적합한 문법 기반 토큰라이저입니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.

CognitiveServicesAccountKey

기술 세트에 연결된 키로 프로비전된 Azure AI 서비스 리소스입니다.

CommonGramTokenFilter

인덱싱 동안 자주 발생하는 용어에 대한 바이그램을 생성합니다. 단일 단어도 바이그램이 오버레이된 상태로 계속 인덱싱됩니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

ComplexField

필드의 이름, 데이터 형식 및 검색 동작을 설명하는 인덱스 정의의 필드를 나타냅니다.

ConditionalSkill

부울 작업이 필요한 시나리오에서 출력에 할당할 데이터를 결정할 수 있도록 하는 기술입니다.

CorsOptions

인덱스에 대한 CORS(원본 간 리소스 공유)를 제어하는 옵션을 정의합니다.

CreateOrUpdateIndexOptions

인덱스 만들기/업데이트 작업에 대한 옵션입니다.

CreateOrUpdateSkillsetOptions

기술 세트 작업 만들기/업데이트에 대한 옵션입니다.

CreateOrUpdateSynonymMapOptions

동의어 만들기/업데이트 작업에 대한 옵션입니다.

CreateorUpdateDataSourceConnectionOptions

데이터 원본 만들기/업데이트 작업에 대한 옵션입니다.

CreateorUpdateIndexerOptions

인덱서 만들기/업데이트 작업에 대한 옵션입니다.

CustomAnalyzer

텍스트를 인덱싱 가능/검색 가능한 토큰으로 변환하는 프로세스를 제어할 수 있습니다. 미리 정의된 단일 토큰라이저와 하나 이상의 필터로 구성된 사용자 정의 구성입니다. tokenizer는 텍스트를 토큰으로 분리하고 토큰라이저에서 내보낸 토큰을 수정하기 위한 필터를 담당합니다.

CustomEntity

발견된 일치 항목 및 관련 메타데이터에 대한 정보를 포함하는 개체입니다.

CustomEntityAlias

루트 엔터티 이름에 대한 대체 맞춤법 또는 동의어를 지정하는 데 사용할 수 있는 복합 개체입니다.

CustomEntityLookupSkill

기술은 사용자 정의 사용자 정의 단어 및 구 목록에서 텍스트를 찾습니다.

DefaultCognitiveServicesAccount

기술 세트의 기본 Azure AI 서비스 리소스를 나타내는 빈 개체입니다.

DeleteDataSourceConnectionOptions

데이터 원본 삭제 작업에 대한 옵션입니다.

DeleteIndexOptions

인덱스 삭제 작업에 대한 옵션입니다.

DeleteIndexerOptions

인덱서 삭제 작업에 대한 옵션입니다.

DeleteSkillsetOptions

기술 세트 조작을 삭제하는 옵션입니다.

DeleteSynonymMapOptions

동의어 삭제 작업에 대한 옵션입니다.

DictionaryDecompounderTokenFilter

많은 게르만어파에 있는 복합 단어를 분해합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

DistanceScoringFunction

지리적 위치와의 거리에 따라 점수를 높이는 함수를 정의합니다.

DistanceScoringParameters

거리 채점 함수에 매개 변수 값을 제공합니다.

DocumentExtractionSkill

보강 파이프라인 내의 파일에서 콘텐츠를 추출하는 기술입니다.

EdgeNGramTokenFilter

입력 토큰의 앞뒤에서 시작하여 지정된 크기의 n그램을 생성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

EdgeNGramTokenizer

에지의 입력을 지정된 크기의 n그램으로 토큰화합니다. 이 토큰화기는 Apache Lucene을 사용하여 구현됩니다.

ElisionTokenFilter

생략 발음을 제거합니다. 예를 들어 "l'avion"(평면)은 "avion"(평면)으로 변환됩니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

EntityLinkingSkill

Text Analytics API를 사용하여 텍스트에서 연결된 엔터티를 추출합니다.

EntityRecognitionSkill

텍스트 분석 엔터티 인식.

EntityRecognitionSkillV3

Text Analytics API를 사용하여 텍스트에서 다양한 형식의 엔터티를 추출합니다.

ExhaustiveKnnParameters

철저한 KNN 알고리즘과 관련된 매개 변수를 포함합니다.

ExtractiveQueryAnswer

자연어로 질문으로 표현된 쿼리에 대한 응답으로 반환된 문서의 내용에서 답변 후보를 추출합니다.

ExtractiveQueryCaption

검색 쿼리와 관련된 구절이 포함된 일치하는 문서에서 캡션을 추출합니다.

FacetResult

패싯 쿼리 결과의 단일 버킷입니다. 필드 값이 특정 범위 내에 있거나 특정 값 또는 간격이 있는 문서 수를 보고합니다.

FieldMapping

데이터 원본의 필드와 인덱스의 대상 필드 간의 매핑을 정의합니다.

FieldMappingFunction

인덱싱하기 전에 데이터 원본에서 값을 변환하는 함수를 나타냅니다.

FreshnessScoringFunction

날짜-시간 필드의 값에 따라 점수를 높이는 함수를 정의합니다.

FreshnessScoringParameters

새로 고침 점수 매기기 함수에 매개 변수 값을 제공합니다.

GetDocumentOptions

단일 문서를 검색하는 옵션입니다.

HighWaterMarkChangeDetectionPolicy

높은 워터 마크 열의 값을 기반으로 변경 내용을 캡처하는 데이터 변경 검색 정책을 정의합니다.

HnswParameters

hnsw 알고리즘과 관련된 매개 변수를 포함합니다.

ImageAnalysisSkill

이미지 파일을 분석하는 기술입니다. 이미지 콘텐츠에 따라 다양한 시각적 기능 집합을 추출합니다.

IndexDocumentsClient

인덱스 문서 클라이언트

IndexDocumentsOptions

인덱스 일괄 처리 수정 작업에 대한 옵션입니다.

IndexDocumentsResult

인덱싱 요청의 모든 문서에 대한 작업의 상태 포함하는 응답입니다.

IndexerExecutionResult

개별 인덱서 실행의 결과를 나타냅니다.

IndexingParameters

인덱서 실행에 대한 매개 변수를 나타냅니다.

IndexingParametersConfiguration

인덱서별 구성 속성의 사전입니다. 각 이름은 특정 속성의 이름입니다. 각 값은 기본 형식이어야 합니다.

IndexingResult

단일 문서에 대한 인덱싱 작업의 상태입니다.

IndexingSchedule

인덱서 실행에 대한 일정을 나타냅니다.

InputFieldMappingEntry

기술에 대한 입력 필드 매핑입니다.

KeepTokenFilter

지정된 단어 목록에 포함된 텍스트로만 토큰을 유지하는 토큰 필터입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

KeyPhraseExtractionSkill

핵심 구 추출에 텍스트 분석을 사용하는 기술입니다.

KeywordMarkerTokenFilter

용어를 키워드로 표시합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

KeywordTokenizer

전체 입력을 단일 토큰으로 내보냅니다. 이 토큰화기는 Apache Lucene을 사용하여 구현됩니다.

LanguageDetectionSkill

입력 텍스트의 언어를 감지하고 요청에 따라 제출된 모든 문서에 대해 단일 언어 코드를 보고하는 기술입니다. 언어 코드는 분석의 신뢰도를 나타내는 점수와 쌍을 이집니다.

LengthTokenFilter

너무 길거나 너무 짧은 단어를 제거합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

LimitTokenFilter

인덱싱을 할 때 토큰 수를 제한합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

ListSearchResultsPageSettings

검색 결과의 다음 페이지를 검색하기 위한 인수입니다.

LuceneStandardAnalyzer

표준 Apache Lucene 분석기; 표준 토큰라이저, 소문자 필터 및 중지 필터로 구성됩니다.

LuceneStandardTokenizer

유니코드 텍스트 구분 규칙에 따라 텍스트를 구분합니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.

MagnitudeScoringFunction

숫자 필드의 크기에 따라 점수를 높이는 함수를 정의합니다.

MagnitudeScoringParameters

크기 채점 함수에 매개 변수 값을 제공합니다.

MappingCharFilter

매핑 옵션으로 정의된 매핑을 적용하는 문자 필터입니다. 일치는 greedy 방식을 따릅니다(지정된 지점에서 가장 긴 패턴 일치가 검색됨). 빈 문자열로 대체될 수 있습니다. 이 문자 필터는 Apache Lucene을 사용하여 구현됩니다.

MergeSkill

두 개 이상의 문자열을 단일 통합 문자열로 병합하는 기술로, 선택적 사용자 정의 구분 기호가 각 구성 요소 부분을 구분합니다.

MicrosoftLanguageStemmingTokenizer

언어별 규칙을 사용하여 텍스트를 구분하고, 단어를 기본 형식으로 줄입니다.

MicrosoftLanguageTokenizer

언어별 규칙을 사용하여 텍스트를 구분합니다.

NGramTokenFilter

지정된 크기의 n-gram을 생성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

NGramTokenizer

입력을 지정된 크기의 n-gram으로 토큰화합니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.

OcrSkill

이미지 파일에서 텍스트를 추출하는 기술입니다.

OutputFieldMappingEntry

기술에 대한 출력 필드 매핑입니다.

PIIDetectionSkill

Text Analytics API를 사용하여 입력 텍스트에서 개인 정보를 추출하고 마스킹 옵션을 제공합니다.

PathHierarchyTokenizer

경로와 같은 계층 구조의 토크나이저입니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.

PatternAnalyzer

정규식 패턴을 통해 텍스트를 용어로 유연하게 구분합니다. 이 분석기는 Apache Lucene을 사용하여 구현됩니다.

PatternCaptureTokenFilter

Java regexes를 사용하여 하나 이상의 패턴으로 각 캡처 그룹에 대해 하나씩 여러 토큰을 내보낸다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

PatternReplaceCharFilter

입력 문자열의 문자를 대체하는 문자 필터입니다. 정규식을 사용하여 보존할 문자 시퀀스를 식별하고, 대체 패턴을 사용하여 대체할 문자를 식별합니다. 예를 들어 입력 텍스트 "aa bb aa bb", pattern "(aa)\s+(bb)", 대체 "$1#$2"를 지정하면 결과는 "aa#bb aa#bb"입니다. 이 문자 필터는 Apache Lucene을 사용하여 구현됩니다.

PatternReplaceTokenFilter

입력 문자열의 문자를 대체하는 문자 필터입니다. 정규식을 사용하여 보존할 문자 시퀀스를 식별하고, 대체 패턴을 사용하여 대체할 문자를 식별합니다. 예를 들어 입력 텍스트 "aa bb aa bb", pattern "(aa)\s+(bb)", 대체 "$1#$2"를 지정하면 결과는 "aa#bb aa#bb"입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

PatternTokenizer

정규식 패턴 일치를 사용하여 고유 토큰을 생성하는 토큰화기입니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.

PhoneticTokenFilter

음성 일치 항목에 대한 토큰을 만듭니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

QueryAnswerResult

답변은 쿼리와 일치하는 가장 관련성이 큰 문서의 내용에서 추출된 텍스트 구절입니다. 답변은 상위 검색 결과에서 추출됩니다. 답변 응시자가 점수가 매기고 상위 답변이 선택됩니다.

QueryCaptionResult

캡션은 검색 쿼리에 상대적으로 문서에서 가장 대표적인 구절입니다. 문서 요약으로 사용되는 경우가 많습니다. 캡션은 형식 semantic의 쿼리에 대해서만 반환됩니다.

ResourceCounter

리소스의 사용량 및 할당량을 나타냅니다.

ScoringProfile

검색 쿼리의 점수 매기기 에 영향을 주는 검색 인덱스에 대한 매개 변수를 정의합니다.

SearchClientOptions

Cognitive Search API 요청을 구성하는 데 사용되는 클라이언트 옵션입니다.

SearchDocumentsPageResult

인덱스에서 검색 페이지 결과가 포함된 응답입니다.

SearchDocumentsResult

인덱스에서 검색 결과를 포함하는 응답입니다.

SearchDocumentsResultBase

인덱스에서 검색 결과를 포함하는 응답입니다.

SearchIndex

인덱스의 필드 및 검색 동작을 설명하는 검색 인덱스 정의를 나타냅니다.

SearchIndexClientOptions

Cognitive Search API 요청을 구성하는 데 사용되는 클라이언트 옵션입니다.

SearchIndexStatistics

지정된 인덱스에 대한 통계입니다. 통계는 주기적으로 수집되며 항상 최신 상태로 유지되는 것은 아닙니다.

SearchIndexer

인덱서 를 나타냅니다.

SearchIndexerClientOptions

Cognitive Search API 요청을 구성하는 데 사용되는 클라이언트 옵션입니다.

SearchIndexerDataContainer

인덱싱할 엔터티(예: Azure SQL 테이블 또는 CosmosDB 컬렉션)에 대한 정보를 나타냅니다.

SearchIndexerDataSourceConnection

인덱서 구성에 사용할 수 있는 데이터 원본 정의를 나타냅니다.

SearchIndexerError

항목 또는 문서 수준 인덱싱 오류를 나타냅니다.

SearchIndexerKnowledgeStore

보강된 데이터의 Azure Blob, 테이블 또는 파일에 대한 추가 프로젝션 정의입니다.

SearchIndexerKnowledgeStoreBlobProjectionSelector

구체적인 선택기 간에 속성을 공유하는 추상 클래스입니다.

SearchIndexerKnowledgeStoreFileProjectionSelector

Azure Files 저장할 데이터에 대한 프로젝션 정의입니다.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Azure Blob에 저장할 데이터에 대한 프로젝션 정의입니다.

SearchIndexerKnowledgeStoreProjection

다양한 프로젝션 선택기의 컨테이너 개체입니다.

SearchIndexerKnowledgeStoreProjectionSelector

구체적인 선택기 간에 속성을 공유하는 추상 클래스입니다.

SearchIndexerKnowledgeStoreTableProjectionSelector

Azure Tables에 저장할 데이터에 대한 설명입니다.

SearchIndexerLimits
SearchIndexerSkillset

기술 목록입니다.

SearchIndexerStatus

인덱서의 현재 상태와 실행 기록을 나타냅니다.

SearchIndexerWarning

항목 수준 경고를 나타냅니다.

SearchIndexingBufferedSenderOptions

SearchIndexingBufferedSender에 대한 옵션입니다.

SearchResourceEncryptionKey

Azure Key Vault 고객 관리형 암호화 키입니다. 만들고 관리하는 키를 사용하여 인덱스 및 동의어 맵과 같은 Azure Cognitive Search 미사용 데이터를 암호화하거나 암호 해독할 수 있습니다.

SearchServiceStatistics

서비스 통계 가져오기 요청의 응답입니다. 성공하면 서비스 수준 카운터 및 제한이 포함됩니다.

SearchSuggester

인덱스의 필드 그룹에 Suggest API를 적용하는 방법을 정의합니다.

SemanticConfiguration

의미 체계 기능의 컨텍스트에서 사용할 특정 구성을 정의합니다.

SemanticField

의미 체계 구성의 일부로 사용되는 필드입니다.

SemanticPrioritizedFields

의미 체계 순위, 캡션, 강조 표시 및 답변에 사용할 제목, 콘텐츠 및 키워드 필드를 설명합니다.

SemanticSearch

의미 체계 기능에 영향을 주는 검색 인덱스에 대한 매개 변수를 정의합니다.

SemanticSearchOptions

의미 체계 검색 쿼리에 대한 옵션을 정의합니다.

SentimentSkill

텍스트 분석 긍정-부정 감정 분석- 0에서 1 범위의 부동 소수점 값으로 채점됩니다.

SentimentSkillV3

Text Analytics API를 사용하여 는 구조화되지 않은 텍스트를 평가하고 각 레코드에 대해 문장 및 문서 수준에서 서비스에서 찾은 가장 높은 신뢰도 점수를 기반으로 감정 레이블(예: "부정", "중립" 및 "긍정")을 제공합니다.

ServiceCounters

서비스 수준 리소스 카운터 및 할당량을 나타냅니다.

ServiceLimits

다양한 서비스 수준 제한을 나타냅니다.

ShaperSkill

출력을 재구성하는 기술입니다. 복합 필드(다중 파트 필드라고도 함)를 지원하는 복합 형식을 만듭니다.

ShingleTokenFilter

토큰의 조합을 단일 토큰으로 만듭니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

Similarity

유사성 알고리즘의 기본 형식입니다. 유사성 알고리즘은 쿼리를 문서에 연결하는 점수를 계산하는 데 사용됩니다. 점수가 높을수록 문서가 해당 특정 쿼리와 더 관련성이 높습니다. 이러한 점수는 검색 결과의 순위를 지정하는 데 사용됩니다.

SimpleField

필드의 이름, 데이터 형식 및 검색 동작을 설명하는 인덱스 정의의 필드를 나타냅니다.

SnowballTokenFilter

Snowball에서 생성된 형태소 분석기를 사용하여 단어를 막는 필터입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

SoftDeleteColumnDeletionDetectionPolicy

일시 삭제 전략을 구현하는 데이터 삭제 검색 정책을 정의합니다. 지정된 '일시 삭제' 열의 값에 따라 항목을 삭제해야 하는지 여부를 결정합니다.

SplitSkill

문자열을 텍스트 청크로 분할하는 기술입니다.

SqlIntegratedChangeTrackingPolicy

Azure SQL Database의 통합 변경 내용 추적 기능을 사용하여 변경 내용을 캡처하는 데이터 변경 검색 정책을 정의합니다.

StemmerOverrideTokenFilter

사용자 지정 사전 기반 형태소 분석으로 다른 형태소 분석 필터를 재정의하는 기능을 제공합니다. 사전 형태소 분석된 용어는 키워드로 표시되므로 체인 아래로 형태소 분석기를 사용하여 형태소 분석되지 않습니다. 형태소 분석 필터 전에 배치해야 합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

StemmerTokenFilter

언어별 형태소 분석 필터입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

StopAnalyzer

텍스트를 문자가 아닌 문자로 나눕니다. 소문자 및 중지 단어 토큰 필터를 적용합니다. 이 분석기는 Apache Lucene을 사용하여 구현됩니다.

StopwordsTokenFilter

토큰 스트림에서 중지 단어를 제거합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

SuggestDocumentsResult

인덱스에서의 제안 쿼리 결과를 포함하는 응답입니다.

SuggestRequest

필터링, 정렬, 유사 항목 일치 및 기타 제안 쿼리 동작에 대한 매개 변수입니다.

SynonymMap

동의어 맵 정의를 나타냅니다.

SynonymTokenFilter

토큰 스트림의 단일 또는 다중 단어 동의어와 일치합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

TagScoringFunction

지정된 태그 목록과 일치하는 문자열 값으로 수십 개의 문서를 향상시키는 함수를 정의합니다.

TagScoringParameters

태그 채점 함수에 매개 변수 값을 제공합니다.

TextTranslationSkill

텍스트를 한 언어에서 다른 언어로 번역하는 기술입니다.

TextWeights

일치 항목이 검색 쿼리에서 점수를 높여야 하는 인덱스 필드에 대한 가중치를 정의합니다.

TruncateTokenFilter

용어를 특정 길이로 자립니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

UaxUrlEmailTokenizer

URL과 이메일을 하나의 토큰으로 토큰화합니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다.

UniqueTokenFilter

이전 토큰과 동일한 텍스트를 포함하는 토큰을 필터링합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

VectorSearch

벡터 검색과 관련된 구성 옵션을 포함합니다.

VectorSearchOptions

벡터 검색 쿼리에 대한 옵션을 정의합니다.

VectorSearchProfile

벡터 검색에 사용할 구성의 조합을 정의합니다.

VectorizedQuery

원시 벡터 값이 제공될 때 벡터 검색에 사용할 쿼리 매개 변수입니다.

WebApiSkill

Web API 엔드포인트를 호출할 수 있는 기술로, 사용자 지정 코드를 호출하여 기술 세트를 확장할 수 있습니다.

WordDelimiterTokenFilter

단어를 부분 단어로 분할하고 부분 단어 그룹에 대해 선택적 변환을 수행합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다.

형식 별칭

AnalyzeTextOptions

텍스트 작업 분석을 위한 옵션입니다.

AutocompleteMode

AutocompleteMode에 대한 값을 정의합니다.

AutocompleteOptions

부분 검색텍스트에 대한 완성 텍스트를 검색하는 옵션입니다.

BlobIndexerDataToExtract

서비스에서 지원하는 알려진 값

storageMetadata: 표준 Blob 속성 및 사용자 지정 메타데이터만 인덱싱합니다. allMetadata: Azure Blob Storage 하위 시스템 및 콘텐츠 형식 특정 메타데이터(예: .png 파일에만 고유한 메타데이터)에서 제공하는 메타데이터를 추출합니다. contentAndMetadata: 각 Blob에서 모든 메타데이터 및 텍스트 콘텐츠를 추출합니다.

BlobIndexerImageAction

서비스에서 지원하는 알려진 값

none: 데이터 집합의 포함된 이미지 또는 이미지 파일을 무시합니다. 이것이 기본값입니다. generateNormalizedImages: 이미지(예: 트래픽 정지 기호에서 "STOP"이라는 단어)에서 텍스트를 추출하여 콘텐츠 필드에 포함합니다. 이 작업을 수행하려면 "dataToExtract"를 "contentAndMetadata"로 설정해야 합니다. 정규화된 이미지는 시각적 검색 결과에 이미지를 포함할 때 일관된 렌더링을 촉진하기 위해 크기가 조정되고 회전되는 균일한 이미지 출력을 초래하는 추가 처리를 의미합니다. 이 옵션을 사용할 때 각 이미지에 대해 해당 정보가 생성됩니다. generateNormalizedImagePerPage: 이미지에서 텍스트를 추출하고(예: 트래픽 정지 기호에서 "STOP" 단어) 콘텐츠 필드에 포함하지만 포함된 이미지를 추출하는 대신 각 페이지가 이미지로 렌더링되고 그에 따라 정규화된다는 측면에서 PDF 파일을 다르게 처리합니다. PDF가 아닌 파일 형식은 "generateNormalizedImages"가 설정된 경우와 동일하게 처리됩니다.

BlobIndexerPDFTextRotationAlgorithm

서비스에서 지원하는 알려진 값

none: 일반 텍스트 추출을 활용합니다. 이것이 기본값입니다. detectAngles: 텍스트가 회전된 PDF 파일에서 더 잘 읽을 수 있는 텍스트 추출을 생성할 수 있습니다. 이 매개 변수를 사용할 때 성능 속도에 작은 영향을 미칠 수 있습니다. 이 매개 변수는 PDF 파일에만 적용되며 포함된 텍스트가 있는 PDF에만 적용됩니다. PDF의 포함된 이미지 내에 회전된 텍스트가 나타나면 이 매개 변수가 적용되지 않습니다.

BlobIndexerParsingMode

서비스에서 지원하는 알려진 값

default: 기본 파일 처리를 위해 를 기본값으로 설정합니다. text: Blob Storage의 일반 텍스트 파일에서 인덱싱 성능을 향상시키기 위해 텍스트로 설정합니다. delimitedText: Blob이 일반 CSV 파일인 경우 delimitedText로 설정합니다. json: JSON 파일에서 구조화된 콘텐츠를 추출하려면 json으로 설정합니다. jsonArray: jsonArray로 설정하여 JSON 배열의 개별 요소를 Azure Cognitive Search 별도의 문서로 추출합니다. jsonLines: jsonLines로 설정하여 새 줄로 구분된 개별 JSON 엔터티를 Azure Cognitive Search 별도의 문서로 추출합니다.

CharFilter

CharFilter에 대한 가능한 사례를 포함합니다.

CharFilterName

CharFilterName에 대한 값을 정의합니다.
<xref:KnownCharFilterName> CharFilterName과 교환하여 사용할 수 있습니다. 이 열거형에는 서비스에서 지원하는 알려진 값이 포함됩니다.

서비스에서 지원하는 알려진 값

html_strip: HTML 구문을 제거하려고 시도하는 문자 필터입니다. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html를 참조하세요.

CjkBigramTokenFilterScripts

CjkBigramTokenFilterScripts에 대한 값을 정의합니다.

CognitiveServicesAccount

CognitiveServicesAccount에 대한 가능한 사례를 포함합니다.

ComplexDataType

ComplexDataType에 대한 값을 정의합니다. 가능한 값은 'Edm.ComplexType', 'Collection(Edm.ComplexType)'입니다.

CountDocumentsOptions

인덱스에서 개수 작업을 수행하기 위한 옵션입니다.

CreateDataSourceConnectionOptions

데이터 원본 작업을 만들기 위한 옵션입니다.

CreateIndexOptions

인덱스 만들기 작업에 대한 옵션입니다.

CreateIndexerOptions

인덱서 만들기 작업에 대한 옵션입니다.

CreateSkillsetOptions

기술 세트 작업을 만들기 위한 옵션입니다.

CreateSynonymMapOptions

동의어 맵 작업을 만들기 위한 옵션입니다.

CustomEntityLookupSkillLanguage

CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage에 대해 지원되는 언어를 이 형식과 교환하여 사용할 수 있습니다.

DataChangeDetectionPolicy

DataChangeDetectionPolicy에 대한 가능한 사례를 포함합니다.

DataDeletionDetectionPolicy

DataDeletionDetectionPolicy에 대한 가능한 사례를 포함합니다.

DeleteDocumentsOptions

문서 삭제 작업에 대한 옵션입니다.

EdgeNGramTokenFilterSide

EdgeNGramTokenFilterSide의 값을 정의합니다.

EntityCategory
EntityRecognitionSkillLanguage

EntityRecognitionSkillKnownEntityRecognitionSkillLanguage에 대해 지원되는 언어를 이 형식과 서로 교환하여 사용할 수 있습니다.

ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

전체 벡터 인덱스에서 무차별 암호 대입 검색을 수행하는 쿼리 중에 사용되는 철저한 KNN 알고리즘과 관련된 구성 옵션을 포함합니다.

ExtractDocumentKey
GetDataSourceConnectionOptions

데이터 원본 가져오기 작업에 대한 옵션입니다.

GetIndexOptions

인덱스 가져오기 작업에 대한 옵션입니다.

GetIndexStatisticsOptions

인덱스 통계 가져오기 작업에 대한 옵션입니다.

GetIndexerOptions

인덱서 가져오기 작업에 대한 옵션입니다.

GetIndexerStatusOptions

인덱서 가져오기 상태 작업에 대한 옵션입니다.

GetServiceStatisticsOptions

서비스 통계 가져오기 작업에 대한 옵션입니다.

GetSkillSetOptions

기술 세트 작업을 가져오기 위한 옵션입니다.

GetSynonymMapsOptions

동의어 가져오기 작업에 대한 옵션입니다.

HnswAlgorithmConfiguration

인덱싱 시간 동안 사용되는 hnsw 근사한 인접 알고리즘과 관련된 구성 옵션을 포함합니다.

ImageAnalysisSkillLanguage

ImageAnalysisSkillKnownImageAnalysisSkillLanguage에 대해 지원되는 언어를 이 형식과 교환하여 사용할 수 있습니다.

ImageDetail
IndexActionType

IndexActionType에 대한 값을 정의합니다.

IndexDocumentsAction

문서에서 작동하는 인덱스 작업을 나타냅니다.

IndexIterator

Search Service 있는 인덱스를 나열하기 위한 반복기입니다. 반복하는 동안 필요에 따라 요청을 수행합니다. .byPage()를 사용하여 반복당 서버에 대해 하나의 요청을 수행합니다.

IndexNameIterator

Search Service 있는 인덱스를 나열하기 위한 반복기입니다. 반복하는 동안 필요에 따라 요청을 수행합니다. .byPage()를 사용하여 반복당 서버에 대해 하나의 요청을 수행합니다.

IndexerExecutionEnvironment

서비스에서 지원하는 알려진 값

standard: Azure Cognitive Search 인덱서가 실행되어야 하는 위치를 결정할 수 있음을 나타냅니다. 아무것도 지정하지 않은 경우 기본 환경이며 권장되는 값입니다. private: 인덱서가 검색 서비스에 대해 특별히 프로비전된 환경과 함께 실행되어야 했음을 나타냅니다. 인덱서가 공유 프라이빗 링크 리소스를 통해 리소스에 안전하게 액세스해야 하는 경우에만 실행 환경으로 지정해야 합니다.

IndexerExecutionStatus

IndexerExecutionStatus에 대한 값을 정의합니다.

IndexerStatus

IndexerStatus에 대한 값을 정의합니다.

KeyPhraseExtractionSkillLanguage

KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage에 대해 지원되는 언어를 이 형식과 서로 교환하여 사용할 수 있습니다.

LexicalAnalyzer

분석기에서 가능한 사례를 포함합니다.

LexicalAnalyzerName

LexicalAnalyzerName에 대한 값을 정의합니다.
<xref:KnownLexicalAnalyzerName> 는 LexicalAnalyzerName과 교환하여 사용할 수 있습니다. 이 열거형에는 서비스에서 지원하는 알려진 값이 포함됩니다.

서비스에서 지원하는 알려진 값

ar.microsoft: 아랍어용 Microsoft 분석기입니다.
ar.lucene: 아랍어용 Lucene 분석기입니다.
hy.lucene: Armenian용 Lucene 분석기.
bn.microsoft: Bangla용 Microsoft 분석기.
eu.lucene: Basque용 Lucene 분석기입니다.
bg.microsoft: 불가리아어용 Microsoft 분석기입니다.
bg.lucene: 불가리아어용 Lucene 분석기입니다.
ca.microsoft: 카탈로니아어용 Microsoft 분석기입니다.
ca.lucene: 카탈로니아어용 Lucene 분석기입니다.
zh-Hans.microsoft: 중국어용 Microsoft 분석기(간체).
zh-Hans.lucene: 중국어용 Lucene 분석기(간체).
zh-Hant.microsoft: 중국어용 Microsoft 분석기(번체).
zh-Hant.lucene: 중국어(번체)용 Lucene 분석기입니다.
hr.microsoft: 크로아티아어용 Microsoft 분석기.
cs.microsoft: 체코용 Microsoft 분석기.
cs.lucene: 체코어용 Lucene 분석기입니다.
da.microsoft: 덴마크용 Microsoft 분석기.
da.lucene: 덴마크어용 Lucene 분석기입니다.
nl.microsoft: 네덜란드용 Microsoft 분석기.
nl.lucene: 네덜란드어용 Lucene 분석기입니다.
en.microsoft: 영어용 Microsoft 분석기입니다.
en.lucene: 영어용 Lucene 분석기입니다.
et.microsoft: 에스토니아어용 Microsoft 분석기.
fi.microsoft: 핀란드어용 Microsoft 분석기.
fi.lucene: Lucene analyzer for Finnish.
fr.microsoft: 프랑스어용 Microsoft 분석기.
fr.lucene: 프랑스어용 Lucene 분석기입니다.
gl.lucene: Galician용 Lucene 분석기입니다.
de.microsoft: 독일어용 Microsoft 분석기입니다.
de.lucene: 독일어용 Lucene 분석기입니다.
el.microsoft: 그리스어용 Microsoft 분석기.
el.lucene: 그리스어용 Lucene 분석기입니다.
gu.microsoft: Gujarati용 Microsoft 분석기.
he.microsoft: 히브리어용 Microsoft 분석기.
hi.microsoft: 힌디어용 Microsoft 분석기.
hi.lucene: Lucene analyzer for Hindi.
hu.microsoft: 헝가리어용 Microsoft 분석기입니다.
hu.lucene: 헝가리어용 Lucene 분석기입니다.
is.microsoft: 아이슬란드어용 Microsoft 분석기입니다.
id.microsoft: 인도네시아어용 Microsoft 분석기(Bahasa).
id.lucene: 인도네시아어용 Lucene 분석기입니다.
ga.lucene: Irish용 Lucene 분석기.
it.microsoft: 이탈리아어용 Microsoft 분석기입니다.
it.lucene: 이탈리아어용 Lucene 분석기입니다.
ja.microsoft: 일본어용 Microsoft 분석기입니다.
ja.lucene: 일본어용 Lucene 분석기입니다.
kn.microsoft: Kannada용 Microsoft 분석기.
ko.microsoft: Microsoft Analyzer for Korean.
ko.lucene: Lucene analyzer for Korean.
lv.microsoft: 라트비아어용 Microsoft 분석기.
lv.lucene: 라트비아어용 Lucene 분석기.
lt.microsoft: 리투아니아어용 Microsoft 분석기입니다.
ml.microsoft: Malayalam용 Microsoft 분석기.
ms.microsoft: 말레이어용 Microsoft 분석기(라틴어).
mr.microsoft: Marathi용 Microsoft 분석기.
nb.microsoft: 노르웨이어용 Microsoft 분석기(Bokmål).
no.lucene: 노르웨이어용 Lucene 분석기입니다.
fa.lucene: 페르시아어용 Lucene 분석기입니다.
pl.microsoft: 폴란드어용 Microsoft 분석기입니다.
pl.lucene: 폴란드어용 Lucene 분석기입니다.
pt-BR.microsoft: 포르투갈어용 Microsoft 분석기(브라질).
pt-BR.lucene: 포르투갈어(브라질)용 Lucene 분석기입니다.
pt-PT.microsoft: 포르투갈어용 Microsoft 분석기(포르투갈).
pt-PT.lucene: 포르투갈어(포르투갈)용 Lucene 분석기입니다.
pa.microsoft: 펀자브어용 Microsoft 분석기.
ro.microsoft: 루마니아어용 Microsoft 분석기입니다.
ro.lucene: 루마니아어용 Lucene 분석기입니다.
ru.microsoft: 러시아어용 Microsoft 분석기.
ru.lucene: 러시아어용 Lucene 분석기입니다.
sr-cyrillic.microsoft: 세르비아어용 Microsoft 분석기(키릴 자모).
sr-latin.microsoft: 세르비아어용 Microsoft 분석기(라틴어).
sk.microsoft: Slovak용 Microsoft 분석기.
sl.microsoft: 슬로베니아어용 Microsoft 분석기입니다.
es.microsoft: 스페인어용 Microsoft 분석기.
es.lucene: 스페인어용 Lucene 분석기입니다.
sv.microsoft: 스웨덴어용 Microsoft 분석기.
sv.lucene: 스웨덴어용 Lucene 분석기입니다.
ta.microsoft: 타밀어용 Microsoft 분석기.
te.microsoft: Telugu용 Microsoft 분석기.
th.microsoft: Microsoft Analyzer for Thai.
th.lucene: 태국어용 Lucene 분석기입니다.
tr.microsoft: 터키어용 Microsoft 분석기입니다.
tr.lucene: 터키어용 Lucene 분석기입니다.
uk.microsoft: 우크라이나어용 Microsoft 분석기입니다.
your.microsoft: Urdu용 Microsoft 분석기.
vi.microsoft: 베트남어용 Microsoft 분석기입니다.
standard.lucene: Standard Lucene 분석기.
standardasciifolding.lucene: 표준 ASCII Folding Lucene 분석기. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers을 참조하십시오.
키워드(keyword): 필드의 전체 콘텐츠를 단일 토큰으로 처리합니다. 우편 번호, ID 및 일부 제품 이름과 같은 데이터에 유용합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html을 참조하십시오.
pattern: 정규식 패턴을 통해 텍스트를 용어로 유연하게 구분합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html를 참조하세요.
simple: 텍스트를 문자가 아닌 문자로 나누고 소문자로 변환합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html을 참조하십시오.
stop: 텍스트를 문자가 아닌 문자로 나눕니다. 소문자 및 중지 단어 토큰 필터를 적용합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html를 참조하세요.
공백: 공백 토큰라이저를 사용하는 분석기입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html을 참조하십시오.

LexicalTokenizer

Tokenizer에 대한 가능한 사례를 포함합니다.

LexicalTokenizerName

LexicalTokenizerName의 값을 정의합니다.
<xref:KnownLexicalTokenizerName> 는 LexicalTokenizerName과 교환하여 사용할 수 있습니다. 이 열거형에는 서비스에서 지원하는 알려진 값이 포함됩니다.

서비스에서 지원하는 알려진 값

classic: 대부분의 유럽 언어 문서를 처리하는 데 적합한 문법 기반 토큰라이저입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html을 참조하십시오.
edgeNGram: 에지의 입력을 지정된 크기의 n그램으로 토큰화합니다. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html을 참조하십시오.
keyword_v2: 전체 입력을 단일 토큰으로 내보낸다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html를 참조하세요.
letter: 텍스트를 문자가 아닌 문자로 나눕니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html를 참조하세요.
소문자: 텍스트를 문자가 아닌 텍스트로 나누고 소문자로 변환합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html를 참조하세요.
microsoft_language_tokenizer: 언어별 규칙을 사용하여 텍스트를 나눕니다.
microsoft_language_stemming_tokenizer: 언어별 규칙을 사용하여 텍스트를 나누고 단어를 기본 형식으로 줄입니다.
nGram: 입력을 지정된 크기의 n-그램으로 토큰화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html를 참조하세요.
path_hierarchy_v2: 경로와 유사한 계층 구조에 대한 토큰화기입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html를 참조하세요.
pattern: regex 패턴 일치를 사용하여 고유 토큰을 생성하는 Tokenizer입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html을 참조하십시오.
standard_v2: 표준 Lucene 분석기; 표준 토큰라이저, 소문자 필터 및 중지 필터로 구성됩니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html을 참조하십시오.
uax_url_email: URL 및 전자 메일을 하나의 토큰으로 토큰화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html을 참조하십시오.
공백: 공백에서 텍스트를 나눕니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html을 참조하십시오.

ListDataSourceConnectionsOptions

목록 데이터 원본 작업에 대한 옵션입니다.

ListIndexersOptions

목록 인덱서 작업에 대한 옵션입니다.

ListIndexesOptions

목록 인덱스 작업에 대한 옵션입니다.

ListSkillsetsOptions

기술 세트 목록 작업에 대한 옵션입니다.

ListSynonymMapsOptions

목록 동의어Maps 작업에 대한 옵션입니다.

MergeDocumentsOptions

문서 병합 작업에 대한 옵션입니다.

MergeOrUploadDocumentsOptions

문서 병합 또는 업로드 작업에 대한 옵션입니다.

MicrosoftStemmingTokenizerLanguage

MicrosoftStemmingTokenizerLanguage에 대한 값을 정의합니다.

MicrosoftTokenizerLanguage

MicrosoftTokenizerLanguage에 대한 값을 정의합니다.

NarrowedModel

선택한 필드만 포함하도록 모델 형식의 범위를 좁힐 수 있습니다.

OcrSkillLanguage

OcrSkillKnownOcrSkillLanguage에 지원되는 언어를 정의하여 이 형식과 교환하여 사용할 수 있습니다.

PIIDetectionSkillMaskingMode

PIIDetectionSkillMaskingMode에 대한 값을 정의합니다.

서비스에서 지원하는 알려진 값

none: 마스킹이 발생하지 않고 maskedText 출력이 반환되지 않습니다. replace: 검색된 엔터티를 maskingCharacter 매개 변수에 지정된 문자로 바꿉니다. 오프셋이 입력 텍스트와 출력 maskedText 모두에 올바르게 일치하도록 문자가 검색된 엔터티의 길이로 반복됩니다.

PhoneticEncoder

PhoneticEncoder에 대한 값을 정의합니다.

QueryAnswer

답변이 검색 응답의 일부로 반환되어야 하는지 여부를 지정하는 값입니다. 이 매개 변수는 쿼리 형식이 '의미 체계'인 경우에만 유효합니다. 로 extractive설정하면 쿼리는 가장 높은 순위의 문서의 주요 구절에서 추출된 답변을 반환합니다.

QueryCaption

캡션을 검색 응답의 일부로 반환할지 여부를 지정하는 값입니다. 이 매개 변수는 쿼리 형식이 '의미 체계'인 경우에만 유효합니다. 설정된 경우 쿼리는 가장 높은 순위의 문서의 주요 구절에서 추출된 캡션을 반환합니다. 캡션이 '추출'인 경우 강조 표시는 기본적으로 사용하도록 설정됩니다. 기본값은 'none'입니다.

QueryType

QueryType에 대한 값을 정의합니다.

RegexFlags

정규식 패턴 일치를 위한 플래그 정의

서비스에서 지원하는 알려진 값

CANON_EQ: 정식 동등성을 사용하도록 설정합니다. CASE_INSENSITIVE: 대/소문자를 구분하지 않는 일치를 사용하도록 설정합니다. 설명: 패턴에서 공백 및 주석을 허용합니다. DOTALL: dotall 모드를 사용하도록 설정합니다. LITERAL: 패턴의 리터럴 구문 분석을 사용하도록 설정합니다. MULTILINE: 여러 줄 모드를 사용하도록 설정합니다. UNICODE_CASE: 유니코드 인식 사례 폴딩을 사용하도록 설정합니다. UNIX_LINES: Unix 줄 모드를 사용하도록 설정합니다.

ResetIndexerOptions

인덱서 다시 설정 작업에 대한 옵션입니다.

RunIndexerOptions

인덱서 실행 작업에 대한 옵션입니다.

ScoringFunction

ScoringFunction에 대한 가능한 사례를 포함합니다.

ScoringFunctionAggregation

ScoringFunctionAggregation에 대한 값을 정의합니다.

ScoringFunctionInterpolation

ScoringFunctionInterpolation에 대한 값을 정의합니다.

ScoringStatistics

ScoringStatistics의 값을 정의합니다.

SearchField

필드의 이름, 데이터 형식 및 검색 동작을 설명하는 인덱스 정의의 필드를 나타냅니다.

SearchFieldArray

가 형식화되지 않은 개체인 경우 TModel 형식화되지 않은 문자열 배열이면 의 슬래시로 구분된 필드입니다 TModel.

SearchFieldDataType

SearchFieldDataType에 대한 값을 정의합니다. 가능한 값은 'Edm.String', 'Edm.Int32', 'Edm.Int64', 'Edm.Double', 'Edm.Boolean', 'Edm.DateTimeOffset', 'Edm.GeographyPoint', 'Collection(Edm.String)', 'Collection(Edm.Int32)', 'Collection(Edm.Int64)', 'Collection(Edm.Double)', 'Collection(Edm.Boolean)', 'Collection(Edm.DateTimeOffset)', 'Collection(Edm.GeographyPoint)', 'Collection(Edm.Single)'

NB: Edm.Single 단독으로는 유효한 데이터 형식이 아닙니다. 컬렉션 형식의 일부로 사용해야 합니다.

SearchIndexerDataSourceType
SearchIndexerSkill

기술에 대한 가능한 사례를 포함합니다.

SearchIndexingBufferedSenderDeleteDocumentsOptions

SearchIndexingBufferedSenderDeleteDocuments에 대한 옵션입니다.

SearchIndexingBufferedSenderFlushDocumentsOptions

SearchIndexingBufferedSenderFlushDocuments에 대한 옵션입니다.

SearchIndexingBufferedSenderMergeDocumentsOptions

SearchIndexingBufferedSenderMergeDocuments에 대한 옵션입니다.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

SearchIndexingBufferedSenderMergeOrUploadDocuments에 대한 옵션입니다.

SearchIndexingBufferedSenderUploadDocumentsOptions

SearchIndexingBufferedSenderUploadDocuments에 대한 옵션입니다.

SearchIterator

표식 쿼리의 검색 결과를 위한 반복기입니다. 반복하는 동안 필요에 따라 요청을 수행합니다. .byPage()를 사용하여 반복당 서버에 한 번의 요청을 수행합니다.

SearchMode

SearchMode에 대한 값을 정의합니다.

SearchOptions

전체 검색 요청을 커밋하는 옵션입니다.

SearchPick

유효한 Cognitive Search OData $select 경로를 사용하여 T 필드를 깊게 선택합니다.

SearchRequestOptions

필터링, 정렬, 패싯, 페이징 및 기타 검색 쿼리 동작에 대한 매개 변수입니다.

SearchRequestQueryTypeOptions
SearchResult

검색 쿼리에서 찾은 문서와 연결된 메타데이터를 포함합니다.

SelectArray

가 없는 경우 TFields 형식화되지 않은 문자열 배열이 아니면 소비 형식의 다른 곳에서 사용할 좁은 Fields[] 형식입니다.

SelectFields

T에 루팅된 필드 트리의 사후 통과를 사용하여 T에 대한 유효한 Cognitive Search OData $select 경로의 합합을 생성합니다.

SemanticErrorMode

partial: 의미 체계 처리에 실패하면 부분 결과가 여전히 반환됩니다. 부분 결과의 정의는 실패한 의미 체계 단계와 실패 원인에 따라 달라집니다.

fail: 의미 체계 처리 단계 중에 예외가 있는 경우 쿼리가 실패하고 오류에 따라 적절한 HTTP 코드를 반환합니다.

SemanticErrorReason

maxWaitExceeded: 'semanticMaxWaitInMilliseconds'가 설정되고 의미 체계 처리 기간이 해당 값을 초과한 경우 기본 결과만 반환되었습니다.

capacityOverloaded: 요청이 제한되었습니다. 기본 결과만 반환되었습니다.

transient: 의미 체계 프로세스의 하나 이상의 단계가 실패했습니다.

SemanticSearchResultsType

baseResults: 의미 체계 보강 또는 재전송이 없는 결과입니다.

rerankedResults: 결과가 재랜커 모델로 재전송되었으며 의미 체계 캡션이 포함됩니다. 답변, 답변 하이라이트 또는 캡션 하이라이트는 포함되지 않습니다.

SentimentSkillLanguage

SentimentSkillKnownSentimentSkillLanguage에 대해 지원되는 언어를 이 형식과 교환하여 사용할 수 있습니다.

SimilarityAlgorithm

유사성에 대한 가능한 사례를 포함합니다.

SnowballTokenFilterLanguage

SnowballTokenFilterLanguage에 대한 값을 정의합니다.

SplitSkillLanguage

SplitSkillKnownSplitSkillLanguage에 대해 지원되는 언어를 이 형식과 교환하여 사용할 수 있습니다.

StemmerTokenFilterLanguage

StemmerTokenFilterLanguage에 대한 값을 정의합니다.

StopwordsList

StopwordsList에 대한 값을 정의합니다.

SuggestNarrowedModel
SuggestOptions

searchText를 기반으로 제안을 검색하는 옵션입니다.

SuggestResult

제안 쿼리에서 찾은 문서와 관련 메타데이터가 포함된 결과입니다.

TextSplitMode
TextTranslationSkillLanguage

TextTranslationSkillKnownTextTranslationSkillLanguage에 대해 지원되는 언어를 이 형식과 교환하여 사용할 수 있습니다.

TokenCharacterKind

TokenCharacterKind에 대한 값을 정의합니다.

TokenFilter

TokenFilter에 대한 가능한 사례를 포함합니다.

TokenFilterName

TokenFilterName에 대한 값을 정의합니다.
<xref:KnownTokenFilterName> TokenFilterName과 교환하여 사용할 수 있습니다. 이 열거형에는 서비스에서 지원하는 알려진 값이 포함됩니다.

서비스에서 지원하는 알려진 값

arabic_normalization: 아랍어 정규화를 적용하여 orthography를 정규화하는 토큰 필터입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html을 참조하십시오.
아포스트로피: 아포스트로피(아포스트로피 자체 포함) 뒤의 모든 문자를 제거합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html을 참조하십시오.
asciifolding: 처음 127개의 ASCII 문자("기본 라틴어" 유니코드 블록)에 없는 알파벳, 숫자 및 기호 유니코드 문자를 ASCII 등가물(있는 경우)으로 변환합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html을 참조하십시오.
cjk_bigram: 표준 토큰라이저에서 생성된 CJK 용어의 bigrams를 형성합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html을 참조하십시오.
cjk_width: CJK 너비 차이를 정규화합니다. ASCII 변형을 해당하는 기본 라틴어로 접고 반자 가타카나 변형을 해당하는 가나로 접습니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html을 참조하십시오.
classic: 머리글자어에서 영어 소유 및 점을 제거합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html을 참조하십시오.
common_grams: 인덱싱하는 동안 자주 발생하는 용어에 대한 bigrams를 생성합니다. 단일 단어도 바이그램이 오버레이된 상태로 계속 인덱싱됩니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html을 참조하십시오.
edgeNGram_v2: 입력 토큰의 앞이나 뒷면에서 시작하여 지정된 크기의 n그램을 생성합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html을 참조하십시오.
elision: 엘리션을 제거합니다. 예를 들어 "l'avion"(평면)은 "avion"(평면)으로 변환됩니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html을 참조하십시오.
german_normalization: German2 눈덩이 알고리즘의 추론에 따라 독일어 문자를 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html을 참조하십시오.
hindi_normalization: 힌디어로 텍스트를 정규화하여 맞춤법 변형의 몇 가지 차이점을 제거합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html을 참조하십시오.
indic_normalization: 인도어로 된 텍스트의 유니코드 표현을 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html을 참조하십시오.
keyword_repeat: 들어오는 각 토큰을 키워드(keyword) 한 번, 키워드(keyword) 아닌 토큰으로 두 번 내보낸다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html을 참조하십시오.
kstem: 영어용 고성능 kstem 필터입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html를 참조하세요.
length: 너무 길거나 너무 짧은 단어를 제거합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html를 참조하세요.
limit: 인덱싱하는 동안 토큰 수를 제한합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html을 참조하십시오.
소문자: 토큰 텍스트를 소문자로 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.htm을 참조하십시오.
nGram_v2: 지정된 크기의 n그램을 생성합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html을 참조하십시오.
persian_normalization: 페르시아어 정규화를 적용합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html을 참조하십시오.
phonetic: 윗주 일치에 대한 토큰을 만듭니다. https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html을 참조하십시오.
porter_stem: Porter 형태소 분석 알고리즘을 사용하여 토큰 스트림을 변환합니다. http://tartarus.org/~martin/PorterStemmer을 참조하십시오.
reverse: 토큰 문자열을 반대로 바꿉니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html를 참조하세요.
scandinavian_normalization: 교환 가능한 스칸디나비아 문자의 사용을 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html를 참조하세요.
scandinavian_folding: 스칸디나비아 문자 åÅäæÄÆ-a>와 öÖøØ-o>를 접습니다. 또한 이중 모음 aa, ae, ao, oe 및 oo의 사용과 구분하고 첫 번째 모음만 남겨둡니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html를 참조하세요.
shingle: 토큰 조합을 단일 토큰으로 만듭니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html를 참조하세요.
snowball: Snowball에서 생성된 형태소 분석기를 사용하여 단어를 막는 필터입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html를 참조하세요.
sorani_normalization: Sorani 텍스트의 유니코드 표현을 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html를 참조하세요.
형태소 분석기: 언어별 형태소 분석 필터입니다. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters을 참조하십시오.
stopwords: 토큰 스트림에서 중지 단어를 제거합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html를 참조하세요.
trim: 토큰에서 선행 및 후행 공백을 트리밍합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html를 참조하세요.
truncate: 용어를 특정 길이로 자립니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html를 참조하세요.
unique: 이전 토큰과 동일한 텍스트로 토큰을 필터링합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html를 참조하세요.
대문자: 토큰 텍스트를 대문자로 정규화합니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html를 참조하세요.
word_delimiter: 단어를 하위 단어로 분할하고 하위 단어 그룹에서 선택적 변환을 수행합니다.

UnionToIntersection
UploadDocumentsOptions

문서 업로드 작업에 대한 옵션입니다.

VectorFilterMode

벡터 검색이 수행되기 전이나 후에 필터가 적용되는지 여부를 결정합니다.

VectorQuery

벡터 및 하이브리드 검색 쿼리에 대한 쿼리 매개 변수입니다.

VectorQueryKind
VectorSearchAlgorithmConfiguration

인덱싱 및/또는 쿼리 중에 사용되는 알고리즘과 관련된 구성 옵션을 포함합니다.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric

벡터 비교에 사용할 유사성 메트릭입니다.

VisualFeature

열거형

KnownAnalyzerNames

AnalyzerName에 대한 값을 정의합니다. https://docs.microsoft.com/rest/api/searchservice/Language-support을 참조하십시오.

KnownBlobIndexerDataToExtract

서비스에서 허용하는 BlobIndexerDataToExtract 의 알려진 값입니다.

KnownBlobIndexerImageAction

서비스에서 허용하는 BlobIndexerImageAction 의 알려진 값입니다.

KnownBlobIndexerPDFTextRotationAlgorithm

서비스에서 허용하는 BlobIndexerPDFTextRotationAlgorithm 의 알려진 값입니다.

KnownBlobIndexerParsingMode

서비스에서 허용하는 BlobIndexerParsingMode 의 알려진 값입니다.

KnownCharFilterNames

서비스에서 허용하는 CharFilterName 의 알려진 값입니다.

KnownCustomEntityLookupSkillLanguage

서비스에서 허용하는 CustomEntityLookupSkillLanguage 의 알려진 값입니다.

KnownEntityCategory

서비스에서 허용하는 EntityCategory 의 알려진 값입니다.

KnownEntityRecognitionSkillLanguage

서비스에서 허용하는 EntityRecognitionSkillLanguage 의 알려진 값입니다.

KnownImageAnalysisSkillLanguage

서비스에서 허용하는 ImageAnalysisSkillLanguage 의 알려진 값입니다.

KnownImageDetail

서비스에서 허용하는 ImageDetail 의 알려진 값입니다.

KnownKeyPhraseExtractionSkillLanguage

서비스에서 허용하는 KeyPhraseExtractionSkillLanguage 의 알려진 값입니다.

KnownOcrSkillLanguage

서비스에서 허용하는 OcrSkillLanguage 의 알려진 값입니다.

KnownRegexFlags

서비스에서 허용하는 RegexFlags 의 알려진 값입니다.

KnownSearchAudience

검색 대상 그룹에 대한 알려진 값

KnownSearchIndexerDataSourceType

서비스에서 허용하는 SearchIndexerDataSourceType 의 알려진 값입니다.

KnownSentimentSkillLanguage

서비스에서 허용하는 SentimentSkillLanguage 의 알려진 값입니다.

KnownSplitSkillLanguage

서비스에서 허용하는 SplitSkillLanguage 의 알려진 값입니다.

KnownTextSplitMode

서비스에서 허용하는 TextSplitMode 의 알려진 값입니다.

KnownTextTranslationSkillLanguage

서비스에서 허용하는 TextTranslationSkillLanguage 의 알려진 값입니다.

KnownTokenFilterNames

서비스에서 허용하는 TokenFilterName 의 알려진 값입니다.

KnownTokenizerNames

서비스에서 허용하는 LexicalTokenizerName 의 알려진 값입니다.

KnownVisualFeature

서비스에서 허용하는 VisualFeature 의 알려진 값입니다.

함수

createSynonymMapFromFile(string, string)

SynonymMap 개체를 만드는 도우미 메서드입니다. NodeJS 전용 메서드입니다.

odata(TemplateStringsArray, unknown[])

따옴표 붙은 문자열 리터럴의 오류를 방지하기 위해 odata 필터 식을 이스케이프합니다. 사용 예제:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

지원되는 구문에 대한 자세한 내용은 다음을 참조하세요. https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

함수 세부 정보

createSynonymMapFromFile(string, string)

SynonymMap 개체를 만드는 도우미 메서드입니다. NodeJS 전용 메서드입니다.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

매개 변수

name

string

SynonymMap의 이름입니다.

filePath

string

동의어가 포함된 파일의 경로(새 줄로 구분)

반환

Promise<SynonymMap>

SynonymMap 개체

odata(TemplateStringsArray, unknown[])

따옴표 붙은 문자열 리터럴의 오류를 방지하기 위해 odata 필터 식을 이스케이프합니다. 사용 예제:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

지원되는 구문에 대한 자세한 내용은 다음을 참조하세요. https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

매개 변수

strings

TemplateStringsArray

식에 대한 문자열 배열

values

unknown[]

식의 값 배열

반환

string