@azure/search-documents package
클래스
AzureKeyCredential |
기본 키 값 업데이트를 지원하는 정적 키 기반 자격 증명입니다. |
GeographyPoint |
전역 좌표의 지리적 점을 나타냅니다. |
IndexDocumentsBatch |
인덱스에 대한 여러 문서를 사용하여 일괄 처리 작업을 수행하는 데 사용되는 클래스입니다. |
SearchClient |
인덱스의 문서 쿼리, 추가, 업데이트 및 제거를 포함하여 검색 인덱스에 대한 작업을 수행하는 데 사용되는 클래스입니다. |
SearchIndexClient |
인덱스, & 동의어를 관리(만들기, 업데이트, 나열/삭제)하는 작업을 수행하는 클래스입니다. |
SearchIndexerClient |
인덱서, 데이터 원본 & 기술 세트를 관리(만들기, 업데이트, 나열/삭제)하는 작업을 수행하는 클래스입니다. |
SearchIndexingBufferedSender |
추가, 업데이트 및 제거를 포함하여 검색 인덱스에 대해 버퍼링된 작업을 수행하는 데 사용되는 클래스입니다. |
인터페이스
AnalyzeRequest |
해당 텍스트를 토큰으로 분리하는 데 사용되는 일부 텍스트 및 분석 구성 요소를 지정합니다. |
AnalyzeResult |
텍스트에서 분석기를 테스트한 결과입니다. |
AnalyzedTokenInfo |
분석기에서 반환된 토큰에 대한 정보입니다. |
AsciiFoldingTokenFilter |
처음 127개의 ASCII 문자("기본 라틴 문자" 유니코드 블록)에 없는 알파벳, 숫자 및 기호 유니코드 문자를 ASCII 등가물(있는 경우)로 변환합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
AutocompleteItem |
자동 완성 요청의 결과입니다. |
AutocompleteRequest |
유사 항목 일치 및 기타 자동 완성 쿼리 동작에 대한 매개 변수입니다. |
AutocompleteResult |
자동 완성 쿼리의 결과입니다. |
AzureActiveDirectoryApplicationCredentials |
Azure Key Vault 저장된 암호화 키에 대한 인증된 액세스에 사용되는 검색 서비스에 대해 생성된 등록된 애플리케이션의 자격 증명입니다. |
BM25Similarity |
Okapi BM25 유사성 알고리즘을 기반으로 하는 순위 함수입니다. BM25는 길이 정규화('b' 매개 변수로 제어됨)와 용어 빈도 포화('k1' 매개 변수로 제어됨)를 포함하는 TF-IDF와 유사한 알고리즘입니다. |
BaseCharFilter |
문자 필터의 기본 형식입니다. |
BaseCognitiveServicesAccount |
기술 세트에 연결된 Azure AI 서비스 리소스를 설명하기 위한 기본 형식입니다. |
BaseDataChangeDetectionPolicy |
데이터 변경 검색 정책의 기본 형식입니다. |
BaseDataDeletionDetectionPolicy |
데이터 삭제 검색 정책의 기본 형식입니다. |
BaseLexicalAnalyzer |
분석기 기본 형식입니다. |
BaseLexicalTokenizer |
토큰라이저의 기본 형식입니다. |
BaseScoringFunction |
순위가 지정되는 동안 문서 점수를 수정할 수 있는 함수의 기본 형식입니다. |
BaseSearchIndexerSkill |
기술에 대한 기본 형식입니다. |
BaseSearchRequestOptions |
필터링, 정렬, 패싯, 페이징 및 기타 검색 쿼리 동작에 대한 매개 변수입니다. |
BaseTokenFilter |
토큰 필터의 기본 형식입니다. |
BaseVectorQuery |
벡터 및 하이브리드 검색 쿼리에 대한 쿼리 매개 변수입니다. |
BaseVectorSearchAlgorithmConfiguration |
인덱싱 및/또는 쿼리 중에 사용되는 알고리즘과 관련된 구성 옵션을 포함합니다. |
CjkBigramTokenFilter |
표준 토큰화기에서 생성된 CJK 용어의 bigrams를 형성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
ClassicSimilarity |
TF-IDF의 Lucene TFIDFSimilarity 구현을 사용하는 레거시 유사성 알고리즘입니다. 이러한 TF-IDF 변형은 정적 문서 길이 정규화뿐만 아니라 검색된 쿼리와 부분적으로만 일치하는 문서를 처벌하는 요인을 조정합니다. |
ClassicTokenizer |
대부분의 유럽 언어 문서를 처리하는 데 적합한 문법 기반 토큰라이저입니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다. |
CognitiveServicesAccountKey |
기술 세트에 연결된 키로 프로비전된 Azure AI 서비스 리소스입니다. |
CommonGramTokenFilter |
인덱싱 동안 자주 발생하는 용어에 대한 바이그램을 생성합니다. 단일 단어도 바이그램이 오버레이된 상태로 계속 인덱싱됩니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
ComplexField |
필드의 이름, 데이터 형식 및 검색 동작을 설명하는 인덱스 정의의 필드를 나타냅니다. |
ConditionalSkill |
부울 작업이 필요한 시나리오에서 출력에 할당할 데이터를 결정할 수 있도록 하는 기술입니다. |
CorsOptions |
인덱스에 대한 CORS(원본 간 리소스 공유)를 제어하는 옵션을 정의합니다. |
CreateOrUpdateIndexOptions |
인덱스 만들기/업데이트 작업에 대한 옵션입니다. |
CreateOrUpdateSkillsetOptions |
기술 세트 작업 만들기/업데이트에 대한 옵션입니다. |
CreateOrUpdateSynonymMapOptions |
동의어 만들기/업데이트 작업에 대한 옵션입니다. |
CreateorUpdateDataSourceConnectionOptions |
데이터 원본 만들기/업데이트 작업에 대한 옵션입니다. |
CreateorUpdateIndexerOptions |
인덱서 만들기/업데이트 작업에 대한 옵션입니다. |
CustomAnalyzer |
텍스트를 인덱싱 가능/검색 가능한 토큰으로 변환하는 프로세스를 제어할 수 있습니다. 미리 정의된 단일 토큰라이저와 하나 이상의 필터로 구성된 사용자 정의 구성입니다. tokenizer는 텍스트를 토큰으로 분리하고 토큰라이저에서 내보낸 토큰을 수정하기 위한 필터를 담당합니다. |
CustomEntity |
발견된 일치 항목 및 관련 메타데이터에 대한 정보를 포함하는 개체입니다. |
CustomEntityAlias |
루트 엔터티 이름에 대한 대체 맞춤법 또는 동의어를 지정하는 데 사용할 수 있는 복합 개체입니다. |
CustomEntityLookupSkill |
기술은 사용자 정의 사용자 정의 단어 및 구 목록에서 텍스트를 찾습니다. |
DefaultCognitiveServicesAccount |
기술 세트의 기본 Azure AI 서비스 리소스를 나타내는 빈 개체입니다. |
DeleteDataSourceConnectionOptions |
데이터 원본 삭제 작업에 대한 옵션입니다. |
DeleteIndexOptions |
인덱스 삭제 작업에 대한 옵션입니다. |
DeleteIndexerOptions |
인덱서 삭제 작업에 대한 옵션입니다. |
DeleteSkillsetOptions |
기술 세트 조작을 삭제하는 옵션입니다. |
DeleteSynonymMapOptions |
동의어 삭제 작업에 대한 옵션입니다. |
DictionaryDecompounderTokenFilter |
많은 게르만어파에 있는 복합 단어를 분해합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
DistanceScoringFunction |
지리적 위치와의 거리에 따라 점수를 높이는 함수를 정의합니다. |
DistanceScoringParameters |
거리 채점 함수에 매개 변수 값을 제공합니다. |
DocumentExtractionSkill |
보강 파이프라인 내의 파일에서 콘텐츠를 추출하는 기술입니다. |
EdgeNGramTokenFilter |
입력 토큰의 앞뒤에서 시작하여 지정된 크기의 n그램을 생성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
EdgeNGramTokenizer |
에지의 입력을 지정된 크기의 n그램으로 토큰화합니다. 이 토큰화기는 Apache Lucene을 사용하여 구현됩니다. |
ElisionTokenFilter |
생략 발음을 제거합니다. 예를 들어 "l'avion"(평면)은 "avion"(평면)으로 변환됩니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
EntityLinkingSkill |
Text Analytics API를 사용하여 텍스트에서 연결된 엔터티를 추출합니다. |
EntityRecognitionSkill |
텍스트 분석 엔터티 인식. |
EntityRecognitionSkillV3 |
Text Analytics API를 사용하여 텍스트에서 다양한 형식의 엔터티를 추출합니다. |
ExhaustiveKnnParameters |
철저한 KNN 알고리즘과 관련된 매개 변수를 포함합니다. |
ExtractiveQueryAnswer |
자연어로 질문으로 표현된 쿼리에 대한 응답으로 반환된 문서의 내용에서 답변 후보를 추출합니다. |
ExtractiveQueryCaption |
검색 쿼리와 관련된 구절이 포함된 일치하는 문서에서 캡션을 추출합니다. |
FacetResult |
패싯 쿼리 결과의 단일 버킷입니다. 필드 값이 특정 범위 내에 있거나 특정 값 또는 간격이 있는 문서 수를 보고합니다. |
FieldMapping |
데이터 원본의 필드와 인덱스의 대상 필드 간의 매핑을 정의합니다. |
FieldMappingFunction |
인덱싱하기 전에 데이터 원본에서 값을 변환하는 함수를 나타냅니다. |
FreshnessScoringFunction |
날짜-시간 필드의 값에 따라 점수를 높이는 함수를 정의합니다. |
FreshnessScoringParameters |
새로 고침 점수 매기기 함수에 매개 변수 값을 제공합니다. |
GetDocumentOptions |
단일 문서를 검색하는 옵션입니다. |
HighWaterMarkChangeDetectionPolicy |
높은 워터 마크 열의 값을 기반으로 변경 내용을 캡처하는 데이터 변경 검색 정책을 정의합니다. |
HnswParameters |
hnsw 알고리즘과 관련된 매개 변수를 포함합니다. |
ImageAnalysisSkill |
이미지 파일을 분석하는 기술입니다. 이미지 콘텐츠에 따라 다양한 시각적 기능 집합을 추출합니다. |
IndexDocumentsClient |
인덱스 문서 클라이언트 |
IndexDocumentsOptions |
인덱스 일괄 처리 수정 작업에 대한 옵션입니다. |
IndexDocumentsResult |
인덱싱 요청의 모든 문서에 대한 작업의 상태 포함하는 응답입니다. |
IndexerExecutionResult |
개별 인덱서 실행의 결과를 나타냅니다. |
IndexingParameters |
인덱서 실행에 대한 매개 변수를 나타냅니다. |
IndexingParametersConfiguration |
인덱서별 구성 속성의 사전입니다. 각 이름은 특정 속성의 이름입니다. 각 값은 기본 형식이어야 합니다. |
IndexingResult |
단일 문서에 대한 인덱싱 작업의 상태입니다. |
IndexingSchedule |
인덱서 실행에 대한 일정을 나타냅니다. |
InputFieldMappingEntry |
기술에 대한 입력 필드 매핑입니다. |
KeepTokenFilter |
지정된 단어 목록에 포함된 텍스트로만 토큰을 유지하는 토큰 필터입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
KeyPhraseExtractionSkill |
핵심 구 추출에 텍스트 분석을 사용하는 기술입니다. |
KeywordMarkerTokenFilter |
용어를 키워드로 표시합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
KeywordTokenizer |
전체 입력을 단일 토큰으로 내보냅니다. 이 토큰화기는 Apache Lucene을 사용하여 구현됩니다. |
LanguageDetectionSkill |
입력 텍스트의 언어를 감지하고 요청에 따라 제출된 모든 문서에 대해 단일 언어 코드를 보고하는 기술입니다. 언어 코드는 분석의 신뢰도를 나타내는 점수와 쌍을 이집니다. |
LengthTokenFilter |
너무 길거나 너무 짧은 단어를 제거합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
LimitTokenFilter |
인덱싱을 할 때 토큰 수를 제한합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
ListSearchResultsPageSettings |
검색 결과의 다음 페이지를 검색하기 위한 인수입니다. |
LuceneStandardAnalyzer |
표준 Apache Lucene 분석기; 표준 토큰라이저, 소문자 필터 및 중지 필터로 구성됩니다. |
LuceneStandardTokenizer |
유니코드 텍스트 구분 규칙에 따라 텍스트를 구분합니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다. |
MagnitudeScoringFunction |
숫자 필드의 크기에 따라 점수를 높이는 함수를 정의합니다. |
MagnitudeScoringParameters |
크기 채점 함수에 매개 변수 값을 제공합니다. |
MappingCharFilter |
매핑 옵션으로 정의된 매핑을 적용하는 문자 필터입니다. 일치는 greedy 방식을 따릅니다(지정된 지점에서 가장 긴 패턴 일치가 검색됨). 빈 문자열로 대체될 수 있습니다. 이 문자 필터는 Apache Lucene을 사용하여 구현됩니다. |
MergeSkill |
두 개 이상의 문자열을 단일 통합 문자열로 병합하는 기술로, 선택적 사용자 정의 구분 기호가 각 구성 요소 부분을 구분합니다. |
MicrosoftLanguageStemmingTokenizer |
언어별 규칙을 사용하여 텍스트를 구분하고, 단어를 기본 형식으로 줄입니다. |
MicrosoftLanguageTokenizer |
언어별 규칙을 사용하여 텍스트를 구분합니다. |
NGramTokenFilter |
지정된 크기의 n-gram을 생성합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
NGramTokenizer |
입력을 지정된 크기의 n-gram으로 토큰화합니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다. |
OcrSkill |
이미지 파일에서 텍스트를 추출하는 기술입니다. |
OutputFieldMappingEntry |
기술에 대한 출력 필드 매핑입니다. |
PIIDetectionSkill |
Text Analytics API를 사용하여 입력 텍스트에서 개인 정보를 추출하고 마스킹 옵션을 제공합니다. |
PathHierarchyTokenizer |
경로와 같은 계층 구조의 토크나이저입니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다. |
PatternAnalyzer |
정규식 패턴을 통해 텍스트를 용어로 유연하게 구분합니다. 이 분석기는 Apache Lucene을 사용하여 구현됩니다. |
PatternCaptureTokenFilter |
Java regexes를 사용하여 하나 이상의 패턴으로 각 캡처 그룹에 대해 하나씩 여러 토큰을 내보낸다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
PatternReplaceCharFilter |
입력 문자열의 문자를 대체하는 문자 필터입니다. 정규식을 사용하여 보존할 문자 시퀀스를 식별하고, 대체 패턴을 사용하여 대체할 문자를 식별합니다. 예를 들어 입력 텍스트 "aa bb aa bb", pattern "(aa)\s+(bb)", 대체 "$1#$2"를 지정하면 결과는 "aa#bb aa#bb"입니다. 이 문자 필터는 Apache Lucene을 사용하여 구현됩니다. |
PatternReplaceTokenFilter |
입력 문자열의 문자를 대체하는 문자 필터입니다. 정규식을 사용하여 보존할 문자 시퀀스를 식별하고, 대체 패턴을 사용하여 대체할 문자를 식별합니다. 예를 들어 입력 텍스트 "aa bb aa bb", pattern "(aa)\s+(bb)", 대체 "$1#$2"를 지정하면 결과는 "aa#bb aa#bb"입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
PatternTokenizer |
정규식 패턴 일치를 사용하여 고유 토큰을 생성하는 토큰화기입니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다. |
PhoneticTokenFilter |
음성 일치 항목에 대한 토큰을 만듭니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
QueryAnswerResult |
답변은 쿼리와 일치하는 가장 관련성이 큰 문서의 내용에서 추출된 텍스트 구절입니다. 답변은 상위 검색 결과에서 추출됩니다. 답변 응시자가 점수가 매기고 상위 답변이 선택됩니다. |
QueryCaptionResult |
캡션은 검색 쿼리에 상대적으로 문서에서 가장 대표적인 구절입니다. 문서 요약으로 사용되는 경우가 많습니다. 캡션은 형식 |
ResourceCounter |
리소스의 사용량 및 할당량을 나타냅니다. |
ScoringProfile |
검색 쿼리의 점수 매기기 에 영향을 주는 검색 인덱스에 대한 매개 변수를 정의합니다. |
SearchClientOptions |
Cognitive Search API 요청을 구성하는 데 사용되는 클라이언트 옵션입니다. |
SearchDocumentsPageResult |
인덱스에서 검색 페이지 결과가 포함된 응답입니다. |
SearchDocumentsResult |
인덱스에서 검색 결과를 포함하는 응답입니다. |
SearchDocumentsResultBase |
인덱스에서 검색 결과를 포함하는 응답입니다. |
SearchIndex |
인덱스의 필드 및 검색 동작을 설명하는 검색 인덱스 정의를 나타냅니다. |
SearchIndexClientOptions |
Cognitive Search API 요청을 구성하는 데 사용되는 클라이언트 옵션입니다. |
SearchIndexStatistics |
지정된 인덱스에 대한 통계입니다. 통계는 주기적으로 수집되며 항상 최신 상태로 유지되는 것은 아닙니다. |
SearchIndexer |
인덱서 를 나타냅니다. |
SearchIndexerClientOptions |
Cognitive Search API 요청을 구성하는 데 사용되는 클라이언트 옵션입니다. |
SearchIndexerDataContainer |
인덱싱할 엔터티(예: Azure SQL 테이블 또는 CosmosDB 컬렉션)에 대한 정보를 나타냅니다. |
SearchIndexerDataSourceConnection |
인덱서 구성에 사용할 수 있는 데이터 원본 정의를 나타냅니다. |
SearchIndexerError |
항목 또는 문서 수준 인덱싱 오류를 나타냅니다. |
SearchIndexerKnowledgeStore |
보강된 데이터의 Azure Blob, 테이블 또는 파일에 대한 추가 프로젝션 정의입니다. |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
구체적인 선택기 간에 속성을 공유하는 추상 클래스입니다. |
SearchIndexerKnowledgeStoreFileProjectionSelector |
Azure Files 저장할 데이터에 대한 프로젝션 정의입니다. |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
Azure Blob에 저장할 데이터에 대한 프로젝션 정의입니다. |
SearchIndexerKnowledgeStoreProjection |
다양한 프로젝션 선택기의 컨테이너 개체입니다. |
SearchIndexerKnowledgeStoreProjectionSelector |
구체적인 선택기 간에 속성을 공유하는 추상 클래스입니다. |
SearchIndexerKnowledgeStoreTableProjectionSelector |
Azure Tables에 저장할 데이터에 대한 설명입니다. |
SearchIndexerLimits | |
SearchIndexerSkillset |
기술 목록입니다. |
SearchIndexerStatus |
인덱서의 현재 상태와 실행 기록을 나타냅니다. |
SearchIndexerWarning |
항목 수준 경고를 나타냅니다. |
SearchIndexingBufferedSenderOptions |
SearchIndexingBufferedSender에 대한 옵션입니다. |
SearchResourceEncryptionKey |
Azure Key Vault 고객 관리형 암호화 키입니다. 만들고 관리하는 키를 사용하여 인덱스 및 동의어 맵과 같은 Azure Cognitive Search 미사용 데이터를 암호화하거나 암호 해독할 수 있습니다. |
SearchServiceStatistics |
서비스 통계 가져오기 요청의 응답입니다. 성공하면 서비스 수준 카운터 및 제한이 포함됩니다. |
SearchSuggester |
인덱스의 필드 그룹에 Suggest API를 적용하는 방법을 정의합니다. |
SemanticConfiguration |
의미 체계 기능의 컨텍스트에서 사용할 특정 구성을 정의합니다. |
SemanticField |
의미 체계 구성의 일부로 사용되는 필드입니다. |
SemanticPrioritizedFields |
의미 체계 순위, 캡션, 강조 표시 및 답변에 사용할 제목, 콘텐츠 및 키워드 필드를 설명합니다. |
SemanticSearch |
의미 체계 기능에 영향을 주는 검색 인덱스에 대한 매개 변수를 정의합니다. |
SemanticSearchOptions |
의미 체계 검색 쿼리에 대한 옵션을 정의합니다. |
SentimentSkill |
텍스트 분석 긍정-부정 감정 분석- 0에서 1 범위의 부동 소수점 값으로 채점됩니다. |
SentimentSkillV3 |
Text Analytics API를 사용하여 는 구조화되지 않은 텍스트를 평가하고 각 레코드에 대해 문장 및 문서 수준에서 서비스에서 찾은 가장 높은 신뢰도 점수를 기반으로 감정 레이블(예: "부정", "중립" 및 "긍정")을 제공합니다. |
ServiceCounters |
서비스 수준 리소스 카운터 및 할당량을 나타냅니다. |
ServiceLimits |
다양한 서비스 수준 제한을 나타냅니다. |
ShaperSkill |
출력을 재구성하는 기술입니다. 복합 필드(다중 파트 필드라고도 함)를 지원하는 복합 형식을 만듭니다. |
ShingleTokenFilter |
토큰의 조합을 단일 토큰으로 만듭니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
Similarity |
유사성 알고리즘의 기본 형식입니다. 유사성 알고리즘은 쿼리를 문서에 연결하는 점수를 계산하는 데 사용됩니다. 점수가 높을수록 문서가 해당 특정 쿼리와 더 관련성이 높습니다. 이러한 점수는 검색 결과의 순위를 지정하는 데 사용됩니다. |
SimpleField |
필드의 이름, 데이터 형식 및 검색 동작을 설명하는 인덱스 정의의 필드를 나타냅니다. |
SnowballTokenFilter |
Snowball에서 생성된 형태소 분석기를 사용하여 단어를 막는 필터입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
SoftDeleteColumnDeletionDetectionPolicy |
일시 삭제 전략을 구현하는 데이터 삭제 검색 정책을 정의합니다. 지정된 '일시 삭제' 열의 값에 따라 항목을 삭제해야 하는지 여부를 결정합니다. |
SplitSkill |
문자열을 텍스트 청크로 분할하는 기술입니다. |
SqlIntegratedChangeTrackingPolicy |
Azure SQL Database의 통합 변경 내용 추적 기능을 사용하여 변경 내용을 캡처하는 데이터 변경 검색 정책을 정의합니다. |
StemmerOverrideTokenFilter |
사용자 지정 사전 기반 형태소 분석으로 다른 형태소 분석 필터를 재정의하는 기능을 제공합니다. 사전 형태소 분석된 용어는 키워드로 표시되므로 체인 아래로 형태소 분석기를 사용하여 형태소 분석되지 않습니다. 형태소 분석 필터 전에 배치해야 합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
StemmerTokenFilter |
언어별 형태소 분석 필터입니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
StopAnalyzer |
텍스트를 문자가 아닌 문자로 나눕니다. 소문자 및 중지 단어 토큰 필터를 적용합니다. 이 분석기는 Apache Lucene을 사용하여 구현됩니다. |
StopwordsTokenFilter |
토큰 스트림에서 중지 단어를 제거합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
SuggestDocumentsResult |
인덱스에서의 제안 쿼리 결과를 포함하는 응답입니다. |
SuggestRequest |
필터링, 정렬, 유사 항목 일치 및 기타 제안 쿼리 동작에 대한 매개 변수입니다. |
SynonymMap |
동의어 맵 정의를 나타냅니다. |
SynonymTokenFilter |
토큰 스트림의 단일 또는 다중 단어 동의어와 일치합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
TagScoringFunction |
지정된 태그 목록과 일치하는 문자열 값으로 수십 개의 문서를 향상시키는 함수를 정의합니다. |
TagScoringParameters |
태그 채점 함수에 매개 변수 값을 제공합니다. |
TextTranslationSkill |
텍스트를 한 언어에서 다른 언어로 번역하는 기술입니다. |
TextWeights |
일치 항목이 검색 쿼리에서 점수를 높여야 하는 인덱스 필드에 대한 가중치를 정의합니다. |
TruncateTokenFilter |
용어를 특정 길이로 자립니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
UaxUrlEmailTokenizer |
URL과 이메일을 하나의 토큰으로 토큰화합니다. 이 토크나이저는 Apache Lucene을 사용하여 구현됩니다. |
UniqueTokenFilter |
이전 토큰과 동일한 텍스트를 포함하는 토큰을 필터링합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
VectorSearch |
벡터 검색과 관련된 구성 옵션을 포함합니다. |
VectorSearchOptions |
벡터 검색 쿼리에 대한 옵션을 정의합니다. |
VectorSearchProfile |
벡터 검색에 사용할 구성의 조합을 정의합니다. |
VectorizedQuery |
원시 벡터 값이 제공될 때 벡터 검색에 사용할 쿼리 매개 변수입니다. |
WebApiSkill |
Web API 엔드포인트를 호출할 수 있는 기술로, 사용자 지정 코드를 호출하여 기술 세트를 확장할 수 있습니다. |
WordDelimiterTokenFilter |
단어를 부분 단어로 분할하고 부분 단어 그룹에 대해 선택적 변환을 수행합니다. 이 토큰 필터는 Apache Lucene을 사용하여 구현됩니다. |
형식 별칭
AnalyzeTextOptions |
텍스트 작업 분석을 위한 옵션입니다. |
AutocompleteMode |
AutocompleteMode에 대한 값을 정의합니다. |
AutocompleteOptions |
부분 검색텍스트에 대한 완성 텍스트를 검색하는 옵션입니다. |
BlobIndexerDataToExtract |
서비스에서 지원하는 알려진 값storageMetadata: 표준 Blob 속성 및 사용자 지정 메타데이터만 인덱싱합니다. allMetadata: Azure Blob Storage 하위 시스템 및 콘텐츠 형식 특정 메타데이터(예: .png 파일에만 고유한 메타데이터)에서 제공하는 메타데이터를 추출합니다. contentAndMetadata: 각 Blob에서 모든 메타데이터 및 텍스트 콘텐츠를 추출합니다. |
BlobIndexerImageAction |
서비스에서 지원하는 알려진 값none: 데이터 집합의 포함된 이미지 또는 이미지 파일을 무시합니다. 이것이 기본값입니다. generateNormalizedImages: 이미지(예: 트래픽 정지 기호에서 "STOP"이라는 단어)에서 텍스트를 추출하여 콘텐츠 필드에 포함합니다. 이 작업을 수행하려면 "dataToExtract"를 "contentAndMetadata"로 설정해야 합니다. 정규화된 이미지는 시각적 검색 결과에 이미지를 포함할 때 일관된 렌더링을 촉진하기 위해 크기가 조정되고 회전되는 균일한 이미지 출력을 초래하는 추가 처리를 의미합니다. 이 옵션을 사용할 때 각 이미지에 대해 해당 정보가 생성됩니다. generateNormalizedImagePerPage: 이미지에서 텍스트를 추출하고(예: 트래픽 정지 기호에서 "STOP" 단어) 콘텐츠 필드에 포함하지만 포함된 이미지를 추출하는 대신 각 페이지가 이미지로 렌더링되고 그에 따라 정규화된다는 측면에서 PDF 파일을 다르게 처리합니다. PDF가 아닌 파일 형식은 "generateNormalizedImages"가 설정된 경우와 동일하게 처리됩니다. |
BlobIndexerPDFTextRotationAlgorithm |
서비스에서 지원하는 알려진 값none: 일반 텍스트 추출을 활용합니다. 이것이 기본값입니다. detectAngles: 텍스트가 회전된 PDF 파일에서 더 잘 읽을 수 있는 텍스트 추출을 생성할 수 있습니다. 이 매개 변수를 사용할 때 성능 속도에 작은 영향을 미칠 수 있습니다. 이 매개 변수는 PDF 파일에만 적용되며 포함된 텍스트가 있는 PDF에만 적용됩니다. PDF의 포함된 이미지 내에 회전된 텍스트가 나타나면 이 매개 변수가 적용되지 않습니다. |
BlobIndexerParsingMode |
서비스에서 지원하는 알려진 값default: 기본 파일 처리를 위해 를 기본값으로 설정합니다. text: Blob Storage의 일반 텍스트 파일에서 인덱싱 성능을 향상시키기 위해 텍스트로 설정합니다. delimitedText: Blob이 일반 CSV 파일인 경우 delimitedText로 설정합니다. json: JSON 파일에서 구조화된 콘텐츠를 추출하려면 json으로 설정합니다. jsonArray: jsonArray로 설정하여 JSON 배열의 개별 요소를 Azure Cognitive Search 별도의 문서로 추출합니다. jsonLines: jsonLines로 설정하여 새 줄로 구분된 개별 JSON 엔터티를 Azure Cognitive Search 별도의 문서로 추출합니다. |
CharFilter |
CharFilter에 대한 가능한 사례를 포함합니다. |
CharFilterName |
CharFilterName에 대한 값을 정의합니다. 서비스에서 지원하는 알려진 값html_strip: HTML 구문을 제거하려고 시도하는 문자 필터입니다. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html를 참조하세요. |
CjkBigramTokenFilterScripts |
CjkBigramTokenFilterScripts에 대한 값을 정의합니다. |
CognitiveServicesAccount |
CognitiveServicesAccount에 대한 가능한 사례를 포함합니다. |
ComplexDataType |
ComplexDataType에 대한 값을 정의합니다. 가능한 값은 'Edm.ComplexType', 'Collection(Edm.ComplexType)'입니다. |
CountDocumentsOptions |
인덱스에서 개수 작업을 수행하기 위한 옵션입니다. |
CreateDataSourceConnectionOptions |
데이터 원본 작업을 만들기 위한 옵션입니다. |
CreateIndexOptions |
인덱스 만들기 작업에 대한 옵션입니다. |
CreateIndexerOptions |
인덱서 만들기 작업에 대한 옵션입니다. |
CreateSkillsetOptions |
기술 세트 작업을 만들기 위한 옵션입니다. |
CreateSynonymMapOptions |
동의어 맵 작업을 만들기 위한 옵션입니다. |
CustomEntityLookupSkillLanguage |
CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage에 대해 지원되는 언어를 이 형식과 교환하여 사용할 수 있습니다. |
DataChangeDetectionPolicy |
DataChangeDetectionPolicy에 대한 가능한 사례를 포함합니다. |
DataDeletionDetectionPolicy |
DataDeletionDetectionPolicy에 대한 가능한 사례를 포함합니다. |
DeleteDocumentsOptions |
문서 삭제 작업에 대한 옵션입니다. |
EdgeNGramTokenFilterSide |
EdgeNGramTokenFilterSide의 값을 정의합니다. |
EntityCategory | |
EntityRecognitionSkillLanguage |
EntityRecognitionSkillKnownEntityRecognitionSkillLanguage에 대해 지원되는 언어를 이 형식과 서로 교환하여 사용할 수 있습니다. |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
전체 벡터 인덱스에서 무차별 암호 대입 검색을 수행하는 쿼리 중에 사용되는 철저한 KNN 알고리즘과 관련된 구성 옵션을 포함합니다. |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
데이터 원본 가져오기 작업에 대한 옵션입니다. |
GetIndexOptions |
인덱스 가져오기 작업에 대한 옵션입니다. |
GetIndexStatisticsOptions |
인덱스 통계 가져오기 작업에 대한 옵션입니다. |
GetIndexerOptions |
인덱서 가져오기 작업에 대한 옵션입니다. |
GetIndexerStatusOptions |
인덱서 가져오기 상태 작업에 대한 옵션입니다. |
GetServiceStatisticsOptions |
서비스 통계 가져오기 작업에 대한 옵션입니다. |
GetSkillSetOptions |
기술 세트 작업을 가져오기 위한 옵션입니다. |
GetSynonymMapsOptions |
동의어 가져오기 작업에 대한 옵션입니다. |
HnswAlgorithmConfiguration |
인덱싱 시간 동안 사용되는 hnsw 근사한 인접 알고리즘과 관련된 구성 옵션을 포함합니다. |
ImageAnalysisSkillLanguage |
ImageAnalysisSkillKnownImageAnalysisSkillLanguage에 대해 지원되는 언어를 이 형식과 교환하여 사용할 수 있습니다. |
ImageDetail | |
IndexActionType |
IndexActionType에 대한 값을 정의합니다. |
IndexDocumentsAction |
문서에서 작동하는 인덱스 작업을 나타냅니다. |
IndexIterator |
Search Service 있는 인덱스를 나열하기 위한 반복기입니다. 반복하는 동안 필요에 따라 요청을 수행합니다. .byPage()를 사용하여 반복당 서버에 대해 하나의 요청을 수행합니다. |
IndexNameIterator |
Search Service 있는 인덱스를 나열하기 위한 반복기입니다. 반복하는 동안 필요에 따라 요청을 수행합니다. .byPage()를 사용하여 반복당 서버에 대해 하나의 요청을 수행합니다. |
IndexerExecutionEnvironment |
서비스에서 지원하는 알려진 값standard: Azure Cognitive Search 인덱서가 실행되어야 하는 위치를 결정할 수 있음을 나타냅니다. 아무것도 지정하지 않은 경우 기본 환경이며 권장되는 값입니다. private: 인덱서가 검색 서비스에 대해 특별히 프로비전된 환경과 함께 실행되어야 했음을 나타냅니다. 인덱서가 공유 프라이빗 링크 리소스를 통해 리소스에 안전하게 액세스해야 하는 경우에만 실행 환경으로 지정해야 합니다. |
IndexerExecutionStatus |
IndexerExecutionStatus에 대한 값을 정의합니다. |
IndexerStatus |
IndexerStatus에 대한 값을 정의합니다. |
KeyPhraseExtractionSkillLanguage |
KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage에 대해 지원되는 언어를 이 형식과 서로 교환하여 사용할 수 있습니다. |
LexicalAnalyzer |
분석기에서 가능한 사례를 포함합니다. |
LexicalAnalyzerName |
LexicalAnalyzerName에 대한 값을 정의합니다. 서비스에서 지원하는 알려진 값ar.microsoft: 아랍어용 Microsoft 분석기입니다. |
LexicalTokenizer |
Tokenizer에 대한 가능한 사례를 포함합니다. |
LexicalTokenizerName |
LexicalTokenizerName의 값을 정의합니다. 서비스에서 지원하는 알려진 값classic: 대부분의 유럽 언어 문서를 처리하는 데 적합한 문법 기반 토큰라이저입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html을 참조하십시오. |
ListDataSourceConnectionsOptions |
목록 데이터 원본 작업에 대한 옵션입니다. |
ListIndexersOptions |
목록 인덱서 작업에 대한 옵션입니다. |
ListIndexesOptions |
목록 인덱스 작업에 대한 옵션입니다. |
ListSkillsetsOptions |
기술 세트 목록 작업에 대한 옵션입니다. |
ListSynonymMapsOptions |
목록 동의어Maps 작업에 대한 옵션입니다. |
MergeDocumentsOptions |
문서 병합 작업에 대한 옵션입니다. |
MergeOrUploadDocumentsOptions |
문서 병합 또는 업로드 작업에 대한 옵션입니다. |
MicrosoftStemmingTokenizerLanguage |
MicrosoftStemmingTokenizerLanguage에 대한 값을 정의합니다. |
MicrosoftTokenizerLanguage |
MicrosoftTokenizerLanguage에 대한 값을 정의합니다. |
NarrowedModel |
선택한 필드만 포함하도록 모델 형식의 범위를 좁힐 수 있습니다. |
OcrSkillLanguage |
OcrSkillKnownOcrSkillLanguage에 지원되는 언어를 정의하여 이 형식과 교환하여 사용할 수 있습니다. |
PIIDetectionSkillMaskingMode |
PIIDetectionSkillMaskingMode에 대한 값을 정의합니다. 서비스에서 지원하는 알려진 값none: 마스킹이 발생하지 않고 maskedText 출력이 반환되지 않습니다. replace: 검색된 엔터티를 maskingCharacter 매개 변수에 지정된 문자로 바꿉니다. 오프셋이 입력 텍스트와 출력 maskedText 모두에 올바르게 일치하도록 문자가 검색된 엔터티의 길이로 반복됩니다. |
PhoneticEncoder |
PhoneticEncoder에 대한 값을 정의합니다. |
QueryAnswer |
답변이 검색 응답의 일부로 반환되어야 하는지 여부를 지정하는 값입니다.
이 매개 변수는 쿼리 형식이 '의미 체계'인 경우에만 유효합니다. 로 |
QueryCaption |
캡션을 검색 응답의 일부로 반환할지 여부를 지정하는 값입니다. 이 매개 변수는 쿼리 형식이 '의미 체계'인 경우에만 유효합니다. 설정된 경우 쿼리는 가장 높은 순위의 문서의 주요 구절에서 추출된 캡션을 반환합니다. 캡션이 '추출'인 경우 강조 표시는 기본적으로 사용하도록 설정됩니다. 기본값은 'none'입니다. |
QueryType |
QueryType에 대한 값을 정의합니다. |
RegexFlags |
정규식 패턴 일치를 위한 플래그 정의 서비스에서 지원하는 알려진 값CANON_EQ: 정식 동등성을 사용하도록 설정합니다. CASE_INSENSITIVE: 대/소문자를 구분하지 않는 일치를 사용하도록 설정합니다. 설명: 패턴에서 공백 및 주석을 허용합니다. DOTALL: dotall 모드를 사용하도록 설정합니다. LITERAL: 패턴의 리터럴 구문 분석을 사용하도록 설정합니다. MULTILINE: 여러 줄 모드를 사용하도록 설정합니다. UNICODE_CASE: 유니코드 인식 사례 폴딩을 사용하도록 설정합니다. UNIX_LINES: Unix 줄 모드를 사용하도록 설정합니다. |
ResetIndexerOptions |
인덱서 다시 설정 작업에 대한 옵션입니다. |
RunIndexerOptions |
인덱서 실행 작업에 대한 옵션입니다. |
ScoringFunction |
ScoringFunction에 대한 가능한 사례를 포함합니다. |
ScoringFunctionAggregation |
ScoringFunctionAggregation에 대한 값을 정의합니다. |
ScoringFunctionInterpolation |
ScoringFunctionInterpolation에 대한 값을 정의합니다. |
ScoringStatistics |
ScoringStatistics의 값을 정의합니다. |
SearchField |
필드의 이름, 데이터 형식 및 검색 동작을 설명하는 인덱스 정의의 필드를 나타냅니다. |
SearchFieldArray |
가 형식화되지 않은 개체인 경우 |
SearchFieldDataType |
SearchFieldDataType에 대한 값을 정의합니다. 가능한 값은 'Edm.String', 'Edm.Int32', 'Edm.Int64', 'Edm.Double', 'Edm.Boolean', 'Edm.DateTimeOffset', 'Edm.GeographyPoint', 'Collection(Edm.String)', 'Collection(Edm.Int32)', 'Collection(Edm.Int64)', 'Collection(Edm.Double)', 'Collection(Edm.Boolean)', 'Collection(Edm.DateTimeOffset)', 'Collection(Edm.GeographyPoint)', 'Collection(Edm.Single)' NB: |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
기술에 대한 가능한 사례를 포함합니다. |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
SearchIndexingBufferedSenderDeleteDocuments에 대한 옵션입니다. |
SearchIndexingBufferedSenderFlushDocumentsOptions |
SearchIndexingBufferedSenderFlushDocuments에 대한 옵션입니다. |
SearchIndexingBufferedSenderMergeDocumentsOptions |
SearchIndexingBufferedSenderMergeDocuments에 대한 옵션입니다. |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
SearchIndexingBufferedSenderMergeOrUploadDocuments에 대한 옵션입니다. |
SearchIndexingBufferedSenderUploadDocumentsOptions |
SearchIndexingBufferedSenderUploadDocuments에 대한 옵션입니다. |
SearchIterator |
표식 쿼리의 검색 결과를 위한 반복기입니다. 반복하는 동안 필요에 따라 요청을 수행합니다. .byPage()를 사용하여 반복당 서버에 한 번의 요청을 수행합니다. |
SearchMode |
SearchMode에 대한 값을 정의합니다. |
SearchOptions |
전체 검색 요청을 커밋하는 옵션입니다. |
SearchPick |
유효한 Cognitive Search OData $select 경로를 사용하여 T 필드를 깊게 선택합니다. |
SearchRequestOptions |
필터링, 정렬, 패싯, 페이징 및 기타 검색 쿼리 동작에 대한 매개 변수입니다. |
SearchRequestQueryTypeOptions | |
SearchResult |
검색 쿼리에서 찾은 문서와 연결된 메타데이터를 포함합니다. |
SelectArray |
가 없는 경우 |
SelectFields |
T에 루팅된 필드 트리의 사후 통과를 사용하여 T에 대한 유효한 Cognitive Search OData $select 경로의 합합을 생성합니다. |
SemanticErrorMode |
partial: 의미 체계 처리에 실패하면 부분 결과가 여전히 반환됩니다. 부분 결과의 정의는 실패한 의미 체계 단계와 실패 원인에 따라 달라집니다. fail: 의미 체계 처리 단계 중에 예외가 있는 경우 쿼리가 실패하고 오류에 따라 적절한 HTTP 코드를 반환합니다. |
SemanticErrorReason |
maxWaitExceeded: 'semanticMaxWaitInMilliseconds'가 설정되고 의미 체계 처리 기간이 해당 값을 초과한 경우 기본 결과만 반환되었습니다. capacityOverloaded: 요청이 제한되었습니다. 기본 결과만 반환되었습니다. transient: 의미 체계 프로세스의 하나 이상의 단계가 실패했습니다. |
SemanticSearchResultsType |
baseResults: 의미 체계 보강 또는 재전송이 없는 결과입니다. rerankedResults: 결과가 재랜커 모델로 재전송되었으며 의미 체계 캡션이 포함됩니다. 답변, 답변 하이라이트 또는 캡션 하이라이트는 포함되지 않습니다. |
SentimentSkillLanguage |
SentimentSkillKnownSentimentSkillLanguage에 대해 지원되는 언어를 이 형식과 교환하여 사용할 수 있습니다. |
SimilarityAlgorithm |
유사성에 대한 가능한 사례를 포함합니다. |
SnowballTokenFilterLanguage |
SnowballTokenFilterLanguage에 대한 값을 정의합니다. |
SplitSkillLanguage |
SplitSkillKnownSplitSkillLanguage에 대해 지원되는 언어를 이 형식과 교환하여 사용할 수 있습니다. |
StemmerTokenFilterLanguage |
StemmerTokenFilterLanguage에 대한 값을 정의합니다. |
StopwordsList |
StopwordsList에 대한 값을 정의합니다. |
SuggestNarrowedModel | |
SuggestOptions |
searchText를 기반으로 제안을 검색하는 옵션입니다. |
SuggestResult |
제안 쿼리에서 찾은 문서와 관련 메타데이터가 포함된 결과입니다. |
TextSplitMode | |
TextTranslationSkillLanguage |
TextTranslationSkillKnownTextTranslationSkillLanguage에 대해 지원되는 언어를 이 형식과 교환하여 사용할 수 있습니다. |
TokenCharacterKind |
TokenCharacterKind에 대한 값을 정의합니다. |
TokenFilter |
TokenFilter에 대한 가능한 사례를 포함합니다. |
TokenFilterName |
TokenFilterName에 대한 값을 정의합니다. 서비스에서 지원하는 알려진 값arabic_normalization: 아랍어 정규화를 적용하여 orthography를 정규화하는 토큰 필터입니다. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html을 참조하십시오. |
UnionToIntersection | |
UploadDocumentsOptions |
문서 업로드 작업에 대한 옵션입니다. |
VectorFilterMode |
벡터 검색이 수행되기 전이나 후에 필터가 적용되는지 여부를 결정합니다. |
VectorQuery |
벡터 및 하이브리드 검색 쿼리에 대한 쿼리 매개 변수입니다. |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
인덱싱 및/또는 쿼리 중에 사용되는 알고리즘과 관련된 구성 옵션을 포함합니다. |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric |
벡터 비교에 사용할 유사성 메트릭입니다. |
VisualFeature |
열거형
함수
create |
SynonymMap 개체를 만드는 도우미 메서드입니다. NodeJS 전용 메서드입니다. |
odata(Template |
따옴표 붙은 문자열 리터럴의 오류를 방지하기 위해 odata 필터 식을 이스케이프합니다. 사용 예제:
지원되는 구문에 대한 자세한 내용은 다음을 참조하세요. https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
함수 세부 정보
createSynonymMapFromFile(string, string)
SynonymMap 개체를 만드는 도우미 메서드입니다. NodeJS 전용 메서드입니다.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
매개 변수
- name
-
string
SynonymMap의 이름입니다.
- filePath
-
string
동의어가 포함된 파일의 경로(새 줄로 구분)
반환
Promise<SynonymMap>
SynonymMap 개체
odata(TemplateStringsArray, unknown[])
따옴표 붙은 문자열 리터럴의 오류를 방지하기 위해 odata 필터 식을 이스케이프합니다. 사용 예제:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
지원되는 구문에 대한 자세한 내용은 다음을 참조하세요. https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
매개 변수
- strings
-
TemplateStringsArray
식에 대한 문자열 배열
- values
-
unknown[]
식의 값 배열
반환
string