Dela via


@azure/search-documents package

Klasser

AzureKeyCredential

En statisk nyckelbaserad autentiseringsuppgift som stöder uppdatering av det underliggande nyckelvärdet.

GeographyPoint

Representerar en geografisk punkt i globala koordinater.

IndexDocumentsBatch

Klass som används för att utföra batchåtgärder med flera dokument till indexet.

SearchClient

Klass som används för att utföra åtgärder mot ett sökindex, inklusive att fråga dokument i indexet samt lägga till, uppdatera och ta bort dem.

SearchIndexClient

Klass för att utföra åtgärder för att hantera (skapa, uppdatera, lista/ta bort) index, & synonymkartor.

SearchIndexerClient

Klass för att utföra åtgärder för att hantera (skapa, uppdatera, lista/ta bort) indexerare, datakällor & kompetensuppsättningar.

SearchIndexingBufferedSender

Klass som används för att utföra buffrade åtgärder mot ett sökindex, inklusive att lägga till, uppdatera och ta bort dem.

Gränssnitt

AnalyzeRequest

Anger vissa text- och analyskomponenter som används för att dela upp texten i token.

AnalyzeResult

Resultatet av att testa ett analysverktyg för text.

AnalyzedTokenInfo

Information om en token som returneras av en analysator.

AsciiFoldingTokenFilter

Konverterar alfabetiska, numeriska och symboliska Unicode-tecken som inte finns i de första 127 ASCII-tecknen (Unicode-blocket "Basic Latin" ) till deras ASCII-motsvarigheter, om sådana motsvarigheter finns. Det här tokenfiltret implementeras med Apache Lucene.

AutocompleteItem

Resultatet av autocomplete-begäranden.

AutocompleteRequest

Parametrar för fuzzy-matchning och andra autocomplete-frågebeteenden.

AutocompleteResult

Resultatet av frågan Komplettera automatiskt.

AzureActiveDirectoryApplicationCredentials

Autentiseringsuppgifter för ett registrerat program som skapats för din söktjänst och som används för autentiserad åtkomst till krypteringsnycklarna som lagras i Azure Key Vault.

BM25Similarity

Rankningsfunktion baserat på Okapi BM25-likhetsalgoritmen. BM25 är en TF-IDF-liknande algoritm som innehåller längdnormalisering (styrs av parametern "b" samt termfrekvensmättnad (styrs av parametern k1).

BaseCharFilter

Bastyp för teckenfilter.

BaseCognitiveServicesAccount

Bastyp för att beskriva alla Azure AI-tjänstresurser som är kopplade till en kompetensuppsättning.

BaseDataChangeDetectionPolicy

Bastyp för principer för identifiering av dataändringar.

BaseDataDeletionDetectionPolicy

Bastyp för identifieringsprinciper för databorttagning.

BaseLexicalAnalyzer

Bastyp för analysverktyg.

BaseLexicalTokenizer

Bastyp för tokenizers.

BaseScoringFunction

Bastyp för funktioner som kan ändra dokumentpoäng under rangordning.

BaseSearchIndexerSkill

Bastyp för färdigheter.

BaseSearchRequestOptions

Parametrar för filtrering, sortering, fastning, växling och andra sökfrågebeteenden.

BaseTokenFilter

Bastyp för tokenfilter.

BaseVectorQuery

Frågeparametrarna för vektor- och hybridsökningsfrågor.

BaseVectorSearchAlgorithmConfiguration

Innehåller konfigurationsalternativ som är specifika för den algoritm som används vid indexering och/eller frågor.

CjkBigramTokenFilter

Bildar bigrams av CJK-termer som genereras från standardtokeniseraren. Det här tokenfiltret implementeras med Apache Lucene.

ClassicSimilarity

Äldre likhetsalgoritm som använder Lucene TFIDFSimilarity-implementeringen av TF-IDF. Den här varianten av TF-IDF introducerar normalisering av statisk dokumentlängd samt koordinerar faktorer som straffar dokument som endast delvis matchar de sökta frågorna.

ClassicTokenizer

Grammatikbaserad tokeniserare som är lämplig för bearbetning av de flesta europeiska dokument. Den här tokeniseraren implementeras med Apache Lucene.

CognitiveServicesAccountKey

En Azure AI-tjänstresurs etablerad med en nyckel som är kopplad till en kompetensuppsättning.

CommonGramTokenFilter

Skapa bigrams för ofta förekommande termer vid indexering. Enkla termer indexeras fortfarande också, med bigrams överlagrade. Det här tokenfiltret implementeras med Apache Lucene.

ComplexField

Representerar ett fält i en indexdefinition som beskriver namn, datatyp och sökbeteende för ett fält.

ConditionalSkill

En färdighet som möjliggör scenarier som kräver en boolesk åtgärd för att fastställa vilka data som ska tilldelas till utdata.

CorsOptions

Definierar alternativ för att styra resursdelning mellan ursprung (CORS) för ett index.

CreateOrUpdateIndexOptions

Alternativ för att skapa/uppdatera indexåtgärd.

CreateOrUpdateSkillsetOptions

Alternativ för att skapa/uppdatera kompetensuppsättningsåtgärd.

CreateOrUpdateSynonymMapOptions

Alternativ för att skapa/uppdatera synonymkartåtgärd.

CreateorUpdateDataSourceConnectionOptions

Alternativ för att skapa/uppdatera datakällan.

CreateorUpdateIndexerOptions

Alternativ för att skapa/uppdatera indexeraren.

CustomAnalyzer

Gör att du kan ta kontroll över processen att konvertera text till indexerbara/sökbara token. Det är en användardefinierad konfiguration som består av en enda fördefinierad tokeniserare och ett eller flera filter. Tokeniseraren ansvarar för att dela upp text i token och filter för att ändra token som genereras av tokeniseraren.

CustomEntity

Ett objekt som innehåller information om matchningar som hittades och relaterade metadata.

CustomEntityAlias

Ett komplext objekt som kan användas för att ange alternativa stavningar eller synonymer till rotentitetsnamnet.

CustomEntityLookupSkill

En färdighet söker efter text från en anpassad, användardefinierad lista med ord och fraser.

DefaultCognitiveServicesAccount

Ett tomt objekt som representerar standardresursen för Azure AI-tjänsten för en kompetensuppsättning.

DeleteDataSourceConnectionOptions

Alternativ för att ta bort datakällan.

DeleteIndexOptions

Alternativ för att ta bort indexåtgärd.

DeleteIndexerOptions

Alternativ för att ta bort indexeraren.

DeleteSkillsetOptions

Alternativ för att ta bort kompetensuppsättningsoperion.

DeleteSynonymMapOptions

Alternativ för att ta bort synonymkartåtgärd.

DictionaryDecompounderTokenFilter

Sönderdelar sammansatta ord som finns på många germanska språk. Det här tokenfiltret implementeras med Apache Lucene.

DistanceScoringFunction

Definierar en funktion som ökar poäng baserat på avstånd från en geografisk plats.

DistanceScoringParameters

Tillhandahåller parametervärden till en funktion för avståndsbedömning.

DocumentExtractionSkill

En färdighet som extraherar innehåll från en fil i berikningspipelinen.

EdgeNGramTokenFilter

Genererar n-gram av de angivna storlekarna med början framifrån eller baksidan av en indatatoken. Det här tokenfiltret implementeras med Apache Lucene.

EdgeNGramTokenizer

Tokeniserar indata från en kant till n-gram av de angivna storlekarna. Den här tokeniseraren implementeras med Apache Lucene.

ElisionTokenFilter

Tar bort elisions. Till exempel konverteras "l'avion" (planet) till "avion" (plan). Det här tokenfiltret implementeras med Apache Lucene.

EntityLinkingSkill

Med hjälp av Textanalys API extraherar länkade entiteter från text.

EntityRecognitionSkill

Entitetsigenkänning för textanalys.

EntityRecognitionSkillV3

Med hjälp av Textanalys API extraherar entiteter av olika typer från text.

ExhaustiveKnnParameters

Innehåller parametrarna som är specifika för en fullständig KNN-algoritm.

ExtractiveQueryAnswer

Extraherar svarskandidater från innehållet i de dokument som returneras som svar på en fråga som uttrycks som en fråga på naturligt språk.

ExtractiveQueryCaption

Extraherar undertexter från matchande dokument som innehåller avsnitt som är relevanta för sökfrågan.

FacetResult

En enda bucket med ett facet-frågeresultat. Rapporterar antalet dokument med ett fältvärde som faller inom ett visst intervall eller har ett visst värde eller intervall.

FieldMapping

Definierar en mappning mellan ett fält i en datakälla och ett målfält i ett index.

FieldMappingFunction

Representerar en funktion som transformerar ett värde från en datakälla före indexering.

FreshnessScoringFunction

Definierar en funktion som ökar poäng baserat på värdet för ett datum-tid-fält.

FreshnessScoringParameters

Ger parametervärden till en funktion för färskhetsbedömning.

GetDocumentOptions

Alternativ för att hämta ett enskilt dokument.

HighWaterMarkChangeDetectionPolicy

Definierar en princip för identifiering av dataändringar som samlar in ändringar baserat på värdet för en högvattenmärkeskolumn.

HnswParameters

Innehåller de parametrar som är specifika för hnsw-algoritmen.

ImageAnalysisSkill

En färdighet som analyserar bildfiler. Den extraherar en omfattande uppsättning visuella funktioner baserat på bildinnehållet.

IndexDocumentsClient

Indexdokumentklient

IndexDocumentsOptions

Alternativ för att ändra batchåtgärden index.

IndexDocumentsResult

Svar som innehåller status för åtgärder för alla dokument i indexeringsbegäran.

IndexerExecutionResult

Representerar resultatet av en enskild indexerarekörning.

IndexingParameters

Representerar parametrar för indexeringskörning.

IndexingParametersConfiguration

En ordlista med indexerarspecifika konfigurationsegenskaper. Varje namn är namnet på en specifik egenskap. Varje värde måste vara av en primitiv typ.

IndexingResult

Status för en indexeringsåtgärd för ett enskilt dokument.

IndexingSchedule

Representerar ett schema för indexeringskörning.

InputFieldMappingEntry

Mappning av indatafält för en färdighet.

KeepTokenFilter

Ett tokenfilter som bara behåller token med text i en angiven lista med ord. Det här tokenfiltret implementeras med Apache Lucene.

KeyPhraseExtractionSkill

En färdighet som använder textanalys för extrahering av nyckelfraser.

KeywordMarkerTokenFilter

Markerar termer som nyckelord. Det här tokenfiltret implementeras med Apache Lucene.

KeywordTokenizer

Genererar hela indata som en enda token. Den här tokeniseraren implementeras med Apache Lucene.

LanguageDetectionSkill

En färdighet som identifierar språket för indatatext och rapporterar en enda språkkod för varje dokument som skickas på begäran. Språkkoden paras ihop med en poäng som anger analysens förtroende.

LengthTokenFilter

Tar bort ord som är för långa eller för korta. Det här tokenfiltret implementeras med Apache Lucene.

LimitTokenFilter

Begränsar antalet token vid indexering. Det här tokenfiltret implementeras med Apache Lucene.

ListSearchResultsPageSettings

Argument för att hämta nästa sida med sökresultat.

LuceneStandardAnalyzer

Standard Apache Lucene analyzer; Består av standardtokeniseraren, gemener och stoppfilter.

LuceneStandardTokenizer

Delar upp text efter Unicode-reglerna för textsegmentering. Denna tokenizer implementeras med Apache Lucene.

MagnitudeScoringFunction

Definierar en funktion som ökar poängen baserat på storleken på ett numeriskt fält.

MagnitudeScoringParameters

Ger parametervärden till en funktion för storleksbedömning.

MappingCharFilter

Ett teckenfilter som tillämpar mappningar som definierats med mappningsalternativet. Matchningen är girig (den längsta mönstermatchningen vid en viss tidpunkt vinner). Ersättning tillåts vara den tomma strängen. Det här teckenfiltret implementeras med Apache Lucene.

MergeSkill

En färdighet för sammanslagning av två eller flera strängar i en enda enhetlig sträng, med en valfri användardefinierad avgränsare som avgränsar varje komponentdel.

MicrosoftLanguageStemmingTokenizer

Delar upp text med hjälp av språkspecifika regler och minskar ord till sina basformulär.

MicrosoftLanguageTokenizer

Delar upp text med språkspecifika regler.

NGramTokenFilter

Genererar n-gram av den eller de angivna storlekarna. Det här tokenfiltret implementeras med Apache Lucene.

NGramTokenizer

Tokeniserar indata till n-gram av de angivna storlekarna. Denna tokenizer implementeras med Apache Lucene.

OcrSkill

En färdighet som extraherar text från bildfiler.

OutputFieldMappingEntry

Mappning av utdatafält för en färdighet.

PIIDetectionSkill

Med hjälp av Textanalys-API:et extraherar du personlig information från en indatatext och ger dig möjlighet att maskera den.

PathHierarchyTokenizer

Tokenizer för sökvägsliknande hierarkier. Denna tokenizer implementeras med Apache Lucene.

PatternAnalyzer

Separerar text flexibelt i termer via ett mönster för reguljära uttryck. Den här analysatorn implementeras med Apache Lucene.

PatternCaptureTokenFilter

Använder Java-regex för att generera flera token – en för varje avbildningsgrupp i ett eller flera mönster. Det här tokenfiltret implementeras med Apache Lucene.

PatternReplaceCharFilter

Ett teckenfilter som ersätter tecken i indatasträngen. Det använder ett reguljärt uttryck för att identifiera teckensekvenser för att bevara och ett ersättningsmönster för att identifiera tecken som ska ersättas. Om du till exempel ser indatatexten "aa bb aa bb", mönstret "(aa)\s+(bb)" och ersättningen "$1#$2" blir resultatet "aa#bb aa#bb". Det här teckenfiltret implementeras med Apache Lucene.

PatternReplaceTokenFilter

Ett teckenfilter som ersätter tecken i indatasträngen. Det använder ett reguljärt uttryck för att identifiera teckensekvenser för att bevara och ett ersättningsmönster för att identifiera tecken som ska ersättas. Om du till exempel ser indatatexten "aa bb aa bb", mönstret "(aa)\s+(bb)" och ersättningen "$1#$2" blir resultatet "aa#bb aa#bb". Det här tokenfiltret implementeras med Apache Lucene.

PatternTokenizer

Tokenizer som använder regexmönstermatchning för att konstruera distinkta token. Denna tokenizer implementeras med Apache Lucene.

PhoneticTokenFilter

Skapa token för fonetiska matchningar. Det här tokenfiltret implementeras med Apache Lucene.

QueryAnswerResult

Ett svar är ett textavsnitt som extraherats från innehållet i de mest relevanta dokument som matchade frågan. Svar extraheras från de främsta sökresultaten. Svarskandidaterna poängsätts och de vanligaste svaren väljs.

QueryCaptionResult

Undertexter är de mest representativa avsnitten från dokumentet relativt till sökfrågan. De används ofta som dokumentsammanfattning. Undertexter returneras endast för frågor av typen semantic.

ResourceCounter

Representerar en resurss användning och kvot.

ScoringProfile

Definierar parametrar för ett sökindex som påverkar bedömning i sökfrågor.

SearchClientOptions

Klientalternativ som används för att konfigurera API-begäranden för Cognitive Search.

SearchDocumentsPageResult

Svar som innehåller sökresultat från ett index.

SearchDocumentsResult

Svar som innehåller sökresultat från ett index.

SearchDocumentsResultBase

Svar som innehåller sökresultat från ett index.

SearchIndex

Representerar en sökindexdefinition som beskriver fälten och sökbeteendet för ett index.

SearchIndexClientOptions

Klientalternativ som används för att konfigurera API-begäranden för Cognitive Search.

SearchIndexStatistics

Statistik för ett visst index. Statistik samlas in regelbundet och garanteras inte alltid vara uppdaterad.

SearchIndexer

Representerar en indexerare.

SearchIndexerClientOptions

Klientalternativ som används för att konfigurera API-begäranden för Cognitive Search.

SearchIndexerDataContainer

Representerar information om entiteten (till exempel Azure SQL tabell eller CosmosDB-samling) som ska indexeras.

SearchIndexerDataSourceConnection

Representerar en datakälladefinition som kan användas för att konfigurera en indexerare.

SearchIndexerError

Representerar ett indexeringsfel på objekt- eller dokumentnivå.

SearchIndexerKnowledgeStore

Definition av ytterligare projektioner till azure blob, tabell eller filer för berikade data.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Abstrakt klass för att dela egenskaper mellan konkreta väljare.

SearchIndexerKnowledgeStoreFileProjectionSelector

Projektionsdefinition för vilka data som ska lagras i Azure Files.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Projektionsdefinition för vilka data som ska lagras i Azure Blob.

SearchIndexerKnowledgeStoreProjection

Containerobjekt för olika projektionsväljare.

SearchIndexerKnowledgeStoreProjectionSelector

Abstrakt klass för att dela egenskaper mellan konkreta väljare.

SearchIndexerKnowledgeStoreTableProjectionSelector

Beskrivning av vilka data som ska lagras i Azure-tabeller.

SearchIndexerLimits
SearchIndexerSkillset

En lista över färdigheter.

SearchIndexerStatus

Representerar den aktuella statusen och körningshistoriken för en indexerare.

SearchIndexerWarning

Representerar en varning på objektnivå.

SearchIndexingBufferedSenderOptions

Alternativ för SearchIndexingBufferedSender.

SearchResourceEncryptionKey

En kundhanterad krypteringsnyckel i Azure Key Vault. Nycklar som du skapar och hanterar kan användas för att kryptera eller dekryptera vilande data i Azure Cognitive Search, till exempel index och synonymkartor.

SearchServiceStatistics

Svar från en begäran om att hämta tjänststatistik. Om det lyckas innehåller den räknare och gränser på servicenivå.

SearchSuggester

Definierar hur api:et Föreslå ska tillämpas på en grupp fält i indexet.

SemanticConfiguration

Definierar en specifik konfiguration som ska användas i kontexten för semantiska funktioner.

SemanticField

Ett fält som används som en del av den semantiska konfigurationen.

SemanticPrioritizedFields

Beskriver fälten rubrik, innehåll och nyckelord som ska användas för semantisk rangordning, undertexter, höjdpunkter och svar.

SemanticSearch

Definierar parametrar för ett sökindex som påverkar semantiska funktioner.

SemanticSearchOptions

Definierar alternativ för semantiska sökfrågor

SentimentSkill

Textanalys positiv-negativ attitydanalys, poängsatt som ett flyttalsvärde i intervallet noll till 1.

SentimentSkillV3

Med hjälp av Textanalys-API:et utvärderas ostrukturerad text och för varje post tillhandahåller sentimentetiketter (till exempel "negativ", "neutral" och "positiv") baserat på den högsta konfidenspoängen som hittats av tjänsten på en menings- och dokumentnivå.

ServiceCounters

Representerar resursräknare och kvoter på servicenivå.

ServiceLimits

Representerar olika gränser på tjänstnivå.

ShaperSkill

En färdighet för att omforma utdata. Den skapar en komplex typ för att stödja sammansatta fält (kallas även flerdelsfält).

ShingleTokenFilter

Skapar kombinationer av token som en enda token. Det här tokenfiltret implementeras med Apache Lucene.

Similarity

Bastyp för likhetsalgoritmer. Likhetsalgoritmer används för att beräkna poäng som kopplar frågor till dokument. Ju högre poäng, desto mer relevant är dokumentet för den specifika frågan. Dessa poäng används för att rangordna sökresultaten.

SimpleField

Representerar ett fält i en indexdefinition som beskriver namn, datatyp och sökbeteende för ett fält.

SnowballTokenFilter

Ett filter som stjälkar ord med hjälp av en Snowball-genererad stemmer. Det här tokenfiltret implementeras med Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Definierar en princip för identifiering av databorttagning som implementerar en strategi för mjuk borttagning. Den avgör om ett objekt ska tas bort baserat på värdet för en angiven "mjuk borttagning"-kolumn.

SplitSkill

En färdighet att dela upp en sträng i textsegment.

SqlIntegratedChangeTrackingPolicy

Definierar en princip för identifiering av dataändringar som samlar in ändringar med hjälp av funktionen Integrated Ändringsspårning i Azure SQL Database.

StemmerOverrideTokenFilter

Ger möjlighet att åsidosätta andra härdningsfilter med anpassad ordlistebaserad härdning. Ordlisteskaftade termer markeras som nyckelord så att de inte kommer att stoppas med stemmers längre ned i kedjan. Måste placeras före eventuella härdningsfilter. Det här tokenfiltret implementeras med Apache Lucene.

StemmerTokenFilter

Språkspecifikt härdningsfilter. Det här tokenfiltret implementeras med Apache Lucene.

StopAnalyzer

Delar upp text med icke-bokstäver. Tillämpar filter för gemener och stoppordstoken. Den här analysatorn implementeras med Apache Lucene.

StopwordsTokenFilter

Tar bort stoppord från en tokenström. Det här tokenfiltret implementeras med Apache Lucene.

SuggestDocumentsResult

Svar som innehåller förslag på frågeresultat från ett index.

SuggestRequest

Parametrar för filtrering, sortering, fuzzy-matchning och andra frågebeteenden för förslag.

SynonymMap

Representerar en synonymkartdefinition.

SynonymTokenFilter

Matchar synonymer med en eller flera ord i en tokenström. Det här tokenfiltret implementeras med Apache Lucene.

TagScoringFunction

Definierar en funktion som ökar poängen med dokument med strängvärden som matchar en viss lista med taggar.

TagScoringParameters

Tillhandahåller parametervärden till en taggbedömningsfunktion.

TextTranslationSkill

En färdighet att översätta text från ett språk till ett annat.

TextWeights

Definierar vikter för indexfält för vilka matchningar ska öka poängsättningen i sökfrågor.

TruncateTokenFilter

Trunkerar termerna till en viss längd. Det här tokenfiltret implementeras med Apache Lucene.

UaxUrlEmailTokenizer

Tokeniserar URL:ar och e-postmeddelanden som en token. Denna tokenizer implementeras med Apache Lucene.

UniqueTokenFilter

Filtrerar bort token med samma text som föregående token. Det här tokenfiltret implementeras med Apache Lucene.

VectorSearch

Innehåller konfigurationsalternativ relaterade till vektorsökning.

VectorSearchOptions

Definierar alternativ för vektorsökningsfrågor

VectorSearchProfile

Definierar en kombination av konfigurationer som ska användas med vektorsökning.

VectorizedQuery

Frågeparametrarna som ska användas för vektorsökning när ett råvektorvärde anges.

WebApiSkill

En färdighet som kan anropa en webb-API-slutpunkt, så att du kan utöka en kompetensuppsättning genom att låta den anropa din anpassade kod.

WordDelimiterTokenFilter

Delar upp ord i underord och utför valfria transformeringar på underordsgrupper. Det här tokenfiltret implementeras med Apache Lucene.

Typalias

AnalyzeTextOptions

Alternativ för att analysera textåtgärd.

AutocompleteMode

Definierar värden för AutocompleteMode.

AutocompleteOptions

Alternativ för att hämta slutförandetext för en partiell searchText.

BlobIndexerDataToExtract

Kända värden som stöds av tjänsten

storageMetadata: Indexerar bara standardblobegenskaperna och användardefinierade metadata. allMetadata: Extraherar metadata som tillhandahålls av Azure Blob Storage-undersystemet och specifika metadata av innehållstyp (till exempel metadata som är unika för bara .png filer indexeras). contentAndMetadata: Extraherar alla metadata och textinnehåll från varje blob.

BlobIndexerImageAction

Kända värden som stöds av tjänsten

none: Ignorerar inbäddade bilder eller bildfiler i datauppsättningen. Det här är standardinställningen. generateNormalizedImages: Extraherar text från bilder (till exempel ordet "STOP" från en trafikstoppsskylt) och bäddar in den i innehållsfältet. Den här åtgärden kräver att "dataToExtract" är inställt på "contentAndMetadata". En normaliserad bild refererar till ytterligare bearbetning som resulterar i enhetlig bildutdata, storlek och roterad för att främja konsekvent återgivning när du inkluderar bilder i visuella sökresultat. Den här informationen genereras för varje bild när du använder det här alternativet. generateNormalizedImagePerPage: Extraherar text från bilder (till exempel ordet "STOP" från en trafikstoppsskylt) och bäddar in den i innehållsfältet, men behandlar PDF-filer på olika sätt eftersom varje sida återges som en bild och normaliseras därefter, i stället för att extrahera inbäddade bilder. Filtyper som inte är PDF-filer behandlas på samma sätt som om "generateNormalizedImages" angavs.

BlobIndexerPDFTextRotationAlgorithm

Kända värden som stöds av tjänsten

none: Utnyttjar normal textextrahering. Det här är standardinställningen. detectAngles: Kan ge bättre och mer läsbar textextrahering från PDF-filer som har roterad text i dem. Observera att det kan uppstå en liten effekt på prestandahastigheten när den här parametern används. Den här parametern gäller endast PDF-filer och endast pdf-filer med inbäddad text. Om den roterade texten visas i en inbäddad bild i PDF-filen gäller inte den här parametern.

BlobIndexerParsingMode

Kända värden som stöds av tjänsten

standard: Ange som standard för normal filbearbetning. text: Ställ in på text för att förbättra indexeringsprestanda för oformaterade textfiler i Blob Storage. delimitedText: Ange till avgränsadText när blobar är vanliga CSV-filer. json: Ställ in på json för att extrahera strukturerat innehåll från JSON-filer. jsonArray: Ställ in på jsonArray för att extrahera enskilda element i en JSON-matris som separata dokument i Azure Cognitive Search. jsonLines: Ange till jsonLines för att extrahera enskilda JSON-entiteter, avgränsade med en ny rad, som separata dokument i Azure Cognitive Search.

CharFilter

Innehåller möjliga fall för CharFilter.

CharFilterName

Definierar värden för CharFilterName.
<xref:KnownCharFilterName> kan användas utbytbart med CharFilterName, innehåller det här uppräkningen de kända värden som tjänsten stöder.

Kända värden som stöds av tjänsten

html_strip: Ett teckenfilter som försöker ta bort HTML-konstruktioner. Se https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilterScripts

Definierar värden för CjkBigramTokenFilterScripts.

CognitiveServicesAccount

Innehåller möjliga fall för CognitiveServicesAccount.

ComplexDataType

Definierar värden för ComplexDataType. Möjliga värden är: "Edm.ComplexType", "Collection(Edm.ComplexType)"

CountDocumentsOptions

Alternativ för att utföra count-åtgärden i indexet.

CreateDataSourceConnectionOptions

Alternativ för att skapa datakällan.

CreateIndexOptions

Alternativ för att skapa indexåtgärd.

CreateIndexerOptions

Alternativ för att skapa indexeringsåtgärd.

CreateSkillsetOptions

Alternativ för att skapa kompetensuppsättningsåtgärd.

CreateSynonymMapOptions

Alternativ för att skapa synonymkartåtgärd.

CustomEntityLookupSkillLanguage

Definierar språk som stöds för CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage kan användas utbytbart med den här typen

DataChangeDetectionPolicy

Innehåller möjliga fall för DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Innehåller möjliga fall för DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Alternativ för åtgärden ta bort dokument.

EdgeNGramTokenFilterSide

Definierar värden för EdgeNGramTokenFilterSide.

EntityCategory
EntityRecognitionSkillLanguage

Definierar språk som stöds för EntityRecognitionSkillKnownEntityRecognitionSkillLanguage kan användas utbytbart med den här typen

ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Innehåller konfigurationsalternativ som är specifika för den fullständiga KNN-algoritm som används vid frågor, som utför brute-force-sökning över hela vektorindexet.

ExtractDocumentKey
GetDataSourceConnectionOptions

Alternativ för att hämta datakällan.

GetIndexOptions

Alternativ för att hämta indexåtgärd.

GetIndexStatisticsOptions

Alternativ för att hämta indexstatistikåtgärd.

GetIndexerOptions

Alternativ för att hämta indexerarens åtgärd.

GetIndexerStatusOptions

Alternativ för att hämta indexerarens statusåtgärd.

GetServiceStatisticsOptions

Alternativ för att hämta tjänststatistikåtgärd.

GetSkillSetOptions

Alternativ för att hämta kompetensåtgärd.

GetSynonymMapsOptions

Alternativ för att hämta synonymkartoråtgärd.

HnswAlgorithmConfiguration

Innehåller konfigurationsalternativ som är specifika för den ungefärliga algoritmen för närmaste grannar som används under indexeringstiden.

ImageAnalysisSkillLanguage

Definierar språk som stöds för ImageAnalysisSkillKnownImageAnalysisSkillLanguage kan användas utbytbart med den här typen

ImageDetail
IndexActionType

Definierar värden för IndexActionType.

IndexDocumentsAction

Representerar en indexåtgärd som fungerar i ett dokument.

IndexIterator

En iterator för att lista de index som finns i tjänsten Search. Kommer att göra begäranden efter behov under iterationen. Använd .byPage() för att göra en begäran till servern per iteration.

IndexNameIterator

En iterator för att lista de index som finns i tjänsten Search. Kommer att göra begäranden efter behov under iterationen. Använd .byPage() för att göra en begäran till servern per iteration.

IndexerExecutionEnvironment

Kända värden som stöds av tjänsten

standard: Anger att Azure Cognitive Search kan avgöra var indexeraren ska köras. Det här är standardmiljön när inget anges och är det rekommenderade värdet. privat: Anger att indexeraren ska köras med den miljö som etablerats specifikt för söktjänsten. Detta bör endast anges som körningsmiljö om indexeraren behöver komma åt resurser på ett säkert sätt över delade privata länkresurser.

IndexerExecutionStatus

Definierar värden för IndexerExecutionStatus.

IndexerStatus

Definierar värden för IndexerStatus.

KeyPhraseExtractionSkillLanguage

Definierar språk som stöds för KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage kan användas utbytbart med den här typen

LexicalAnalyzer

Innehåller möjliga fall för Analyzer.

LexicalAnalyzerName

Definierar värden för LexicalAnalyzerName.
<xref:KnownLexicalAnalyzerName> kan användas utbytbart med LexicalAnalyzerName, innehåller det här uppräkningen de kända värden som tjänsten stöder.

Kända värden som stöds av tjänsten

ar.microsoft: Microsoft Analyzer för arabiska.
ar.lucene: Lucene analyzer för arabiska.
hy.lucene: Lucene analyzer för armeniska.
bn.microsoft: Microsoft analyzer för Bangla.
eu.lucene: Lucene analyzer för baskiska.
bg.microsoft: Microsoft Analyzer för Bulgariska.
bg.lucene: Lucene analyzer för bulgariska.
ca.microsoft: Microsoft analyzer for Catalan.
ca.lucene: Lucene analyzer för katalanska.
zh-Hans.microsoft: Microsoft analyzer for Chinese (Förenklad).
zh-Hans.lucene: Lucene analyzer för kinesiska (förenklad).
zh-Hant.microsoft: Microsoft analyzer for Chinese (Traditionell).
zh-Hant.lucene: Lucene analyzer för kinesiska (traditionell).
hr.microsoft: Microsoft analyzer för kroatiska.
cs.microsoft: Microsoft analyzer for Czech.
cs.lucene: Lucene analyzer för tjeckiska.
da.microsoft: Microsoft analyzer for Danish.
da.lucene: Lucene analyzer för danska.
nl.microsoft: Microsoft analyzer for Dutch.
nl.lucene: Lucene analyzer för nederländska.
en.microsoft: Microsoft Analyzer för engelska.
en.lucene: Lucene analyzer för engelska.
et.microsoft: Microsoft analyzer för estniska.
fi.microsoft: Microsoft analyzer for Finnish.
fi.lucene: Lucene analyzer för finska.
fr.microsoft: Microsoft analyzer för franska.
fr.lucene: Lucene analyzer för franska.
gl.lucene: Lucene analyzer för Galician.
de.microsoft: Microsoft analyzer for German.
de.lucene: Lucene analyzer för tysk.
el.microsoft: Microsoft analyzer for Greek.
el.lucene: Lucene analyzer för grekiska.
gu.microsoft: Microsoft analyzer för Gujarati.
he.microsoft: Microsoft analyzer for Hebrew.
hi.microsoft: Microsoft analyzer for Hindi.
hi.lucene: Lucene analyzer för Hindi.
hu.microsoft: Microsoft Analyzer för Ungerska.
hu.lucene: Lucene analyzer för ungerska.
is.microsoft: Microsoft analyzer for Icelandic.
id.microsoft: Microsoft analyzer for Indonesian (Bahasa).
id.lucene: Lucene analyzer för indonesiska.
ga.lucene: Lucene analyzer för iriska.
it.microsoft: Microsoft Analyzer för italienska.
it.lucene: Lucene analyzer för italienare.
ja.microsoft: Microsoft Analyzer för japanska.
ja.lucene: Lucene analyzer för japanska.
kn.microsoft: Microsoft analyzer för Kannada.
ko.microsoft: Microsoft Analyzer för koreanska.
ko.lucene: Lucene analyzer för koreanska.
lv.microsoft: Microsoft analyzer för lettiska.
lv.lucene: Lucene analyzer för lettiska.
lt.microsoft: Microsoft analyzer för litauiska.
ml.microsoft: Microsoft analyzer for Malayalam.
ms.microsoft: Microsoft analyzer for Malay (Latin).
mr.microsoft: Microsoft analyzer för Marathi.
nb.microsoft: Microsoft analyzer for Norwegian (Bokmål).
no.lucene: Lucene analyzer för norska.
fa.lucene: Lucene analyzer för persiska.
pl.microsoft: Microsoft analyzer for Polish.
pl.lucene: Lucene analyzer för polska.
pt-BR.microsoft: Microsoft analyzer for Portuguese (Brasilien).
pt-BR.lucene: Lucene analyzer för portugisiska (Brasilien).
pt-PT.microsoft: Microsoft analyzer for Portuguese (Portugal).
pt-PT.lucene: Lucene analyzer för portugisiska (Portugal).
pa.microsoft: Microsoft analyzer för Punjabi.
ro.microsoft: Microsoft Analyzer för Rumänska.
ro.lucene: Lucene analyzer för rumänska.
ru.microsoft: Microsoft analyzer for Russian.
ru.lucene: Lucene analyzer för ryska.
sr-cyrillic.microsoft: Microsoft analyzer for Serbiska (kyrillisk).
sr-latin.microsoft: Microsoft analyzer for Serbiska (latinsk).
sk.microsoft: Microsoft analyzer for Slovak.
sl.microsoft: Microsoft analyzer för slovenska.
es.microsoft: Microsoft analyzer för spanska.
es.lucene: Lucene analyzer för spanska.
sv.microsoft: Microsoft analyzer for Swedish.
sv.lucene: Lucene analyzer för svenska.
ta.microsoft: Microsoft analyzer for Tamil.
te.microsoft: Microsoft analyzer för Telugu.
th.microsoft: Microsoft analyzer for Thai.
th.lucene: Lucene analyzer för thailändska.
tr.microsoft: Microsoft Analyzer för turkiska.
tr.lucene: Lucene analyzer för turkiska.
uk.microsoft: Microsoft analyzer för ukrainska.
your.microsoft: Microsoft analyzer för Urdu.
vi.microsoft: Microsoft Analyzer för vietnamesiska.
standard.lucene: Standard Lucene analyzer.
standardasciifolding.lucene: Standard ASCII Folding Lucene analyzer. Se https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
nyckelord: Behandlar hela innehållet i ett fält som en enda token. Detta är användbart för data som postnummer, ID:t och vissa produktnamn. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
mönster: Separerar text flexibelt i termer via ett mönster för reguljära uttryck. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
enkel: Delar upp text med icke-bokstäver och konverterar dem till gemener. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
stop: Delar upp text med icke-bokstäver; Använder tokenfiltren med gemener och stoppord. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
blanksteg: Ett analysverktyg som använder blankstegstokeniseraren. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalTokenizer

Innehåller möjliga fall för Tokenizer.

LexicalTokenizerName

Definierar värden för LexicalTokenizerName.
<xref:KnownLexicalTokenizerName> kan användas synonymt med LexicalTokenizerName, innehåller den här uppräkningen de kända värden som tjänsten stöder.

Kända värden som stöds av tjänsten

klassisk: Grammatikbaserad tokeniserare som lämpar sig för bearbetning av de flesta europeiska dokument. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: Tokeniserar indata från en kant till n-gram av de angivna storlekarna. Se https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: Genererar hela indata som en enda token. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
letter: Delar upp text med icke-bokstäver. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
gemener: Delar upp text med icke-bokstäver och konverterar dem till gemener. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: Delar upp text med språkspecifika regler.
microsoft_language_stemming_tokenizer: Delar upp text med hjälp av språkspecifika regler och minskar ord till sina basformulär.
nGram: Tokeniserar indata till n-gram av de angivna storlekarna. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: Tokenizer för sökvägsliknande hierarkier. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
mönster: Tokenizer som använder regex mönster matchning för att konstruera distinkta token. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: Standard Lucene analyzer; Består av standardtokeniseraren, gemener och stoppfilter. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: Tokeniserar URL:ar och e-postmeddelanden som en token. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
blanksteg: Delar upp text på tomt utrymme. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListDataSourceConnectionsOptions

Alternativ för en liståtgärd för datakällor.

ListIndexersOptions

Alternativ för en listindexeringsåtgärd.

ListIndexesOptions

Alternativ för en listindexåtgärd.

ListSkillsetsOptions

Alternativ för en liståtgärd för kompetensuppsättningar.

ListSynonymMapsOptions

Alternativ för en list synonymMaps-åtgärd.

MergeDocumentsOptions

Alternativ för åtgärden koppla dokument.

MergeOrUploadDocumentsOptions

Alternativ för åtgärden koppla eller ladda upp dokument.

MicrosoftStemmingTokenizerLanguage

Definierar värden för MicrosoftStemmingTokenizerLanguage.

MicrosoftTokenizerLanguage

Definierar värden för MicrosoftTokenizerLanguage.

NarrowedModel

Begränsar modelltypen så att endast de markerade fälten inkluderas

OcrSkillLanguage

Definierar språk som stöds för OcrSkillKnownOcrSkillLanguage kan användas synonymt med den här typen

PIIDetectionSkillMaskingMode

Definierar värden för PIIDetectionSkillMaskingMode.

Kända värden som stöds av tjänsten

none: Ingen maskering sker och maskedText-utdata returneras inte. replace: Ersätter identifierade entiteter med det tecken som anges i parametern maskingCharacter. Tecknet upprepas till längden på den identifierade entiteten så att förskjutningarna korrekt motsvarar både indatatexten och utdatamaskeradText.

PhoneticEncoder

Definierar värden för PhoneticEncoder.

QueryAnswer

Ett värde som anger om svar ska returneras som en del av söksvaret. Den här parametern är endast giltig om frågetypen är "semantisk". Om den är inställd extractivepå returnerar frågan svar som extraherats från nyckelavsnitt i de högst rankade dokumenten.

QueryCaption

Ett värde som anger om undertexter ska returneras som en del av söksvaret. Den här parametern är endast giltig om frågetypen är "semantisk". Om den anges returnerar frågan undertexter som extraherats från nyckelavsnitt i de högst rankade dokumenten. När Undertexter är "extraktiva" aktiveras markering som standard. Standardvärdet är "none".

QueryType

Definierar värden för QueryType.

RegexFlags

Definierar flaggor för regex-mönstermatchning

Kända värden som stöds av tjänsten

CANON_EQ: Aktiverar kanonisk likvärdighet. CASE_INSENSITIVE: Aktiverar skiftlägesokänslig matchning. KOMMENTARER: Tillåter blanksteg och kommentarer i mönstret. DOTALL: Aktiverar dotall-läge. LITERAL: Aktiverar literal parsning av mönstret. MULTILINE: Aktiverar flerradsläge. UNICODE_CASE: Aktiverar Unicode-medveten skiftlägesdelegering. UNIX_LINES: Aktiverar Unix-linjeläge.

ResetIndexerOptions

Alternativ för att återställa indexerarens åtgärd.

RunIndexerOptions

Alternativ för att köra indexeraren.

ScoringFunction

Innehåller möjliga fall för ScoringFunction.

ScoringFunctionAggregation

Definierar värden för ScoringFunctionAggregation.

ScoringFunctionInterpolation

Definierar värden för ScoringFunctionInterpolation.

ScoringStatistics

Definierar värden för ScoringStatistics.

SearchField

Representerar ett fält i en indexdefinition som beskriver namn, datatyp och sökbeteende för ett fält.

SearchFieldArray

Om TModel är ett otypat objekt, en otypad strängmatris Annars är de snedstrecksavgränsade fälten TModeli .

SearchFieldDataType

Definierar värden för SearchFieldDataType. Möjliga värden är: 'Edm.String', 'Edm.Int32', 'Edm.Int64', 'Edm.Double', 'Edm.Boolean', 'Edm.DateTimeOffset', 'Edm.GeographyPoint', 'Collection(Edm.String)', 'Collection(Edm.Int32)', 'Collection(Edm.Int64)', 'Collection(Edm.Double)', 'Collection(Edm.Boolean)', 'Collection(Edm.DateTimeOffset)', 'Collection(Edm.GeographyPoint)', 'Collection(Edm.Single)'

Obs! Edm.Single enbart är inte en giltig datatyp. Den måste användas som en del av en samlingstyp.

SearchIndexerDataSourceType
SearchIndexerSkill

Innehåller möjliga fall för Färdighet.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Alternativ för SearchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Alternativ för SearchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Alternativ för SearchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Alternativ för SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Alternativ för SearchIndexingBufferedSenderUploadDocuments.

SearchIterator

En iterator för sökresultat för en paticular-fråga. Kommer att göra begäranden efter behov under iterationen. Använd .byPage() för att göra en begäran till servern per iteration.

SearchMode

Definierar värden för SearchMode.

SearchOptions

Alternativ för att utföra en fullständig sökbegäran.

SearchPick

Välj fält i T djupt med hjälp av giltiga Cognitive Search OData-$select sökvägar.

SearchRequestOptions

Parametrar för filtrering, sortering, fastning, växling och andra sökfrågebeteenden.

SearchRequestQueryTypeOptions
SearchResult

Innehåller ett dokument som hittas av en sökfråga, plus associerade metadata.

SelectArray

Om TFields är aldrig, en otypad strängmatris Annars en smal Fields[] typ som ska användas någon annanstans i användningstypen.

SelectFields

Skapar en union av giltig Cognitive Search OData-$select sökvägar för T med hjälp av en postordningsbläddering av fältträdet som är rotat på T.

SemanticErrorMode

partial: Om den semantiska bearbetningen misslyckas returneras fortfarande partiella resultat. Definitionen av partiella resultat beror på vilket semantiksteg som misslyckades och vad som var orsaken till felet.

fail: Om det finns ett undantag under semantikbearbetningssteget misslyckas frågan och returnerar lämplig HTTP-kod beroende på felet.

SemanticErrorReason

maxWaitExceededed: Om "semanticMaxWaitInMilliseconds" angavs och varaktigheten för semantisk bearbetning överskred det värdet. Endast basresultaten returnerades.

capacityOverloaded: Begäran begränsades. Endast basresultaten returnerades.

tillfälligt: Minst ett steg i den semantiska processen misslyckades.

SemanticSearchResultsType

baseResults: Resultat utan semantisk berikning eller omrankning.

rerankedResults: Resultaten har rangordnats om med rerankermodellen och kommer att innehålla semantiska undertexter. De innehåller inga svar, svarshöjdpunkter eller bildtext höjdpunkter.

SentimentSkillLanguage

Definierar språk som stöds för SentimentSkillKnownSentimentSkillLanguage kan användas utbytbart med den här typen

SimilarityAlgorithm

Innehåller möjliga fall för likhet.

SnowballTokenFilterLanguage

Definierar värden för SnowballTokenFilterLanguage.

SplitSkillLanguage

Definierar språk som stöds för SplitSkillKnownSplitSkillLanguage kan användas utbytbart med den här typen

StemmerTokenFilterLanguage

Definierar värden för StemmerTokenFilterLanguage.

StopwordsList

Definierar värden för StopwordsList.

SuggestNarrowedModel
SuggestOptions

Alternativ för att hämta förslag baserat på searchText.

SuggestResult

Ett resultat som innehåller ett dokument som hittats av en förslagsfråga, plus associerade metadata.

TextSplitMode
TextTranslationSkillLanguage

Definierar språk som stöds för TextTranslationSkillKnownTextTranslationSkillLanguage kan användas utbytbart med den här typen

TokenCharacterKind

Definierar värden för TokenCharacterKind.

TokenFilter

Innehåller möjliga fall för TokenFilter.

TokenFilterName

Definierar värden för TokenFilterName.
<xref:KnownTokenFilterName> kan användas utbytbart med TokenFilterName innehåller det här uppräkningen de kända värden som tjänsten stöder.

Kända värden som stöds av tjänsten

arabic_normalization: Ett tokenfilter som tillämpar den arabiska normaliseraren för att normalisera ortografin. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
apostrofer: Tar bort alla tecken efter en apostrofer (inklusive själva apostrofen). Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding: Konverterar alfabetiska, numeriska och symboliska Unicode-tecken som inte finns i de första 127 ASCII-tecknen (unicode-blocket "Basic Latin" till deras ASCII-motsvarigheter, om sådana motsvarigheter finns. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram: Bildar bigrams av CJK-termer som genereras från standardtokeniseraren. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width: Normaliserar skillnader i CJK-bredd. Viker ascii-varianterna för fullwidth till motsvarande grundläggande latinska och katakanavarianter med halv bredd i motsvarande Kana. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
klassisk: Tar bort engelska possessives och punkter från förkortningar. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams: Skapa bigrams för ofta förekommande termer vid indexering. Enkla termer indexeras fortfarande också, med bigrams överlagrade. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2: Genererar n-gram av de angivna storlekarna med början framifrån eller på baksidan av en indatatoken. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
elision: Tar bort elisions. Till exempel konverteras "l'avion" (planet) till "avion" (plan). Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization: Normaliserar tyska tecken enligt heuristiken i snowballalgoritmen german2. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization: Normaliserar text på hindi för att ta bort vissa skillnader i stavningsvariationer. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization: Normaliserar Unicode-representationen av text på indiska språk. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat: Genererar varje inkommande token två gånger, en gång som nyckelord och en gång som icke-nyckelord. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem: Ett högpresterande kstem-filter för engelska. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
längd: Tar bort ord som är för långa eller för korta. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
limit: Begränsar antalet token vid indexering. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
gemener: Normaliserar tokentext till gemener. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.htm
nGram_v2: Genererar n-gram av de angivna storlekarna. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization: Tillämpar normalisering för persiska. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
fonetisk: Skapa token för fonetiska matchningar. Se https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem: Använder porteringsstammen för att transformera tokenströmmen. Se http://tartarus.org/~martin/PorterStemmer
reverse: Kastar om tokensträngen. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization: Normaliserar användningen av de utbytbara skandinaviska tecknen. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding: Viker skandinaviska karaktärer åÅäæÄÆ-a> och öÖøØ-o>. Det diskriminerar också användningen av dubbla vokaler aa, ae, ao, oe och oo, vilket bara lämnar den första. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
shingle: Skapar kombinationer av token som en enda token. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
snowball: Ett filter som stjälkar ord med hjälp av en Snowball-genererad stemmer. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization: Normaliserar Unicode-representationen av Sorani-text. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
stemmer: Språkspecifikt ordstamsfilter. Se https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
stopwords: Tar bort stoppord från en tokenström. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
trim: Trimmar inledande och avslutande blanksteg från token. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
trunkera: Trunkerar termerna till en viss längd. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
unik: Filtrerar ut token med samma text som föregående token. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
versaler: Normaliserar tokentext till versaler. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter: Delar upp ord i underord och utför valfria transformeringar på underordsgrupper.

UnionToIntersection
UploadDocumentsOptions

Alternativ för åtgärden ladda upp dokument.

VectorFilterMode

Avgör om filter tillämpas före eller efter att vektorsökningen utförs.

VectorQuery

Frågeparametrarna för vektor- och hybridsökfrågor.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Innehåller konfigurationsalternativ som är specifika för algoritmen som används vid indexering och/eller frågor.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric

Likhetsmåttet som ska användas för vektorjämförelser.

VisualFeature

Uppräkningar

KnownAnalyzerNames

Definierar värden för AnalyzerName. Se https://docs.microsoft.com/rest/api/searchservice/Language-support

KnownBlobIndexerDataToExtract

Kända värden för BlobIndexerDataToExtract som tjänsten accepterar.

KnownBlobIndexerImageAction

Kända värden för BlobIndexerImageAction som tjänsten accepterar.

KnownBlobIndexerPDFTextRotationAlgorithm

Kända värden för BlobIndexerPDFTextRotationAlgorithm som tjänsten accepterar.

KnownBlobIndexerParsingMode

Kända värden för BlobIndexerParsingMode som tjänsten accepterar.

KnownCharFilterNames

Kända värden för CharFilterName som tjänsten accepterar.

KnownCustomEntityLookupSkillLanguage

Kända värden för CustomEntityLookupSkillLanguage som tjänsten accepterar.

KnownEntityCategory

Kända värden för EntityCategory som tjänsten accepterar.

KnownEntityRecognitionSkillLanguage

Kända värden för EntityRecognitionSkillLanguage som tjänsten accepterar.

KnownImageAnalysisSkillLanguage

Kända värden för ImageAnalysisSkillLanguage som tjänsten accepterar.

KnownImageDetail

Kända värden för ImageDetail som tjänsten accepterar.

KnownKeyPhraseExtractionSkillLanguage

Kända värden för KeyPhraseExtractionSkillLanguage som tjänsten accepterar.

KnownOcrSkillLanguage

Kända värden för OcrSkillLanguage som tjänsten accepterar.

KnownRegexFlags

Kända värden för RegexFlags som tjänsten accepterar.

KnownSearchAudience

Kända värden för sökmålgrupp

KnownSearchIndexerDataSourceType

Kända värden för SearchIndexerDataSourceType som tjänsten accepterar.

KnownSentimentSkillLanguage

Kända värden för SentimentSkillLanguage som tjänsten accepterar.

KnownSplitSkillLanguage

Kända värden för SplitSkillLanguage som tjänsten accepterar.

KnownTextSplitMode

Kända värden för TextSplitMode som tjänsten accepterar.

KnownTextTranslationSkillLanguage

Kända värden för TextTranslationSkillLanguage som tjänsten accepterar.

KnownTokenFilterNames

Kända värden för TokenFilterName som tjänsten accepterar.

KnownTokenizerNames

Kända värden för LexicalTokenizerName som tjänsten accepterar.

KnownVisualFeature

Kända värden för VisualFeature som tjänsten accepterar.

Funktioner

createSynonymMapFromFile(string, string)

Hjälpmetod för att skapa ett SynonymMap-objekt. Det här är en endast NodeJS-metod.

odata(TemplateStringsArray, unknown[])

Undviker ett odatafilteruttryck för att undvika fel med att citera strängliteraler. Exempel på användning:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Mer information om syntax som stöds finns i: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

Funktionsinformation

createSynonymMapFromFile(string, string)

Hjälpmetod för att skapa ett SynonymMap-objekt. Det här är en endast NodeJS-metod.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Parametrar

name

string

Namnet på synonymkartan.

filePath

string

Sökvägen till filen som innehåller synonymerna (avgränsade med nya rader)

Returer

Promise<SynonymMap>

SynonymMap-objekt

odata(TemplateStringsArray, unknown[])

Undviker ett odatafilteruttryck för att undvika fel med att citera strängliteraler. Exempel på användning:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Mer information om syntax som stöds finns i: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Parametrar

strings

TemplateStringsArray

Matris med strängar för uttrycket

values

unknown[]

Matris med värden för uttrycket

Returer

string