@azure/search-documents package
Klasser
AzureKeyCredential |
En statisk nyckelbaserad autentiseringsuppgift som stöder uppdatering av det underliggande nyckelvärdet. |
GeographyPoint |
Representerar en geografisk punkt i globala koordinater. |
IndexDocumentsBatch |
Klass som används för att utföra batchåtgärder med flera dokument till indexet. |
SearchClient |
Klass som används för att utföra åtgärder mot ett sökindex, inklusive att fråga dokument i indexet samt lägga till, uppdatera och ta bort dem. |
SearchIndexClient |
Klass för att utföra åtgärder för att hantera (skapa, uppdatera, lista/ta bort) index, & synonymkartor. |
SearchIndexerClient |
Klass för att utföra åtgärder för att hantera (skapa, uppdatera, lista/ta bort) indexerare, datakällor & kompetensuppsättningar. |
SearchIndexingBufferedSender |
Klass som används för att utföra buffrade åtgärder mot ett sökindex, inklusive att lägga till, uppdatera och ta bort dem. |
Gränssnitt
AnalyzeRequest |
Anger vissa text- och analyskomponenter som används för att dela upp texten i token. |
AnalyzeResult |
Resultatet av att testa ett analysverktyg för text. |
AnalyzedTokenInfo |
Information om en token som returneras av en analysator. |
AsciiFoldingTokenFilter |
Konverterar alfabetiska, numeriska och symboliska Unicode-tecken som inte finns i de första 127 ASCII-tecknen (Unicode-blocket "Basic Latin" ) till deras ASCII-motsvarigheter, om sådana motsvarigheter finns. Det här tokenfiltret implementeras med Apache Lucene. |
AutocompleteItem |
Resultatet av autocomplete-begäranden. |
AutocompleteRequest |
Parametrar för fuzzy-matchning och andra autocomplete-frågebeteenden. |
AutocompleteResult |
Resultatet av frågan Komplettera automatiskt. |
AzureActiveDirectoryApplicationCredentials |
Autentiseringsuppgifter för ett registrerat program som skapats för din söktjänst och som används för autentiserad åtkomst till krypteringsnycklarna som lagras i Azure Key Vault. |
BM25Similarity |
Rankningsfunktion baserat på Okapi BM25-likhetsalgoritmen. BM25 är en TF-IDF-liknande algoritm som innehåller längdnormalisering (styrs av parametern "b" samt termfrekvensmättnad (styrs av parametern k1). |
BaseCharFilter |
Bastyp för teckenfilter. |
BaseCognitiveServicesAccount |
Bastyp för att beskriva alla Azure AI-tjänstresurser som är kopplade till en kompetensuppsättning. |
BaseDataChangeDetectionPolicy |
Bastyp för principer för identifiering av dataändringar. |
BaseDataDeletionDetectionPolicy |
Bastyp för identifieringsprinciper för databorttagning. |
BaseLexicalAnalyzer |
Bastyp för analysverktyg. |
BaseLexicalTokenizer |
Bastyp för tokenizers. |
BaseScoringFunction |
Bastyp för funktioner som kan ändra dokumentpoäng under rangordning. |
BaseSearchIndexerSkill |
Bastyp för färdigheter. |
BaseSearchRequestOptions |
Parametrar för filtrering, sortering, fastning, växling och andra sökfrågebeteenden. |
BaseTokenFilter |
Bastyp för tokenfilter. |
BaseVectorQuery |
Frågeparametrarna för vektor- och hybridsökningsfrågor. |
BaseVectorSearchAlgorithmConfiguration |
Innehåller konfigurationsalternativ som är specifika för den algoritm som används vid indexering och/eller frågor. |
CjkBigramTokenFilter |
Bildar bigrams av CJK-termer som genereras från standardtokeniseraren. Det här tokenfiltret implementeras med Apache Lucene. |
ClassicSimilarity |
Äldre likhetsalgoritm som använder Lucene TFIDFSimilarity-implementeringen av TF-IDF. Den här varianten av TF-IDF introducerar normalisering av statisk dokumentlängd samt koordinerar faktorer som straffar dokument som endast delvis matchar de sökta frågorna. |
ClassicTokenizer |
Grammatikbaserad tokeniserare som är lämplig för bearbetning av de flesta europeiska dokument. Den här tokeniseraren implementeras med Apache Lucene. |
CognitiveServicesAccountKey |
En Azure AI-tjänstresurs etablerad med en nyckel som är kopplad till en kompetensuppsättning. |
CommonGramTokenFilter |
Skapa bigrams för ofta förekommande termer vid indexering. Enkla termer indexeras fortfarande också, med bigrams överlagrade. Det här tokenfiltret implementeras med Apache Lucene. |
ComplexField |
Representerar ett fält i en indexdefinition som beskriver namn, datatyp och sökbeteende för ett fält. |
ConditionalSkill |
En färdighet som möjliggör scenarier som kräver en boolesk åtgärd för att fastställa vilka data som ska tilldelas till utdata. |
CorsOptions |
Definierar alternativ för att styra resursdelning mellan ursprung (CORS) för ett index. |
CreateOrUpdateIndexOptions |
Alternativ för att skapa/uppdatera indexåtgärd. |
CreateOrUpdateSkillsetOptions |
Alternativ för att skapa/uppdatera kompetensuppsättningsåtgärd. |
CreateOrUpdateSynonymMapOptions |
Alternativ för att skapa/uppdatera synonymkartåtgärd. |
CreateorUpdateDataSourceConnectionOptions |
Alternativ för att skapa/uppdatera datakällan. |
CreateorUpdateIndexerOptions |
Alternativ för att skapa/uppdatera indexeraren. |
CustomAnalyzer |
Gör att du kan ta kontroll över processen att konvertera text till indexerbara/sökbara token. Det är en användardefinierad konfiguration som består av en enda fördefinierad tokeniserare och ett eller flera filter. Tokeniseraren ansvarar för att dela upp text i token och filter för att ändra token som genereras av tokeniseraren. |
CustomEntity |
Ett objekt som innehåller information om matchningar som hittades och relaterade metadata. |
CustomEntityAlias |
Ett komplext objekt som kan användas för att ange alternativa stavningar eller synonymer till rotentitetsnamnet. |
CustomEntityLookupSkill |
En färdighet söker efter text från en anpassad, användardefinierad lista med ord och fraser. |
DefaultCognitiveServicesAccount |
Ett tomt objekt som representerar standardresursen för Azure AI-tjänsten för en kompetensuppsättning. |
DeleteDataSourceConnectionOptions |
Alternativ för att ta bort datakällan. |
DeleteIndexOptions |
Alternativ för att ta bort indexåtgärd. |
DeleteIndexerOptions |
Alternativ för att ta bort indexeraren. |
DeleteSkillsetOptions |
Alternativ för att ta bort kompetensuppsättningsoperion. |
DeleteSynonymMapOptions |
Alternativ för att ta bort synonymkartåtgärd. |
DictionaryDecompounderTokenFilter |
Sönderdelar sammansatta ord som finns på många germanska språk. Det här tokenfiltret implementeras med Apache Lucene. |
DistanceScoringFunction |
Definierar en funktion som ökar poäng baserat på avstånd från en geografisk plats. |
DistanceScoringParameters |
Tillhandahåller parametervärden till en funktion för avståndsbedömning. |
DocumentExtractionSkill |
En färdighet som extraherar innehåll från en fil i berikningspipelinen. |
EdgeNGramTokenFilter |
Genererar n-gram av de angivna storlekarna med början framifrån eller baksidan av en indatatoken. Det här tokenfiltret implementeras med Apache Lucene. |
EdgeNGramTokenizer |
Tokeniserar indata från en kant till n-gram av de angivna storlekarna. Den här tokeniseraren implementeras med Apache Lucene. |
ElisionTokenFilter |
Tar bort elisions. Till exempel konverteras "l'avion" (planet) till "avion" (plan). Det här tokenfiltret implementeras med Apache Lucene. |
EntityLinkingSkill |
Med hjälp av Textanalys API extraherar länkade entiteter från text. |
EntityRecognitionSkill |
Entitetsigenkänning för textanalys. |
EntityRecognitionSkillV3 |
Med hjälp av Textanalys API extraherar entiteter av olika typer från text. |
ExhaustiveKnnParameters |
Innehåller parametrarna som är specifika för en fullständig KNN-algoritm. |
ExtractiveQueryAnswer |
Extraherar svarskandidater från innehållet i de dokument som returneras som svar på en fråga som uttrycks som en fråga på naturligt språk. |
ExtractiveQueryCaption |
Extraherar undertexter från matchande dokument som innehåller avsnitt som är relevanta för sökfrågan. |
FacetResult |
En enda bucket med ett facet-frågeresultat. Rapporterar antalet dokument med ett fältvärde som faller inom ett visst intervall eller har ett visst värde eller intervall. |
FieldMapping |
Definierar en mappning mellan ett fält i en datakälla och ett målfält i ett index. |
FieldMappingFunction |
Representerar en funktion som transformerar ett värde från en datakälla före indexering. |
FreshnessScoringFunction |
Definierar en funktion som ökar poäng baserat på värdet för ett datum-tid-fält. |
FreshnessScoringParameters |
Ger parametervärden till en funktion för färskhetsbedömning. |
GetDocumentOptions |
Alternativ för att hämta ett enskilt dokument. |
HighWaterMarkChangeDetectionPolicy |
Definierar en princip för identifiering av dataändringar som samlar in ändringar baserat på värdet för en högvattenmärkeskolumn. |
HnswParameters |
Innehåller de parametrar som är specifika för hnsw-algoritmen. |
ImageAnalysisSkill |
En färdighet som analyserar bildfiler. Den extraherar en omfattande uppsättning visuella funktioner baserat på bildinnehållet. |
IndexDocumentsClient |
Indexdokumentklient |
IndexDocumentsOptions |
Alternativ för att ändra batchåtgärden index. |
IndexDocumentsResult |
Svar som innehåller status för åtgärder för alla dokument i indexeringsbegäran. |
IndexerExecutionResult |
Representerar resultatet av en enskild indexerarekörning. |
IndexingParameters |
Representerar parametrar för indexeringskörning. |
IndexingParametersConfiguration |
En ordlista med indexerarspecifika konfigurationsegenskaper. Varje namn är namnet på en specifik egenskap. Varje värde måste vara av en primitiv typ. |
IndexingResult |
Status för en indexeringsåtgärd för ett enskilt dokument. |
IndexingSchedule |
Representerar ett schema för indexeringskörning. |
InputFieldMappingEntry |
Mappning av indatafält för en färdighet. |
KeepTokenFilter |
Ett tokenfilter som bara behåller token med text i en angiven lista med ord. Det här tokenfiltret implementeras med Apache Lucene. |
KeyPhraseExtractionSkill |
En färdighet som använder textanalys för extrahering av nyckelfraser. |
KeywordMarkerTokenFilter |
Markerar termer som nyckelord. Det här tokenfiltret implementeras med Apache Lucene. |
KeywordTokenizer |
Genererar hela indata som en enda token. Den här tokeniseraren implementeras med Apache Lucene. |
LanguageDetectionSkill |
En färdighet som identifierar språket för indatatext och rapporterar en enda språkkod för varje dokument som skickas på begäran. Språkkoden paras ihop med en poäng som anger analysens förtroende. |
LengthTokenFilter |
Tar bort ord som är för långa eller för korta. Det här tokenfiltret implementeras med Apache Lucene. |
LimitTokenFilter |
Begränsar antalet token vid indexering. Det här tokenfiltret implementeras med Apache Lucene. |
ListSearchResultsPageSettings |
Argument för att hämta nästa sida med sökresultat. |
LuceneStandardAnalyzer |
Standard Apache Lucene analyzer; Består av standardtokeniseraren, gemener och stoppfilter. |
LuceneStandardTokenizer |
Delar upp text efter Unicode-reglerna för textsegmentering. Denna tokenizer implementeras med Apache Lucene. |
MagnitudeScoringFunction |
Definierar en funktion som ökar poängen baserat på storleken på ett numeriskt fält. |
MagnitudeScoringParameters |
Ger parametervärden till en funktion för storleksbedömning. |
MappingCharFilter |
Ett teckenfilter som tillämpar mappningar som definierats med mappningsalternativet. Matchningen är girig (den längsta mönstermatchningen vid en viss tidpunkt vinner). Ersättning tillåts vara den tomma strängen. Det här teckenfiltret implementeras med Apache Lucene. |
MergeSkill |
En färdighet för sammanslagning av två eller flera strängar i en enda enhetlig sträng, med en valfri användardefinierad avgränsare som avgränsar varje komponentdel. |
MicrosoftLanguageStemmingTokenizer |
Delar upp text med hjälp av språkspecifika regler och minskar ord till sina basformulär. |
MicrosoftLanguageTokenizer |
Delar upp text med språkspecifika regler. |
NGramTokenFilter |
Genererar n-gram av den eller de angivna storlekarna. Det här tokenfiltret implementeras med Apache Lucene. |
NGramTokenizer |
Tokeniserar indata till n-gram av de angivna storlekarna. Denna tokenizer implementeras med Apache Lucene. |
OcrSkill |
En färdighet som extraherar text från bildfiler. |
OutputFieldMappingEntry |
Mappning av utdatafält för en färdighet. |
PIIDetectionSkill |
Med hjälp av Textanalys-API:et extraherar du personlig information från en indatatext och ger dig möjlighet att maskera den. |
PathHierarchyTokenizer |
Tokenizer för sökvägsliknande hierarkier. Denna tokenizer implementeras med Apache Lucene. |
PatternAnalyzer |
Separerar text flexibelt i termer via ett mönster för reguljära uttryck. Den här analysatorn implementeras med Apache Lucene. |
PatternCaptureTokenFilter |
Använder Java-regex för att generera flera token – en för varje avbildningsgrupp i ett eller flera mönster. Det här tokenfiltret implementeras med Apache Lucene. |
PatternReplaceCharFilter |
Ett teckenfilter som ersätter tecken i indatasträngen. Det använder ett reguljärt uttryck för att identifiera teckensekvenser för att bevara och ett ersättningsmönster för att identifiera tecken som ska ersättas. Om du till exempel ser indatatexten "aa bb aa bb", mönstret "(aa)\s+(bb)" och ersättningen "$1#$2" blir resultatet "aa#bb aa#bb". Det här teckenfiltret implementeras med Apache Lucene. |
PatternReplaceTokenFilter |
Ett teckenfilter som ersätter tecken i indatasträngen. Det använder ett reguljärt uttryck för att identifiera teckensekvenser för att bevara och ett ersättningsmönster för att identifiera tecken som ska ersättas. Om du till exempel ser indatatexten "aa bb aa bb", mönstret "(aa)\s+(bb)" och ersättningen "$1#$2" blir resultatet "aa#bb aa#bb". Det här tokenfiltret implementeras med Apache Lucene. |
PatternTokenizer |
Tokenizer som använder regexmönstermatchning för att konstruera distinkta token. Denna tokenizer implementeras med Apache Lucene. |
PhoneticTokenFilter |
Skapa token för fonetiska matchningar. Det här tokenfiltret implementeras med Apache Lucene. |
QueryAnswerResult |
Ett svar är ett textavsnitt som extraherats från innehållet i de mest relevanta dokument som matchade frågan. Svar extraheras från de främsta sökresultaten. Svarskandidaterna poängsätts och de vanligaste svaren väljs. |
QueryCaptionResult |
Undertexter är de mest representativa avsnitten från dokumentet relativt till sökfrågan. De används ofta som dokumentsammanfattning. Undertexter returneras endast för frågor av typen |
ResourceCounter |
Representerar en resurss användning och kvot. |
ScoringProfile |
Definierar parametrar för ett sökindex som påverkar bedömning i sökfrågor. |
SearchClientOptions |
Klientalternativ som används för att konfigurera API-begäranden för Cognitive Search. |
SearchDocumentsPageResult |
Svar som innehåller sökresultat från ett index. |
SearchDocumentsResult |
Svar som innehåller sökresultat från ett index. |
SearchDocumentsResultBase |
Svar som innehåller sökresultat från ett index. |
SearchIndex |
Representerar en sökindexdefinition som beskriver fälten och sökbeteendet för ett index. |
SearchIndexClientOptions |
Klientalternativ som används för att konfigurera API-begäranden för Cognitive Search. |
SearchIndexStatistics |
Statistik för ett visst index. Statistik samlas in regelbundet och garanteras inte alltid vara uppdaterad. |
SearchIndexer |
Representerar en indexerare. |
SearchIndexerClientOptions |
Klientalternativ som används för att konfigurera API-begäranden för Cognitive Search. |
SearchIndexerDataContainer |
Representerar information om entiteten (till exempel Azure SQL tabell eller CosmosDB-samling) som ska indexeras. |
SearchIndexerDataSourceConnection |
Representerar en datakälladefinition som kan användas för att konfigurera en indexerare. |
SearchIndexerError |
Representerar ett indexeringsfel på objekt- eller dokumentnivå. |
SearchIndexerKnowledgeStore |
Definition av ytterligare projektioner till azure blob, tabell eller filer för berikade data. |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
Abstrakt klass för att dela egenskaper mellan konkreta väljare. |
SearchIndexerKnowledgeStoreFileProjectionSelector |
Projektionsdefinition för vilka data som ska lagras i Azure Files. |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
Projektionsdefinition för vilka data som ska lagras i Azure Blob. |
SearchIndexerKnowledgeStoreProjection |
Containerobjekt för olika projektionsväljare. |
SearchIndexerKnowledgeStoreProjectionSelector |
Abstrakt klass för att dela egenskaper mellan konkreta väljare. |
SearchIndexerKnowledgeStoreTableProjectionSelector |
Beskrivning av vilka data som ska lagras i Azure-tabeller. |
SearchIndexerLimits | |
SearchIndexerSkillset |
En lista över färdigheter. |
SearchIndexerStatus |
Representerar den aktuella statusen och körningshistoriken för en indexerare. |
SearchIndexerWarning |
Representerar en varning på objektnivå. |
SearchIndexingBufferedSenderOptions |
Alternativ för SearchIndexingBufferedSender. |
SearchResourceEncryptionKey |
En kundhanterad krypteringsnyckel i Azure Key Vault. Nycklar som du skapar och hanterar kan användas för att kryptera eller dekryptera vilande data i Azure Cognitive Search, till exempel index och synonymkartor. |
SearchServiceStatistics |
Svar från en begäran om att hämta tjänststatistik. Om det lyckas innehåller den räknare och gränser på servicenivå. |
SearchSuggester |
Definierar hur api:et Föreslå ska tillämpas på en grupp fält i indexet. |
SemanticConfiguration |
Definierar en specifik konfiguration som ska användas i kontexten för semantiska funktioner. |
SemanticField |
Ett fält som används som en del av den semantiska konfigurationen. |
SemanticPrioritizedFields |
Beskriver fälten rubrik, innehåll och nyckelord som ska användas för semantisk rangordning, undertexter, höjdpunkter och svar. |
SemanticSearch |
Definierar parametrar för ett sökindex som påverkar semantiska funktioner. |
SemanticSearchOptions |
Definierar alternativ för semantiska sökfrågor |
SentimentSkill |
Textanalys positiv-negativ attitydanalys, poängsatt som ett flyttalsvärde i intervallet noll till 1. |
SentimentSkillV3 |
Med hjälp av Textanalys-API:et utvärderas ostrukturerad text och för varje post tillhandahåller sentimentetiketter (till exempel "negativ", "neutral" och "positiv") baserat på den högsta konfidenspoängen som hittats av tjänsten på en menings- och dokumentnivå. |
ServiceCounters |
Representerar resursräknare och kvoter på servicenivå. |
ServiceLimits |
Representerar olika gränser på tjänstnivå. |
ShaperSkill |
En färdighet för att omforma utdata. Den skapar en komplex typ för att stödja sammansatta fält (kallas även flerdelsfält). |
ShingleTokenFilter |
Skapar kombinationer av token som en enda token. Det här tokenfiltret implementeras med Apache Lucene. |
Similarity |
Bastyp för likhetsalgoritmer. Likhetsalgoritmer används för att beräkna poäng som kopplar frågor till dokument. Ju högre poäng, desto mer relevant är dokumentet för den specifika frågan. Dessa poäng används för att rangordna sökresultaten. |
SimpleField |
Representerar ett fält i en indexdefinition som beskriver namn, datatyp och sökbeteende för ett fält. |
SnowballTokenFilter |
Ett filter som stjälkar ord med hjälp av en Snowball-genererad stemmer. Det här tokenfiltret implementeras med Apache Lucene. |
SoftDeleteColumnDeletionDetectionPolicy |
Definierar en princip för identifiering av databorttagning som implementerar en strategi för mjuk borttagning. Den avgör om ett objekt ska tas bort baserat på värdet för en angiven "mjuk borttagning"-kolumn. |
SplitSkill |
En färdighet att dela upp en sträng i textsegment. |
SqlIntegratedChangeTrackingPolicy |
Definierar en princip för identifiering av dataändringar som samlar in ändringar med hjälp av funktionen Integrated Ändringsspårning i Azure SQL Database. |
StemmerOverrideTokenFilter |
Ger möjlighet att åsidosätta andra härdningsfilter med anpassad ordlistebaserad härdning. Ordlisteskaftade termer markeras som nyckelord så att de inte kommer att stoppas med stemmers längre ned i kedjan. Måste placeras före eventuella härdningsfilter. Det här tokenfiltret implementeras med Apache Lucene. |
StemmerTokenFilter |
Språkspecifikt härdningsfilter. Det här tokenfiltret implementeras med Apache Lucene. |
StopAnalyzer |
Delar upp text med icke-bokstäver. Tillämpar filter för gemener och stoppordstoken. Den här analysatorn implementeras med Apache Lucene. |
StopwordsTokenFilter |
Tar bort stoppord från en tokenström. Det här tokenfiltret implementeras med Apache Lucene. |
SuggestDocumentsResult |
Svar som innehåller förslag på frågeresultat från ett index. |
SuggestRequest |
Parametrar för filtrering, sortering, fuzzy-matchning och andra frågebeteenden för förslag. |
SynonymMap |
Representerar en synonymkartdefinition. |
SynonymTokenFilter |
Matchar synonymer med en eller flera ord i en tokenström. Det här tokenfiltret implementeras med Apache Lucene. |
TagScoringFunction |
Definierar en funktion som ökar poängen med dokument med strängvärden som matchar en viss lista med taggar. |
TagScoringParameters |
Tillhandahåller parametervärden till en taggbedömningsfunktion. |
TextTranslationSkill |
En färdighet att översätta text från ett språk till ett annat. |
TextWeights |
Definierar vikter för indexfält för vilka matchningar ska öka poängsättningen i sökfrågor. |
TruncateTokenFilter |
Trunkerar termerna till en viss längd. Det här tokenfiltret implementeras med Apache Lucene. |
UaxUrlEmailTokenizer |
Tokeniserar URL:ar och e-postmeddelanden som en token. Denna tokenizer implementeras med Apache Lucene. |
UniqueTokenFilter |
Filtrerar bort token med samma text som föregående token. Det här tokenfiltret implementeras med Apache Lucene. |
VectorSearch |
Innehåller konfigurationsalternativ relaterade till vektorsökning. |
VectorSearchOptions |
Definierar alternativ för vektorsökningsfrågor |
VectorSearchProfile |
Definierar en kombination av konfigurationer som ska användas med vektorsökning. |
VectorizedQuery |
Frågeparametrarna som ska användas för vektorsökning när ett råvektorvärde anges. |
WebApiSkill |
En färdighet som kan anropa en webb-API-slutpunkt, så att du kan utöka en kompetensuppsättning genom att låta den anropa din anpassade kod. |
WordDelimiterTokenFilter |
Delar upp ord i underord och utför valfria transformeringar på underordsgrupper. Det här tokenfiltret implementeras med Apache Lucene. |
Typalias
AnalyzeTextOptions |
Alternativ för att analysera textåtgärd. |
AutocompleteMode |
Definierar värden för AutocompleteMode. |
AutocompleteOptions |
Alternativ för att hämta slutförandetext för en partiell searchText. |
BlobIndexerDataToExtract |
Kända värden som stöds av tjänstenstorageMetadata: Indexerar bara standardblobegenskaperna och användardefinierade metadata. allMetadata: Extraherar metadata som tillhandahålls av Azure Blob Storage-undersystemet och specifika metadata av innehållstyp (till exempel metadata som är unika för bara .png filer indexeras). contentAndMetadata: Extraherar alla metadata och textinnehåll från varje blob. |
BlobIndexerImageAction |
Kända värden som stöds av tjänstennone: Ignorerar inbäddade bilder eller bildfiler i datauppsättningen. Det här är standardinställningen. generateNormalizedImages: Extraherar text från bilder (till exempel ordet "STOP" från en trafikstoppsskylt) och bäddar in den i innehållsfältet. Den här åtgärden kräver att "dataToExtract" är inställt på "contentAndMetadata". En normaliserad bild refererar till ytterligare bearbetning som resulterar i enhetlig bildutdata, storlek och roterad för att främja konsekvent återgivning när du inkluderar bilder i visuella sökresultat. Den här informationen genereras för varje bild när du använder det här alternativet. generateNormalizedImagePerPage: Extraherar text från bilder (till exempel ordet "STOP" från en trafikstoppsskylt) och bäddar in den i innehållsfältet, men behandlar PDF-filer på olika sätt eftersom varje sida återges som en bild och normaliseras därefter, i stället för att extrahera inbäddade bilder. Filtyper som inte är PDF-filer behandlas på samma sätt som om "generateNormalizedImages" angavs. |
BlobIndexerPDFTextRotationAlgorithm |
Kända värden som stöds av tjänstennone: Utnyttjar normal textextrahering. Det här är standardinställningen. detectAngles: Kan ge bättre och mer läsbar textextrahering från PDF-filer som har roterad text i dem. Observera att det kan uppstå en liten effekt på prestandahastigheten när den här parametern används. Den här parametern gäller endast PDF-filer och endast pdf-filer med inbäddad text. Om den roterade texten visas i en inbäddad bild i PDF-filen gäller inte den här parametern. |
BlobIndexerParsingMode |
Kända värden som stöds av tjänstenstandard: Ange som standard för normal filbearbetning. text: Ställ in på text för att förbättra indexeringsprestanda för oformaterade textfiler i Blob Storage. delimitedText: Ange till avgränsadText när blobar är vanliga CSV-filer. json: Ställ in på json för att extrahera strukturerat innehåll från JSON-filer. jsonArray: Ställ in på jsonArray för att extrahera enskilda element i en JSON-matris som separata dokument i Azure Cognitive Search. jsonLines: Ange till jsonLines för att extrahera enskilda JSON-entiteter, avgränsade med en ny rad, som separata dokument i Azure Cognitive Search. |
CharFilter |
Innehåller möjliga fall för CharFilter. |
CharFilterName |
Definierar värden för CharFilterName. Kända värden som stöds av tjänstenhtml_strip: Ett teckenfilter som försöker ta bort HTML-konstruktioner. Se https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilterScripts |
Definierar värden för CjkBigramTokenFilterScripts. |
CognitiveServicesAccount |
Innehåller möjliga fall för CognitiveServicesAccount. |
ComplexDataType |
Definierar värden för ComplexDataType. Möjliga värden är: "Edm.ComplexType", "Collection(Edm.ComplexType)" |
CountDocumentsOptions |
Alternativ för att utföra count-åtgärden i indexet. |
CreateDataSourceConnectionOptions |
Alternativ för att skapa datakällan. |
CreateIndexOptions |
Alternativ för att skapa indexåtgärd. |
CreateIndexerOptions |
Alternativ för att skapa indexeringsåtgärd. |
CreateSkillsetOptions |
Alternativ för att skapa kompetensuppsättningsåtgärd. |
CreateSynonymMapOptions |
Alternativ för att skapa synonymkartåtgärd. |
CustomEntityLookupSkillLanguage |
Definierar språk som stöds för CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage kan användas utbytbart med den här typen |
DataChangeDetectionPolicy |
Innehåller möjliga fall för DataChangeDetectionPolicy. |
DataDeletionDetectionPolicy |
Innehåller möjliga fall för DataDeletionDetectionPolicy. |
DeleteDocumentsOptions |
Alternativ för åtgärden ta bort dokument. |
EdgeNGramTokenFilterSide |
Definierar värden för EdgeNGramTokenFilterSide. |
EntityCategory | |
EntityRecognitionSkillLanguage |
Definierar språk som stöds för EntityRecognitionSkillKnownEntityRecognitionSkillLanguage kan användas utbytbart med den här typen |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
Innehåller konfigurationsalternativ som är specifika för den fullständiga KNN-algoritm som används vid frågor, som utför brute-force-sökning över hela vektorindexet. |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
Alternativ för att hämta datakällan. |
GetIndexOptions |
Alternativ för att hämta indexåtgärd. |
GetIndexStatisticsOptions |
Alternativ för att hämta indexstatistikåtgärd. |
GetIndexerOptions |
Alternativ för att hämta indexerarens åtgärd. |
GetIndexerStatusOptions |
Alternativ för att hämta indexerarens statusåtgärd. |
GetServiceStatisticsOptions |
Alternativ för att hämta tjänststatistikåtgärd. |
GetSkillSetOptions |
Alternativ för att hämta kompetensåtgärd. |
GetSynonymMapsOptions |
Alternativ för att hämta synonymkartoråtgärd. |
HnswAlgorithmConfiguration |
Innehåller konfigurationsalternativ som är specifika för den ungefärliga algoritmen för närmaste grannar som används under indexeringstiden. |
ImageAnalysisSkillLanguage |
Definierar språk som stöds för ImageAnalysisSkillKnownImageAnalysisSkillLanguage kan användas utbytbart med den här typen |
ImageDetail | |
IndexActionType |
Definierar värden för IndexActionType. |
IndexDocumentsAction |
Representerar en indexåtgärd som fungerar i ett dokument. |
IndexIterator |
En iterator för att lista de index som finns i tjänsten Search. Kommer att göra begäranden efter behov under iterationen. Använd .byPage() för att göra en begäran till servern per iteration. |
IndexNameIterator |
En iterator för att lista de index som finns i tjänsten Search. Kommer att göra begäranden efter behov under iterationen. Använd .byPage() för att göra en begäran till servern per iteration. |
IndexerExecutionEnvironment |
Kända värden som stöds av tjänstenstandard: Anger att Azure Cognitive Search kan avgöra var indexeraren ska köras. Det här är standardmiljön när inget anges och är det rekommenderade värdet. privat: Anger att indexeraren ska köras med den miljö som etablerats specifikt för söktjänsten. Detta bör endast anges som körningsmiljö om indexeraren behöver komma åt resurser på ett säkert sätt över delade privata länkresurser. |
IndexerExecutionStatus |
Definierar värden för IndexerExecutionStatus. |
IndexerStatus |
Definierar värden för IndexerStatus. |
KeyPhraseExtractionSkillLanguage |
Definierar språk som stöds för KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage kan användas utbytbart med den här typen |
LexicalAnalyzer |
Innehåller möjliga fall för Analyzer. |
LexicalAnalyzerName |
Definierar värden för LexicalAnalyzerName. Kända värden som stöds av tjänstenar.microsoft: Microsoft Analyzer för arabiska. |
LexicalTokenizer |
Innehåller möjliga fall för Tokenizer. |
LexicalTokenizerName |
Definierar värden för LexicalTokenizerName. Kända värden som stöds av tjänstenklassisk: Grammatikbaserad tokeniserare som lämpar sig för bearbetning av de flesta europeiska dokument. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
ListDataSourceConnectionsOptions |
Alternativ för en liståtgärd för datakällor. |
ListIndexersOptions |
Alternativ för en listindexeringsåtgärd. |
ListIndexesOptions |
Alternativ för en listindexåtgärd. |
ListSkillsetsOptions |
Alternativ för en liståtgärd för kompetensuppsättningar. |
ListSynonymMapsOptions |
Alternativ för en list synonymMaps-åtgärd. |
MergeDocumentsOptions |
Alternativ för åtgärden koppla dokument. |
MergeOrUploadDocumentsOptions |
Alternativ för åtgärden koppla eller ladda upp dokument. |
MicrosoftStemmingTokenizerLanguage |
Definierar värden för MicrosoftStemmingTokenizerLanguage. |
MicrosoftTokenizerLanguage |
Definierar värden för MicrosoftTokenizerLanguage. |
NarrowedModel |
Begränsar modelltypen så att endast de markerade fälten inkluderas |
OcrSkillLanguage |
Definierar språk som stöds för OcrSkillKnownOcrSkillLanguage kan användas synonymt med den här typen |
PIIDetectionSkillMaskingMode |
Definierar värden för PIIDetectionSkillMaskingMode. Kända värden som stöds av tjänstennone: Ingen maskering sker och maskedText-utdata returneras inte. replace: Ersätter identifierade entiteter med det tecken som anges i parametern maskingCharacter. Tecknet upprepas till längden på den identifierade entiteten så att förskjutningarna korrekt motsvarar både indatatexten och utdatamaskeradText. |
PhoneticEncoder |
Definierar värden för PhoneticEncoder. |
QueryAnswer |
Ett värde som anger om svar ska returneras som en del av söksvaret.
Den här parametern är endast giltig om frågetypen är "semantisk". Om den är inställd |
QueryCaption |
Ett värde som anger om undertexter ska returneras som en del av söksvaret. Den här parametern är endast giltig om frågetypen är "semantisk". Om den anges returnerar frågan undertexter som extraherats från nyckelavsnitt i de högst rankade dokumenten. När Undertexter är "extraktiva" aktiveras markering som standard. Standardvärdet är "none". |
QueryType |
Definierar värden för QueryType. |
RegexFlags |
Definierar flaggor för regex-mönstermatchning Kända värden som stöds av tjänstenCANON_EQ: Aktiverar kanonisk likvärdighet. CASE_INSENSITIVE: Aktiverar skiftlägesokänslig matchning. KOMMENTARER: Tillåter blanksteg och kommentarer i mönstret. DOTALL: Aktiverar dotall-läge. LITERAL: Aktiverar literal parsning av mönstret. MULTILINE: Aktiverar flerradsläge. UNICODE_CASE: Aktiverar Unicode-medveten skiftlägesdelegering. UNIX_LINES: Aktiverar Unix-linjeläge. |
ResetIndexerOptions |
Alternativ för att återställa indexerarens åtgärd. |
RunIndexerOptions |
Alternativ för att köra indexeraren. |
ScoringFunction |
Innehåller möjliga fall för ScoringFunction. |
ScoringFunctionAggregation |
Definierar värden för ScoringFunctionAggregation. |
ScoringFunctionInterpolation |
Definierar värden för ScoringFunctionInterpolation. |
ScoringStatistics |
Definierar värden för ScoringStatistics. |
SearchField |
Representerar ett fält i en indexdefinition som beskriver namn, datatyp och sökbeteende för ett fält. |
SearchFieldArray |
Om |
SearchFieldDataType |
Definierar värden för SearchFieldDataType. Möjliga värden är: 'Edm.String', 'Edm.Int32', 'Edm.Int64', 'Edm.Double', 'Edm.Boolean', 'Edm.DateTimeOffset', 'Edm.GeographyPoint', 'Collection(Edm.String)', 'Collection(Edm.Int32)', 'Collection(Edm.Int64)', 'Collection(Edm.Double)', 'Collection(Edm.Boolean)', 'Collection(Edm.DateTimeOffset)', 'Collection(Edm.GeographyPoint)', 'Collection(Edm.Single)' Obs! |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
Innehåller möjliga fall för Färdighet. |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
Alternativ för SearchIndexingBufferedSenderDeleteDocuments. |
SearchIndexingBufferedSenderFlushDocumentsOptions |
Alternativ för SearchIndexingBufferedSenderFlushDocuments. |
SearchIndexingBufferedSenderMergeDocumentsOptions |
Alternativ för SearchIndexingBufferedSenderMergeDocuments. |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Alternativ för SearchIndexingBufferedSenderMergeOrUploadDocuments. |
SearchIndexingBufferedSenderUploadDocumentsOptions |
Alternativ för SearchIndexingBufferedSenderUploadDocuments. |
SearchIterator |
En iterator för sökresultat för en paticular-fråga. Kommer att göra begäranden efter behov under iterationen. Använd .byPage() för att göra en begäran till servern per iteration. |
SearchMode |
Definierar värden för SearchMode. |
SearchOptions |
Alternativ för att utföra en fullständig sökbegäran. |
SearchPick |
Välj fält i T djupt med hjälp av giltiga Cognitive Search OData-$select sökvägar. |
SearchRequestOptions |
Parametrar för filtrering, sortering, fastning, växling och andra sökfrågebeteenden. |
SearchRequestQueryTypeOptions | |
SearchResult |
Innehåller ett dokument som hittas av en sökfråga, plus associerade metadata. |
SelectArray |
Om |
SelectFields |
Skapar en union av giltig Cognitive Search OData-$select sökvägar för T med hjälp av en postordningsbläddering av fältträdet som är rotat på T. |
SemanticErrorMode |
partial: Om den semantiska bearbetningen misslyckas returneras fortfarande partiella resultat. Definitionen av partiella resultat beror på vilket semantiksteg som misslyckades och vad som var orsaken till felet. fail: Om det finns ett undantag under semantikbearbetningssteget misslyckas frågan och returnerar lämplig HTTP-kod beroende på felet. |
SemanticErrorReason |
maxWaitExceededed: Om "semanticMaxWaitInMilliseconds" angavs och varaktigheten för semantisk bearbetning överskred det värdet. Endast basresultaten returnerades. capacityOverloaded: Begäran begränsades. Endast basresultaten returnerades. tillfälligt: Minst ett steg i den semantiska processen misslyckades. |
SemanticSearchResultsType |
baseResults: Resultat utan semantisk berikning eller omrankning. rerankedResults: Resultaten har rangordnats om med rerankermodellen och kommer att innehålla semantiska undertexter. De innehåller inga svar, svarshöjdpunkter eller bildtext höjdpunkter. |
SentimentSkillLanguage |
Definierar språk som stöds för SentimentSkillKnownSentimentSkillLanguage kan användas utbytbart med den här typen |
SimilarityAlgorithm |
Innehåller möjliga fall för likhet. |
SnowballTokenFilterLanguage |
Definierar värden för SnowballTokenFilterLanguage. |
SplitSkillLanguage |
Definierar språk som stöds för SplitSkillKnownSplitSkillLanguage kan användas utbytbart med den här typen |
StemmerTokenFilterLanguage |
Definierar värden för StemmerTokenFilterLanguage. |
StopwordsList |
Definierar värden för StopwordsList. |
SuggestNarrowedModel | |
SuggestOptions |
Alternativ för att hämta förslag baserat på searchText. |
SuggestResult |
Ett resultat som innehåller ett dokument som hittats av en förslagsfråga, plus associerade metadata. |
TextSplitMode | |
TextTranslationSkillLanguage |
Definierar språk som stöds för TextTranslationSkillKnownTextTranslationSkillLanguage kan användas utbytbart med den här typen |
TokenCharacterKind |
Definierar värden för TokenCharacterKind. |
TokenFilter |
Innehåller möjliga fall för TokenFilter. |
TokenFilterName |
Definierar värden för TokenFilterName. Kända värden som stöds av tjänstenarabic_normalization: Ett tokenfilter som tillämpar den arabiska normaliseraren för att normalisera ortografin. Se http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
UnionToIntersection | |
UploadDocumentsOptions |
Alternativ för åtgärden ladda upp dokument. |
VectorFilterMode |
Avgör om filter tillämpas före eller efter att vektorsökningen utförs. |
VectorQuery |
Frågeparametrarna för vektor- och hybridsökfrågor. |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
Innehåller konfigurationsalternativ som är specifika för algoritmen som används vid indexering och/eller frågor. |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric |
Likhetsmåttet som ska användas för vektorjämförelser. |
VisualFeature |
Uppräkningar
Funktioner
create |
Hjälpmetod för att skapa ett SynonymMap-objekt. Det här är en endast NodeJS-metod. |
odata(Template |
Undviker ett odatafilteruttryck för att undvika fel med att citera strängliteraler. Exempel på användning:
Mer information om syntax som stöds finns i: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
Funktionsinformation
createSynonymMapFromFile(string, string)
Hjälpmetod för att skapa ett SynonymMap-objekt. Det här är en endast NodeJS-metod.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parametrar
- name
-
string
Namnet på synonymkartan.
- filePath
-
string
Sökvägen till filen som innehåller synonymerna (avgränsade med nya rader)
Returer
Promise<SynonymMap>
SynonymMap-objekt
odata(TemplateStringsArray, unknown[])
Undviker ett odatafilteruttryck för att undvika fel med att citera strängliteraler. Exempel på användning:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Mer information om syntax som stöds finns i: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parametrar
- strings
-
TemplateStringsArray
Matris med strängar för uttrycket
- values
-
unknown[]
Matris med värden för uttrycket
Returer
string