@azure/search-documents package

Klassen

AzureKeyCredential

Eine auf statischen Schlüsseln basierende Anmeldeinformationen, die das Aktualisieren des zugrunde liegenden Schlüsselwerts unterstützen.

GeographyPoint

Stellt einen geografischen Punkt in globalen Koordinaten dar.

IndexDocumentsBatch

Klasse, die zum Ausführen von Batchvorgängen mit mehreren Dokumenten für den Index verwendet wird.

SearchClient

Klasse, die zum Ausführen von Vorgängen für einen Suchindex verwendet wird, einschließlich Abfragen von Dokumenten im Index sowie Hinzufügen, Aktualisieren und Entfernen dieser Dokumente.

SearchIndexClient

Klasse zum Ausführen von Vorgängen zum Verwalten (Erstellen, Aktualisieren, Auflisten/Löschen) von Indizes & Synonymzuordnungen.

SearchIndexerClient

Klasse zum Ausführen von Vorgängen zum Verwalten (Erstellen, Aktualisieren, Auflisten/Löschen) von Indexern, Datenquellen & Skillsets.

SearchIndexingBufferedSender

Klasse, die verwendet wird, um gepufferte Vorgänge für einen Suchindex auszuführen, einschließlich hinzufügen, aktualisieren und entfernen.

Schnittstellen

AnalyzeRequest

Gibt einige Text- und Analysekomponenten an, die verwendet werden, um diesen Text in Token zu unterteilen.

AnalyzeResult

Das Ergebnis des Testens eines Analysetools für Text.

AnalyzedTokenInfo

Informationen zu einem Token, das von einem Analysetool zurückgegeben wird.

AsciiFoldingTokenFilter

Konvertiert alphabetische, numerische und symbolische Unicode-Zeichen, die sich nicht in den ersten 127 ASCII-Zeichen (dem Unicode-Block "Basic Latin") befinden, in ihre ASCII-Entsprechungen, sofern solche Entsprechungen vorhanden sind. Dieser Tokenfilter wird mit Apache Lucene implementiert.

AutocompleteItem

Das Ergebnis von AutoVervollständigen-Anforderungen.

AutocompleteRequest

Parameter für Fuzzyabgleich und andere Verhalten von Abfragen mit automatischer Vervollständigung.

AutocompleteResult

Das Ergebnis der AutoVervollständigen-Abfrage.

AzureActiveDirectoryApplicationCredentials

Anmeldeinformationen einer registrierten Anwendung, die für Ihren Suchdienst erstellt wurde und für den authentifizierten Zugriff auf die in Azure Key Vault gespeicherten Verschlüsselungsschlüssel verwendet wird.

BM25Similarity

Rangfolgefunktion basierend auf dem Okapi BM25-Ähnlichkeitsalgorithmus. BM25 ist ein TF-IDF-ähnlicher Algorithmus, der die Längennormalisierung (gesteuert durch den Parameter "b") sowie die Begriffsfrequenzsättigung (gesteuert durch den Parameter "k1") umfasst.

BaseCharFilter

Basistyp für Zeichenfilter.

BaseCognitiveServicesAccount

Basistyp zum Beschreiben einer Azure KI-Dienstressource, die an ein Skillset angefügt ist.

BaseDataChangeDetectionPolicy

Basistyp für Datenänderungserkennungsrichtlinien.

BaseDataDeletionDetectionPolicy

Basistyp für Datenlöschungserkennungsrichtlinien.

BaseLexicalAnalyzer

Basistyp für Analysetools.

BaseLexicalTokenizer

Basistyp für Tokenizer.

BaseScoringFunction

Basistyp für Funktionen, die Dokumentbewertungen während der Bewertung ändern können.

BaseSearchIndexerSkill

Basistyp für Skills.

BaseSearchRequestOptions

Parameter zum Filtern, Sortieren, Faceting, Paging und anderen Suchabfrageverhalten.

BaseTokenFilter

Basistyp für Tokenfilter.

BaseVectorQuery

Die Abfrageparameter für Vektor- und Hybridsuchabfragen.

BaseVectorSearchAlgorithmConfiguration

Enthält Spezifische Konfigurationsoptionen für den Algorithmus, der während der Indizierung und/oder Abfrage verwendet wird.

CjkBigramTokenFilter

Bildet bigrams von CJK-Begriffen, die aus dem Standardtokenizer generiert werden. Dieser Tokenfilter wird mit Apache Lucene implementiert.

ClassicSimilarity

Legacy-Ähnlichkeitsalgorithmus, der die Lucene TFIDFSimilarity-Implementierung von TF-IDF verwendet. Diese Variante von TF-IDF führt eine Normalisierung der statischen Dokumentlänge ein sowie koordinierende Faktoren, die Dokumente bestrafen, die nur teilweise mit den durchsuchten Abfragen übereinstimmen.

ClassicTokenizer

Grammatikbasiertes Tokenizer, das sich für die Verarbeitung der meisten dokumente in europäischer Sprache eignet. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

CognitiveServicesAccountKey

Eine Azure KI-Dienstressource, die mit einem Schlüssel bereitgestellt wird, der einem Skillset zugeordnet ist.

CommonGramTokenFilter

Konstruiert Bigramme für häufig vorkommende Begriffe während der Indexierung. Einzelne Begriffe werden ebenfalls indexiert und mit Bigrammen überlagert. Dieser Tokenfilter wird mit Apache Lucene implementiert.

ComplexField

Stellt ein Feld in einer Indexdefinition dar, das den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt.

ConditionalSkill

Ein Skill, der Szenarien ermöglicht, in denen ein boolescher Vorgang erforderlich ist, um die Daten zu bestimmen, die einer Ausgabe zugewiesen werden sollen.

CorsOptions

Definiert Optionen zum Steuern der ressourcenübergreifenden Ressourcenfreigabe (Cross-Origin Resource Sharing, CORS) für einen Index.

CreateOrUpdateIndexOptions

Optionen für den Indexerstellungs-/Aktualisierungsvorgang.

CreateOrUpdateSkillsetOptions

Optionen für den Vorgang zum Erstellen/Aktualisieren des Skillsets.

CreateOrUpdateSynonymMapOptions

Optionen für den Vorgang zum Erstellen/Aktualisieren von Synonymzuordnungen.

CreateorUpdateDataSourceConnectionOptions

Optionen für den Vorgang zum Erstellen/Aktualisieren von Datenquellen.

CreateorUpdateIndexerOptions

Optionen für den Indexervorgang zum Erstellen/Aktualisieren.

CustomAnalyzer

Ermöglicht Es Ihnen, die Kontrolle über den Prozess der Konvertierung von Text in indizierbare/durchsuchbare Token zu übernehmen. Es handelt sich um eine benutzerdefinierte Konfiguration, die aus einem einzelnen vordefinierten Tokenizer und einem oder mehreren Filtern besteht. Der Tokenizer ist für die Aufteilung von Text in Token verantwortlich, und die Filter zum Ändern von Token, die vom Tokenizer ausgegeben werden.

CustomEntity

Ein -Objekt, das Informationen zu den gefundenen Übereinstimmungen und zugehörigen Metadaten enthält.

CustomEntityAlias

Ein komplexes Objekt, das verwendet werden kann, um alternative Schreibweisen oder Synonyme zum Namen der Stammentität anzugeben.

CustomEntityLookupSkill

Ein Skill sucht nach Text aus einer benutzerdefinierten Liste von Wörtern und Ausdrücken.

DefaultCognitiveServicesAccount

Ein leeres Objekt, das die Azure KI-Standarddienstressource für ein Skillset darstellt.

DeleteDataSourceConnectionOptions

Optionen für das Löschen von Datenquellenvorgängen.

DeleteIndexOptions

Optionen für den Löschvorgang des Indexes.

DeleteIndexerOptions

Optionen für den Löschindexervorgang.

DeleteSkillsetOptions

Optionen für die Löschfähigkeitssatzoperion.

DeleteSynonymMapOptions

Optionen für den Vorgang zum Löschen von Synonymzuordnungen.

DictionaryDecompounderTokenFilter

Zerlegt zusammengesetzte Wörter, die in vielen germanischen Sprachen vorkommen. Dieser Tokenfilter wird mit Apache Lucene implementiert.

DistanceScoringFunction

Definiert eine Funktion, die die Bewertungen basierend auf der Entfernung von einem geografischen Standort erhöht.

DistanceScoringParameters

Stellt Parameterwerte für eine Entfernungsbewertungsfunktion bereit.

DocumentExtractionSkill

Ein Skill, der Inhalte aus einer Datei innerhalb der Anreicherungspipeline extrahiert.

EdgeNGramTokenFilter

Generiert n-Gramm der angegebenen Größe(n), beginnend von der Vorder- oder Rückseite eines Eingabetokens. Dieser Tokenfilter wird mit Apache Lucene implementiert.

EdgeNGramTokenizer

Tokenisiert die Eingabe von einer Kante in n Gramm der angegebenen Größe(n). Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

ElisionTokenFilter

Entfernt Elisionen. Beispielsweise wird "l'avion" (die Ebene) in "avion" (Ebene) konvertiert. Dieser Tokenfilter wird mit Apache Lucene implementiert.

EntityLinkingSkill

Mithilfe der Textanalyse-API werden verknüpfte Entitäten aus Text extrahiert.

EntityRecognitionSkill

Textanalyse-Entitätserkennung.

EntityRecognitionSkillV3

Extrahiert mithilfe der Textanalyse-API Entitäten verschiedener Typen aus Text.

ExhaustiveKnnParameters

Enthält die spezifischen Parameter für den vollständigen KNN-Algorithmus.

ExtractiveQueryAnswer

Extrahiert Antwortkandidaten aus dem Inhalt der Dokumente, die als Antwort auf eine Abfrage zurückgegeben wurden, die als Frage in natürlicher Sprache ausgedrückt wurde.

ExtractiveQueryCaption

Extrahiert Beschriftungen aus den übereinstimmenden Dokumenten, die für die Suchabfrage relevante Passagen enthalten.

FacetResult

Ein einzelner Bucket eines Facettenabfrageergebnisses. Gibt die Anzahl der Dokumente an, deren Feldwert in einen bestimmten Bereich fällt oder einen bestimmten Wert oder ein bestimmtes Intervall aufweist.

FieldMapping

Definiert eine Zuordnung zwischen einem Feld in einer Datenquelle und einem Zielfeld in einem Index.

FieldMappingFunction

Stellt eine Funktion dar, die einen Wert aus einer Datenquelle vor der Indizierung transformiert.

FreshnessScoringFunction

Definiert eine Funktion, die die Bewertungen basierend auf dem Wert eines Datums-Uhrzeit-Felds erhöht.

FreshnessScoringParameters

Stellt Parameterwerte für eine Aktualitätsbewertungsfunktion bereit.

GetDocumentOptions

Optionen zum Abrufen eines einzelnen Dokuments.

HighWaterMarkChangeDetectionPolicy

Definiert eine Datenänderungserkennungsrichtlinie, die Änderungen basierend auf dem Wert einer Spalte mit hohem Grenzwert erfasst.

HnswParameters

Enthält die spezifischen Parameter für den hnsw-Algorithmus.

ImageAnalysisSkill

Ein Skill, der Bilddateien analysiert. Es extrahiert einen umfangreichen Satz visueller Features basierend auf dem Bildinhalt.

IndexDocumentsClient

Index Documents Client

IndexDocumentsOptions

Optionen für den Batchvorgang zum Ändern des Indexes.

IndexDocumentsResult

Antwort mit der status von Vorgängen für alle Dokumente in der Indizierungsanforderung.

IndexerExecutionResult

Stellt das Ergebnis einer einzelnen Indexerausführung dar.

IndexingParameters

Stellt die Parameter für die Indexerausführung dar.

IndexingParametersConfiguration

Ein Wörterbuch mit indexerspezifischen Konfigurationseigenschaften. Jeder Name ist der Name einer bestimmten Eigenschaft. Jeder Wert muss einen primitiven Typ aufweisen.

IndexingResult

Status eines Indizierungsvorgangs für ein einzelnes Dokument.

IndexingSchedule

Stellt einen Zeitplan für die Indexerausführung dar.

InputFieldMappingEntry

Eingabefeldzuordnung für einen Skill.

KeepTokenFilter

Ein Tokenfilter, der nur Token mit Text speichert, der in einer angegebenen Liste von Wörtern enthalten ist. Dieser Tokenfilter wird mit Apache Lucene implementiert.

KeyPhraseExtractionSkill

Eine Qualifikation, die die Textanalyse für die Schlüsselbegriffsextraktion verwendet.

KeywordMarkerTokenFilter

Begriffe werden als Schlüsselwörter gekennzeichnet. Dieser Tokenfilter wird mit Apache Lucene implementiert.

KeywordTokenizer

Gibt die gesamte Eingabe als ein einzelnes Token aus. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

LanguageDetectionSkill

Ein Skill, der die Sprache des Eingabetexts erkennt und einen einzelnen Sprachcode für jedes Dokument meldet, das für die Anforderung übermittelt wird. Der Sprachcode wird mit einem Score gekoppelt, der die Zuverlässigkeit der Analyse angibt.

LengthTokenFilter

Entfernt die Wörter, die zu lang oder zu kurz sind. Dieser Tokenfilter wird mit Apache Lucene implementiert.

LimitTokenFilter

Beschränkt die Anzahl der Token während der Indizierung. Dieser Tokenfilter wird mit Apache Lucene implementiert.

ListSearchResultsPageSettings

Argumente zum Abrufen der nächsten Seite der Suchergebnisse.

LuceneStandardAnalyzer

Apache Lucene-Standardanalyse; Besteht aus dem Standardtokenizer, dem Kleinbuchstabenfilter und dem Stoppfilter.

LuceneStandardTokenizer

Teilt Text gemäß den Regeln für Unicode-Textsegmentierung auf. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

MagnitudeScoringFunction

Definiert eine Funktion, die die Bewertungen basierend auf der Größe eines numerischen Felds erhöht.

MagnitudeScoringParameters

Stellt Parameterwerte für eine Größenbewertungsfunktion bereit.

MappingCharFilter

Ein Zeichenfilter, der zuordnungsdefinierte Zuordnungen anwendet, die mit der Zuordnungsoption definiert sind. Der Abgleich ist umfangreich (der längste Musterabgleich an einem bestimmten Punkt wird verwendet). Eine Ersetzung kann eine leere Zeichenfolge sein. Dieser Zeichenfilter wird mit Apache Lucene implementiert.

MergeSkill

Ein Skill zum Zusammenführen von zwei oder mehr Zeichenfolgen in einer einzelnen einheitlichen Zeichenfolge mit einem optionalen benutzerdefinierten Trennzeichen, das jeden Komponententeil trennt.

MicrosoftLanguageStemmingTokenizer

Teilt Text nach sprachspezifischen Regeln auf und reduziert Wörter auf deren Grundformen.

MicrosoftLanguageTokenizer

Teilt Text mit sprachspezifische Regeln auf.

NGramTokenFilter

Generiert N-Gramme einer festgelegten Größe. Dieser Tokenfilter wird mit Apache Lucene implementiert.

NGramTokenizer

Tokenisiert die Eingabe in N-Gramme einer festgelegten Größe. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

OcrSkill

Ein Skill, der Text aus Bilddateien extrahiert.

OutputFieldMappingEntry

Ausgabefeldzuordnung für einen Skill.

PIIDetectionSkill

Mithilfe der Textanalyse-API werden personenbezogene Informationen aus einem Eingabetext extrahiert und ihnen die Möglichkeit zur Maskierung ermöglicht.

PathHierarchyTokenizer

Tokenizer für pfadähnliche Hierarchien. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

PatternAnalyzer

Trennt Text flexibel über ein reguläres Ausdrucksmuster in Begriffe. Dieses Analysetool wird mit Apache Lucene implementiert.

PatternCaptureTokenFilter

Verwendet Java-Regexes, um mehrere Token auszustellen– eines für jede Erfassungsgruppe in einem oder mehreren Mustern. Dieser Tokenfilter wird mit Apache Lucene implementiert.

PatternReplaceCharFilter

Ein Zeichenfilter, der Zeichen in der Eingabezeichenfolge ersetzt. Er verwendet einen regulären Ausdruck, um zu erhaltende Zeichenfolgen zu identifizieren, und ein Ersatzmuster, um zu ersetzende Zeichen zu identifizieren. Angesichts des Eingabetexts "aa bb aa bb", des Musters "(aa)\s+(bb)" und des Ersatzes "$1#$2" wäre das Ergebnis beispielsweise "aa#bb aa#bb". Dieser Zeichenfilter wird mit Apache Lucene implementiert.

PatternReplaceTokenFilter

Ein Zeichenfilter, der Zeichen in der Eingabezeichenfolge ersetzt. Er verwendet einen regulären Ausdruck, um zu erhaltende Zeichenfolgen zu identifizieren, und ein Ersatzmuster, um zu ersetzende Zeichen zu identifizieren. Angesichts des Eingabetexts "aa bb aa bb", des Musters "(aa)\s+(bb)" und des Ersatzes "$1#$2" wäre das Ergebnis beispielsweise "aa#bb aa#bb". Dieser Tokenfilter wird mit Apache Lucene implementiert.

PatternTokenizer

Tokenizer, der regex-Musterabgleich verwendet, um unterschiedliche Token zu erstellen. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

PhoneticTokenFilter

Erstellt Token für phonetische Übereinstimmungen. Dieser Tokenfilter wird mit Apache Lucene implementiert.

QueryAnswerResult

Eine Antwort ist eine Textpassage, die aus dem Inhalt der relevantesten Dokumente extrahiert wurde, die der Abfrage entsprechen. Antworten werden aus den obersten Suchergebnissen extrahiert. Antwortkandidaten werden bewertet, und die wichtigsten Antworten werden ausgewählt.

QueryCaptionResult

Beschriftungen sind die repräsentativsten Passagen aus dem Dokument im Verhältnis zur Suchabfrage. Sie werden häufig als Dokumentzusammenfassung verwendet. Beschriftungen werden nur für Abfragen vom Typ semanticzurückgegeben.

ResourceCounter

Stellt die Nutzung und das Kontingent einer Ressource dar.

ScoringProfile

Definiert Parameter für einen Suchindex, die die Bewertung in Suchabfragen beeinflussen.

SearchClientOptions

Clientoptionen, die zum Konfigurieren von API-Anforderungen der kognitiven Suche verwendet werden.

SearchDocumentsPageResult

Antwort mit Suchergebnissen aus einem Index.

SearchDocumentsResult

Antwort mit Suchergebnissen aus einem Index.

SearchDocumentsResultBase

Antwort mit Suchergebnissen aus einem Index.

SearchIndex

Stellt eine Suchindexdefinition dar, die die Felder und das Suchverhalten eines Indexes beschreibt.

SearchIndexClientOptions

Clientoptionen, die zum Konfigurieren von API-Anforderungen der kognitiven Suche verwendet werden.

SearchIndexStatistics

Statistiken für einen bestimmten Index. Statistiken werden in regelmäßigen Abständen gesammelt und sind nicht garantiert immer auf dem neuesten Stand.

SearchIndexer

Stellt einen Indexer dar.

SearchIndexerClientOptions

Clientoptionen, die zum Konfigurieren von API-Anforderungen der kognitiven Suche verwendet werden.

SearchIndexerDataContainer

Stellt Informationen zur Entität (z. B. Azure SQL Tabelle oder CosmosDB-Auflistung) dar, die indiziert wird.

SearchIndexerDataSourceConnection

Stellt eine Datenquellendefinition dar, die zum Konfigurieren eines Indexers verwendet werden kann.

SearchIndexerError

Stellt einen Indizierungsfehler auf Element- oder Dokumentebene dar.

SearchIndexerKnowledgeStore

Definition zusätzlicher Projektionen von angereicherten Daten in Azure-Blobs, -Tabellen oder -Dateien.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Abstrakte Klasse zum Freigeben von Eigenschaften zwischen konkreten Selektoren.

SearchIndexerKnowledgeStoreFileProjectionSelector

Projektionsdefinition, welche Daten in Azure Files gespeichert werden sollen.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Projektionsdefinition für die daten, die im Azure-Blob gespeichert werden sollen.

SearchIndexerKnowledgeStoreProjection

Containerobjekt für verschiedene Projektionsselektoren.

SearchIndexerKnowledgeStoreProjectionSelector

Abstrakte Klasse zum Freigeben von Eigenschaften zwischen konkreten Selektoren.

SearchIndexerKnowledgeStoreTableProjectionSelector

Beschreibung, welche Daten in Azure Tables gespeichert werden sollen.

SearchIndexerLimits
SearchIndexerSkillset

Eine Liste der Qualifikationen.

SearchIndexerStatus

Stellt den aktuellen Status und Ausführungsverlauf eines Indexers dar.

SearchIndexerWarning

Stellt eine Warnung auf Elementebene dar.

SearchIndexingBufferedSenderOptions

Optionen für SearchIndexingBufferedSender.

SearchResourceEncryptionKey

Ein kundenseitig verwalteter Verschlüsselungsschlüssel in Azure Key Vault. Schlüssel, die Sie erstellen und verwalten, können verwendet werden, um ruhende Daten in Azure Cognitive Search zu verschlüsseln oder zu entschlüsseln, z. B. Indizes und Synonymzuordnungen.

SearchServiceStatistics

Antwort von einer Anforderung zum Abrufen von Dienststatistiken. Wenn dies erfolgreich ist, enthält sie Leistungsindikatoren und Grenzwerte für den Servicelevel.

SearchSuggester

Definiert, wie die Vorschlags-API auf eine Gruppe von Feldern im Index angewendet werden soll.

SemanticConfiguration

Definiert eine bestimmte Konfiguration, die im Kontext semantischer Funktionen verwendet werden soll.

SemanticField

Ein Feld, das als Teil der semantischen Konfiguration verwendet wird.

SemanticPrioritizedFields

Beschreibt die Felder für Titel, Inhalt und Schlüsselwörter, die für semantische Rangfolge, Beschriftungen, Hervorhebungen und Antworten verwendet werden sollen.

SemanticSearch

Definiert Parameter für einen Suchindex, die semantische Funktionen beeinflussen.

SemanticSearchOptions

Definiert Optionen für semantische Suchabfragen.

SentimentSkill

Positive/negative Stimmungsanalyse der Textanalyse, bewertet als Gleitkommawert in einem Bereich von 0 bis 1.

SentimentSkillV3

Mithilfe der Textanalyse-API wertet unstrukturierten Text aus und stellt für jeden Datensatz Stimmungsbezeichnungen (z. B. "negativ", "neutral" und "positiv") basierend auf der höchsten Konfidenzbewertung bereit, die vom Dienst auf Satz- und Dokumentebene gefunden wurde.

ServiceCounters

Stellt Ressourcenzähler und Kontingente auf Dienstebene dar.

ServiceLimits

Stellt verschiedene Servicelevelgrenzwerte dar.

ShaperSkill

Ein Skill zum Umgestalten der Ausgaben. Es erstellt einen komplexen Typ zur Unterstützung zusammengesetzter Felder (auch als mehrteilige Felder bezeichnet).

ShingleTokenFilter

Kombiniert Token zu einem einzelnen Token. Dieser Tokenfilter wird mit Apache Lucene implementiert.

Similarity

Basistyp für Ähnlichkeitsalgorithmen. Ähnlichkeitsalgorithmen werden verwendet, um Bewertungen zu berechnen, die Abfragen mit Dokumenten verknüpfen. Je höher die Bewertung, desto relevanter ist das Dokument für diese spezifische Abfrage. Diese Bewertungen werden verwendet, um die Suchergebnisse zu bewerten.

SimpleField

Stellt ein Feld in einer Indexdefinition dar, das den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt.

SnowballTokenFilter

Ein Filter, der Wörter mithilfe eines von Snowball generierten Stemmers vorgibt. Dieser Tokenfilter wird mit Apache Lucene implementiert.

SoftDeleteColumnDeletionDetectionPolicy

Definiert eine Datenlöschungserkennungsrichtlinie, die eine Strategie zum vorläufigen Löschen implementiert. Es bestimmt, ob ein Element basierend auf dem Wert einer angegebenen "vorläufigen Löschen"-Spalte gelöscht werden soll.

SplitSkill

Ein Skill zum Aufteilen einer Zeichenfolge in Textblöcke.

SqlIntegratedChangeTrackingPolicy

Definiert eine Datenänderungserkennungsrichtlinie, die Änderungen mithilfe der Integrierten Änderungsnachverfolgung-Funktion von Azure SQL-Datenbank erfasst.

StemmerOverrideTokenFilter

Bietet die Möglichkeit, andere Stemmingfilter mit benutzerwörterbuchbasiertem Stemming zu überschreiben. Alle wörterstammigen Begriffe werden als Schlüsselwörter markiert, sodass sie nicht mit Stemmeren in der Kette eingestammt werden. Muss vor dem Filter für die Wortstammerkennung platziert werden. Dieser Tokenfilter wird mit Apache Lucene implementiert.

StemmerTokenFilter

Sprachspezifischer Stammfilter. Dieser Tokenfilter wird mit Apache Lucene implementiert.

StopAnalyzer

Dividiert Text nicht in Buchstaben; Wendet die Kleinbuchstaben- und Stoppworttokenfilter an. Dieses Analysetool wird mit Apache Lucene implementiert.

StopwordsTokenFilter

Entfernt Stoppwörter aus einem Tokenstream. Dieser Tokenfilter wird mit Apache Lucene implementiert.

SuggestDocumentsResult

Antwort mit Den Ergebnissen der Vorschlagsabfrage aus einem Index.

SuggestRequest

Parameter zum Filtern, Sortieren, Fuzzyabgleich und anderen Vorschlägen zum Abfrageverhalten.

SynonymMap

Stellt eine Synonymzuordnungsdefinition dar.

SynonymTokenFilter

Entspricht Synonymen mit einzelnen oder mehreren Wörtern in einem Tokenstream. Dieser Tokenfilter wird mit Apache Lucene implementiert.

TagScoringFunction

Definiert eine Funktion, die die Bewertungen von Dokumenten mit Zeichenfolgenwerten erhöht, die einer angegebenen Liste von Tags entsprechen.

TagScoringParameters

Stellt Parameterwerte für eine Tagbewertungsfunktion bereit.

TextTranslationSkill

Eine Fähigkeit zum Übersetzen von Text aus einer Sprache in eine andere.

TextWeights

Definiert Gewichtungen für Indexfelder, für die Übereinstimmungen die Bewertung in Suchabfragen verbessern sollen.

TruncateTokenFilter

Schneidet die Begriffe auf eine bestimmte Länge ab. Dieser Tokenfilter wird mit Apache Lucene implementiert.

UaxUrlEmailTokenizer

Tokenisiert URLs und E-Mails als ein Token. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert.

UniqueTokenFilter

Filtert Token mit dem gleichen Text wie das vorherige Token heraus. Dieser Tokenfilter wird mit Apache Lucene implementiert.

VectorSearch

Enthält Konfigurationsoptionen im Zusammenhang mit der Vektorsuche.

VectorSearchOptions

Definiert Optionen für Vektorsuchabfragen.

VectorSearchProfile

Definiert eine Kombination von Konfigurationen, die mit der Vektorsuche verwendet werden sollen.

VectorizedQuery

Die Abfrageparameter, die für die Vektorsuche verwendet werden sollen, wenn ein unformatierter Vektorwert angegeben wird.

WebApiSkill

Ein Skill, der einen Web-API-Endpunkt aufrufen kann, sodass Sie ein Skillset erweitern können, indem Sie Ihren benutzerdefinierten Code aufrufen.

WordDelimiterTokenFilter

Unterteilt Wörter in Teilwörter und führt optionale Transformationen in Teilwortgruppen durch. Dieser Tokenfilter wird mit Apache Lucene implementiert.

Typaliase

AnalyzeTextOptions

Optionen für den Textanalysevorgang.

AutocompleteMode

Definiert Werte für AutoCompleteMode.

AutocompleteOptions

Optionen zum Abrufen von Vervollständigungstext für einen partiellen searchText.

BlobIndexerDataToExtract

Bekannte Werte, die vom Dienst unterstützt werden

storageMetadata: Indiziert nur die Standardblobeigenschaften und vom Benutzer angegebenen Metadaten. allMetadata: Extrahiert Metadaten, die vom Azure Blob Storage-Subsystem bereitgestellt werden, und die inhaltstypspezifischen Metadaten (z. B. Metadaten, die nur für .png Dateien indiziert werden). contentAndMetadata: Extrahiert alle Metadaten und Textinhalte aus jedem Blob.

BlobIndexerImageAction

Bekannte Werte, die vom Dienst unterstützt werden

none: Ignoriert eingebettete Bilder oder Bilddateien im Dataset. Dies ist die Standardoption. generateNormalizedImages: Extrahiert Text aus Bildern (z. B. das Wort "STOP" aus einem Verkehrsstoppzeichen) und bettet ihn in das Inhaltsfeld ein. Diese Aktion erfordert, dass "dataToExtract" auf "contentAndMetadata" festgelegt ist. Ein normalisiertes Bild bezieht sich auf eine zusätzliche Verarbeitung, die zu einer einheitlichen Bildausgabe führt, die größe und gedreht wird, um ein konsistentes Rendering zu fördern, wenn Sie Bilder in visuelle Suchergebnisse einschließen. Diese Informationen werden bei Verwendung dieser Option für jedes Bild generiert. generateNormalizedImagePerPage: Extrahiert Text aus Bildern (z. B. das Wort "STOP" aus einem Verkehrsstoppzeichen) und bettet ihn in das Inhaltsfeld ein, behandelt PDF-Dateien jedoch anders, da jede Seite als Bild gerendert und entsprechend normalisiert wird, anstatt eingebettete Bilder zu extrahieren. Nicht-PDF-Dateitypen werden genauso behandelt, als ob "generateNormalizedImages" festgelegt wurde.

BlobIndexerPDFTextRotationAlgorithm

Bekannte Werte, die vom Dienst unterstützt werden

none: Nutzt die normale Textextraktion. Dies ist die Standardoption. detectAngles: Kann eine bessere und besser lesbare Textextraktion aus PDF-Dateien mit gedrehten Text in ihnen erzeugen. Beachten Sie, dass die Verwendung dieses Parameters möglicherweise geringfügige Auswirkungen auf die Leistungsgeschwindigkeit hat. Dieser Parameter gilt nur für PDF-Dateien und nur für PDF-Dateien mit eingebettetem Text. Wenn der gedrehte Text in einem eingebetteten Bild in der PDF-Datei angezeigt wird, gilt dieser Parameter nicht.

BlobIndexerParsingMode

Bekannte Werte, die vom Dienst unterstützt werden

default: Legen Sie für die normale Dateiverarbeitung den Standardwert fest. text: Legen Sie auf Text fest, um die Indizierungsleistung für Nur-Text-Dateien im Blobspeicher zu verbessern. delimitedText: Legen Sie auf delimitedText fest, wenn Blobs einfache CSV-Dateien sind. json: Legen Sie auf JSON fest, um strukturierte Inhalte aus JSON-Dateien zu extrahieren. jsonArray: Legen Sie auf jsonArray fest, um einzelne Elemente eines JSON-Arrays als separate Dokumente in Azure Cognitive Search zu extrahieren. jsonLines: Legen Sie auf jsonLines fest, um einzelne JSON-Entitäten getrennt durch eine neue Zeile als separate Dokumente in Azure Cognitive Search zu extrahieren.

CharFilter

Enthält die möglichen Fälle für CharFilter.

CharFilterName

Definiert Werte für CharFilterName.
<xref:KnownCharFilterName> kann austauschbar mit CharFilterName verwendet werden. Diese Enumeration enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

html_strip: Ein Zeichenfilter, der versucht, HTML-Konstrukte zu entfernen. Siehe https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html.

CjkBigramTokenFilterScripts

Definiert Werte für CjkBigramTokenFilterScripts.

CognitiveServicesAccount

Enthält die möglichen Fälle für CognitiveServicesAccount.

ComplexDataType

Definiert Werte für ComplexDataType. Mögliche Werte: "Edm.ComplexType", "Collection(Edm.ComplexType)"

CountDocumentsOptions

Optionen zum Ausführen des Zählungsvorgangs für den Index.

CreateDataSourceConnectionOptions

Optionen für den Datenquellenerstellungsvorgang.

CreateIndexOptions

Optionen für den Indexerstellungsvorgang.

CreateIndexerOptions

Optionen für den Indexererstellungsvorgang.

CreateSkillsetOptions

Optionen für den Vorgang zum Erstellen von Skillsets.

CreateSynonymMapOptions

Optionen für den Vorgang zum Erstellen von Synonymzuordnungen.

CustomEntityLookupSkillLanguage

Definiert unterstützte Sprachen für CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage kann austauschbar mit diesem Typ verwendet werden.

DataChangeDetectionPolicy

Enthält die möglichen Fälle für DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Enthält die möglichen Fälle für DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Optionen für den Vorgang zum Löschen von Dokumenten.

EdgeNGramTokenFilterSide

Definiert Werte für EdgeNGramTokenFilterSide.

EntityCategory
EntityRecognitionSkillLanguage

Definiert unterstützte Sprachen für EntityRecognitionSkillKnownEntityRecognitionSkillLanguage kann austauschbar mit diesem Typ verwendet werden.

ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Enthält Konfigurationsoptionen speziell für den vollständigen KNN-Algorithmus, der während der Abfrage verwendet wird, der Brute-Force-Suche für den gesamten Vektorindex ausführt.

ExtractDocumentKey
GetDataSourceConnectionOptions

Optionen für den Get-Datenquellenvorgang.

GetIndexOptions

Optionen für den Vorgang zum Abrufen des Indexes.

GetIndexStatisticsOptions

Optionen für den Vorgang zum Abrufen von Indexstatistiken.

GetIndexerOptions

Optionen für den Get-Indexervorgang.

GetIndexerStatusOptions

Optionen zum Abrufen des Indexers status Vorgangs.

GetServiceStatisticsOptions

Optionen für den Vorgang zum Abrufen von Dienststatistiken.

GetSkillSetOptions

Optionen zum Abrufen des Skillsetsvorgangs.

GetSynonymMapsOptions

Optionen für den Vorgang zum Abrufen von Synonymzuordnungen.

HnswAlgorithmConfiguration

Enthält Konfigurationsoptionen, die speziell für den hnsw-Algorithmus für die nächsten Nachbarn gelten, der während der Indizierungszeit verwendet wird.

ImageAnalysisSkillLanguage

Definiert unterstützte Sprachen für ImageAnalysisSkillKnownImageAnalysisSkillLanguage kann austauschbar mit diesem Typ verwendet werden.

ImageDetail
IndexActionType

Definiert Werte für IndexActionType.

IndexDocumentsAction

Stellt eine Indexaktion dar, die für ein Dokument ausgeführt wird.

IndexIterator

Ein Iterator zum Auflisten der im Suchdienst vorhandenen Indizes. Stellt anforderungen bei Bedarf während der Iteration. Verwenden Sie .byPage(), um eine Anforderung pro Iteration an den Server zu senden.

IndexNameIterator

Ein Iterator zum Auflisten der im Suchdienst vorhandenen Indizes. Stellt anforderungen bei Bedarf während der Iteration. Verwenden Sie .byPage(), um eine Anforderung pro Iteration an den Server zu senden.

IndexerExecutionEnvironment

Bekannte Werte, die vom Dienst unterstützt werden

standard: Gibt an, dass Azure Cognitive Search bestimmen können, wo der Indexer ausgeführt werden soll. Dies ist die Standardumgebung, wenn nichts angegeben ist, und der empfohlene Wert. private: Gibt an, dass der Indexer mit der Umgebung ausgeführt werden soll, die speziell für den Suchdienst bereitgestellt wurde. Dies sollte nur als Ausführungsumgebung angegeben werden, wenn der Indexer über freigegebene Private Link-Ressourcen sicher auf Ressourcen zugreifen muss.

IndexerExecutionStatus

Definiert Werte für IndexerExecutionStatus.

IndexerStatus

Definiert Werte für IndexerStatus.

KeyPhraseExtractionSkillLanguage

Definiert unterstützte Sprachen für KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage kann austauschbar mit diesem Typ verwendet werden.

LexicalAnalyzer

Enthält die möglichen Fälle für Analyzer.

LexicalAnalyzerName

Definiert Werte für LexicalAnalyzerName.
<xref:KnownLexicalAnalyzerName> kann austauschbar mit LexicalAnalyzerName verwendet werden. Diese Enumeration enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

ar.microsoft: Microsoft Analyzer für Arabisch.
ar.lucene: Lucene Analyzer für Arabisch.
hy.lucene: Lucene Analyzer für Armenier.
bn.microsoft: Microsoft Analyzer für Bangla.
eu.lucene: Lucene Analyzer für Baskisch.
bg.microsoft: Microsoft Analyzer für Bulgarisch.
bg.lucene: Lucene Analyzer für Bulgarisch.
ca.microsoft: Microsoft Analyzer für Katalanisch.
ca.lucene: Lucene analyzer for Catalan.
zh-Hans.microsoft: Microsoft Analyzer for Chinesisch (vereinfacht).
zh-Hans.lucene: Lucene Analyzer für Chinesisch (vereinfacht).
zh-Hant.microsoft: Microsoft Analyzer für Chinesisch (traditionell).
zh-Hant.lucene: Lucene Analyzer für Chinesisch (traditionell).
hr.microsoft: Microsoft Analyzer für Kroatisch.
cs.microsoft: Microsoft Analyzer für Tschechisch.
cs.lucene: Lucene analyzer for Czech.
da.microsoft: Microsoft Analyzer für Dänisch.
da.lucene: Lucene Analyzer für Dänisch.
nl.microsoft: Microsoft Analyzer für Niederländisch.
nl.lucene: Lucene analyzer for Dutch.
en.microsoft: Microsoft analyzer for English.
en.lucene: Lucene analyzer for English.
et.microsoft: Microsoft Analyzer for Estonian.
fi.microsoft: Microsoft Analyzer für Finnisch.
fi.lucene: Lucene Analyzer für Finnisch.
fr.microsoft: Microsoft Analyzer für Französisch.
fr.lucene: Lucene Analyzer für Französisch.
gl.lucene: Lucene Analyzer für Galizisch.
de.microsoft: Microsoft Analyzer für Deutsch.
de.lucene: Lucene Analyzer für Deutsch.
el.microsoft: Microsoft Analyzer for Greek.
el.lucene: Lucene Analyzer für Griechisch.
gu.microsoft: Microsoft Analyzer für Gujarati.
he.microsoft: Microsoft Analyzer for Hebrew.
hi.microsoft: Microsoft Analyzer for Hindi.
hi.lucene: Lucene Analyzer für Hindi.
hu.microsoft: Microsoft Analyzer für Ungarisch.
hu.lucene: Lucene Analyzer für Ungarisch.
is.microsoft: Microsoft Analyzer für Isländisch.
id.microsoft: Microsoft Analyzer for Indonesian (Bahasa).
id.lucene: Lucene Analyzer für Indonesisch.
ga.lucene: Lucene Analyzer für Irisch.
it.microsoft: Microsoft Analyzer für Italienisch.
it.lucene: Lucene Analyzer für Italienisch.
ja.microsoft: Microsoft Analyzer für Japanisch.
ja.lucene: Lucene Analyzer für Japanisch.
kn.microsoft: Microsoft Analyzer für Kannada.
ko.microsoft: Microsoft Analyzer für Koreanisch.
ko.lucene: Lucene Analyzer für Koreanisch.
lv.microsoft: Microsoft analyzer for Latvian.
lv.lucene: Lucene analyzer for Letnn.
lt.microsoft: Microsoft Analyzer für Litauisch.
ml.microsoft: Microsoft Analyzer für Malayalam.
ms.microsoft: Microsoft Analyzer for Malay (Lateinisch).
mr.microsoft: Microsoft Analyzer für Marathi.
nb.microsoft: Microsoft Analyzer for Norwegian (Bokmål).
no.lucene: Lucene Analyzer für Norwegisch.
fa.lucene: Lucene Analyzer für Persisch.
pl.microsoft: Microsoft Analyzer for Polish.
pl.lucene: Lucene Analysetool für Polnisch.
pt-BR.microsoft: Microsoft Analyzer für Portugiesisch (Brasilien).
pt-BR.lucene: Lucene Analyzer für Portugiesisch (Brasilien).
pt-PT.microsoft: Microsoft Analyzer für Portugiesisch (Portugal).
pt-PT.lucene: Lucene analyzer for Portugiesisch (Portugal).
pa.microsoft: Microsoft Analyzer für Punjabi.
ro.microsoft: Microsoft Analyzer für Rumänisch.
ro.lucene: Lucene Analyzer für Rumänisch.
ru.microsoft: Microsoft Analyzer for Russian.
ru.lucene: Lucene Analysetool für Russisch.
sr-cyrillic.microsoft: Microsoft Analyzer for Serbisch (Kyrillisch).
sr-latin.microsoft: Microsoft Analyzer for Serbisch (Lateinisch).
sk.microsoft: Microsoft Analyzer für Slowakisch.
sl.microsoft: Microsoft Analyzer für Slowenisch.
es.microsoft: Microsoft Analyzer für Spanisch.
es.lucene: Lucene Analyzer für Spanisch.
sv.microsoft: Microsoft Analyzer für Schwedisch.
sv.lucene: Lucene Analyzer für Schwedisch.
ta.microsoft: Microsoft Analyzer for Tamil.
te.microsoft: Microsoft analyzer for Telugu.
th.microsoft: Microsoft Analyzer für Thai.
th.lucene: Lucene Analyzer für Thai.
tr.microsoft: Microsoft Analyzer für Türkisch.
tr.lucene: Lucene Analyzer für Türkisch.
uk.microsoft: Microsoft Analyzer für Ukrainisch.
your.microsoft: Microsoft Analyzer for Urdu.
vi.microsoft: Microsoft Analyzer für Vietnamesisch.
standard.lucene: Lucene Standard-Analysetool.
standardasciifolding.lucene: Standard ASCII Folding Lucene Analyzer. Siehe https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers.
Schlüsselwort (keyword): Behandelt den gesamten Inhalt eines Felds als einzelnes Token. Dies ist nützlich für Daten wie Postleitzahlen, IDs und einige Produktnamen. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html.
pattern: Trennt Text flexibel über ein Muster für reguläre Ausdrücke in Begriffe. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html.
simple: Teilt Text in Nichtbuchstaben und konvertiert sie in Kleinbuchstaben. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html.
stop: Unterteilt Text in Nichtbuchstaben; Wendet die Kleinbuchstaben- und Stoppworttokenfilter an. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html.
Leerzeichen: Ein Analysetool, das den Leerraumtokenizer verwendet. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html.

LexicalTokenizer

Enthält die möglichen Fälle für Tokenizer.

LexicalTokenizerName

Definiert Werte für LexicalTokenizerName.
<xref:KnownLexicalTokenizerName> kann austauschbar mit LexicalTokenizerName verwendet werden. Diese Enumeration enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

classic: Grammatikbasierter Tokenizer, der sich für die Verarbeitung der meisten dokumente in europäischer Sprache eignet. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html.
edgeNGram: Tokenisiert die Eingabe von einer Kante in n-Gramm der angegebenen Größe(n). Siehe https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html.
keyword_v2: Gibt die gesamte Eingabe als einzelnes Token aus. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html.
letter: Unterteilt Text in Nicht-Buchstaben. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html.
Kleinbuchstaben: Teilt Text in Nichtbuchstaben und konvertiert sie in Kleinbuchstaben. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html.
microsoft_language_tokenizer: Unterteilt Text mithilfe sprachspezifischer Regeln.
microsoft_language_stemming_tokenizer: Unterteilt Text mithilfe sprachspezifischer Regeln und reduziert Wörter auf ihre Basisformen.
nGram: Tokenisiert die Eingabe in n-Gramm der angegebenen Größe(n). Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html.
path_hierarchy_v2: Tokenizer für pfadähnliche Hierarchien. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html.
pattern: Tokenizer, der den Abgleich von RegEx-Mustern verwendet, um unterschiedliche Token zu erstellen. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html.
standard_v2: Lucene Standard-Analysetool; Besteht aus dem Standardtokenizer, dem Kleinbuchstabenfilter und dem Stoppfilter. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html.
uax_url_email: Tokenisiert URLs und E-Mails als ein Token. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html.
Leerraum: Teilt Text in Leerzeichen. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html.

ListDataSourceConnectionsOptions

Optionen für einen Listendatenquellenvorgang.

ListIndexersOptions

Optionen für einen Listenindexervorgang.

ListIndexesOptions

Optionen für einen Listenindexvorgang.

ListSkillsetsOptions

Optionen für einen Listen-Skillsets-Vorgang.

ListSynonymMapsOptions

Optionen für einen Listensynonmaps-Vorgang.

MergeDocumentsOptions

Optionen für den Vorgang zum Zusammenführen von Dokumenten.

MergeOrUploadDocumentsOptions

Optionen für den Vorgang zum Zusammenführen oder Hochladen von Dokumenten.

MicrosoftStemmingTokenizerLanguage

Definiert Werte für MicrosoftStemmingTokenizerLanguage.

MicrosoftTokenizerLanguage

Definiert Werte für MicrosoftTokenizerLanguage.

NarrowedModel

Schränkt den Modelltyp ein, um nur die ausgewählten Felder einzuschließen.

OcrSkillLanguage

Definiert unterstützte Sprachen für OcrSkillKnownOcrSkillLanguage kann austauschbar mit diesem Typ verwendet werden.

PIIDetectionSkillMaskingMode

Definiert Werte für PIIDetectionSkillMaskingMode.

Bekannte Werte, die vom Dienst unterstützt werden

none: Es erfolgt keine Maskierung, und die maskedText-Ausgabe wird nicht zurückgegeben. replace: Ersetzt die erkannten Entitäten durch das Zeichen, das im Parameter maskingCharacter angegeben ist. Das Zeichen wird bis zur Länge der erkannten Entität wiederholt, sodass die Offsets sowohl dem Eingabetext als auch dem ausgabeformatierten Text korrekt entsprechen.

PhoneticEncoder

Definiert Werte für PhoneticEncoder.

QueryAnswer

Ein -Wert, der angibt, ob Antworten im Rahmen der Suchantwort zurückgegeben werden sollen. Dieser Parameter ist nur gültig, wenn der Abfragetyp "semantisch" ist. Wenn dieser Wert auf extractivefestgelegt ist, gibt die Abfrage Antworten zurück, die aus Schlüsselpassagen in den Dokumenten mit dem höchsten Rang extrahiert wurden.

QueryCaption

Ein -Wert, der angibt, ob Beschriftungen als Teil der Suchantwort zurückgegeben werden sollen. Dieser Parameter ist nur gültig, wenn der Abfragetyp "semantisch" ist. Wenn festgelegt, gibt die Abfrage Beschriftungen zurück, die aus Schlüsselpassagen in den Dokumenten mit dem höchsten Rang extrahiert wurden. Wenn Beschriftungen "extrahierend" sind, ist die Hervorhebung standardmäßig aktiviert. Der Standardwert ist "none".

QueryType

Definiert Werte für QueryType.

RegexFlags

Definiert Flags für den Abgleich von RegEx-Mustern

Bekannte Werte, die vom Dienst unterstützt werden

CANON_EQ: Ermöglicht die kanonische Äquivalenz. CASE_INSENSITIVE: Ermöglicht den Abgleich ohne Berücksichtigung der Groß-/Kleinschreibung. KOMMENTARE: Erlaubt Leerzeichen und Kommentare im Muster. DOTALL: Aktiviert den Dotall-Modus. LITERAL: Ermöglicht die Literalanalyse des Musters. MULTILINE: Aktiviert den Mehrzeilenmodus. UNICODE_CASE: Ermöglicht die Unicode-fähige Groß-/Kleinschreibungsfaltung. UNIX_LINES: Aktiviert den Unix-Linienmodus.

ResetIndexerOptions

Optionen für den Vorgang zum Zurücksetzen des Indexers.

RunIndexerOptions

Optionen für die Ausführung des Indexervorgangs.

ScoringFunction

Enthält die möglichen Fälle für ScoringFunction.

ScoringFunctionAggregation

Definiert Werte für ScoringFunctionAggregation.

ScoringFunctionInterpolation

Definiert Werte für ScoringFunctionInterpolation.

ScoringStatistics

Definiert Werte für ScoringStatistics.

SearchField

Stellt ein Feld in einer Indexdefinition dar, das den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt.

SearchFieldArray

Wenn TModel ein nicht typisiertes Objekt ist, ein nicht typisiertes Zeichenfolgenarray Andernfalls die durch Schrägstrich getrennten Felder von TModel.

SearchFieldDataType

Definiert Werte für SearchFieldDataType. Mögliche Werte: "Edm.String", "Edm.Int32", "Edm.Int64", "Edm.Double", "Edm.Boolean", "Edm.DateTimeOffset", "Edm.GeographyPoint", "Collection(Edm.String)", "Collection(Edm.Int32)", "Collection(Edm.Int64)", "Collection(Edm.Double)", "Collection(Edm.Boolean)", "Collection(Edm.DateTimeOffset)", "Collection(Edm.GeographyPoint)", "Collection(Edm.Single)"

NB: Edm.Single Allein ist kein gültiger Datentyp. Sie muss als Teil eines Auflistungstyps verwendet werden.

SearchIndexerDataSourceType
SearchIndexerSkill

Enthält die möglichen Fälle für Skill.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Optionen für SearchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Optionen für SearchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Optionen für SearchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Optionen für SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Optionen für SearchIndexingBufferedSenderUploadDocuments.

SearchIterator

Ein Iterator für Suchergebnisse einer Paticular-Abfrage. Stellt anforderungen bei Bedarf während der Iteration. Verwenden Sie .byPage(), um eine Anforderung pro Iteration an den Server zu senden.

SearchMode

Definiert Werte für SearchMode.

SearchOptions

Optionen zum Committen einer vollständigen Suchanforderung.

SearchPick

Wählen Sie felder von T mithilfe gültiger OData-$select Pfade der kognitiven Suche aus.

SearchRequestOptions

Parameter zum Filtern, Sortieren, Faceting, Paging und anderen Suchabfrageverhalten.

SearchRequestQueryTypeOptions
SearchResult

Enthält ein Dokument, das von einer Suchabfrage gefunden wurde, sowie zugeordnete Metadaten.

SelectArray

Wenn TFields nie ist, ein nicht typisiertes Zeichenfolgenarray Andernfalls ein eingeschränkter Fields[] Typ, der an anderer Stelle im verarbeitenden Typ verwendet werden soll.

SelectFields

Erzeugt eine Vereinigung gültiger OData-$select Pfade für T mithilfe einer nachgeordneten Durchquerung der Feldstruktur, die bei T verwurzelt ist.

SemanticErrorMode

partial: Wenn die semantische Verarbeitung fehlschlägt, werden weiterhin Teilergebnisse zurückgegeben. Die Definition von Teilergebnissen hängt davon ab, welcher semantische Schritt fehlgeschlagen ist und was der Grund für den Fehler war.

fail: Wenn während des semantischen Verarbeitungsschritts eine Ausnahme auftritt, schlägt die Abfrage fehl und gibt abhängig vom Fehler den entsprechenden HTTP-Code zurück.

SemanticErrorReason

maxWaitExceeded: Wenn "semanticMaxWaitInMilliseconds" festgelegt wurde und die semantische Verarbeitungsdauer diesen Wert überschritten hat. Es wurden nur die Basisergebnisse zurückgegeben.

capacityOverloaded: Die Anforderung wurde gedrosselt. Es wurden nur die Basisergebnisse zurückgegeben.

vorübergehend: Mindestens ein Schritt des semantischen Prozesses ist fehlgeschlagen.

SemanticSearchResultsType

baseResults: Ergebnisse ohne semantische Anreicherung oder Reranking.

rerankedResults: Die Ergebnisse wurden mit dem Rerankermodell neu bewertet und enthalten semantische Beschriftungen. Sie enthalten keine Antworten, Antworten auf Hervorhebungen oder Untertitel Highlights.

SentimentSkillLanguage

Definiert unterstützte Sprachen für SentimentSkillKnownSentimentSkillLanguage kann austauschbar mit diesem Typ verwendet werden.

SimilarityAlgorithm

Enthält die möglichen Fälle für Ähnlichkeit.

SnowballTokenFilterLanguage

Definiert Werte für SnowballTokenFilterLanguage.

SplitSkillLanguage

Definiert unterstützte Sprachen für SplitSkillKnownSplitSkillLanguage kann mit diesem Typ austauschbar verwendet werden.

StemmerTokenFilterLanguage

Definiert Werte für StemmerTokenFilterLanguage.

StopwordsList

Definiert Werte für StopwordsList.

SuggestNarrowedModel
SuggestOptions

Optionen zum Abrufen von Vorschlägen basierend auf dem searchText.

SuggestResult

Ein Ergebnis, das ein dokument enthält, das von einer Vorschlagsabfrage gefunden wurde, sowie zugeordnete Metadaten.

TextSplitMode
TextTranslationSkillLanguage

Definiert unterstützte Sprachen für TextTranslationSkillKnownTextTranslationSkillLanguage kann austauschbar mit diesem Typ verwendet werden.

TokenCharacterKind

Definiert Werte für TokenCharacterKind.

TokenFilter

Enthält die möglichen Fälle für TokenFilter.

TokenFilterName

Definiert Werte für TokenFilterName.
<xref:KnownTokenFilterName> kann austauschbar mit TokenFilterName verwendet werden. Diese Enumeration enthält die bekannten Werte, die der Dienst unterstützt.

Bekannte Werte, die vom Dienst unterstützt werden

arabic_normalization: Ein Tokenfilter, der den arabischen Normalisierer anwendet, um die Orthografie zu normalisieren. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html.
Apostroph: Entfernt alle Zeichen nach einem Apostroph (einschließlich des Apostrophs selbst). Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html.
asciifolding: Konvertiert alphabetische, numerische und symbolische Unicode-Zeichen, die sich nicht in den ersten 127 ASCII-Zeichen (dem Unicode-Block "Basic Latin") befinden, in ihre ASCII-Entsprechungen, wenn solche Entsprechungen vorhanden sind. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html.
cjk_bigram: Bildet bigrams von CJK-Begriffen, die aus dem Standardtokenizer generiert werden. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html.
cjk_width: Normalisiert CJK-Breitenunterschiede. Faltet fullwidth ASCII-Varianten in die äquivalenten Basis-Latin- und halbbreiten Katakana-Varianten in die äquivalente Kana. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html.
classic: Entfernt englische Possessive und Punkte aus Akronymen. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html.
common_grams: Erstellen Von Bigrams für häufig vorkommende Begriffe während der Indizierung. Einzelne Begriffe werden ebenfalls indexiert und mit Bigrammen überlagert. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html.
edgeNGram_v2: Generiert n-Gramm der angegebenen Größe(n) ausgehend von der Vorder- oder Rückseite eines Eingabetokens. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html.
Elision: Entfernt Elisionen. Beispielsweise wird "l'avion" (die Ebene) in "avion" (Ebene) konvertiert. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html.
german_normalization: Normalisiert deutsche Zeichen gemäß der Heuristik des Schneeballalgorithmus German2. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html.
hindi_normalization: Normalisiert Text in Hindi, um einige Unterschiede in den Rechtschreibvarianten zu entfernen. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html.
indic_normalization: Normalisiert die Unicode-Darstellung von Text in indischen Sprachen. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html.
keyword_repeat: Gibt jedes eingehende Token zweimal aus, einmal als Schlüsselwort (keyword) und einmal als nicht Schlüsselwort (keyword). Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html.
kstem: Ein leistungsstarker kstem-Filter für Englisch. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html.
length: Entfernt Wörter, die zu lang oder zu kurz sind. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html.
limit: Begrenzt die Anzahl von Token während der Indizierung. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html.
Kleinbuchstabe: Normalisiert Tokentext in Kleinbuchstaben. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.htm.
nGram_v2: Generiert n-Gramm der angegebenen Größe(n). Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html.
persian_normalization: Wendet die Normalisierung für Persisch an. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html.
phonetisch: Erstellen Sie Token für phonetische Übereinstimmungen. Siehe https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html.
porter_stem: Verwendet den Porter-Stemmingalgorithmus, um den Tokenstream zu transformieren. Siehe http://tartarus.org/~martin/PorterStemmer.
reverse: Kehrt die Tokenzeichenfolge um. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html.
scandinavian_normalization: Normalisiert die Verwendung der austauschbaren skandinavischen Zeichen. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html.
scandinavian_folding: Faltet die skandinavischen Zeichen åÅäæÄÆ-a> und öÖøØ-o>. Es unterscheidet auch die Verwendung von doppelten Vokalen aa, ae, ae, ao, ao, oe und oo, wobei nur der erste übrig bleibt. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html.
Shingle: Erstellt Kombinationen von Token als einzelnes Token. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html.
Snowball: Ein Filter, der Wörter mithilfe eines von Snowball generierten Stemmers einstammt. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html.
sorani_normalization: Normalisiert die Unicode-Darstellung von Sorani-Text. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html.
stemmer: Sprachspezifischer Stammfilter. Siehe https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters.
stopwords: Entfernt Stoppwörter aus einem Tokenstream. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html.
trim: Schneidet führende und nachfolgende Leerzeichen von Token ab. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html.
truncate: Schneidet die Begriffe auf eine bestimmte Länge ab. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html.
unique: Filtert Token mit demselben Text wie das vorherige Token aus. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html.
Großbuchstaben: Normalisiert Tokentext in Großbuchstaben. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html.
word_delimiter: Unterteilt Wörter in Unterwörter und führt optionale Transformationen für Unterwortgruppen aus.

UnionToIntersection
UploadDocumentsOptions

Optionen für den Vorgang zum Hochladen von Dokumenten.

VectorFilterMode

Bestimmt, ob Filter vor oder nach der Vektorsuche angewendet werden.

VectorQuery

Die Abfrageparameter für Vektor- und Hybridsuchabfragen.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Enthält Spezifische Konfigurationsoptionen für den Algorithmus, der während der Indizierung und/oder Abfrage verwendet wird.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric

Die Ähnlichkeitsmetrik, die für Vektorvergleiche verwendet werden soll.

VisualFeature

Enumerationen

KnownAnalyzerNames

Definiert Werte für AnalyzerName. Siehe https://docs.microsoft.com/rest/api/searchservice/Language-support.

KnownBlobIndexerDataToExtract

Bekannte Werte von BlobIndexerDataToExtract , die der Dienst akzeptiert.

KnownBlobIndexerImageAction

Bekannte Werte von BlobIndexerImageAction , die der Dienst akzeptiert.

KnownBlobIndexerPDFTextRotationAlgorithm

Bekannte Werte von BlobIndexerPDFTextRotationAlgorithm , die der Dienst akzeptiert.

KnownBlobIndexerParsingMode

Bekannte Werte von BlobIndexerParsingMode , die der Dienst akzeptiert.

KnownCharFilterNames

Bekannte Werte von CharFilterName , die der Dienst akzeptiert.

KnownCustomEntityLookupSkillLanguage

Bekannte Werte von CustomEntityLookupSkillLanguage , die vom Dienst akzeptiert werden.

KnownEntityCategory

Bekannte Werte von EntityCategory , die der Dienst akzeptiert.

KnownEntityRecognitionSkillLanguage

Bekannte Werte von EntityRecognitionSkillLanguage , die der Dienst akzeptiert.

KnownImageAnalysisSkillLanguage

Bekannte Werte von ImageAnalysisSkillLanguage , die der Dienst akzeptiert.

KnownImageDetail

Bekannte Werte von ImageDetail , die der Dienst akzeptiert.

KnownKeyPhraseExtractionSkillLanguage

Bekannte Werte von KeyPhraseExtractionSkillLanguage , die der Dienst akzeptiert.

KnownOcrSkillLanguage

Bekannte Werte von OcrSkillLanguage , die der Dienst akzeptiert.

KnownRegexFlags

Bekannte Werte von RegexFlags , die der Dienst akzeptiert.

KnownSearchAudience

Bekannte Werte für Die Suchzielgruppe

KnownSearchIndexerDataSourceType

Bekannte Werte von SearchIndexerDataSourceType , die der Dienst akzeptiert.

KnownSentimentSkillLanguage

Bekannte Werte von SentimentSkillLanguage , die der Dienst akzeptiert.

KnownSplitSkillLanguage

Bekannte Werte von SplitSkillLanguage , die der Dienst akzeptiert.

KnownTextSplitMode

Bekannte Werte von TextSplitMode , die der Dienst akzeptiert.

KnownTextTranslationSkillLanguage

Bekannte Werte von TextTranslationSkillLanguage , die der Dienst akzeptiert.

KnownTokenFilterNames

Bekannte Werte von TokenFilterName , die der Dienst akzeptiert.

KnownTokenizerNames

Bekannte Werte von LexicalTokenizerName , die der Dienst akzeptiert.

KnownVisualFeature

Bekannte Werte von VisualFeature , die der Dienst akzeptiert.

Functions

createSynonymMapFromFile(string, string)

Hilfsmethode zum Erstellen eines SynonymMap-Objekts. Dies ist eine nur NodeJS-Methode.

odata(TemplateStringsArray, unknown[])

Escapet einen odata-Filterausdruck, um Fehler beim Anführungszeichen von Zeichenfolgenliteralen zu vermeiden. Beispielverwendung:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Weitere Informationen zur unterstützten Syntax finden Sie unter: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

Details zur Funktion

createSynonymMapFromFile(string, string)

Hilfsmethode zum Erstellen eines SynonymMap-Objekts. Dies ist eine nur NodeJS-Methode.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Parameter

name

string

Name der SynonymMap.

filePath

string

Pfad der Datei, die die Synonyme enthält (durch neue Zeilen getrennt)

Gibt zurück

Promise<SynonymMap>

SynonymMap-Objekt

odata(TemplateStringsArray, unknown[])

Escapet einen odata-Filterausdruck, um Fehler beim Anführungszeichen von Zeichenfolgenliteralen zu vermeiden. Beispielverwendung:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Weitere Informationen zur unterstützten Syntax finden Sie unter: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Parameter

strings

TemplateStringsArray

Array von Zeichenfolgen für den Ausdruck

values

unknown[]

Array von Werten für den Ausdruck

Gibt zurück

string