@azure/search-documents package
Klassen
AzureKeyCredential |
Eine auf statischen Schlüsseln basierende Anmeldeinformationen, die das Aktualisieren des zugrunde liegenden Schlüsselwerts unterstützen. |
GeographyPoint |
Stellt einen geografischen Punkt in globalen Koordinaten dar. |
IndexDocumentsBatch |
Klasse, die zum Ausführen von Batchvorgängen mit mehreren Dokumenten für den Index verwendet wird. |
SearchClient |
Klasse, die zum Ausführen von Vorgängen für einen Suchindex verwendet wird, einschließlich Abfragen von Dokumenten im Index sowie Hinzufügen, Aktualisieren und Entfernen dieser Dokumente. |
SearchIndexClient |
Klasse zum Ausführen von Vorgängen zum Verwalten (Erstellen, Aktualisieren, Auflisten/Löschen) von Indizes & Synonymzuordnungen. |
SearchIndexerClient |
Klasse zum Ausführen von Vorgängen zum Verwalten (Erstellen, Aktualisieren, Auflisten/Löschen) von Indexern, Datenquellen & Skillsets. |
SearchIndexingBufferedSender |
Klasse, die verwendet wird, um gepufferte Vorgänge für einen Suchindex auszuführen, einschließlich hinzufügen, aktualisieren und entfernen. |
Schnittstellen
AnalyzeRequest |
Gibt einige Text- und Analysekomponenten an, die verwendet werden, um diesen Text in Token zu unterteilen. |
AnalyzeResult |
Das Ergebnis des Testens eines Analysetools für Text. |
AnalyzedTokenInfo |
Informationen zu einem Token, das von einem Analysetool zurückgegeben wird. |
AsciiFoldingTokenFilter |
Konvertiert alphabetische, numerische und symbolische Unicode-Zeichen, die sich nicht in den ersten 127 ASCII-Zeichen (dem Unicode-Block "Basic Latin") befinden, in ihre ASCII-Entsprechungen, sofern solche Entsprechungen vorhanden sind. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
AutocompleteItem |
Das Ergebnis von AutoVervollständigen-Anforderungen. |
AutocompleteRequest |
Parameter für Fuzzyabgleich und andere Verhalten von Abfragen mit automatischer Vervollständigung. |
AutocompleteResult |
Das Ergebnis der AutoVervollständigen-Abfrage. |
AzureActiveDirectoryApplicationCredentials |
Anmeldeinformationen einer registrierten Anwendung, die für Ihren Suchdienst erstellt wurde und für den authentifizierten Zugriff auf die in Azure Key Vault gespeicherten Verschlüsselungsschlüssel verwendet wird. |
BM25Similarity |
Rangfolgefunktion basierend auf dem Okapi BM25-Ähnlichkeitsalgorithmus. BM25 ist ein TF-IDF-ähnlicher Algorithmus, der die Längennormalisierung (gesteuert durch den Parameter "b") sowie die Begriffsfrequenzsättigung (gesteuert durch den Parameter "k1") umfasst. |
BaseCharFilter |
Basistyp für Zeichenfilter. |
BaseCognitiveServicesAccount |
Basistyp zum Beschreiben einer Azure KI-Dienstressource, die an ein Skillset angefügt ist. |
BaseDataChangeDetectionPolicy |
Basistyp für Datenänderungserkennungsrichtlinien. |
BaseDataDeletionDetectionPolicy |
Basistyp für Datenlöschungserkennungsrichtlinien. |
BaseLexicalAnalyzer |
Basistyp für Analysetools. |
BaseLexicalTokenizer |
Basistyp für Tokenizer. |
BaseScoringFunction |
Basistyp für Funktionen, die Dokumentbewertungen während der Bewertung ändern können. |
BaseSearchIndexerSkill |
Basistyp für Skills. |
BaseSearchRequestOptions |
Parameter zum Filtern, Sortieren, Faceting, Paging und anderen Suchabfrageverhalten. |
BaseTokenFilter |
Basistyp für Tokenfilter. |
BaseVectorQuery |
Die Abfrageparameter für Vektor- und Hybridsuchabfragen. |
BaseVectorSearchAlgorithmConfiguration |
Enthält Spezifische Konfigurationsoptionen für den Algorithmus, der während der Indizierung und/oder Abfrage verwendet wird. |
CjkBigramTokenFilter |
Bildet bigrams von CJK-Begriffen, die aus dem Standardtokenizer generiert werden. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
ClassicSimilarity |
Legacy-Ähnlichkeitsalgorithmus, der die Lucene TFIDFSimilarity-Implementierung von TF-IDF verwendet. Diese Variante von TF-IDF führt eine Normalisierung der statischen Dokumentlänge ein sowie koordinierende Faktoren, die Dokumente bestrafen, die nur teilweise mit den durchsuchten Abfragen übereinstimmen. |
ClassicTokenizer |
Grammatikbasiertes Tokenizer, das sich für die Verarbeitung der meisten dokumente in europäischer Sprache eignet. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. |
CognitiveServicesAccountKey |
Eine Azure KI-Dienstressource, die mit einem Schlüssel bereitgestellt wird, der einem Skillset zugeordnet ist. |
CommonGramTokenFilter |
Konstruiert Bigramme für häufig vorkommende Begriffe während der Indexierung. Einzelne Begriffe werden ebenfalls indexiert und mit Bigrammen überlagert. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
ComplexField |
Stellt ein Feld in einer Indexdefinition dar, das den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt. |
ConditionalSkill |
Ein Skill, der Szenarien ermöglicht, in denen ein boolescher Vorgang erforderlich ist, um die Daten zu bestimmen, die einer Ausgabe zugewiesen werden sollen. |
CorsOptions |
Definiert Optionen zum Steuern der ressourcenübergreifenden Ressourcenfreigabe (Cross-Origin Resource Sharing, CORS) für einen Index. |
CreateOrUpdateIndexOptions |
Optionen für den Indexerstellungs-/Aktualisierungsvorgang. |
CreateOrUpdateSkillsetOptions |
Optionen für den Vorgang zum Erstellen/Aktualisieren des Skillsets. |
CreateOrUpdateSynonymMapOptions |
Optionen für den Vorgang zum Erstellen/Aktualisieren von Synonymzuordnungen. |
CreateorUpdateDataSourceConnectionOptions |
Optionen für den Vorgang zum Erstellen/Aktualisieren von Datenquellen. |
CreateorUpdateIndexerOptions |
Optionen für den Indexervorgang zum Erstellen/Aktualisieren. |
CustomAnalyzer |
Ermöglicht Es Ihnen, die Kontrolle über den Prozess der Konvertierung von Text in indizierbare/durchsuchbare Token zu übernehmen. Es handelt sich um eine benutzerdefinierte Konfiguration, die aus einem einzelnen vordefinierten Tokenizer und einem oder mehreren Filtern besteht. Der Tokenizer ist für die Aufteilung von Text in Token verantwortlich, und die Filter zum Ändern von Token, die vom Tokenizer ausgegeben werden. |
CustomEntity |
Ein -Objekt, das Informationen zu den gefundenen Übereinstimmungen und zugehörigen Metadaten enthält. |
CustomEntityAlias |
Ein komplexes Objekt, das verwendet werden kann, um alternative Schreibweisen oder Synonyme zum Namen der Stammentität anzugeben. |
CustomEntityLookupSkill |
Ein Skill sucht nach Text aus einer benutzerdefinierten Liste von Wörtern und Ausdrücken. |
DefaultCognitiveServicesAccount |
Ein leeres Objekt, das die Azure KI-Standarddienstressource für ein Skillset darstellt. |
DeleteDataSourceConnectionOptions |
Optionen für das Löschen von Datenquellenvorgängen. |
DeleteIndexOptions |
Optionen für den Löschvorgang des Indexes. |
DeleteIndexerOptions |
Optionen für den Löschindexervorgang. |
DeleteSkillsetOptions |
Optionen für die Löschfähigkeitssatzoperion. |
DeleteSynonymMapOptions |
Optionen für den Vorgang zum Löschen von Synonymzuordnungen. |
DictionaryDecompounderTokenFilter |
Zerlegt zusammengesetzte Wörter, die in vielen germanischen Sprachen vorkommen. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
DistanceScoringFunction |
Definiert eine Funktion, die die Bewertungen basierend auf der Entfernung von einem geografischen Standort erhöht. |
DistanceScoringParameters |
Stellt Parameterwerte für eine Entfernungsbewertungsfunktion bereit. |
DocumentExtractionSkill |
Ein Skill, der Inhalte aus einer Datei innerhalb der Anreicherungspipeline extrahiert. |
EdgeNGramTokenFilter |
Generiert n-Gramm der angegebenen Größe(n), beginnend von der Vorder- oder Rückseite eines Eingabetokens. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
EdgeNGramTokenizer |
Tokenisiert die Eingabe von einer Kante in n Gramm der angegebenen Größe(n). Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. |
ElisionTokenFilter |
Entfernt Elisionen. Beispielsweise wird "l'avion" (die Ebene) in "avion" (Ebene) konvertiert. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
EntityLinkingSkill |
Mithilfe der Textanalyse-API werden verknüpfte Entitäten aus Text extrahiert. |
EntityRecognitionSkill |
Textanalyse-Entitätserkennung. |
EntityRecognitionSkillV3 |
Extrahiert mithilfe der Textanalyse-API Entitäten verschiedener Typen aus Text. |
ExhaustiveKnnParameters |
Enthält die spezifischen Parameter für den vollständigen KNN-Algorithmus. |
ExtractiveQueryAnswer |
Extrahiert Antwortkandidaten aus dem Inhalt der Dokumente, die als Antwort auf eine Abfrage zurückgegeben wurden, die als Frage in natürlicher Sprache ausgedrückt wurde. |
ExtractiveQueryCaption |
Extrahiert Beschriftungen aus den übereinstimmenden Dokumenten, die für die Suchabfrage relevante Passagen enthalten. |
FacetResult |
Ein einzelner Bucket eines Facettenabfrageergebnisses. Gibt die Anzahl der Dokumente an, deren Feldwert in einen bestimmten Bereich fällt oder einen bestimmten Wert oder ein bestimmtes Intervall aufweist. |
FieldMapping |
Definiert eine Zuordnung zwischen einem Feld in einer Datenquelle und einem Zielfeld in einem Index. |
FieldMappingFunction |
Stellt eine Funktion dar, die einen Wert aus einer Datenquelle vor der Indizierung transformiert. |
FreshnessScoringFunction |
Definiert eine Funktion, die die Bewertungen basierend auf dem Wert eines Datums-Uhrzeit-Felds erhöht. |
FreshnessScoringParameters |
Stellt Parameterwerte für eine Aktualitätsbewertungsfunktion bereit. |
GetDocumentOptions |
Optionen zum Abrufen eines einzelnen Dokuments. |
HighWaterMarkChangeDetectionPolicy |
Definiert eine Datenänderungserkennungsrichtlinie, die Änderungen basierend auf dem Wert einer Spalte mit hohem Grenzwert erfasst. |
HnswParameters |
Enthält die spezifischen Parameter für den hnsw-Algorithmus. |
ImageAnalysisSkill |
Ein Skill, der Bilddateien analysiert. Es extrahiert einen umfangreichen Satz visueller Features basierend auf dem Bildinhalt. |
IndexDocumentsClient |
Index Documents Client |
IndexDocumentsOptions |
Optionen für den Batchvorgang zum Ändern des Indexes. |
IndexDocumentsResult |
Antwort mit der status von Vorgängen für alle Dokumente in der Indizierungsanforderung. |
IndexerExecutionResult |
Stellt das Ergebnis einer einzelnen Indexerausführung dar. |
IndexingParameters |
Stellt die Parameter für die Indexerausführung dar. |
IndexingParametersConfiguration |
Ein Wörterbuch mit indexerspezifischen Konfigurationseigenschaften. Jeder Name ist der Name einer bestimmten Eigenschaft. Jeder Wert muss einen primitiven Typ aufweisen. |
IndexingResult |
Status eines Indizierungsvorgangs für ein einzelnes Dokument. |
IndexingSchedule |
Stellt einen Zeitplan für die Indexerausführung dar. |
InputFieldMappingEntry |
Eingabefeldzuordnung für einen Skill. |
KeepTokenFilter |
Ein Tokenfilter, der nur Token mit Text speichert, der in einer angegebenen Liste von Wörtern enthalten ist. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
KeyPhraseExtractionSkill |
Eine Qualifikation, die die Textanalyse für die Schlüsselbegriffsextraktion verwendet. |
KeywordMarkerTokenFilter |
Begriffe werden als Schlüsselwörter gekennzeichnet. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
KeywordTokenizer |
Gibt die gesamte Eingabe als ein einzelnes Token aus. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. |
LanguageDetectionSkill |
Ein Skill, der die Sprache des Eingabetexts erkennt und einen einzelnen Sprachcode für jedes Dokument meldet, das für die Anforderung übermittelt wird. Der Sprachcode wird mit einem Score gekoppelt, der die Zuverlässigkeit der Analyse angibt. |
LengthTokenFilter |
Entfernt die Wörter, die zu lang oder zu kurz sind. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
LimitTokenFilter |
Beschränkt die Anzahl der Token während der Indizierung. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
ListSearchResultsPageSettings |
Argumente zum Abrufen der nächsten Seite der Suchergebnisse. |
LuceneStandardAnalyzer |
Apache Lucene-Standardanalyse; Besteht aus dem Standardtokenizer, dem Kleinbuchstabenfilter und dem Stoppfilter. |
LuceneStandardTokenizer |
Teilt Text gemäß den Regeln für Unicode-Textsegmentierung auf. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. |
MagnitudeScoringFunction |
Definiert eine Funktion, die die Bewertungen basierend auf der Größe eines numerischen Felds erhöht. |
MagnitudeScoringParameters |
Stellt Parameterwerte für eine Größenbewertungsfunktion bereit. |
MappingCharFilter |
Ein Zeichenfilter, der zuordnungsdefinierte Zuordnungen anwendet, die mit der Zuordnungsoption definiert sind. Der Abgleich ist umfangreich (der längste Musterabgleich an einem bestimmten Punkt wird verwendet). Eine Ersetzung kann eine leere Zeichenfolge sein. Dieser Zeichenfilter wird mit Apache Lucene implementiert. |
MergeSkill |
Ein Skill zum Zusammenführen von zwei oder mehr Zeichenfolgen in einer einzelnen einheitlichen Zeichenfolge mit einem optionalen benutzerdefinierten Trennzeichen, das jeden Komponententeil trennt. |
MicrosoftLanguageStemmingTokenizer |
Teilt Text nach sprachspezifischen Regeln auf und reduziert Wörter auf deren Grundformen. |
MicrosoftLanguageTokenizer |
Teilt Text mit sprachspezifische Regeln auf. |
NGramTokenFilter |
Generiert N-Gramme einer festgelegten Größe. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
NGramTokenizer |
Tokenisiert die Eingabe in N-Gramme einer festgelegten Größe. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. |
OcrSkill |
Ein Skill, der Text aus Bilddateien extrahiert. |
OutputFieldMappingEntry |
Ausgabefeldzuordnung für einen Skill. |
PIIDetectionSkill |
Mithilfe der Textanalyse-API werden personenbezogene Informationen aus einem Eingabetext extrahiert und ihnen die Möglichkeit zur Maskierung ermöglicht. |
PathHierarchyTokenizer |
Tokenizer für pfadähnliche Hierarchien. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. |
PatternAnalyzer |
Trennt Text flexibel über ein reguläres Ausdrucksmuster in Begriffe. Dieses Analysetool wird mit Apache Lucene implementiert. |
PatternCaptureTokenFilter |
Verwendet Java-Regexes, um mehrere Token auszustellen– eines für jede Erfassungsgruppe in einem oder mehreren Mustern. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
PatternReplaceCharFilter |
Ein Zeichenfilter, der Zeichen in der Eingabezeichenfolge ersetzt. Er verwendet einen regulären Ausdruck, um zu erhaltende Zeichenfolgen zu identifizieren, und ein Ersatzmuster, um zu ersetzende Zeichen zu identifizieren. Angesichts des Eingabetexts "aa bb aa bb", des Musters "(aa)\s+(bb)" und des Ersatzes "$1#$2" wäre das Ergebnis beispielsweise "aa#bb aa#bb". Dieser Zeichenfilter wird mit Apache Lucene implementiert. |
PatternReplaceTokenFilter |
Ein Zeichenfilter, der Zeichen in der Eingabezeichenfolge ersetzt. Er verwendet einen regulären Ausdruck, um zu erhaltende Zeichenfolgen zu identifizieren, und ein Ersatzmuster, um zu ersetzende Zeichen zu identifizieren. Angesichts des Eingabetexts "aa bb aa bb", des Musters "(aa)\s+(bb)" und des Ersatzes "$1#$2" wäre das Ergebnis beispielsweise "aa#bb aa#bb". Dieser Tokenfilter wird mit Apache Lucene implementiert. |
PatternTokenizer |
Tokenizer, der regex-Musterabgleich verwendet, um unterschiedliche Token zu erstellen. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. |
PhoneticTokenFilter |
Erstellt Token für phonetische Übereinstimmungen. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
QueryAnswerResult |
Eine Antwort ist eine Textpassage, die aus dem Inhalt der relevantesten Dokumente extrahiert wurde, die der Abfrage entsprechen. Antworten werden aus den obersten Suchergebnissen extrahiert. Antwortkandidaten werden bewertet, und die wichtigsten Antworten werden ausgewählt. |
QueryCaptionResult |
Beschriftungen sind die repräsentativsten Passagen aus dem Dokument im Verhältnis zur Suchabfrage. Sie werden häufig als Dokumentzusammenfassung verwendet. Beschriftungen werden nur für Abfragen vom Typ |
ResourceCounter |
Stellt die Nutzung und das Kontingent einer Ressource dar. |
ScoringProfile |
Definiert Parameter für einen Suchindex, die die Bewertung in Suchabfragen beeinflussen. |
SearchClientOptions |
Clientoptionen, die zum Konfigurieren von API-Anforderungen der kognitiven Suche verwendet werden. |
SearchDocumentsPageResult |
Antwort mit Suchergebnissen aus einem Index. |
SearchDocumentsResult |
Antwort mit Suchergebnissen aus einem Index. |
SearchDocumentsResultBase |
Antwort mit Suchergebnissen aus einem Index. |
SearchIndex |
Stellt eine Suchindexdefinition dar, die die Felder und das Suchverhalten eines Indexes beschreibt. |
SearchIndexClientOptions |
Clientoptionen, die zum Konfigurieren von API-Anforderungen der kognitiven Suche verwendet werden. |
SearchIndexStatistics |
Statistiken für einen bestimmten Index. Statistiken werden in regelmäßigen Abständen gesammelt und sind nicht garantiert immer auf dem neuesten Stand. |
SearchIndexer |
Stellt einen Indexer dar. |
SearchIndexerClientOptions |
Clientoptionen, die zum Konfigurieren von API-Anforderungen der kognitiven Suche verwendet werden. |
SearchIndexerDataContainer |
Stellt Informationen zur Entität (z. B. Azure SQL Tabelle oder CosmosDB-Auflistung) dar, die indiziert wird. |
SearchIndexerDataSourceConnection |
Stellt eine Datenquellendefinition dar, die zum Konfigurieren eines Indexers verwendet werden kann. |
SearchIndexerError |
Stellt einen Indizierungsfehler auf Element- oder Dokumentebene dar. |
SearchIndexerKnowledgeStore |
Definition zusätzlicher Projektionen von angereicherten Daten in Azure-Blobs, -Tabellen oder -Dateien. |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
Abstrakte Klasse zum Freigeben von Eigenschaften zwischen konkreten Selektoren. |
SearchIndexerKnowledgeStoreFileProjectionSelector |
Projektionsdefinition, welche Daten in Azure Files gespeichert werden sollen. |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
Projektionsdefinition für die daten, die im Azure-Blob gespeichert werden sollen. |
SearchIndexerKnowledgeStoreProjection |
Containerobjekt für verschiedene Projektionsselektoren. |
SearchIndexerKnowledgeStoreProjectionSelector |
Abstrakte Klasse zum Freigeben von Eigenschaften zwischen konkreten Selektoren. |
SearchIndexerKnowledgeStoreTableProjectionSelector |
Beschreibung, welche Daten in Azure Tables gespeichert werden sollen. |
SearchIndexerLimits | |
SearchIndexerSkillset |
Eine Liste der Qualifikationen. |
SearchIndexerStatus |
Stellt den aktuellen Status und Ausführungsverlauf eines Indexers dar. |
SearchIndexerWarning |
Stellt eine Warnung auf Elementebene dar. |
SearchIndexingBufferedSenderOptions |
Optionen für SearchIndexingBufferedSender. |
SearchResourceEncryptionKey |
Ein kundenseitig verwalteter Verschlüsselungsschlüssel in Azure Key Vault. Schlüssel, die Sie erstellen und verwalten, können verwendet werden, um ruhende Daten in Azure Cognitive Search zu verschlüsseln oder zu entschlüsseln, z. B. Indizes und Synonymzuordnungen. |
SearchServiceStatistics |
Antwort von einer Anforderung zum Abrufen von Dienststatistiken. Wenn dies erfolgreich ist, enthält sie Leistungsindikatoren und Grenzwerte für den Servicelevel. |
SearchSuggester |
Definiert, wie die Vorschlags-API auf eine Gruppe von Feldern im Index angewendet werden soll. |
SemanticConfiguration |
Definiert eine bestimmte Konfiguration, die im Kontext semantischer Funktionen verwendet werden soll. |
SemanticField |
Ein Feld, das als Teil der semantischen Konfiguration verwendet wird. |
SemanticPrioritizedFields |
Beschreibt die Felder für Titel, Inhalt und Schlüsselwörter, die für semantische Rangfolge, Beschriftungen, Hervorhebungen und Antworten verwendet werden sollen. |
SemanticSearch |
Definiert Parameter für einen Suchindex, die semantische Funktionen beeinflussen. |
SemanticSearchOptions |
Definiert Optionen für semantische Suchabfragen. |
SentimentSkill |
Positive/negative Stimmungsanalyse der Textanalyse, bewertet als Gleitkommawert in einem Bereich von 0 bis 1. |
SentimentSkillV3 |
Mithilfe der Textanalyse-API wertet unstrukturierten Text aus und stellt für jeden Datensatz Stimmungsbezeichnungen (z. B. "negativ", "neutral" und "positiv") basierend auf der höchsten Konfidenzbewertung bereit, die vom Dienst auf Satz- und Dokumentebene gefunden wurde. |
ServiceCounters |
Stellt Ressourcenzähler und Kontingente auf Dienstebene dar. |
ServiceLimits |
Stellt verschiedene Servicelevelgrenzwerte dar. |
ShaperSkill |
Ein Skill zum Umgestalten der Ausgaben. Es erstellt einen komplexen Typ zur Unterstützung zusammengesetzter Felder (auch als mehrteilige Felder bezeichnet). |
ShingleTokenFilter |
Kombiniert Token zu einem einzelnen Token. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
Similarity |
Basistyp für Ähnlichkeitsalgorithmen. Ähnlichkeitsalgorithmen werden verwendet, um Bewertungen zu berechnen, die Abfragen mit Dokumenten verknüpfen. Je höher die Bewertung, desto relevanter ist das Dokument für diese spezifische Abfrage. Diese Bewertungen werden verwendet, um die Suchergebnisse zu bewerten. |
SimpleField |
Stellt ein Feld in einer Indexdefinition dar, das den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt. |
SnowballTokenFilter |
Ein Filter, der Wörter mithilfe eines von Snowball generierten Stemmers vorgibt. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
SoftDeleteColumnDeletionDetectionPolicy |
Definiert eine Datenlöschungserkennungsrichtlinie, die eine Strategie zum vorläufigen Löschen implementiert. Es bestimmt, ob ein Element basierend auf dem Wert einer angegebenen "vorläufigen Löschen"-Spalte gelöscht werden soll. |
SplitSkill |
Ein Skill zum Aufteilen einer Zeichenfolge in Textblöcke. |
SqlIntegratedChangeTrackingPolicy |
Definiert eine Datenänderungserkennungsrichtlinie, die Änderungen mithilfe der Integrierten Änderungsnachverfolgung-Funktion von Azure SQL-Datenbank erfasst. |
StemmerOverrideTokenFilter |
Bietet die Möglichkeit, andere Stemmingfilter mit benutzerwörterbuchbasiertem Stemming zu überschreiben. Alle wörterstammigen Begriffe werden als Schlüsselwörter markiert, sodass sie nicht mit Stemmeren in der Kette eingestammt werden. Muss vor dem Filter für die Wortstammerkennung platziert werden. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
StemmerTokenFilter |
Sprachspezifischer Stammfilter. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
StopAnalyzer |
Dividiert Text nicht in Buchstaben; Wendet die Kleinbuchstaben- und Stoppworttokenfilter an. Dieses Analysetool wird mit Apache Lucene implementiert. |
StopwordsTokenFilter |
Entfernt Stoppwörter aus einem Tokenstream. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
SuggestDocumentsResult |
Antwort mit Den Ergebnissen der Vorschlagsabfrage aus einem Index. |
SuggestRequest |
Parameter zum Filtern, Sortieren, Fuzzyabgleich und anderen Vorschlägen zum Abfrageverhalten. |
SynonymMap |
Stellt eine Synonymzuordnungsdefinition dar. |
SynonymTokenFilter |
Entspricht Synonymen mit einzelnen oder mehreren Wörtern in einem Tokenstream. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
TagScoringFunction |
Definiert eine Funktion, die die Bewertungen von Dokumenten mit Zeichenfolgenwerten erhöht, die einer angegebenen Liste von Tags entsprechen. |
TagScoringParameters |
Stellt Parameterwerte für eine Tagbewertungsfunktion bereit. |
TextTranslationSkill |
Eine Fähigkeit zum Übersetzen von Text aus einer Sprache in eine andere. |
TextWeights |
Definiert Gewichtungen für Indexfelder, für die Übereinstimmungen die Bewertung in Suchabfragen verbessern sollen. |
TruncateTokenFilter |
Schneidet die Begriffe auf eine bestimmte Länge ab. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
UaxUrlEmailTokenizer |
Tokenisiert URLs und E-Mails als ein Token. Dieser Tokenizer wird mithilfe von Apache Lucene implementiert. |
UniqueTokenFilter |
Filtert Token mit dem gleichen Text wie das vorherige Token heraus. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
VectorSearch |
Enthält Konfigurationsoptionen im Zusammenhang mit der Vektorsuche. |
VectorSearchOptions |
Definiert Optionen für Vektorsuchabfragen. |
VectorSearchProfile |
Definiert eine Kombination von Konfigurationen, die mit der Vektorsuche verwendet werden sollen. |
VectorizedQuery |
Die Abfrageparameter, die für die Vektorsuche verwendet werden sollen, wenn ein unformatierter Vektorwert angegeben wird. |
WebApiSkill |
Ein Skill, der einen Web-API-Endpunkt aufrufen kann, sodass Sie ein Skillset erweitern können, indem Sie Ihren benutzerdefinierten Code aufrufen. |
WordDelimiterTokenFilter |
Unterteilt Wörter in Teilwörter und führt optionale Transformationen in Teilwortgruppen durch. Dieser Tokenfilter wird mit Apache Lucene implementiert. |
Typaliase
AnalyzeTextOptions |
Optionen für den Textanalysevorgang. |
AutocompleteMode |
Definiert Werte für AutoCompleteMode. |
AutocompleteOptions |
Optionen zum Abrufen von Vervollständigungstext für einen partiellen searchText. |
BlobIndexerDataToExtract |
Bekannte Werte, die vom Dienst unterstützt werdenstorageMetadata: Indiziert nur die Standardblobeigenschaften und vom Benutzer angegebenen Metadaten. allMetadata: Extrahiert Metadaten, die vom Azure Blob Storage-Subsystem bereitgestellt werden, und die inhaltstypspezifischen Metadaten (z. B. Metadaten, die nur für .png Dateien indiziert werden). contentAndMetadata: Extrahiert alle Metadaten und Textinhalte aus jedem Blob. |
BlobIndexerImageAction |
Bekannte Werte, die vom Dienst unterstützt werdennone: Ignoriert eingebettete Bilder oder Bilddateien im Dataset. Dies ist die Standardoption. generateNormalizedImages: Extrahiert Text aus Bildern (z. B. das Wort "STOP" aus einem Verkehrsstoppzeichen) und bettet ihn in das Inhaltsfeld ein. Diese Aktion erfordert, dass "dataToExtract" auf "contentAndMetadata" festgelegt ist. Ein normalisiertes Bild bezieht sich auf eine zusätzliche Verarbeitung, die zu einer einheitlichen Bildausgabe führt, die größe und gedreht wird, um ein konsistentes Rendering zu fördern, wenn Sie Bilder in visuelle Suchergebnisse einschließen. Diese Informationen werden bei Verwendung dieser Option für jedes Bild generiert. generateNormalizedImagePerPage: Extrahiert Text aus Bildern (z. B. das Wort "STOP" aus einem Verkehrsstoppzeichen) und bettet ihn in das Inhaltsfeld ein, behandelt PDF-Dateien jedoch anders, da jede Seite als Bild gerendert und entsprechend normalisiert wird, anstatt eingebettete Bilder zu extrahieren. Nicht-PDF-Dateitypen werden genauso behandelt, als ob "generateNormalizedImages" festgelegt wurde. |
BlobIndexerPDFTextRotationAlgorithm |
Bekannte Werte, die vom Dienst unterstützt werdennone: Nutzt die normale Textextraktion. Dies ist die Standardoption. detectAngles: Kann eine bessere und besser lesbare Textextraktion aus PDF-Dateien mit gedrehten Text in ihnen erzeugen. Beachten Sie, dass die Verwendung dieses Parameters möglicherweise geringfügige Auswirkungen auf die Leistungsgeschwindigkeit hat. Dieser Parameter gilt nur für PDF-Dateien und nur für PDF-Dateien mit eingebettetem Text. Wenn der gedrehte Text in einem eingebetteten Bild in der PDF-Datei angezeigt wird, gilt dieser Parameter nicht. |
BlobIndexerParsingMode |
Bekannte Werte, die vom Dienst unterstützt werdendefault: Legen Sie für die normale Dateiverarbeitung den Standardwert fest. text: Legen Sie auf Text fest, um die Indizierungsleistung für Nur-Text-Dateien im Blobspeicher zu verbessern. delimitedText: Legen Sie auf delimitedText fest, wenn Blobs einfache CSV-Dateien sind. json: Legen Sie auf JSON fest, um strukturierte Inhalte aus JSON-Dateien zu extrahieren. jsonArray: Legen Sie auf jsonArray fest, um einzelne Elemente eines JSON-Arrays als separate Dokumente in Azure Cognitive Search zu extrahieren. jsonLines: Legen Sie auf jsonLines fest, um einzelne JSON-Entitäten getrennt durch eine neue Zeile als separate Dokumente in Azure Cognitive Search zu extrahieren. |
CharFilter |
Enthält die möglichen Fälle für CharFilter. |
CharFilterName |
Definiert Werte für CharFilterName. Bekannte Werte, die vom Dienst unterstützt werdenhtml_strip: Ein Zeichenfilter, der versucht, HTML-Konstrukte zu entfernen. Siehe https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html. |
CjkBigramTokenFilterScripts |
Definiert Werte für CjkBigramTokenFilterScripts. |
CognitiveServicesAccount |
Enthält die möglichen Fälle für CognitiveServicesAccount. |
ComplexDataType |
Definiert Werte für ComplexDataType. Mögliche Werte: "Edm.ComplexType", "Collection(Edm.ComplexType)" |
CountDocumentsOptions |
Optionen zum Ausführen des Zählungsvorgangs für den Index. |
CreateDataSourceConnectionOptions |
Optionen für den Datenquellenerstellungsvorgang. |
CreateIndexOptions |
Optionen für den Indexerstellungsvorgang. |
CreateIndexerOptions |
Optionen für den Indexererstellungsvorgang. |
CreateSkillsetOptions |
Optionen für den Vorgang zum Erstellen von Skillsets. |
CreateSynonymMapOptions |
Optionen für den Vorgang zum Erstellen von Synonymzuordnungen. |
CustomEntityLookupSkillLanguage |
Definiert unterstützte Sprachen für CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage kann austauschbar mit diesem Typ verwendet werden. |
DataChangeDetectionPolicy |
Enthält die möglichen Fälle für DataChangeDetectionPolicy. |
DataDeletionDetectionPolicy |
Enthält die möglichen Fälle für DataDeletionDetectionPolicy. |
DeleteDocumentsOptions |
Optionen für den Vorgang zum Löschen von Dokumenten. |
EdgeNGramTokenFilterSide |
Definiert Werte für EdgeNGramTokenFilterSide. |
EntityCategory | |
EntityRecognitionSkillLanguage |
Definiert unterstützte Sprachen für EntityRecognitionSkillKnownEntityRecognitionSkillLanguage kann austauschbar mit diesem Typ verwendet werden. |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
Enthält Konfigurationsoptionen speziell für den vollständigen KNN-Algorithmus, der während der Abfrage verwendet wird, der Brute-Force-Suche für den gesamten Vektorindex ausführt. |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
Optionen für den Get-Datenquellenvorgang. |
GetIndexOptions |
Optionen für den Vorgang zum Abrufen des Indexes. |
GetIndexStatisticsOptions |
Optionen für den Vorgang zum Abrufen von Indexstatistiken. |
GetIndexerOptions |
Optionen für den Get-Indexervorgang. |
GetIndexerStatusOptions |
Optionen zum Abrufen des Indexers status Vorgangs. |
GetServiceStatisticsOptions |
Optionen für den Vorgang zum Abrufen von Dienststatistiken. |
GetSkillSetOptions |
Optionen zum Abrufen des Skillsetsvorgangs. |
GetSynonymMapsOptions |
Optionen für den Vorgang zum Abrufen von Synonymzuordnungen. |
HnswAlgorithmConfiguration |
Enthält Konfigurationsoptionen, die speziell für den hnsw-Algorithmus für die nächsten Nachbarn gelten, der während der Indizierungszeit verwendet wird. |
ImageAnalysisSkillLanguage |
Definiert unterstützte Sprachen für ImageAnalysisSkillKnownImageAnalysisSkillLanguage kann austauschbar mit diesem Typ verwendet werden. |
ImageDetail | |
IndexActionType |
Definiert Werte für IndexActionType. |
IndexDocumentsAction |
Stellt eine Indexaktion dar, die für ein Dokument ausgeführt wird. |
IndexIterator |
Ein Iterator zum Auflisten der im Suchdienst vorhandenen Indizes. Stellt anforderungen bei Bedarf während der Iteration. Verwenden Sie .byPage(), um eine Anforderung pro Iteration an den Server zu senden. |
IndexNameIterator |
Ein Iterator zum Auflisten der im Suchdienst vorhandenen Indizes. Stellt anforderungen bei Bedarf während der Iteration. Verwenden Sie .byPage(), um eine Anforderung pro Iteration an den Server zu senden. |
IndexerExecutionEnvironment |
Bekannte Werte, die vom Dienst unterstützt werdenstandard: Gibt an, dass Azure Cognitive Search bestimmen können, wo der Indexer ausgeführt werden soll. Dies ist die Standardumgebung, wenn nichts angegeben ist, und der empfohlene Wert. private: Gibt an, dass der Indexer mit der Umgebung ausgeführt werden soll, die speziell für den Suchdienst bereitgestellt wurde. Dies sollte nur als Ausführungsumgebung angegeben werden, wenn der Indexer über freigegebene Private Link-Ressourcen sicher auf Ressourcen zugreifen muss. |
IndexerExecutionStatus |
Definiert Werte für IndexerExecutionStatus. |
IndexerStatus |
Definiert Werte für IndexerStatus. |
KeyPhraseExtractionSkillLanguage |
Definiert unterstützte Sprachen für KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage kann austauschbar mit diesem Typ verwendet werden. |
LexicalAnalyzer |
Enthält die möglichen Fälle für Analyzer. |
LexicalAnalyzerName |
Definiert Werte für LexicalAnalyzerName. Bekannte Werte, die vom Dienst unterstützt werdenar.microsoft: Microsoft Analyzer für Arabisch. |
LexicalTokenizer |
Enthält die möglichen Fälle für Tokenizer. |
LexicalTokenizerName |
Definiert Werte für LexicalTokenizerName. Bekannte Werte, die vom Dienst unterstützt werdenclassic: Grammatikbasierter Tokenizer, der sich für die Verarbeitung der meisten dokumente in europäischer Sprache eignet. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html. |
ListDataSourceConnectionsOptions |
Optionen für einen Listendatenquellenvorgang. |
ListIndexersOptions |
Optionen für einen Listenindexervorgang. |
ListIndexesOptions |
Optionen für einen Listenindexvorgang. |
ListSkillsetsOptions |
Optionen für einen Listen-Skillsets-Vorgang. |
ListSynonymMapsOptions |
Optionen für einen Listensynonmaps-Vorgang. |
MergeDocumentsOptions |
Optionen für den Vorgang zum Zusammenführen von Dokumenten. |
MergeOrUploadDocumentsOptions |
Optionen für den Vorgang zum Zusammenführen oder Hochladen von Dokumenten. |
MicrosoftStemmingTokenizerLanguage |
Definiert Werte für MicrosoftStemmingTokenizerLanguage. |
MicrosoftTokenizerLanguage |
Definiert Werte für MicrosoftTokenizerLanguage. |
NarrowedModel |
Schränkt den Modelltyp ein, um nur die ausgewählten Felder einzuschließen. |
OcrSkillLanguage |
Definiert unterstützte Sprachen für OcrSkillKnownOcrSkillLanguage kann austauschbar mit diesem Typ verwendet werden. |
PIIDetectionSkillMaskingMode |
Definiert Werte für PIIDetectionSkillMaskingMode. Bekannte Werte, die vom Dienst unterstützt werdennone: Es erfolgt keine Maskierung, und die maskedText-Ausgabe wird nicht zurückgegeben. replace: Ersetzt die erkannten Entitäten durch das Zeichen, das im Parameter maskingCharacter angegeben ist. Das Zeichen wird bis zur Länge der erkannten Entität wiederholt, sodass die Offsets sowohl dem Eingabetext als auch dem ausgabeformatierten Text korrekt entsprechen. |
PhoneticEncoder |
Definiert Werte für PhoneticEncoder. |
QueryAnswer |
Ein -Wert, der angibt, ob Antworten im Rahmen der Suchantwort zurückgegeben werden sollen.
Dieser Parameter ist nur gültig, wenn der Abfragetyp "semantisch" ist. Wenn dieser Wert auf |
QueryCaption |
Ein -Wert, der angibt, ob Beschriftungen als Teil der Suchantwort zurückgegeben werden sollen. Dieser Parameter ist nur gültig, wenn der Abfragetyp "semantisch" ist. Wenn festgelegt, gibt die Abfrage Beschriftungen zurück, die aus Schlüsselpassagen in den Dokumenten mit dem höchsten Rang extrahiert wurden. Wenn Beschriftungen "extrahierend" sind, ist die Hervorhebung standardmäßig aktiviert. Der Standardwert ist "none". |
QueryType |
Definiert Werte für QueryType. |
RegexFlags |
Definiert Flags für den Abgleich von RegEx-Mustern Bekannte Werte, die vom Dienst unterstützt werdenCANON_EQ: Ermöglicht die kanonische Äquivalenz. CASE_INSENSITIVE: Ermöglicht den Abgleich ohne Berücksichtigung der Groß-/Kleinschreibung. KOMMENTARE: Erlaubt Leerzeichen und Kommentare im Muster. DOTALL: Aktiviert den Dotall-Modus. LITERAL: Ermöglicht die Literalanalyse des Musters. MULTILINE: Aktiviert den Mehrzeilenmodus. UNICODE_CASE: Ermöglicht die Unicode-fähige Groß-/Kleinschreibungsfaltung. UNIX_LINES: Aktiviert den Unix-Linienmodus. |
ResetIndexerOptions |
Optionen für den Vorgang zum Zurücksetzen des Indexers. |
RunIndexerOptions |
Optionen für die Ausführung des Indexervorgangs. |
ScoringFunction |
Enthält die möglichen Fälle für ScoringFunction. |
ScoringFunctionAggregation |
Definiert Werte für ScoringFunctionAggregation. |
ScoringFunctionInterpolation |
Definiert Werte für ScoringFunctionInterpolation. |
ScoringStatistics |
Definiert Werte für ScoringStatistics. |
SearchField |
Stellt ein Feld in einer Indexdefinition dar, das den Namen, den Datentyp und das Suchverhalten eines Felds beschreibt. |
SearchFieldArray |
Wenn |
SearchFieldDataType |
Definiert Werte für SearchFieldDataType. Mögliche Werte: "Edm.String", "Edm.Int32", "Edm.Int64", "Edm.Double", "Edm.Boolean", "Edm.DateTimeOffset", "Edm.GeographyPoint", "Collection(Edm.String)", "Collection(Edm.Int32)", "Collection(Edm.Int64)", "Collection(Edm.Double)", "Collection(Edm.Boolean)", "Collection(Edm.DateTimeOffset)", "Collection(Edm.GeographyPoint)", "Collection(Edm.Single)" NB: |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
Enthält die möglichen Fälle für Skill. |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
Optionen für SearchIndexingBufferedSenderDeleteDocuments. |
SearchIndexingBufferedSenderFlushDocumentsOptions |
Optionen für SearchIndexingBufferedSenderFlushDocuments. |
SearchIndexingBufferedSenderMergeDocumentsOptions |
Optionen für SearchIndexingBufferedSenderMergeDocuments. |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Optionen für SearchIndexingBufferedSenderMergeOrUploadDocuments. |
SearchIndexingBufferedSenderUploadDocumentsOptions |
Optionen für SearchIndexingBufferedSenderUploadDocuments. |
SearchIterator |
Ein Iterator für Suchergebnisse einer Paticular-Abfrage. Stellt anforderungen bei Bedarf während der Iteration. Verwenden Sie .byPage(), um eine Anforderung pro Iteration an den Server zu senden. |
SearchMode |
Definiert Werte für SearchMode. |
SearchOptions |
Optionen zum Committen einer vollständigen Suchanforderung. |
SearchPick |
Wählen Sie felder von T mithilfe gültiger OData-$select Pfade der kognitiven Suche aus. |
SearchRequestOptions |
Parameter zum Filtern, Sortieren, Faceting, Paging und anderen Suchabfrageverhalten. |
SearchRequestQueryTypeOptions | |
SearchResult |
Enthält ein Dokument, das von einer Suchabfrage gefunden wurde, sowie zugeordnete Metadaten. |
SelectArray |
Wenn |
SelectFields |
Erzeugt eine Vereinigung gültiger OData-$select Pfade für T mithilfe einer nachgeordneten Durchquerung der Feldstruktur, die bei T verwurzelt ist. |
SemanticErrorMode |
partial: Wenn die semantische Verarbeitung fehlschlägt, werden weiterhin Teilergebnisse zurückgegeben. Die Definition von Teilergebnissen hängt davon ab, welcher semantische Schritt fehlgeschlagen ist und was der Grund für den Fehler war. fail: Wenn während des semantischen Verarbeitungsschritts eine Ausnahme auftritt, schlägt die Abfrage fehl und gibt abhängig vom Fehler den entsprechenden HTTP-Code zurück. |
SemanticErrorReason |
maxWaitExceeded: Wenn "semanticMaxWaitInMilliseconds" festgelegt wurde und die semantische Verarbeitungsdauer diesen Wert überschritten hat. Es wurden nur die Basisergebnisse zurückgegeben. capacityOverloaded: Die Anforderung wurde gedrosselt. Es wurden nur die Basisergebnisse zurückgegeben. vorübergehend: Mindestens ein Schritt des semantischen Prozesses ist fehlgeschlagen. |
SemanticSearchResultsType |
baseResults: Ergebnisse ohne semantische Anreicherung oder Reranking. rerankedResults: Die Ergebnisse wurden mit dem Rerankermodell neu bewertet und enthalten semantische Beschriftungen. Sie enthalten keine Antworten, Antworten auf Hervorhebungen oder Untertitel Highlights. |
SentimentSkillLanguage |
Definiert unterstützte Sprachen für SentimentSkillKnownSentimentSkillLanguage kann austauschbar mit diesem Typ verwendet werden. |
SimilarityAlgorithm |
Enthält die möglichen Fälle für Ähnlichkeit. |
SnowballTokenFilterLanguage |
Definiert Werte für SnowballTokenFilterLanguage. |
SplitSkillLanguage |
Definiert unterstützte Sprachen für SplitSkillKnownSplitSkillLanguage kann mit diesem Typ austauschbar verwendet werden. |
StemmerTokenFilterLanguage |
Definiert Werte für StemmerTokenFilterLanguage. |
StopwordsList |
Definiert Werte für StopwordsList. |
SuggestNarrowedModel | |
SuggestOptions |
Optionen zum Abrufen von Vorschlägen basierend auf dem searchText. |
SuggestResult |
Ein Ergebnis, das ein dokument enthält, das von einer Vorschlagsabfrage gefunden wurde, sowie zugeordnete Metadaten. |
TextSplitMode | |
TextTranslationSkillLanguage |
Definiert unterstützte Sprachen für TextTranslationSkillKnownTextTranslationSkillLanguage kann austauschbar mit diesem Typ verwendet werden. |
TokenCharacterKind |
Definiert Werte für TokenCharacterKind. |
TokenFilter |
Enthält die möglichen Fälle für TokenFilter. |
TokenFilterName |
Definiert Werte für TokenFilterName. Bekannte Werte, die vom Dienst unterstützt werdenarabic_normalization: Ein Tokenfilter, der den arabischen Normalisierer anwendet, um die Orthografie zu normalisieren. Siehe http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html. |
UnionToIntersection | |
UploadDocumentsOptions |
Optionen für den Vorgang zum Hochladen von Dokumenten. |
VectorFilterMode |
Bestimmt, ob Filter vor oder nach der Vektorsuche angewendet werden. |
VectorQuery |
Die Abfrageparameter für Vektor- und Hybridsuchabfragen. |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
Enthält Spezifische Konfigurationsoptionen für den Algorithmus, der während der Indizierung und/oder Abfrage verwendet wird. |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric |
Die Ähnlichkeitsmetrik, die für Vektorvergleiche verwendet werden soll. |
VisualFeature |
Enumerationen
KnownAnalyzerNames |
Definiert Werte für AnalyzerName. Siehe https://docs.microsoft.com/rest/api/searchservice/Language-support. |
KnownBlobIndexerDataToExtract |
Bekannte Werte von BlobIndexerDataToExtract , die der Dienst akzeptiert. |
KnownBlobIndexerImageAction |
Bekannte Werte von BlobIndexerImageAction , die der Dienst akzeptiert. |
KnownBlobIndexerPDFTextRotationAlgorithm |
Bekannte Werte von BlobIndexerPDFTextRotationAlgorithm , die der Dienst akzeptiert. |
KnownBlobIndexerParsingMode |
Bekannte Werte von BlobIndexerParsingMode , die der Dienst akzeptiert. |
KnownCharFilterNames |
Bekannte Werte von CharFilterName , die der Dienst akzeptiert. |
KnownCustomEntityLookupSkillLanguage |
Bekannte Werte von CustomEntityLookupSkillLanguage , die vom Dienst akzeptiert werden. |
KnownEntityCategory |
Bekannte Werte von EntityCategory , die der Dienst akzeptiert. |
KnownEntityRecognitionSkillLanguage |
Bekannte Werte von EntityRecognitionSkillLanguage , die der Dienst akzeptiert. |
KnownImageAnalysisSkillLanguage |
Bekannte Werte von ImageAnalysisSkillLanguage , die der Dienst akzeptiert. |
KnownImageDetail |
Bekannte Werte von ImageDetail , die der Dienst akzeptiert. |
KnownKeyPhraseExtractionSkillLanguage |
Bekannte Werte von KeyPhraseExtractionSkillLanguage , die der Dienst akzeptiert. |
KnownOcrSkillLanguage |
Bekannte Werte von OcrSkillLanguage , die der Dienst akzeptiert. |
KnownRegexFlags |
Bekannte Werte von RegexFlags , die der Dienst akzeptiert. |
KnownSearchAudience |
Bekannte Werte für Die Suchzielgruppe |
KnownSearchIndexerDataSourceType |
Bekannte Werte von SearchIndexerDataSourceType , die der Dienst akzeptiert. |
KnownSentimentSkillLanguage |
Bekannte Werte von SentimentSkillLanguage , die der Dienst akzeptiert. |
KnownSplitSkillLanguage |
Bekannte Werte von SplitSkillLanguage , die der Dienst akzeptiert. |
KnownTextSplitMode |
Bekannte Werte von TextSplitMode , die der Dienst akzeptiert. |
KnownTextTranslationSkillLanguage |
Bekannte Werte von TextTranslationSkillLanguage , die der Dienst akzeptiert. |
KnownTokenFilterNames |
Bekannte Werte von TokenFilterName , die der Dienst akzeptiert. |
KnownTokenizerNames |
Bekannte Werte von LexicalTokenizerName , die der Dienst akzeptiert. |
KnownVisualFeature |
Bekannte Werte von VisualFeature , die der Dienst akzeptiert. |
Functions
create |
Hilfsmethode zum Erstellen eines SynonymMap-Objekts. Dies ist eine nur NodeJS-Methode. |
odata(Template |
Escapet einen odata-Filterausdruck, um Fehler beim Anführungszeichen von Zeichenfolgenliteralen zu vermeiden. Beispielverwendung:
Weitere Informationen zur unterstützten Syntax finden Sie unter: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
Details zur Funktion
createSynonymMapFromFile(string, string)
Hilfsmethode zum Erstellen eines SynonymMap-Objekts. Dies ist eine nur NodeJS-Methode.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parameter
- name
-
string
Name der SynonymMap.
- filePath
-
string
Pfad der Datei, die die Synonyme enthält (durch neue Zeilen getrennt)
Gibt zurück
Promise<SynonymMap>
SynonymMap-Objekt
odata(TemplateStringsArray, unknown[])
Escapet einen odata-Filterausdruck, um Fehler beim Anführungszeichen von Zeichenfolgenliteralen zu vermeiden. Beispielverwendung:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Weitere Informationen zur unterstützten Syntax finden Sie unter: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parameter
- strings
-
TemplateStringsArray
Array von Zeichenfolgen für den Ausdruck
- values
-
unknown[]
Array von Werten für den Ausdruck
Gibt zurück
string