@azure/search-documents package

Classi

AzureKeyCredential

Credenziale basata su chiave statica che supporta l'aggiornamento del valore della chiave sottostante.

GeographyPoint

Rappresenta un punto geografico nelle coordinate globali.

IndexDocumentsBatch

Classe usata per eseguire operazioni batch con più documenti nell'indice.

SearchClient

Classe usata per eseguire operazioni su un indice di ricerca, inclusi i documenti di query nell'indice e l'aggiunta, l'aggiornamento e la rimozione.

SearchIndexClient

Classe per eseguire operazioni da gestire (creare, aggiornare, elencare/eliminare), indici & sinonimi.

SearchIndexerClient

Classe per eseguire operazioni da gestire (creare, aggiornare, elencare/eliminare) indicizzatori, origini dati & set di competenze.

SearchIndexingBufferedSender

Classe usata per eseguire operazioni con buffer su un indice di ricerca, tra cui l'aggiunta, l'aggiornamento e la rimozione.

Interfacce

AnalyzeRequest

Specifica alcuni componenti di testo e analisi utilizzati per suddividere il testo in token.

AnalyzeResult

Risultato del test di un analizzatore sul testo.

AnalyzedTokenInfo

Informazioni su un token restituito da un analizzatore.

AsciiFoldingTokenFilter

Converte caratteri Unicode alfabetici, numerici e simbolici che non sono nei primi 127 caratteri ASCII (il blocco Unicode "Alfabeto latino di base") nei rispettivi equivalenti ASCII, se tali equivalenti esistono. Questo filtro di token viene implementato usando Apache Lucene.

AutocompleteItem

Risultato delle richieste di completamento automatico.

AutocompleteRequest

Parametri per la corrispondenza fuzzy e altri comportamenti di query di completamento automatico.

AutocompleteResult

Risultato della query di completamento automatico.

AzureActiveDirectoryApplicationCredentials

Credenziali di un'applicazione registrata creata per il servizio di ricerca, usata per l'accesso autenticato alle chiavi di crittografia archiviate in Azure Key Vault.

BM25Similarity

Funzione di classificazione basata sull'algoritmo di somiglianza Okapi BM25. BM25 è un algoritmo simile a TF-IDF che include la normalizzazione della lunghezza (controllata dal parametro 'b'), nonché la saturazione della frequenza dei termini (controllata dal parametro 'k1').

BaseCharFilter

Tipo di base per i filtri di caratteri.

BaseCognitiveServicesAccount

Tipo di base per descrivere qualsiasi risorsa del servizio Di intelligenza artificiale di Azure collegata a un set di competenze.

BaseDataChangeDetectionPolicy

Tipo di base per i criteri di rilevamento delle modifiche dei dati.

BaseDataDeletionDetectionPolicy

Tipo di base per i criteri di rilevamento dell'eliminazione dei dati.

BaseLexicalAnalyzer

Tipo di base per gli analizzatori.

BaseLexicalTokenizer

Tipo di base per i tokenizer.

BaseScoringFunction

Tipo di base per le funzioni che possono modificare i punteggi del documento durante la classificazione.

BaseSearchIndexerSkill

Tipo di base per le competenze.

BaseSearchRequestOptions

Parametri per il filtro, l'ordinamento, il facet, il paging e altri comportamenti delle query di ricerca.

BaseTokenFilter

Tipo di base per i filtri token.

BaseVectorQuery

Parametri di query per query di ricerca ibrida e vettoriali.

BaseVectorSearchAlgorithmConfiguration

Contiene opzioni di configurazione specifiche dell'algoritmo utilizzato durante l'indicizzazione e/o l'esecuzione di query.

CjkBigramTokenFilter

Forma i bigram dei termini CJK generati dal tokenizer standard. Questo filtro di token viene implementato usando Apache Lucene.

ClassicSimilarity

Algoritmo di somiglianza legacy che usa l'implementazione Lucene TFIDFSimilarity di TF-IDF. Questa variante di TF-IDF introduce la normalizzazione della lunghezza dei documenti statici, nonché i fattori di coordinamento che penalizzano i documenti che corrispondono solo parzialmente alle query sottoposte a ricerca.

ClassicTokenizer

Tokenizer basato su grammatica adatto per l'elaborazione della maggior parte dei documenti in lingua europea. Questo tokenizer viene implementato usando Apache Lucene.

CognitiveServicesAccountKey

Una risorsa del servizio Intelligenza artificiale di Azure di cui è stato effettuato il provisioning con una chiave collegata a un set di competenze.

CommonGramTokenFilter

Costruisce digrammi per i termini frequenti durante l'indicizzazione. Anche i termini singoli continuano a essere indicizzati, con i digrammi sovrapposti. Questo filtro di token viene implementato usando Apache Lucene.

ComplexField

Rappresenta un campo in una definizione di indice, che descrive il nome, il tipo di dati e il comportamento di ricerca di un campo.

ConditionalSkill

Competenza che consente scenari che richiedono un'operazione booleana per determinare i dati da assegnare a un output.

CorsOptions

Definisce le opzioni per controllare la condivisione di risorse tra le origini (CORS) per un indice.

CreateOrUpdateIndexOptions

Opzioni per l'operazione di creazione/aggiornamento dell'indice.

CreateOrUpdateSkillsetOptions

Opzioni per l'operazione di creazione/aggiornamento del set di competenze.

CreateOrUpdateSynonymMapOptions

Opzioni per l'operazione create/update synonymmap.

CreateorUpdateDataSourceConnectionOptions

Opzioni per l'operazione di creazione/aggiornamento dell'origine dati.

CreateorUpdateIndexerOptions

Opzioni per l'operazione di creazione/aggiornamento dell'indicizzatore.

CustomAnalyzer

Consente di controllare il processo di conversione del testo in token indicizzabili/ricercabili. Si tratta di una configurazione definita dall'utente costituita da un singolo tokenizzatore predefinito e uno o più filtri. Il tokenizer è responsabile dell'interruzione del testo nei token e dei filtri per la modifica dei token generati dal tokenizer.

CustomEntity

Oggetto che contiene informazioni sulle corrispondenze trovate e sui metadati correlati.

CustomEntityAlias

Oggetto complesso che può essere usato per specificare ortografiche o sinonimi alternativi per il nome dell'entità radice.

CustomEntityLookupSkill

Una competenza cerca testo da un elenco personalizzato definito dall'utente di parole e frasi.

DefaultCognitiveServicesAccount

Oggetto vuoto che rappresenta la risorsa predefinita del servizio Di intelligenza artificiale di Azure per un set di competenze.

DeleteDataSourceConnectionOptions

Opzioni per l'operazione di eliminazione dell'origine dati.

DeleteIndexOptions

Opzioni per l'operazione di eliminazione dell'indice.

DeleteIndexerOptions

Opzioni per l'operazione di eliminazione dell'indicizzatore.

DeleteSkillsetOptions

Opzioni per l'eliminazione dell'operazione del set di competenze.

DeleteSynonymMapOptions

Opzioni per eliminare l'operazione synonymmap.

DictionaryDecompounderTokenFilter

Scompone le parole composte presenti in molte lingue germaniche. Questo filtro di token viene implementato usando Apache Lucene.

DistanceScoringFunction

Definisce una funzione che aumenta i punteggi in base alla distanza da una posizione geografica.

DistanceScoringParameters

Fornisce i valori dei parametri a una funzione di assegnazione dei punteggi per la distanza.

DocumentExtractionSkill

Competenza che estrae il contenuto da un file all'interno della pipeline di arricchimento.

EdgeNGramTokenFilter

Genera n-grammi delle dimensioni specificate a partire dalla parte anteriore o posteriore di un token di input. Questo filtro di token viene implementato usando Apache Lucene.

EdgeNGramTokenizer

Tokenzza l'input da un bordo in n grammi delle dimensioni specificate. Questo tokenizer viene implementato usando Apache Lucene.

ElisionTokenFilter

Rimuove le elisioni. Ad esempio, "l'avion" (piano) verrà convertito in "avion" (piano). Questo filtro di token viene implementato usando Apache Lucene.

EntityLinkingSkill

Usando l'API Analisi del testo, estrae entità collegate dal testo.

EntityRecognitionSkill

Riconoscimento delle entità di Analisi del testo.

EntityRecognitionSkillV3

Usando l'API Analisi del testo, estrae entità di tipi diversi dal testo.

ExhaustiveKnnParameters

Contiene i parametri specifici dell'algoritmo KNN completo.

ExtractiveQueryAnswer

Estrae i candidati alle risposte dal contenuto dei documenti restituiti in risposta a una query espressa come domanda nel linguaggio naturale.

ExtractiveQueryCaption

Estrae le didascalie dai documenti corrispondenti che contengono passaggi rilevanti per la query di ricerca.

FacetResult

Un singolo bucket di un risultato della query facet. Segnala il numero di documenti con un valore di campo compreso in un intervallo specifico o con un determinato valore o intervallo.

FieldMapping

Definisce un mapping tra un campo in un'origine dati e un campo di destinazione in un indice.

FieldMappingFunction

Rappresenta una funzione che trasforma un valore da un'origine dati prima dell'indicizzazione.

FreshnessScoringFunction

Definisce una funzione che aumenta i punteggi in base al valore di un campo di data e ora.

FreshnessScoringParameters

Fornisce i valori dei parametri a una funzione di assegnazione dei punteggi di aggiornamento.

GetDocumentOptions

Opzioni per il recupero di un singolo documento.

HighWaterMarkChangeDetectionPolicy

Definisce un criterio di rilevamento delle modifiche dei dati che acquisisce le modifiche in base al valore di una colonna del contrassegno di acqua elevata.

HnswParameters

Contiene i parametri specifici dell'algoritmo hnsw.

ImageAnalysisSkill

Competenza che analizza i file di immagine. Estrae un set completo di funzionalità visive basate sul contenuto dell'immagine.

IndexDocumentsClient

Client di documenti di indice

IndexDocumentsOptions

Opzioni per l'operazione modifica batch dell'indice.

IndexDocumentsResult

Risposta contenente lo stato delle operazioni per tutti i documenti nella richiesta di indicizzazione.

IndexerExecutionResult

Rappresenta il risultato di una singola esecuzione dell'indicizzatore.

IndexingParameters

Rappresenta i parametri per l'esecuzione dell'indicizzatore.

IndexingParametersConfiguration

Dizionario delle proprietà di configurazione specifiche dell'indicizzatore. Ogni nome è il nome di una proprietà specifica. Ogni valore deve essere di un tipo primitivo.

IndexingResult

Stato di un'operazione di indicizzazione per un singolo documento.

IndexingSchedule

Rappresenta una pianificazione per l'esecuzione dell'indicizzatore.

InputFieldMappingEntry

Mapping dei campi di input per una competenza.

KeepTokenFilter

Filtro token che mantiene solo i token con testo contenuto in un elenco specificato di parole. Questo filtro di token viene implementato usando Apache Lucene.

KeyPhraseExtractionSkill

Competenza che usa l'analisi del testo per l'estrazione di frasi chiave.

KeywordMarkerTokenFilter

Contrassegna i termini come parole chiave. Questo filtro di token viene implementato usando Apache Lucene.

KeywordTokenizer

Genera l'intero input come token singolo. Questo tokenizer viene implementato usando Apache Lucene.

LanguageDetectionSkill

Competenza che rileva la lingua di testo di input e segnala un singolo codice linguistico per ogni documento inviato nella richiesta. Il codice del linguaggio è associato a un punteggio che indica l'attendibilità dell'analisi.

LengthTokenFilter

Rimuove le parole troppo lunghe o troppo corte. Questo filtro token viene implementato usando Apache Lucene.

LimitTokenFilter

Limita il numero di token durante l'indicizzazione. Questo filtro token viene implementato usando Apache Lucene.

ListSearchResultsPageSettings

Argomenti per il recupero della pagina successiva dei risultati della ricerca.

LuceneStandardAnalyzer

Analizzatore Apache Lucene standard; Composto dal tokenizer standard, dal filtro minuscolo e dal filtro di arresto.

LuceneStandardTokenizer

Suddivide il testo in base alle regole di segmentazione del testo Unicode. Questo tokenizzatore viene implementato usando Apache Lucene.

MagnitudeScoringFunction

Definisce una funzione che aumenta i punteggi in base alla grandezza di un campo numerico.

MagnitudeScoringParameters

Fornisce i valori dei parametri a una funzione di assegnazione dei punteggi di grandezza.

MappingCharFilter

Filtro di caratteri che applica mapping definiti con l'opzione mapping. La corrispondenza è greedy. I criteri di ricerca più lunghi in un determinato punto hanno la precedenza. È consentita la sostituzione con una stringa vuota. Questo filtro di caratteri viene implementato usando Apache Lucene.

MergeSkill

Una competenza per l'unione di due o più stringhe in una singola stringa unificata, con un delimitatore definito dall'utente facoltativo che separa ogni parte del componente.

MicrosoftLanguageStemmingTokenizer

Divide il testo usando regole specifiche della lingua e riduce le parole alle relative forme di base.

MicrosoftLanguageTokenizer

Divide il testo usando le regole specifiche della lingua.

NGramTokenFilter

Genera n-grammi delle dimensioni specificate. Questo filtro token viene implementato usando Apache Lucene.

NGramTokenizer

Suddivide in token l'input in n-grammi di determinate dimensioni. Questo tokenizzatore viene implementato usando Apache Lucene.

OcrSkill

Competenza che estrae il testo dai file di immagine.

OutputFieldMappingEntry

Mapping dei campi di output per una competenza.

PIIDetectionSkill

Usando l'API Analisi del testo, estrae informazioni personali da un testo di input e offre l'opzione di mascherarla.

PathHierarchyTokenizer

Tokenizer per le gerarchie di tipo percorso. Questo tokenizzatore viene implementato usando Apache Lucene.

PatternAnalyzer

Separa in modo flessibile il testo in termini tramite un modello di espressione regolare. Questo analizzatore viene implementato usando Apache Lucene.

PatternCaptureTokenFilter

Usa regexes Java per generare più token, uno per ogni gruppo di acquisizione in uno o più modelli. Questo filtro token viene implementato usando Apache Lucene.

PatternReplaceCharFilter

Filtro di caratteri che sostituisce i caratteri nella stringa di input. Usa un'espressione regolare per identificare le sequenze di caratteri da conservare e un criterio di sostituzione per identificare i caratteri da sostituire. Ad esempio, dato il testo di input "aa bb aa bb", pattern "(aa)\s+(bb)" e sostituzione "$1#$2", il risultato sarà "aa#bb aa#bb aa#bb". Questo filtro di caratteri viene implementato usando Apache Lucene.

PatternReplaceTokenFilter

Filtro di caratteri che sostituisce i caratteri nella stringa di input. Usa un'espressione regolare per identificare le sequenze di caratteri da conservare e un criterio di sostituzione per identificare i caratteri da sostituire. Ad esempio, dato il testo di input "aa bb aa bb", pattern "(aa)\s+(bb)" e sostituzione "$1#$2", il risultato sarà "aa#bb aa#bb aa#bb". Questo filtro token viene implementato usando Apache Lucene.

PatternTokenizer

Tokenizer che usa il modello regex corrispondente per costruire token distinti. Questo tokenizzatore viene implementato usando Apache Lucene.

PhoneticTokenFilter

Crea i token per le corrispondenze fonetiche. Questo filtro token viene implementato usando Apache Lucene.

QueryAnswerResult

Una risposta è un passaggio di testo estratto dal contenuto dei documenti più rilevanti che corrispondono alla query. Le risposte vengono estratte dai risultati principali della ricerca. I candidati alla risposta vengono assegnati punteggi e le risposte principali sono selezionate.

QueryCaptionResult

Le didascalie sono i passaggi più rappresentativi del documento relativamente alla query di ricerca. Vengono spesso usati come riepilogo dei documenti. Le didascalie vengono restituite solo per le query di tipo semantic.

ResourceCounter

Rappresenta l'utilizzo e la quota di una risorsa.

ScoringProfile

Definisce i parametri per un indice di ricerca che influisce sul punteggio nelle query di ricerca.

SearchClientOptions

Opzioni client usate per configurare le richieste api di ricerca cognitiva.

SearchDocumentsPageResult

Risposta contenente i risultati della pagina di ricerca da un indice.

SearchDocumentsResult

Risposta contenente i risultati della ricerca da un indice.

SearchDocumentsResultBase

Risposta contenente i risultati della ricerca da un indice.

SearchIndex

Rappresenta una definizione dell'indice di ricerca, che descrive i campi e il comportamento di ricerca di un indice.

SearchIndexClientOptions

Opzioni client usate per configurare le richieste api di ricerca cognitiva.

SearchIndexStatistics

Statistiche per un determinato indice. Le statistiche vengono raccolte periodicamente e non sono sempre aggiornate.

SearchIndexer

Rappresenta un indicizzatore.

SearchIndexerClientOptions

Opzioni client usate per configurare le richieste api di ricerca cognitiva.

SearchIndexerDataContainer

Rappresenta informazioni sull'entità , ad esempio Azure SQL tabella o raccolta CosmosDB, indicizzate.

SearchIndexerDataSourceConnection

Rappresenta una definizione dell'origine dati, che può essere usata per configurare un indicizzatore.

SearchIndexerError

Rappresenta un errore di indicizzazione a livello dell'elemento o del documento.

SearchIndexerKnowledgeStore

Definizione di proiezioni aggiuntive per BLOB, tabelle o file di azure, di dati arricchiti.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Classe astratta per condividere le proprietà tra selettori concreti.

SearchIndexerKnowledgeStoreFileProjectionSelector

Definizione di proiezione per i dati da archiviare in File di Azure.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Definizione di proiezione per i dati da archiviare in BLOB di Azure.

SearchIndexerKnowledgeStoreProjection

Oggetto contenitore per vari selettore di proiezione.

SearchIndexerKnowledgeStoreProjectionSelector

Classe astratta per condividere le proprietà tra selettori concreti.

SearchIndexerKnowledgeStoreTableProjectionSelector

Descrizione per i dati da archiviare nelle tabelle di Azure.

SearchIndexerLimits
SearchIndexerSkillset

Elenco di competenze.

SearchIndexerStatus

Rappresenta lo stato corrente e la cronologia di esecuzione di un indicizzatore.

SearchIndexerWarning

Rappresenta un avviso a livello di elemento.

SearchIndexingBufferedSenderOptions

Opzioni per SearchIndexingBufferedSender.

SearchResourceEncryptionKey

Chiave di crittografia gestita dal cliente in Azure Key Vault. Le chiavi create e gestite possono essere usate per crittografare o decrittografare i dati inattivi in Ricerca cognitiva di Azure, ad esempio indici e mappe sinonimi.

SearchServiceStatistics

Risposta da una richiesta di statistiche del servizio. In caso di esito positivo, include contatori e limiti a livello di servizio.

SearchSuggester

Definisce il modo in cui l'API Suggerisci deve essere applicata a un gruppo di campi nell'indice.

SemanticConfiguration

Definisce una configurazione specifica da usare nel contesto delle funzionalità semantiche.

SemanticField

Campo utilizzato come parte della configurazione semantica.

SemanticPrioritizedFields

Descrive i campi titolo, contenuto e parole chiave da usare per la classificazione semantica, le didascalie, le evidenziazioni e le risposte.

SemanticSearch

Definisce i parametri per un indice di ricerca che influiscono sulle funzionalità semantiche.

SemanticSearchOptions

Definisce le opzioni per le query di ricerca semantica

SentimentSkill

Analisi del testo analisi del sentiment positivo-negativo, con punteggio come valore a virgola mobile in un intervallo da zero a 1.

SentimentSkillV3

Usando l'API Analisi del testo, valuta il testo non strutturato e per ogni record, fornisce etichette del sentiment (ad esempio "negative", "neutral" e "positive") in base al punteggio di attendibilità più alto trovato dal servizio a livello di frase e documento.

ServiceCounters

Rappresenta i contatori e le quote delle risorse a livello di servizio.

ServiceLimits

Rappresenta vari limiti del livello di servizio.

ShaperSkill

Competenza per la rimodellizione degli output. Crea un tipo complesso per supportare i campi compositi (noti anche come campi multipart).

ShingleTokenFilter

Crea combinazioni di token come token singolo. Questo filtro di token viene implementato usando Apache Lucene.

Similarity

Tipo di base per algoritmi di somiglianza. Gli algoritmi di somiglianza vengono usati per calcolare i punteggi che associano le query ai documenti. Maggiore è il punteggio, più rilevante è il documento per la query specifica. Questi punteggi vengono usati per classificare i risultati della ricerca.

SimpleField

Rappresenta un campo in una definizione di indice, che descrive il nome, il tipo di dati e il comportamento di ricerca di un campo.

SnowballTokenFilter

Filtro che deriva le parole usando uno stemmer generato da Snowball. Questo filtro di token viene implementato usando Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Definisce un criterio di rilevamento dell'eliminazione dei dati che implementa una strategia di eliminazione temporanea. Determina se un elemento deve essere eliminato in base al valore di una colonna "eliminazione temporanea" designata.

SplitSkill

Competenza per suddividere una stringa in blocchi di testo.

SqlIntegratedChangeTrackingPolicy

Definisce un criterio di rilevamento delle modifiche dei dati che acquisisce le modifiche usando la funzionalità Integrata Rilevamento modifiche di Azure SQL Database.

StemmerOverrideTokenFilter

Consente di eseguire l'override di altri filtri di stemming con stemming basato su dizionario personalizzato. Tutti i termini con stemmy vengono contrassegnati come parole chiave in modo che non vengano stemmati lungo la catena. Da inserire prima dei filtri di stemming. Questo filtro di token viene implementato usando Apache Lucene.

StemmerTokenFilter

Filtro di stemming specifico della lingua. Questo filtro di token viene implementato usando Apache Lucene.

StopAnalyzer

Divide il testo in corrispondenza di non lettere; Applica i filtri token minuscoli e non significative. Questo analizzatore viene implementato usando Apache Lucene.

StopwordsTokenFilter

Rimuove le parole non significative da un flusso di token. Questo filtro di token viene implementato usando Apache Lucene.

SuggestDocumentsResult

Risposta contenente i risultati della query di suggerimento da un indice.

SuggestRequest

Parametri per il filtro, l'ordinamento, la corrispondenza fuzzy e altri comportamenti di query di suggerimenti.

SynonymMap

Rappresenta una definizione di mappa sinonimo.

SynonymTokenFilter

Trova la corrispondenza di sinonimi con una o più parole in un flusso di token. Questo filtro di token viene implementato usando Apache Lucene.

TagScoringFunction

Definisce una funzione che aumenta i punteggi di documenti con valori stringa corrispondenti a un determinato elenco di tag.

TagScoringParameters

Fornisce i valori dei parametri a una funzione di assegnazione dei punteggi di tag.

TextTranslationSkill

Competenza per tradurre il testo da una lingua a un'altra.

TextWeights

Definisce i pesi nei campi di indice per i quali le corrispondenze devono aumentare il punteggio nelle query di ricerca.

TruncateTokenFilter

Tronca i termini a una lunghezza specifica. Questo filtro token viene implementato usando Apache Lucene.

UaxUrlEmailTokenizer

Suddivide in token gli URL e gli indirizzi di posta elettronica come un unico token. Questo tokenizzatore viene implementato usando Apache Lucene.

UniqueTokenFilter

Filtra i token con lo stesso testo del token precedente. Questo filtro token viene implementato usando Apache Lucene.

VectorSearch

Contiene opzioni di configurazione correlate alla ricerca vettoriale.

VectorSearchOptions

Definisce le opzioni per le query di ricerca vettoriali

VectorSearchProfile

Definisce una combinazione di configurazioni da usare con la ricerca vettoriale.

VectorizedQuery

Parametri di query da usare per la ricerca vettoriale quando viene fornito un valore vettore non elaborato.

WebApiSkill

Una competenza che può chiamare un endpoint API Web, consentendo di estendere un set di competenze chiamando il codice personalizzato.

WordDelimiterTokenFilter

Suddivide le parole in sottoparole ed esegue trasformazioni facoltative sui gruppi di sottoparole. Questo filtro token viene implementato usando Apache Lucene.

Alias tipo

AnalyzeTextOptions

Opzioni per l'operazione di analisi del testo.

AutocompleteMode

Definisce i valori per AutocompleteMode.

AutocompleteOptions

Opzioni per il recupero del testo di completamento per un oggetto searchText parziale.

BlobIndexerDataToExtract

Valori noti supportati dal servizio

storageMetadata: indicizza solo le proprietà del BLOB standard e i metadati specificati dall'utente. allMetadata: estrae i metadati forniti dal sottosistema di archiviazione BLOB di Azure e i metadati specifici del tipo di contenuto, ad esempio i metadati univoci per .png file vengono indicizzati. contentAndMetadata: estrae tutti i metadati e il contenuto testuale da ogni BLOB.

BlobIndexerImageAction

Valori noti supportati dal servizio

none: ignora le immagini incorporate o i file di immagine nel set di dati. Questo è il valore predefinito. generateNormalizedImages: estrae testo dalle immagini (ad esempio, la parola "STOP" da un segno di arresto del traffico) e la incorpora nel campo contenuto. Questa azione richiede che "dataToExtract" sia impostato su "contentAndMetadata". Un'immagine normalizzata si riferisce a un'ulteriore elaborazione, con conseguente output uniforme dell'immagine, ridimensionata e ruotata per promuovere il rendering coerente quando si includono immagini nei risultati della ricerca visiva. Queste informazioni vengono generate per ogni immagine quando si usa questa opzione. generateNormalizedImagePerPage: estrae testo dalle immagini (ad esempio, la parola "STOP" da un segno di arresto del traffico) e la incorpora nel campo contenuto, ma considera i file PDF in modo diverso in quanto ogni pagina verrà sottoposta a rendering come immagine e normalizzata di conseguenza, anziché estrarre immagini incorporate. I tipi di file non PDF verranno trattati come se fosse impostato "generateNormalizedImages".

BlobIndexerPDFTextRotationAlgorithm

Valori noti supportati dal servizio

none: sfrutta l'estrazione normale del testo. Questo è il valore predefinito. detectAngles: può produrre un'estrazione di testo migliore e leggibile da file PDF con testo ruotato all'interno di essi. Si noti che può verificarsi un impatto ridotto sulla velocità delle prestazioni quando si usa questo parametro. Questo parametro si applica solo ai file PDF e solo ai PDF con testo incorporato. Se il testo ruotato viene visualizzato all'interno di un'immagine incorporata nel PDF, questo parametro non si applica.

BlobIndexerParsingMode

Valori noti supportati dal servizio

default: impostato su predefinito per l'elaborazione normale dei file. text: impostare su testo per migliorare le prestazioni di indicizzazione nei file di testo normale nell'archivio BLOB. delimitedText: impostare su delimitedText quando i BLOB sono file CSV semplici. json: impostare su json per estrarre il contenuto strutturato dai file JSON. jsonArray: impostare su jsonArray per estrarre singoli elementi di una matrice JSON come documenti separati in Ricerca cognitiva di Azure. jsonLines: impostare su jsonLines per estrarre singole entità JSON, separate da una nuova riga, come documenti separati in Ricerca cognitiva di Azure.

CharFilter

Contiene i possibili case per CharFilter.

CharFilterName

Definisce i valori per CharFilterName.
<xref:KnownCharFilterName> può essere usato in modo intercambiabile con CharFilterName. Questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

html_strip: filtro di caratteri che tenta di rimuovere i costrutti HTML. Vedere https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilterScripts

Definisce i valori per CjkBigramTokenFilterScripts.

CognitiveServicesAccount

Contiene i casi possibili per CognitiveServicesAccount.

ComplexDataType

Definisce i valori per ComplexDataType. I valori possibili includono: 'Edm.ComplexType', 'Collection(Edm.ComplexType)'

CountDocumentsOptions

Opzioni per eseguire l'operazione di conteggio sull'indice.

CreateDataSourceConnectionOptions

Opzioni per l'operazione di creazione dell'origine dati.

CreateIndexOptions

Opzioni per l'operazione di creazione dell'indice.

CreateIndexerOptions

Opzioni per l'operazione di creazione dell'indicizzatore.

CreateSkillsetOptions

Opzioni per la creazione dell'operazione del set di competenze.

CreateSynonymMapOptions

Opzioni per creare l'operazione synonymmap.

CustomEntityLookupSkillLanguage

Definisce le lingue supportate per CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage può essere usato in modo intercambiabile con questo tipo

DataChangeDetectionPolicy

Contiene i possibili casi per DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Contiene i possibili case per DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Opzioni per l'operazione di eliminazione dei documenti.

EdgeNGramTokenFilterSide

Definisce i valori per EdgeNGramTokenFilterSide.

EntityCategory
EntityRecognitionSkillLanguage

Definisce le lingue supportate per EntityRecognitionSkillKnownEntityRecognitionSkillLanguage può essere usato in modo intercambiabile con questo tipo

ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Contiene opzioni di configurazione specifiche dell'algoritmo KNN completo usato durante l'esecuzione di query, che eseguirà la ricerca di forza bruta nell'intero indice vettoriale.

ExtractDocumentKey
GetDataSourceConnectionOptions

Opzioni per l'operazione get datasource.

GetIndexOptions

Opzioni per l'operazione get index.

GetIndexStatisticsOptions

Opzioni per l'operazione get index statistics.

GetIndexerOptions

Opzioni per l'operazione di recupero dell'indicizzatore.

GetIndexerStatusOptions

Opzioni per ottenere l'operazione di stato dell'indicizzatore.

GetServiceStatisticsOptions

Opzioni per l'operazione di recupero delle statistiche del servizio.

GetSkillSetOptions

Opzioni per ottenere l'operazione del set di competenze.

GetSynonymMapsOptions

Opzioni per l'operazione get synonymmaps.

HnswAlgorithmConfiguration

Contiene opzioni di configurazione specifiche dell'algoritmo hnsw vicino più vicino utilizzato durante l'indicizzazione.

ImageAnalysisSkillLanguage

Definisce i linguaggi supportati per ImageAnalysisSkillKnownImageAnalysisSkillLanguage può essere usato in modo intercambiabile con questo tipo

ImageDetail
IndexActionType

Definisce i valori per IndexActionType.

IndexDocumentsAction

Rappresenta un'azione di indice che opera su un documento.

IndexIterator

Iteratore per elencare gli indici presenti nel servizio di ricerca. Le richieste verranno inviate in base alle esigenze durante l'iterazione. Usare .byPage() per effettuare una richiesta al server per ogni iterazione.

IndexNameIterator

Iteratore per elencare gli indici presenti nel servizio di ricerca. Le richieste verranno inviate in base alle esigenze durante l'iterazione. Usare .byPage() per effettuare una richiesta al server per ogni iterazione.

IndexerExecutionEnvironment

Valori noti supportati dal servizio

standard: indica che Ricerca cognitiva di Azure può determinare dove deve essere eseguito l'indicizzatore. Si tratta dell'ambiente predefinito quando non viene specificato nulla ed è il valore consigliato. private: indica che l'indicizzatore deve essere eseguito con l'ambiente di cui è stato effettuato il provisioning in modo specifico per il servizio di ricerca. Deve essere specificato come ambiente di esecuzione solo se l'indicizzatore deve accedere in modo sicuro alle risorse tramite collegamenti privati condivisi.

IndexerExecutionStatus

Definisce i valori per IndexerExecutionStatus.

IndexerStatus

Definisce i valori per IndexerStatus.

KeyPhraseExtractionSkillLanguage

Definisce i linguaggi supportati per KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage può essere usato in modo intercambiabile con questo tipo

LexicalAnalyzer

Contiene i possibili casi per Analizzatore.

LexicalAnalyzerName

Definisce i valori per LexicalAnalyzerName.
<xref:KnownLexicalAnalyzerName> può essere usato in modo interscambiabile con LexicalAnalyzerName, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

ar.microsoft: Analizzatore Microsoft per l'arabo.
ar.lucene: analizzatore Lucene per l'arabo.
hy.lucene: analizzatore Lucene per Armena.
bn.microsoft: Analizzatore Microsoft per Bangla.
eu.lucene: analizzatore Lucene per basco.
bg.microsoft: Analizzatore Microsoft per bulgaro.
bg.lucene: analizzatore Lucene per bulgaro.
ca.microsoft: Analizzatore Microsoft per Catalano.
ca.lucene: analizzatore Lucene per Catalano.
zh-Hans.microsoft: Analizzatore Microsoft per cinese (semplificato).
zh-Hans.lucene: analizzatore Lucene per cinese (semplificato).
zh-Hant.microsoft: Analizzatore Microsoft per cinese (tradizionale).
zh-Hant.lucene: analizzatore Lucene per cinese (tradizionale).
hr.microsoft: Analizzatore Microsoft per croato.
cs.microsoft: Analizzatore Microsoft per ceco.
cs.lucene: analizzatore Lucene per ceco.
da.microsoft: Analizzatore Microsoft per danese.
da.lucene: analizzatore Lucene per danese.
nl.microsoft: Analizzatore Microsoft per olandese.
nl.lucene: analizzatore Lucene per olandese.
en.microsoft: Analizzatore Microsoft per l'inglese.
en.lucene: analizzatore Lucene per l'inglese.
et.microsoft: Analizzatore Microsoft per Estonian.
fi.microsoft: Analizzatore Microsoft per finlandese.
fi.lucene: analizzatore Lucene per finlandese.
fr.microsoft: Analizzatore Microsoft per francese.
fr.lucene: analizzatore Lucene per francese.
gl.lucene: analizzatore Lucene per La Galiziano.
de.microsoft: Analizzatore Microsoft per tedesco.
de.lucene: analizzatore Lucene per tedesco.
el.microsoft: Analizzatore Microsoft per greco.
el.lucene: analizzatore Lucene per greco.
gu.microsoft: Analizzatore Microsoft per Gujarati.
he.microsoft: Analizzatore Microsoft per ebraico.
hi.microsoft: Analizzatore Microsoft per Hindi.
hi.lucene: analizzatore Lucene per Hindi.
hu.microsoft: Analizzatore Microsoft per ungherese.
hu.lucene: analizzatore Lucene per ungherese.
is.microsoft: Analizzatore Microsoft per Islanda.
id.microsoft: Analizzatore Microsoft per Indonesiano (Bahasa).
id.lucene: analizzatore Lucene per indonesiano.
ga.lucene: analizzatore Lucene per irlandese.
it.microsoft: Analizzatore Microsoft per l'italiano.
it.lucene: analizzatore Lucene per italiano.
ja.microsoft: Analizzatore Microsoft per il giapponese.
ja.lucene: analizzatore Lucene per il giapponese.
kn.microsoft: Analizzatore Microsoft per Kannada.
ko.microsoft: Analizzatore Microsoft per coreano.
ko.lucene: analizzatore Lucene per coreano.
lv.microsoft: Analizzatore Microsoft per lettone.
lv.lucene: analizzatore Lucene per lettone.
lt.microsoft: Analizzatore Microsoft per La Lituania.
ml.microsoft: Analizzatore Microsoft per Malayalam.
ms.microsoft: Analizzatore Microsoft per malay (latino).
mr.microsoft: Analizzatore Microsoft per Marathi.
nb.microsoft: Analizzatore Microsoft per Norvegese (Bokmål).
no.lucene: analizzatore Lucene per Norvegese.
fa.lucene: analizzatore Lucene per persiano.
pl.microsoft: Analizzatore Microsoft per polacco.
pl.lucene: analizzatore Lucene per polacco.
pt-BR.microsoft: Analizzatore Microsoft per portoghese (Brasile).
pt-BR.lucene: analizzatore Lucene per portoghese (Brasile).
pt-PT.microsoft: Analizzatore Microsoft per portoghese (Portogallo).
pt-PT.lucene: analizzatore Lucene per portoghese (Portogallo).
pa.microsoft: Analizzatore Microsoft per Punjabi.
ro.microsoft: Analizzatore Microsoft per romania.
ro.lucene: analizzatore Lucene per romeno.
ru.microsoft: Analizzatore Microsoft per russo.
ru.lucene: analizzatore Lucene per russo.
sr-cyrillic.microsoft: analizzatore Microsoft per serbo (cirillico).
sr-latin.microsoft: Analizzatore Microsoft per serbo (latino).
sk.microsoft: Analizzatore Microsoft per Slovacchia.
sl.microsoft: Analizzatore Microsoft per sloveno.
es.microsoft: Analizzatore Microsoft per spagnolo.
es.lucene: analizzatore Lucene per spagnolo.
sv.microsoft: Analizzatore Microsoft per svedese.
sv.lucene: analizzatore Lucene per svedese.
ta.microsoft: Analizzatore Microsoft per Tamil.
te.microsoft: Analizzatore Microsoft per Telugu.
th.microsoft: Analizzatore Microsoft per Thai.
th.lucene: analizzatore Lucene per Thai.
tr.microsoft: Analizzatore Microsoft per turco.
tr.lucene: analizzatore Lucene per turco.
uk.microsoft: Analizzatore Microsoft per ucraino.
your.microsoft: Analizzatore Microsoft per Urdu.
vi.microsoft: Analizzatore Microsoft per i vietnamiti.
standard.lucene: analizzatore Lucene standard.
standardasciifolding.lucene: analizzatore lucene di piegatura ASCII standard. Vedere https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
parola chiave: considera l'intero contenuto di un campo come singolo token. Ciò è utile per i dati come i codici postali, ID e alcuni nomi di prodotto. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
pattern: separa in modo flessibile il testo in termini tramite un modello di espressione regolare. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
semplice: divide il testo in lettere non e li converte in minuscolo. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
stop: divide il testo in lettere non lettere; Applica i filtri token minuscoli e stopword. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
whitespace: analizzatore che usa il tokenizzatore di spazi vuoti. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalTokenizer

Contiene i casi possibili per Tokenizer.

LexicalTokenizerName

Definisce i valori per LexicalTokenizerName.
<xref:KnownLexicalTokenizerName> può essere usato in modo intercambiabile con LexicalTokenizerName, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

classico: tokenizzatore basato su grammatica adatto per l'elaborazione della maggior parte dei documenti in lingua europea. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: tokenzza l'input da un bordo in n grammi delle dimensioni specificate. Vedere https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: genera l'intero input come singolo token. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
lettera: divide il testo in lettere non. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
minuscolo: divide il testo in lettere non lettere e li converte in minuscolo. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: divide il testo usando regole specifiche della lingua.
microsoft_language_stemming_tokenizer: divide il testo usando regole specifiche della lingua e riduce le parole alle relative forme di base.
nGram: tokenzza l'input in n-grammi delle dimensioni specificate. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: Tokenizer per gerarchie simili al percorso. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
pattern: tokenizer che usa la corrispondenza del modello regex per costruire token distinti. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: analizzatore Lucene standard; Composto dal tokenizer standard, dal filtro minuscolo e dal filtro di arresto. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: tokenzza gli URL e i messaggi di posta elettronica come un token. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
whitespace: divide il testo in spazi vuoti. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListDataSourceConnectionsOptions

Opzioni per un'operazione di origini dati elenco.

ListIndexersOptions

Opzioni per un'operazione di indicizzatori di elenco.

ListIndexesOptions

Opzioni per un'operazione di indici di elenco.

ListSkillsetsOptions

Opzioni per un'operazione di set di competenze di elenco.

ListSynonymMapsOptions

Opzioni per un'operazione sinonimo di elencoMaps.

MergeDocumentsOptions

Opzioni per l'operazione documenti di tipo merge.

MergeOrUploadDocumentsOptions

Opzioni per l'operazione merge o caricamento di documenti.

MicrosoftStemmingTokenizerLanguage

Definisce i valori per MicrosoftStemmingTokenizerLanguage.

MicrosoftTokenizerLanguage

Definisce i valori per MicrosoftTokenizerLanguage.

NarrowedModel

Restringe il tipo di modello per includere solo i campi selezionati

OcrSkillLanguage

Definisce i linguaggi supportati per OcrSkillKnownOcrSkillLanguage può essere usato in modo intercambiabile con questo tipo

PIIDetectionSkillMaskingMode

Definisce i valori per PIIDetectionSkillMaskingMode.

Valori noti supportati dal servizio

nessuno: non viene restituita alcuna maschera e l'output maskedText non verrà restituito. replace: sostituisce le entità rilevate con il carattere specificato nel parametro maskingCharacter. Il carattere verrà ripetuto alla lunghezza dell'entità rilevata in modo che gli offset corrispondano correttamente sia al testo di input che all'output maskedText.

PhoneticEncoder

Definisce i valori per PhoneticEncoder.

QueryAnswer

Valore che specifica se le risposte devono essere restituite come parte della risposta di ricerca. Questo parametro è valido solo se il tipo di query è "semantico". Se impostata su extractive, la query restituisce le risposte estratte dai passaggi chiave nei documenti classificati più alti.

QueryCaption

Valore che specifica se le didascalie devono essere restituite come parte della risposta di ricerca. Questo parametro è valido solo se il tipo di query è "semantico". Se impostata, la query restituisce didascalie estratte dai passaggi chiave nei documenti classificati più alti. Quando le didascalie sono "estratte", l'evidenziazione è abilitata per impostazione predefinita. Impostazione predefinita su 'nessuno'.

QueryType

Definisce i valori per QueryType.

RegexFlags

Definisce i flag per la corrispondenza dei modelli regex

Valori noti supportati dal servizio

CANON_EQ: abilita l'equivalenza canonica. CASE_INSENSITIVE: abilita la corrispondenza senza distinzione tra maiuscole e minuscole. COMMENTI: consente spazi vuoti e commenti nel modello. DOTALL: abilita la modalità dotall. LETTERALE: abilita l'analisi letterale del modello. MULTILINE: abilita la modalità multilinea. UNICODE_CASE: abilita la riduzione dei case con riconoscimento Unicode. UNIX_LINES: abilita la modalità linee Unix.

ResetIndexerOptions

Opzioni per l'operazione di reimpostazione dell'indicizzatore.

RunIndexerOptions

Opzioni per l'esecuzione dell'operazione dell'indicizzatore.

ScoringFunction

Contiene i casi possibili per ScoringFunction.

ScoringFunctionAggregation

Definisce i valori per ScoringFunctionAggregation.

ScoringFunctionInterpolation

Definisce i valori per ScoringFunctionInterpolation.

ScoringStatistics

Definisce i valori per ScoringStatistics.

SearchField

Rappresenta un campo in una definizione di indice, che descrive il nome, il tipo di dati e il comportamento di ricerca di un campo.

SearchFieldArray

Se TModel è un oggetto non tipizzato, una matrice di stringhe non tipizzata In caso contrario, i campi delimitati da barre di TModel.

SearchFieldDataType

Definisce i valori per SearchFieldDataType. I valori possibili includono: 'Edm.String', 'Edm.Int32', 'Edm.Int64', 'Edm.Double', 'Edm.Boolean', 'Edm.DateTimeOffset', 'Edm.GeographyPoint', 'Collection(Edm.String)', 'Collection(Edm.Int32)', 'Collection(Edm.Int64)', 'Collection(Edm.Double)', 'Collection(Edm.Boolean)', 'Collection(Edm.DateTimeOffset)', 'Collection(Edm.GeographyPoint)', 'Collection(Edm.Single)'

NB: Edm.Single da solo non è un tipo di dati valido. Deve essere usato come parte di un tipo di raccolta.

SearchIndexerDataSourceType
SearchIndexerSkill

Contiene i casi possibili per Skill.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Opzioni per SearchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Opzioni per SearchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Opzioni per SearchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Opzioni per SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Opzioni per SearchIndexingBufferedSenderUploadDocuments.

SearchIterator

Iteratore per i risultati della ricerca di una query paticolare. Le richieste verranno eseguite in base alle esigenze durante l'iterazione. Usare .byPage() per effettuare una richiesta al server per iterazione.

SearchMode

Definisce i valori per SearchMode.

SearchOptions

Opzioni per il commit di una richiesta di ricerca completa.

SearchPick

Selezionare in modo approfondito i campi T usando percorsi OData di Ricerca cognitiva validi $select.

SearchRequestOptions

Parametri per il filtro, l'ordinamento, il facet, il paging e altri comportamenti delle query di ricerca.

SearchRequestQueryTypeOptions
SearchResult

Contiene un documento trovato da una query di ricerca, oltre ai metadati associati.

SelectArray

Se TFields non è mai, una matrice di stringhe non tipizzata In caso contrario, un tipo ristretto Fields[] da usare altrove nel tipo di utilizzo.

SelectFields

Produce un'unione di percorsi OData di Ricerca cognitiva validi $select per T usando un attraversamento post-ordine dell'albero di campo radicato a T.

SemanticErrorMode

parziale: se l'elaborazione semantica ha esito negativo, i risultati parziali vengono comunque restituiti. La definizione dei risultati parziali dipende dal passaggio semantico non riuscito e dal motivo dell'errore.

fail: se si verifica un'eccezione durante il passaggio di elaborazione semantica, la query avrà esito negativo e restituirà il codice HTTP appropriato a seconda dell'errore.

SemanticErrorReason

maxWaitExceeded: se 'semanticMaxWaitInMilliseconds' è stato impostato e la durata dell'elaborazione semantica ha superato tale valore. Vengono restituiti solo i risultati di base.

capacityOverloaded: la richiesta è stata limitata. Vengono restituiti solo i risultati di base.

temporaneo: almeno un passaggio del processo semantico non è riuscito.

SemanticSearchResultsType

baseResults: risultati senza arricchimento semantico o reranking.

rerankedResults: i risultati sono stati classificati nuovamente con il modello reranker e includeranno didascalie semantiche. Non includeranno risposte, risposte evidenziate o didascalia evidenziazioni.

SentimentSkillLanguage

Definisce le lingue supportate per SentimentSkill KnownSentimentSkillLanguage può essere usato in modo intercambiabile con questo tipo

SimilarityAlgorithm

Contiene i possibili casi di somiglianza.

SnowballTokenFilterLanguage

Definisce i valori per SnowballTokenFilterLanguage.

SplitSkillLanguage

Definisce le lingue supportate per SplitSkillKnownSplitSkillLanguage può essere usato in modo intercambiabile con questo tipo

StemmerTokenFilterLanguage

Definisce i valori per StemmerTokenFilterLanguage.

StopwordsList

Definisce i valori per StopwordsList.

SuggestNarrowedModel
SuggestOptions

Opzioni per il recupero di suggerimenti in base a searchText.

SuggestResult

Risultato contenente un documento trovato da una query di suggerimento, oltre ai metadati associati.

TextSplitMode
TextTranslationSkillLanguage

Definisce le lingue supportate per TextTranslationSkillKnownTextTranslationSkillLanguage può essere usato in modo intercambiabile con questo tipo

TokenCharacterKind

Definisce i valori per TokenCharacterKind.

TokenFilter

Contiene i casi possibili per TokenFilter.

TokenFilterName

Definisce i valori per TokenFilterName.
<xref:KnownTokenFilterName> può essere usato in modo intercambiabile con TokenFilterName, questa enumerazione contiene i valori noti supportati dal servizio.

Valori noti supportati dal servizio

arabic_normalization: filtro token che applica il normalizzatore arabo per normalizzare l'ortografia. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
apostrofo: striscia tutti i caratteri dopo un apostrofo (incluso l'apostrofo stesso). Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding: converte caratteri Unicode alfabetici, numerici e simbolici che non sono nei primi 127 caratteri ASCII (il blocco Unicode "Latino di base") negli equivalenti ASCII, se tali equivalenti esistono. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram: forma grandirami di termini CJK generati dal tokenizer standard. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width: normalizza le differenze di larghezza CJK. Piega le varianti fullwidth ASCII nell'equivalente alfabeto latino di base e le varianti Katakana a metà larghezza nell'equivalente Kana. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
classic: rimuove i possessivi inglesi e i punti dagli acronimi. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams: costruire bigram per i termini che si verificano di frequente durante l'indicizzazione. Anche i termini singoli continuano a essere indicizzati, con i digrammi sovrapposti. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2: genera n-grammi delle dimensioni specificate a partire dalla parte anteriore o posteriore di un token di input. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
elisione: rimuove le elisioni. Ad esempio, "l'avion" (piano) verrà convertito in "avion" (piano). Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization: normalizza i caratteri tedeschi in base all'euristica dell'algoritmo snowball german2. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization: normalizza il testo in Hindi per rimuovere alcune differenze nelle varianti ortografiche. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization: normalizza la rappresentazione Unicode del testo nelle lingue indiane. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat: genera ogni token in ingresso due volte, una volta come parola chiave e una volta come parola chiave non. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem: filtro kstem ad alte prestazioni per l'inglese. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
length: rimuove le parole troppo lunghe o troppo corte. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
limit: limita il numero di token durante l'indicizzazione. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
minuscolo: normalizzare il testo del token in minuscolo. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.htm
nGram_v2: genera n-grammi delle dimensioni specificate. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization: applica la normalizzazione per persiano. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
fonetica: creare token per corrispondenze fonetiche. Vedere https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem: usa l'algoritmo porter stemming per trasformare il flusso di token. Vedere http://tartarus.org/~martin/PorterStemmer
inverso: inverte la stringa del token. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization: normalizzare l'uso dei caratteri scandinavi interscambiabili. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding: piega i caratteri scandinavi åÅäæÄÆ-a> e öÖøØ-o>. Discrimina anche l'uso delle vocali doppie aa, ae, ao, oe e oo, lasciando solo la prima. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
shingle: crea combinazioni di token come singolo token. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
snowball: filtro che deriva le parole usando uno stemmer generato da Snowball. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization: normalizzare la rappresentazione Unicode del testo Sorani. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
stemmer: filtro di stemming specifico della lingua. Vedere https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
parole non significative: rimuove le parole di arresto da un flusso di token. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
trim: taglia lo spazio vuoto iniziale e finale dai token. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
tronca: tronca i termini a una lunghezza specifica. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
unique: filtra i token con lo stesso testo del token precedente. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
maiuscolo: normalizzare il testo del token in maiuscolo. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter: suddivide le parole in parole secondarie ed esegue trasformazioni facoltative nei gruppi di sottoword.

UnionToIntersection
UploadDocumentsOptions

Opzioni per l'operazione di caricamento dei documenti.

VectorFilterMode

Determina se i filtri vengono applicati prima o dopo l'esecuzione della ricerca del vettore.

VectorQuery

Parametri di query per query di ricerca ibrida e vettore.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Contiene opzioni di configurazione specifiche dell'algoritmo usato durante l'indicizzazione e/o l'esecuzione di query.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric

Metrica di somiglianza da usare per i confronti vettoriali.

VisualFeature

Enumerazioni

KnownAnalyzerNames

Definisce i valori per AnalyzerName. Vedere https://docs.microsoft.com/rest/api/searchservice/Language-support

KnownBlobIndexerDataToExtract

Valori noti di BlobIndexerDataToExtract accettati dal servizio.

KnownBlobIndexerImageAction

Valori noti di BlobIndexerImageAction accettati dal servizio.

KnownBlobIndexerPDFTextRotationAlgorithm

Valori noti di BlobIndexerPDFTextRotationAlgorithm accettati dal servizio.

KnownBlobIndexerParsingMode

Valori noti di BlobIndexerParsingMode accettati dal servizio.

KnownCharFilterNames

Valori noti di CharFilterName accettati dal servizio.

KnownCustomEntityLookupSkillLanguage

Valori noti di CustomEntityLookupSkillLanguage accettati dal servizio.

KnownEntityCategory

Valori noti di EntityCategory accettati dal servizio.

KnownEntityRecognitionSkillLanguage

Valori noti di EntityRecognitionSkillLanguage accettati dal servizio.

KnownImageAnalysisSkillLanguage

Valori noti di ImageAnalysisSkillLanguage accettati dal servizio.

KnownImageDetail

Valori noti di ImageDetail accettati dal servizio.

KnownKeyPhraseExtractionSkillLanguage

Valori noti di KeyPhraseExtractionSkillLanguage accetta il servizio.

KnownOcrSkillLanguage

Valori noti di OcrSkillLanguage accetta il servizio.

KnownRegexFlags

Valori noti di RegexFlags accettati dal servizio.

KnownSearchAudience

Valori noti per il gruppo di destinatari di ricerca

KnownSearchIndexerDataSourceType

Valori noti di SearchIndexerDataSourceType accettati dal servizio.

KnownSentimentSkillLanguage

Valori noti di SentimentSkillLanguage accetta il servizio.

KnownSplitSkillLanguage

Valori noti di SplitSkillLanguage accettati dal servizio.

KnownTextSplitMode

Valori noti di TextSplitMode accettati dal servizio.

KnownTextTranslationSkillLanguage

Valori noti di TextTranslationSkillLanguage accetta il servizio.

KnownTokenFilterNames

Valori noti di TokenFilterName accettati dal servizio.

KnownTokenizerNames

Valori noti di LexicalTokenizerName accettati dal servizio.

KnownVisualFeature

Valori noti di VisualFeature accettati dal servizio.

Funzioni

createSynonymMapFromFile(string, string)

Metodo helper per creare un oggetto SynonymMap. Si tratta di un solo metodo NodeJS.

odata(TemplateStringsArray, unknown[])

Esegue l'escape di un'espressione di filtro odata per evitare errori con valori letterali stringa di virgolette. Esempio di utilizzo:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Per altre informazioni sulla sintassi supportata, vedere: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

Dettagli funzione

createSynonymMapFromFile(string, string)

Metodo helper per creare un oggetto SynonymMap. Si tratta di un solo metodo NodeJS.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Parametri

name

string

Nome dell'oggetto SynonymMap.

filePath

string

Percorso del file contenente i sinonimi (seperate da nuove righe)

Restituisce

Promise<SynonymMap>

Oggetto SynonymMap

odata(TemplateStringsArray, unknown[])

Esegue l'escape di un'espressione di filtro odata per evitare errori con valori letterali stringa di virgolette. Esempio di utilizzo:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Per altre informazioni sulla sintassi supportata, vedere: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Parametri

strings

TemplateStringsArray

Matrice di stringhe per l'espressione

values

unknown[]

Matrice di valori per l'espressione

Restituisce

string