@azure/search-documents package
Classi
AzureKeyCredential |
Credenziale basata su chiave statica che supporta l'aggiornamento del valore della chiave sottostante. |
GeographyPoint |
Rappresenta un punto geografico nelle coordinate globali. |
IndexDocumentsBatch |
Classe usata per eseguire operazioni batch con più documenti nell'indice. |
SearchClient |
Classe usata per eseguire operazioni su un indice di ricerca, inclusi i documenti di query nell'indice e l'aggiunta, l'aggiornamento e la rimozione. |
SearchIndexClient |
Classe per eseguire operazioni da gestire (creare, aggiornare, elencare/eliminare), indici & sinonimi. |
SearchIndexerClient |
Classe per eseguire operazioni da gestire (creare, aggiornare, elencare/eliminare) indicizzatori, origini dati & set di competenze. |
SearchIndexingBufferedSender |
Classe usata per eseguire operazioni con buffer su un indice di ricerca, tra cui l'aggiunta, l'aggiornamento e la rimozione. |
Interfacce
AnalyzeRequest |
Specifica alcuni componenti di testo e analisi utilizzati per suddividere il testo in token. |
AnalyzeResult |
Risultato del test di un analizzatore sul testo. |
AnalyzedTokenInfo |
Informazioni su un token restituito da un analizzatore. |
AsciiFoldingTokenFilter |
Converte caratteri Unicode alfabetici, numerici e simbolici che non sono nei primi 127 caratteri ASCII (il blocco Unicode "Alfabeto latino di base") nei rispettivi equivalenti ASCII, se tali equivalenti esistono. Questo filtro di token viene implementato usando Apache Lucene. |
AutocompleteItem |
Risultato delle richieste di completamento automatico. |
AutocompleteRequest |
Parametri per la corrispondenza fuzzy e altri comportamenti di query di completamento automatico. |
AutocompleteResult |
Risultato della query di completamento automatico. |
AzureActiveDirectoryApplicationCredentials |
Credenziali di un'applicazione registrata creata per il servizio di ricerca, usata per l'accesso autenticato alle chiavi di crittografia archiviate in Azure Key Vault. |
BM25Similarity |
Funzione di classificazione basata sull'algoritmo di somiglianza Okapi BM25. BM25 è un algoritmo simile a TF-IDF che include la normalizzazione della lunghezza (controllata dal parametro 'b'), nonché la saturazione della frequenza dei termini (controllata dal parametro 'k1'). |
BaseCharFilter |
Tipo di base per i filtri di caratteri. |
BaseCognitiveServicesAccount |
Tipo di base per descrivere qualsiasi risorsa del servizio Di intelligenza artificiale di Azure collegata a un set di competenze. |
BaseDataChangeDetectionPolicy |
Tipo di base per i criteri di rilevamento delle modifiche dei dati. |
BaseDataDeletionDetectionPolicy |
Tipo di base per i criteri di rilevamento dell'eliminazione dei dati. |
BaseLexicalAnalyzer |
Tipo di base per gli analizzatori. |
BaseLexicalTokenizer |
Tipo di base per i tokenizer. |
BaseScoringFunction |
Tipo di base per le funzioni che possono modificare i punteggi del documento durante la classificazione. |
BaseSearchIndexerSkill |
Tipo di base per le competenze. |
BaseSearchRequestOptions |
Parametri per il filtro, l'ordinamento, il facet, il paging e altri comportamenti delle query di ricerca. |
BaseTokenFilter |
Tipo di base per i filtri token. |
BaseVectorQuery |
Parametri di query per query di ricerca ibrida e vettoriali. |
BaseVectorSearchAlgorithmConfiguration |
Contiene opzioni di configurazione specifiche dell'algoritmo utilizzato durante l'indicizzazione e/o l'esecuzione di query. |
CjkBigramTokenFilter |
Forma i bigram dei termini CJK generati dal tokenizer standard. Questo filtro di token viene implementato usando Apache Lucene. |
ClassicSimilarity |
Algoritmo di somiglianza legacy che usa l'implementazione Lucene TFIDFSimilarity di TF-IDF. Questa variante di TF-IDF introduce la normalizzazione della lunghezza dei documenti statici, nonché i fattori di coordinamento che penalizzano i documenti che corrispondono solo parzialmente alle query sottoposte a ricerca. |
ClassicTokenizer |
Tokenizer basato su grammatica adatto per l'elaborazione della maggior parte dei documenti in lingua europea. Questo tokenizer viene implementato usando Apache Lucene. |
CognitiveServicesAccountKey |
Una risorsa del servizio Intelligenza artificiale di Azure di cui è stato effettuato il provisioning con una chiave collegata a un set di competenze. |
CommonGramTokenFilter |
Costruisce digrammi per i termini frequenti durante l'indicizzazione. Anche i termini singoli continuano a essere indicizzati, con i digrammi sovrapposti. Questo filtro di token viene implementato usando Apache Lucene. |
ComplexField |
Rappresenta un campo in una definizione di indice, che descrive il nome, il tipo di dati e il comportamento di ricerca di un campo. |
ConditionalSkill |
Competenza che consente scenari che richiedono un'operazione booleana per determinare i dati da assegnare a un output. |
CorsOptions |
Definisce le opzioni per controllare la condivisione di risorse tra le origini (CORS) per un indice. |
CreateOrUpdateIndexOptions |
Opzioni per l'operazione di creazione/aggiornamento dell'indice. |
CreateOrUpdateSkillsetOptions |
Opzioni per l'operazione di creazione/aggiornamento del set di competenze. |
CreateOrUpdateSynonymMapOptions |
Opzioni per l'operazione create/update synonymmap. |
CreateorUpdateDataSourceConnectionOptions |
Opzioni per l'operazione di creazione/aggiornamento dell'origine dati. |
CreateorUpdateIndexerOptions |
Opzioni per l'operazione di creazione/aggiornamento dell'indicizzatore. |
CustomAnalyzer |
Consente di controllare il processo di conversione del testo in token indicizzabili/ricercabili. Si tratta di una configurazione definita dall'utente costituita da un singolo tokenizzatore predefinito e uno o più filtri. Il tokenizer è responsabile dell'interruzione del testo nei token e dei filtri per la modifica dei token generati dal tokenizer. |
CustomEntity |
Oggetto che contiene informazioni sulle corrispondenze trovate e sui metadati correlati. |
CustomEntityAlias |
Oggetto complesso che può essere usato per specificare ortografiche o sinonimi alternativi per il nome dell'entità radice. |
CustomEntityLookupSkill |
Una competenza cerca testo da un elenco personalizzato definito dall'utente di parole e frasi. |
DefaultCognitiveServicesAccount |
Oggetto vuoto che rappresenta la risorsa predefinita del servizio Di intelligenza artificiale di Azure per un set di competenze. |
DeleteDataSourceConnectionOptions |
Opzioni per l'operazione di eliminazione dell'origine dati. |
DeleteIndexOptions |
Opzioni per l'operazione di eliminazione dell'indice. |
DeleteIndexerOptions |
Opzioni per l'operazione di eliminazione dell'indicizzatore. |
DeleteSkillsetOptions |
Opzioni per l'eliminazione dell'operazione del set di competenze. |
DeleteSynonymMapOptions |
Opzioni per eliminare l'operazione synonymmap. |
DictionaryDecompounderTokenFilter |
Scompone le parole composte presenti in molte lingue germaniche. Questo filtro di token viene implementato usando Apache Lucene. |
DistanceScoringFunction |
Definisce una funzione che aumenta i punteggi in base alla distanza da una posizione geografica. |
DistanceScoringParameters |
Fornisce i valori dei parametri a una funzione di assegnazione dei punteggi per la distanza. |
DocumentExtractionSkill |
Competenza che estrae il contenuto da un file all'interno della pipeline di arricchimento. |
EdgeNGramTokenFilter |
Genera n-grammi delle dimensioni specificate a partire dalla parte anteriore o posteriore di un token di input. Questo filtro di token viene implementato usando Apache Lucene. |
EdgeNGramTokenizer |
Tokenzza l'input da un bordo in n grammi delle dimensioni specificate. Questo tokenizer viene implementato usando Apache Lucene. |
ElisionTokenFilter |
Rimuove le elisioni. Ad esempio, "l'avion" (piano) verrà convertito in "avion" (piano). Questo filtro di token viene implementato usando Apache Lucene. |
EntityLinkingSkill |
Usando l'API Analisi del testo, estrae entità collegate dal testo. |
EntityRecognitionSkill |
Riconoscimento delle entità di Analisi del testo. |
EntityRecognitionSkillV3 |
Usando l'API Analisi del testo, estrae entità di tipi diversi dal testo. |
ExhaustiveKnnParameters |
Contiene i parametri specifici dell'algoritmo KNN completo. |
ExtractiveQueryAnswer |
Estrae i candidati alle risposte dal contenuto dei documenti restituiti in risposta a una query espressa come domanda nel linguaggio naturale. |
ExtractiveQueryCaption |
Estrae le didascalie dai documenti corrispondenti che contengono passaggi rilevanti per la query di ricerca. |
FacetResult |
Un singolo bucket di un risultato della query facet. Segnala il numero di documenti con un valore di campo compreso in un intervallo specifico o con un determinato valore o intervallo. |
FieldMapping |
Definisce un mapping tra un campo in un'origine dati e un campo di destinazione in un indice. |
FieldMappingFunction |
Rappresenta una funzione che trasforma un valore da un'origine dati prima dell'indicizzazione. |
FreshnessScoringFunction |
Definisce una funzione che aumenta i punteggi in base al valore di un campo di data e ora. |
FreshnessScoringParameters |
Fornisce i valori dei parametri a una funzione di assegnazione dei punteggi di aggiornamento. |
GetDocumentOptions |
Opzioni per il recupero di un singolo documento. |
HighWaterMarkChangeDetectionPolicy |
Definisce un criterio di rilevamento delle modifiche dei dati che acquisisce le modifiche in base al valore di una colonna del contrassegno di acqua elevata. |
HnswParameters |
Contiene i parametri specifici dell'algoritmo hnsw. |
ImageAnalysisSkill |
Competenza che analizza i file di immagine. Estrae un set completo di funzionalità visive basate sul contenuto dell'immagine. |
IndexDocumentsClient |
Client di documenti di indice |
IndexDocumentsOptions |
Opzioni per l'operazione modifica batch dell'indice. |
IndexDocumentsResult |
Risposta contenente lo stato delle operazioni per tutti i documenti nella richiesta di indicizzazione. |
IndexerExecutionResult |
Rappresenta il risultato di una singola esecuzione dell'indicizzatore. |
IndexingParameters |
Rappresenta i parametri per l'esecuzione dell'indicizzatore. |
IndexingParametersConfiguration |
Dizionario delle proprietà di configurazione specifiche dell'indicizzatore. Ogni nome è il nome di una proprietà specifica. Ogni valore deve essere di un tipo primitivo. |
IndexingResult |
Stato di un'operazione di indicizzazione per un singolo documento. |
IndexingSchedule |
Rappresenta una pianificazione per l'esecuzione dell'indicizzatore. |
InputFieldMappingEntry |
Mapping dei campi di input per una competenza. |
KeepTokenFilter |
Filtro token che mantiene solo i token con testo contenuto in un elenco specificato di parole. Questo filtro di token viene implementato usando Apache Lucene. |
KeyPhraseExtractionSkill |
Competenza che usa l'analisi del testo per l'estrazione di frasi chiave. |
KeywordMarkerTokenFilter |
Contrassegna i termini come parole chiave. Questo filtro di token viene implementato usando Apache Lucene. |
KeywordTokenizer |
Genera l'intero input come token singolo. Questo tokenizer viene implementato usando Apache Lucene. |
LanguageDetectionSkill |
Competenza che rileva la lingua di testo di input e segnala un singolo codice linguistico per ogni documento inviato nella richiesta. Il codice del linguaggio è associato a un punteggio che indica l'attendibilità dell'analisi. |
LengthTokenFilter |
Rimuove le parole troppo lunghe o troppo corte. Questo filtro token viene implementato usando Apache Lucene. |
LimitTokenFilter |
Limita il numero di token durante l'indicizzazione. Questo filtro token viene implementato usando Apache Lucene. |
ListSearchResultsPageSettings |
Argomenti per il recupero della pagina successiva dei risultati della ricerca. |
LuceneStandardAnalyzer |
Analizzatore Apache Lucene standard; Composto dal tokenizer standard, dal filtro minuscolo e dal filtro di arresto. |
LuceneStandardTokenizer |
Suddivide il testo in base alle regole di segmentazione del testo Unicode. Questo tokenizzatore viene implementato usando Apache Lucene. |
MagnitudeScoringFunction |
Definisce una funzione che aumenta i punteggi in base alla grandezza di un campo numerico. |
MagnitudeScoringParameters |
Fornisce i valori dei parametri a una funzione di assegnazione dei punteggi di grandezza. |
MappingCharFilter |
Filtro di caratteri che applica mapping definiti con l'opzione mapping. La corrispondenza è greedy. I criteri di ricerca più lunghi in un determinato punto hanno la precedenza. È consentita la sostituzione con una stringa vuota. Questo filtro di caratteri viene implementato usando Apache Lucene. |
MergeSkill |
Una competenza per l'unione di due o più stringhe in una singola stringa unificata, con un delimitatore definito dall'utente facoltativo che separa ogni parte del componente. |
MicrosoftLanguageStemmingTokenizer |
Divide il testo usando regole specifiche della lingua e riduce le parole alle relative forme di base. |
MicrosoftLanguageTokenizer |
Divide il testo usando le regole specifiche della lingua. |
NGramTokenFilter |
Genera n-grammi delle dimensioni specificate. Questo filtro token viene implementato usando Apache Lucene. |
NGramTokenizer |
Suddivide in token l'input in n-grammi di determinate dimensioni. Questo tokenizzatore viene implementato usando Apache Lucene. |
OcrSkill |
Competenza che estrae il testo dai file di immagine. |
OutputFieldMappingEntry |
Mapping dei campi di output per una competenza. |
PIIDetectionSkill |
Usando l'API Analisi del testo, estrae informazioni personali da un testo di input e offre l'opzione di mascherarla. |
PathHierarchyTokenizer |
Tokenizer per le gerarchie di tipo percorso. Questo tokenizzatore viene implementato usando Apache Lucene. |
PatternAnalyzer |
Separa in modo flessibile il testo in termini tramite un modello di espressione regolare. Questo analizzatore viene implementato usando Apache Lucene. |
PatternCaptureTokenFilter |
Usa regexes Java per generare più token, uno per ogni gruppo di acquisizione in uno o più modelli. Questo filtro token viene implementato usando Apache Lucene. |
PatternReplaceCharFilter |
Filtro di caratteri che sostituisce i caratteri nella stringa di input. Usa un'espressione regolare per identificare le sequenze di caratteri da conservare e un criterio di sostituzione per identificare i caratteri da sostituire. Ad esempio, dato il testo di input "aa bb aa bb", pattern "(aa)\s+(bb)" e sostituzione "$1#$2", il risultato sarà "aa#bb aa#bb aa#bb". Questo filtro di caratteri viene implementato usando Apache Lucene. |
PatternReplaceTokenFilter |
Filtro di caratteri che sostituisce i caratteri nella stringa di input. Usa un'espressione regolare per identificare le sequenze di caratteri da conservare e un criterio di sostituzione per identificare i caratteri da sostituire. Ad esempio, dato il testo di input "aa bb aa bb", pattern "(aa)\s+(bb)" e sostituzione "$1#$2", il risultato sarà "aa#bb aa#bb aa#bb". Questo filtro token viene implementato usando Apache Lucene. |
PatternTokenizer |
Tokenizer che usa il modello regex corrispondente per costruire token distinti. Questo tokenizzatore viene implementato usando Apache Lucene. |
PhoneticTokenFilter |
Crea i token per le corrispondenze fonetiche. Questo filtro token viene implementato usando Apache Lucene. |
QueryAnswerResult |
Una risposta è un passaggio di testo estratto dal contenuto dei documenti più rilevanti che corrispondono alla query. Le risposte vengono estratte dai risultati principali della ricerca. I candidati alla risposta vengono assegnati punteggi e le risposte principali sono selezionate. |
QueryCaptionResult |
Le didascalie sono i passaggi più rappresentativi del documento relativamente alla query di ricerca. Vengono spesso usati come riepilogo dei documenti. Le didascalie vengono restituite solo per le query di tipo |
ResourceCounter |
Rappresenta l'utilizzo e la quota di una risorsa. |
ScoringProfile |
Definisce i parametri per un indice di ricerca che influisce sul punteggio nelle query di ricerca. |
SearchClientOptions |
Opzioni client usate per configurare le richieste api di ricerca cognitiva. |
SearchDocumentsPageResult |
Risposta contenente i risultati della pagina di ricerca da un indice. |
SearchDocumentsResult |
Risposta contenente i risultati della ricerca da un indice. |
SearchDocumentsResultBase |
Risposta contenente i risultati della ricerca da un indice. |
SearchIndex |
Rappresenta una definizione dell'indice di ricerca, che descrive i campi e il comportamento di ricerca di un indice. |
SearchIndexClientOptions |
Opzioni client usate per configurare le richieste api di ricerca cognitiva. |
SearchIndexStatistics |
Statistiche per un determinato indice. Le statistiche vengono raccolte periodicamente e non sono sempre aggiornate. |
SearchIndexer |
Rappresenta un indicizzatore. |
SearchIndexerClientOptions |
Opzioni client usate per configurare le richieste api di ricerca cognitiva. |
SearchIndexerDataContainer |
Rappresenta informazioni sull'entità , ad esempio Azure SQL tabella o raccolta CosmosDB, indicizzate. |
SearchIndexerDataSourceConnection |
Rappresenta una definizione dell'origine dati, che può essere usata per configurare un indicizzatore. |
SearchIndexerError |
Rappresenta un errore di indicizzazione a livello dell'elemento o del documento. |
SearchIndexerKnowledgeStore |
Definizione di proiezioni aggiuntive per BLOB, tabelle o file di azure, di dati arricchiti. |
SearchIndexerKnowledgeStoreBlobProjectionSelector |
Classe astratta per condividere le proprietà tra selettori concreti. |
SearchIndexerKnowledgeStoreFileProjectionSelector |
Definizione di proiezione per i dati da archiviare in File di Azure. |
SearchIndexerKnowledgeStoreObjectProjectionSelector |
Definizione di proiezione per i dati da archiviare in BLOB di Azure. |
SearchIndexerKnowledgeStoreProjection |
Oggetto contenitore per vari selettore di proiezione. |
SearchIndexerKnowledgeStoreProjectionSelector |
Classe astratta per condividere le proprietà tra selettori concreti. |
SearchIndexerKnowledgeStoreTableProjectionSelector |
Descrizione per i dati da archiviare nelle tabelle di Azure. |
SearchIndexerLimits | |
SearchIndexerSkillset |
Elenco di competenze. |
SearchIndexerStatus |
Rappresenta lo stato corrente e la cronologia di esecuzione di un indicizzatore. |
SearchIndexerWarning |
Rappresenta un avviso a livello di elemento. |
SearchIndexingBufferedSenderOptions |
Opzioni per SearchIndexingBufferedSender. |
SearchResourceEncryptionKey |
Chiave di crittografia gestita dal cliente in Azure Key Vault. Le chiavi create e gestite possono essere usate per crittografare o decrittografare i dati inattivi in Ricerca cognitiva di Azure, ad esempio indici e mappe sinonimi. |
SearchServiceStatistics |
Risposta da una richiesta di statistiche del servizio. In caso di esito positivo, include contatori e limiti a livello di servizio. |
SearchSuggester |
Definisce il modo in cui l'API Suggerisci deve essere applicata a un gruppo di campi nell'indice. |
SemanticConfiguration |
Definisce una configurazione specifica da usare nel contesto delle funzionalità semantiche. |
SemanticField |
Campo utilizzato come parte della configurazione semantica. |
SemanticPrioritizedFields |
Descrive i campi titolo, contenuto e parole chiave da usare per la classificazione semantica, le didascalie, le evidenziazioni e le risposte. |
SemanticSearch |
Definisce i parametri per un indice di ricerca che influiscono sulle funzionalità semantiche. |
SemanticSearchOptions |
Definisce le opzioni per le query di ricerca semantica |
SentimentSkill |
Analisi del testo analisi del sentiment positivo-negativo, con punteggio come valore a virgola mobile in un intervallo da zero a 1. |
SentimentSkillV3 |
Usando l'API Analisi del testo, valuta il testo non strutturato e per ogni record, fornisce etichette del sentiment (ad esempio "negative", "neutral" e "positive") in base al punteggio di attendibilità più alto trovato dal servizio a livello di frase e documento. |
ServiceCounters |
Rappresenta i contatori e le quote delle risorse a livello di servizio. |
ServiceLimits |
Rappresenta vari limiti del livello di servizio. |
ShaperSkill |
Competenza per la rimodellizione degli output. Crea un tipo complesso per supportare i campi compositi (noti anche come campi multipart). |
ShingleTokenFilter |
Crea combinazioni di token come token singolo. Questo filtro di token viene implementato usando Apache Lucene. |
Similarity |
Tipo di base per algoritmi di somiglianza. Gli algoritmi di somiglianza vengono usati per calcolare i punteggi che associano le query ai documenti. Maggiore è il punteggio, più rilevante è il documento per la query specifica. Questi punteggi vengono usati per classificare i risultati della ricerca. |
SimpleField |
Rappresenta un campo in una definizione di indice, che descrive il nome, il tipo di dati e il comportamento di ricerca di un campo. |
SnowballTokenFilter |
Filtro che deriva le parole usando uno stemmer generato da Snowball. Questo filtro di token viene implementato usando Apache Lucene. |
SoftDeleteColumnDeletionDetectionPolicy |
Definisce un criterio di rilevamento dell'eliminazione dei dati che implementa una strategia di eliminazione temporanea. Determina se un elemento deve essere eliminato in base al valore di una colonna "eliminazione temporanea" designata. |
SplitSkill |
Competenza per suddividere una stringa in blocchi di testo. |
SqlIntegratedChangeTrackingPolicy |
Definisce un criterio di rilevamento delle modifiche dei dati che acquisisce le modifiche usando la funzionalità Integrata Rilevamento modifiche di Azure SQL Database. |
StemmerOverrideTokenFilter |
Consente di eseguire l'override di altri filtri di stemming con stemming basato su dizionario personalizzato. Tutti i termini con stemmy vengono contrassegnati come parole chiave in modo che non vengano stemmati lungo la catena. Da inserire prima dei filtri di stemming. Questo filtro di token viene implementato usando Apache Lucene. |
StemmerTokenFilter |
Filtro di stemming specifico della lingua. Questo filtro di token viene implementato usando Apache Lucene. |
StopAnalyzer |
Divide il testo in corrispondenza di non lettere; Applica i filtri token minuscoli e non significative. Questo analizzatore viene implementato usando Apache Lucene. |
StopwordsTokenFilter |
Rimuove le parole non significative da un flusso di token. Questo filtro di token viene implementato usando Apache Lucene. |
SuggestDocumentsResult |
Risposta contenente i risultati della query di suggerimento da un indice. |
SuggestRequest |
Parametri per il filtro, l'ordinamento, la corrispondenza fuzzy e altri comportamenti di query di suggerimenti. |
SynonymMap |
Rappresenta una definizione di mappa sinonimo. |
SynonymTokenFilter |
Trova la corrispondenza di sinonimi con una o più parole in un flusso di token. Questo filtro di token viene implementato usando Apache Lucene. |
TagScoringFunction |
Definisce una funzione che aumenta i punteggi di documenti con valori stringa corrispondenti a un determinato elenco di tag. |
TagScoringParameters |
Fornisce i valori dei parametri a una funzione di assegnazione dei punteggi di tag. |
TextTranslationSkill |
Competenza per tradurre il testo da una lingua a un'altra. |
TextWeights |
Definisce i pesi nei campi di indice per i quali le corrispondenze devono aumentare il punteggio nelle query di ricerca. |
TruncateTokenFilter |
Tronca i termini a una lunghezza specifica. Questo filtro token viene implementato usando Apache Lucene. |
UaxUrlEmailTokenizer |
Suddivide in token gli URL e gli indirizzi di posta elettronica come un unico token. Questo tokenizzatore viene implementato usando Apache Lucene. |
UniqueTokenFilter |
Filtra i token con lo stesso testo del token precedente. Questo filtro token viene implementato usando Apache Lucene. |
VectorSearch |
Contiene opzioni di configurazione correlate alla ricerca vettoriale. |
VectorSearchOptions |
Definisce le opzioni per le query di ricerca vettoriali |
VectorSearchProfile |
Definisce una combinazione di configurazioni da usare con la ricerca vettoriale. |
VectorizedQuery |
Parametri di query da usare per la ricerca vettoriale quando viene fornito un valore vettore non elaborato. |
WebApiSkill |
Una competenza che può chiamare un endpoint API Web, consentendo di estendere un set di competenze chiamando il codice personalizzato. |
WordDelimiterTokenFilter |
Suddivide le parole in sottoparole ed esegue trasformazioni facoltative sui gruppi di sottoparole. Questo filtro token viene implementato usando Apache Lucene. |
Alias tipo
AnalyzeTextOptions |
Opzioni per l'operazione di analisi del testo. |
AutocompleteMode |
Definisce i valori per AutocompleteMode. |
AutocompleteOptions |
Opzioni per il recupero del testo di completamento per un oggetto searchText parziale. |
BlobIndexerDataToExtract |
Valori noti supportati dal serviziostorageMetadata: indicizza solo le proprietà del BLOB standard e i metadati specificati dall'utente. allMetadata: estrae i metadati forniti dal sottosistema di archiviazione BLOB di Azure e i metadati specifici del tipo di contenuto, ad esempio i metadati univoci per .png file vengono indicizzati. contentAndMetadata: estrae tutti i metadati e il contenuto testuale da ogni BLOB. |
BlobIndexerImageAction |
Valori noti supportati dal servizionone: ignora le immagini incorporate o i file di immagine nel set di dati. Questo è il valore predefinito. generateNormalizedImages: estrae testo dalle immagini (ad esempio, la parola "STOP" da un segno di arresto del traffico) e la incorpora nel campo contenuto. Questa azione richiede che "dataToExtract" sia impostato su "contentAndMetadata". Un'immagine normalizzata si riferisce a un'ulteriore elaborazione, con conseguente output uniforme dell'immagine, ridimensionata e ruotata per promuovere il rendering coerente quando si includono immagini nei risultati della ricerca visiva. Queste informazioni vengono generate per ogni immagine quando si usa questa opzione. generateNormalizedImagePerPage: estrae testo dalle immagini (ad esempio, la parola "STOP" da un segno di arresto del traffico) e la incorpora nel campo contenuto, ma considera i file PDF in modo diverso in quanto ogni pagina verrà sottoposta a rendering come immagine e normalizzata di conseguenza, anziché estrarre immagini incorporate. I tipi di file non PDF verranno trattati come se fosse impostato "generateNormalizedImages". |
BlobIndexerPDFTextRotationAlgorithm |
Valori noti supportati dal servizionone: sfrutta l'estrazione normale del testo. Questo è il valore predefinito. detectAngles: può produrre un'estrazione di testo migliore e leggibile da file PDF con testo ruotato all'interno di essi. Si noti che può verificarsi un impatto ridotto sulla velocità delle prestazioni quando si usa questo parametro. Questo parametro si applica solo ai file PDF e solo ai PDF con testo incorporato. Se il testo ruotato viene visualizzato all'interno di un'immagine incorporata nel PDF, questo parametro non si applica. |
BlobIndexerParsingMode |
Valori noti supportati dal serviziodefault: impostato su predefinito per l'elaborazione normale dei file. text: impostare su testo per migliorare le prestazioni di indicizzazione nei file di testo normale nell'archivio BLOB. delimitedText: impostare su delimitedText quando i BLOB sono file CSV semplici. json: impostare su json per estrarre il contenuto strutturato dai file JSON. jsonArray: impostare su jsonArray per estrarre singoli elementi di una matrice JSON come documenti separati in Ricerca cognitiva di Azure. jsonLines: impostare su jsonLines per estrarre singole entità JSON, separate da una nuova riga, come documenti separati in Ricerca cognitiva di Azure. |
CharFilter |
Contiene i possibili case per CharFilter. |
CharFilterName |
Definisce i valori per CharFilterName. Valori noti supportati dal serviziohtml_strip: filtro di caratteri che tenta di rimuovere i costrutti HTML. Vedere https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
CjkBigramTokenFilterScripts |
Definisce i valori per CjkBigramTokenFilterScripts. |
CognitiveServicesAccount |
Contiene i casi possibili per CognitiveServicesAccount. |
ComplexDataType |
Definisce i valori per ComplexDataType. I valori possibili includono: 'Edm.ComplexType', 'Collection(Edm.ComplexType)' |
CountDocumentsOptions |
Opzioni per eseguire l'operazione di conteggio sull'indice. |
CreateDataSourceConnectionOptions |
Opzioni per l'operazione di creazione dell'origine dati. |
CreateIndexOptions |
Opzioni per l'operazione di creazione dell'indice. |
CreateIndexerOptions |
Opzioni per l'operazione di creazione dell'indicizzatore. |
CreateSkillsetOptions |
Opzioni per la creazione dell'operazione del set di competenze. |
CreateSynonymMapOptions |
Opzioni per creare l'operazione synonymmap. |
CustomEntityLookupSkillLanguage |
Definisce le lingue supportate per CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage può essere usato in modo intercambiabile con questo tipo |
DataChangeDetectionPolicy |
Contiene i possibili casi per DataChangeDetectionPolicy. |
DataDeletionDetectionPolicy |
Contiene i possibili case per DataDeletionDetectionPolicy. |
DeleteDocumentsOptions |
Opzioni per l'operazione di eliminazione dei documenti. |
EdgeNGramTokenFilterSide |
Definisce i valori per EdgeNGramTokenFilterSide. |
EntityCategory | |
EntityRecognitionSkillLanguage |
Definisce le lingue supportate per EntityRecognitionSkillKnownEntityRecognitionSkillLanguage può essere usato in modo intercambiabile con questo tipo |
ExcludedODataTypes | |
ExhaustiveKnnAlgorithmConfiguration |
Contiene opzioni di configurazione specifiche dell'algoritmo KNN completo usato durante l'esecuzione di query, che eseguirà la ricerca di forza bruta nell'intero indice vettoriale. |
ExtractDocumentKey | |
GetDataSourceConnectionOptions |
Opzioni per l'operazione get datasource. |
GetIndexOptions |
Opzioni per l'operazione get index. |
GetIndexStatisticsOptions |
Opzioni per l'operazione get index statistics. |
GetIndexerOptions |
Opzioni per l'operazione di recupero dell'indicizzatore. |
GetIndexerStatusOptions |
Opzioni per ottenere l'operazione di stato dell'indicizzatore. |
GetServiceStatisticsOptions |
Opzioni per l'operazione di recupero delle statistiche del servizio. |
GetSkillSetOptions |
Opzioni per ottenere l'operazione del set di competenze. |
GetSynonymMapsOptions |
Opzioni per l'operazione get synonymmaps. |
HnswAlgorithmConfiguration |
Contiene opzioni di configurazione specifiche dell'algoritmo hnsw vicino più vicino utilizzato durante l'indicizzazione. |
ImageAnalysisSkillLanguage |
Definisce i linguaggi supportati per ImageAnalysisSkillKnownImageAnalysisSkillLanguage può essere usato in modo intercambiabile con questo tipo |
ImageDetail | |
IndexActionType |
Definisce i valori per IndexActionType. |
IndexDocumentsAction |
Rappresenta un'azione di indice che opera su un documento. |
IndexIterator |
Iteratore per elencare gli indici presenti nel servizio di ricerca. Le richieste verranno inviate in base alle esigenze durante l'iterazione. Usare .byPage() per effettuare una richiesta al server per ogni iterazione. |
IndexNameIterator |
Iteratore per elencare gli indici presenti nel servizio di ricerca. Le richieste verranno inviate in base alle esigenze durante l'iterazione. Usare .byPage() per effettuare una richiesta al server per ogni iterazione. |
IndexerExecutionEnvironment |
Valori noti supportati dal serviziostandard: indica che Ricerca cognitiva di Azure può determinare dove deve essere eseguito l'indicizzatore. Si tratta dell'ambiente predefinito quando non viene specificato nulla ed è il valore consigliato. private: indica che l'indicizzatore deve essere eseguito con l'ambiente di cui è stato effettuato il provisioning in modo specifico per il servizio di ricerca. Deve essere specificato come ambiente di esecuzione solo se l'indicizzatore deve accedere in modo sicuro alle risorse tramite collegamenti privati condivisi. |
IndexerExecutionStatus |
Definisce i valori per IndexerExecutionStatus. |
IndexerStatus |
Definisce i valori per IndexerStatus. |
KeyPhraseExtractionSkillLanguage |
Definisce i linguaggi supportati per KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage può essere usato in modo intercambiabile con questo tipo |
LexicalAnalyzer |
Contiene i possibili casi per Analizzatore. |
LexicalAnalyzerName |
Definisce i valori per LexicalAnalyzerName. Valori noti supportati dal servizioar.microsoft: Analizzatore Microsoft per l'arabo. |
LexicalTokenizer |
Contiene i casi possibili per Tokenizer. |
LexicalTokenizerName |
Definisce i valori per LexicalTokenizerName. Valori noti supportati dal servizioclassico: tokenizzatore basato su grammatica adatto per l'elaborazione della maggior parte dei documenti in lingua europea. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html |
ListDataSourceConnectionsOptions |
Opzioni per un'operazione di origini dati elenco. |
ListIndexersOptions |
Opzioni per un'operazione di indicizzatori di elenco. |
ListIndexesOptions |
Opzioni per un'operazione di indici di elenco. |
ListSkillsetsOptions |
Opzioni per un'operazione di set di competenze di elenco. |
ListSynonymMapsOptions |
Opzioni per un'operazione sinonimo di elencoMaps. |
MergeDocumentsOptions |
Opzioni per l'operazione documenti di tipo merge. |
MergeOrUploadDocumentsOptions |
Opzioni per l'operazione merge o caricamento di documenti. |
MicrosoftStemmingTokenizerLanguage |
Definisce i valori per MicrosoftStemmingTokenizerLanguage. |
MicrosoftTokenizerLanguage |
Definisce i valori per MicrosoftTokenizerLanguage. |
NarrowedModel |
Restringe il tipo di modello per includere solo i campi selezionati |
OcrSkillLanguage |
Definisce i linguaggi supportati per OcrSkillKnownOcrSkillLanguage può essere usato in modo intercambiabile con questo tipo |
PIIDetectionSkillMaskingMode |
Definisce i valori per PIIDetectionSkillMaskingMode. Valori noti supportati dal servizionessuno: non viene restituita alcuna maschera e l'output maskedText non verrà restituito. replace: sostituisce le entità rilevate con il carattere specificato nel parametro maskingCharacter. Il carattere verrà ripetuto alla lunghezza dell'entità rilevata in modo che gli offset corrispondano correttamente sia al testo di input che all'output maskedText. |
PhoneticEncoder |
Definisce i valori per PhoneticEncoder. |
QueryAnswer |
Valore che specifica se le risposte devono essere restituite come parte della risposta di ricerca.
Questo parametro è valido solo se il tipo di query è "semantico". Se impostata su |
QueryCaption |
Valore che specifica se le didascalie devono essere restituite come parte della risposta di ricerca. Questo parametro è valido solo se il tipo di query è "semantico". Se impostata, la query restituisce didascalie estratte dai passaggi chiave nei documenti classificati più alti. Quando le didascalie sono "estratte", l'evidenziazione è abilitata per impostazione predefinita. Impostazione predefinita su 'nessuno'. |
QueryType |
Definisce i valori per QueryType. |
RegexFlags |
Definisce i flag per la corrispondenza dei modelli regex Valori noti supportati dal servizioCANON_EQ: abilita l'equivalenza canonica. CASE_INSENSITIVE: abilita la corrispondenza senza distinzione tra maiuscole e minuscole. COMMENTI: consente spazi vuoti e commenti nel modello. DOTALL: abilita la modalità dotall. LETTERALE: abilita l'analisi letterale del modello. MULTILINE: abilita la modalità multilinea. UNICODE_CASE: abilita la riduzione dei case con riconoscimento Unicode. UNIX_LINES: abilita la modalità linee Unix. |
ResetIndexerOptions |
Opzioni per l'operazione di reimpostazione dell'indicizzatore. |
RunIndexerOptions |
Opzioni per l'esecuzione dell'operazione dell'indicizzatore. |
ScoringFunction |
Contiene i casi possibili per ScoringFunction. |
ScoringFunctionAggregation |
Definisce i valori per ScoringFunctionAggregation. |
ScoringFunctionInterpolation |
Definisce i valori per ScoringFunctionInterpolation. |
ScoringStatistics |
Definisce i valori per ScoringStatistics. |
SearchField |
Rappresenta un campo in una definizione di indice, che descrive il nome, il tipo di dati e il comportamento di ricerca di un campo. |
SearchFieldArray |
Se |
SearchFieldDataType |
Definisce i valori per SearchFieldDataType. I valori possibili includono: 'Edm.String', 'Edm.Int32', 'Edm.Int64', 'Edm.Double', 'Edm.Boolean', 'Edm.DateTimeOffset', 'Edm.GeographyPoint', 'Collection(Edm.String)', 'Collection(Edm.Int32)', 'Collection(Edm.Int64)', 'Collection(Edm.Double)', 'Collection(Edm.Boolean)', 'Collection(Edm.DateTimeOffset)', 'Collection(Edm.GeographyPoint)', 'Collection(Edm.Single)' NB: |
SearchIndexerDataSourceType | |
SearchIndexerSkill |
Contiene i casi possibili per Skill. |
SearchIndexingBufferedSenderDeleteDocumentsOptions |
Opzioni per SearchIndexingBufferedSenderDeleteDocuments. |
SearchIndexingBufferedSenderFlushDocumentsOptions |
Opzioni per SearchIndexingBufferedSenderFlushDocuments. |
SearchIndexingBufferedSenderMergeDocumentsOptions |
Opzioni per SearchIndexingBufferedSenderMergeDocuments. |
SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions |
Opzioni per SearchIndexingBufferedSenderMergeOrUploadDocuments. |
SearchIndexingBufferedSenderUploadDocumentsOptions |
Opzioni per SearchIndexingBufferedSenderUploadDocuments. |
SearchIterator |
Iteratore per i risultati della ricerca di una query paticolare. Le richieste verranno eseguite in base alle esigenze durante l'iterazione. Usare .byPage() per effettuare una richiesta al server per iterazione. |
SearchMode |
Definisce i valori per SearchMode. |
SearchOptions |
Opzioni per il commit di una richiesta di ricerca completa. |
SearchPick |
Selezionare in modo approfondito i campi T usando percorsi OData di Ricerca cognitiva validi $select. |
SearchRequestOptions |
Parametri per il filtro, l'ordinamento, il facet, il paging e altri comportamenti delle query di ricerca. |
SearchRequestQueryTypeOptions | |
SearchResult |
Contiene un documento trovato da una query di ricerca, oltre ai metadati associati. |
SelectArray |
Se |
SelectFields |
Produce un'unione di percorsi OData di Ricerca cognitiva validi $select per T usando un attraversamento post-ordine dell'albero di campo radicato a T. |
SemanticErrorMode |
parziale: se l'elaborazione semantica ha esito negativo, i risultati parziali vengono comunque restituiti. La definizione dei risultati parziali dipende dal passaggio semantico non riuscito e dal motivo dell'errore. fail: se si verifica un'eccezione durante il passaggio di elaborazione semantica, la query avrà esito negativo e restituirà il codice HTTP appropriato a seconda dell'errore. |
SemanticErrorReason |
maxWaitExceeded: se 'semanticMaxWaitInMilliseconds' è stato impostato e la durata dell'elaborazione semantica ha superato tale valore. Vengono restituiti solo i risultati di base. capacityOverloaded: la richiesta è stata limitata. Vengono restituiti solo i risultati di base. temporaneo: almeno un passaggio del processo semantico non è riuscito. |
SemanticSearchResultsType |
baseResults: risultati senza arricchimento semantico o reranking. rerankedResults: i risultati sono stati classificati nuovamente con il modello reranker e includeranno didascalie semantiche. Non includeranno risposte, risposte evidenziate o didascalia evidenziazioni. |
SentimentSkillLanguage |
Definisce le lingue supportate per SentimentSkill KnownSentimentSkillLanguage può essere usato in modo intercambiabile con questo tipo |
SimilarityAlgorithm |
Contiene i possibili casi di somiglianza. |
SnowballTokenFilterLanguage |
Definisce i valori per SnowballTokenFilterLanguage. |
SplitSkillLanguage |
Definisce le lingue supportate per SplitSkillKnownSplitSkillLanguage può essere usato in modo intercambiabile con questo tipo |
StemmerTokenFilterLanguage |
Definisce i valori per StemmerTokenFilterLanguage. |
StopwordsList |
Definisce i valori per StopwordsList. |
SuggestNarrowedModel | |
SuggestOptions |
Opzioni per il recupero di suggerimenti in base a searchText. |
SuggestResult |
Risultato contenente un documento trovato da una query di suggerimento, oltre ai metadati associati. |
TextSplitMode | |
TextTranslationSkillLanguage |
Definisce le lingue supportate per TextTranslationSkillKnownTextTranslationSkillLanguage può essere usato in modo intercambiabile con questo tipo |
TokenCharacterKind |
Definisce i valori per TokenCharacterKind. |
TokenFilter |
Contiene i casi possibili per TokenFilter. |
TokenFilterName |
Definisce i valori per TokenFilterName. Valori noti supportati dal servizioarabic_normalization: filtro token che applica il normalizzatore arabo per normalizzare l'ortografia. Vedere http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html |
UnionToIntersection | |
UploadDocumentsOptions |
Opzioni per l'operazione di caricamento dei documenti. |
VectorFilterMode |
Determina se i filtri vengono applicati prima o dopo l'esecuzione della ricerca del vettore. |
VectorQuery |
Parametri di query per query di ricerca ibrida e vettore. |
VectorQueryKind | |
VectorSearchAlgorithmConfiguration |
Contiene opzioni di configurazione specifiche dell'algoritmo usato durante l'indicizzazione e/o l'esecuzione di query. |
VectorSearchAlgorithmKind | |
VectorSearchAlgorithmMetric |
Metrica di somiglianza da usare per i confronti vettoriali. |
VisualFeature |
Enumerazioni
Funzioni
create |
Metodo helper per creare un oggetto SynonymMap. Si tratta di un solo metodo NodeJS. |
odata(Template |
Esegue l'escape di un'espressione di filtro odata per evitare errori con valori letterali stringa di virgolette. Esempio di utilizzo:
Per altre informazioni sulla sintassi supportata, vedere: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter |
Dettagli funzione
createSynonymMapFromFile(string, string)
Metodo helper per creare un oggetto SynonymMap. Si tratta di un solo metodo NodeJS.
function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>
Parametri
- name
-
string
Nome dell'oggetto SynonymMap.
- filePath
-
string
Percorso del file contenente i sinonimi (seperate da nuove righe)
Restituisce
Promise<SynonymMap>
Oggetto SynonymMap
odata(TemplateStringsArray, unknown[])
Esegue l'escape di un'espressione di filtro odata per evitare errori con valori letterali stringa di virgolette. Esempio di utilizzo:
const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;
Per altre informazioni sulla sintassi supportata, vedere: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter
function odata(strings: TemplateStringsArray, values: unknown[]): string
Parametri
- strings
-
TemplateStringsArray
Matrice di stringhe per l'espressione
- values
-
unknown[]
Matrice di valori per l'espressione
Restituisce
string