@azure/search-documents package

Kelas

AzureKeyCredential

Kredensial berbasis kunci statis yang mendukung pembaruan nilai kunci yang mendasar.

GeographyPoint

Mewakili titik geografis dalam koordinat global.

IndexDocumentsBatch

Kelas yang digunakan untuk melakukan operasi batch dengan beberapa dokumen ke indeks.

SearchClient

Kelas yang digunakan untuk melakukan operasi terhadap indeks pencarian, termasuk mengkueri dokumen dalam indeks serta menambahkan, memperbarui, dan menghapusnya.

SearchIndexClient

Kelas untuk melakukan operasi untuk mengelola (membuat, memperbarui, mencantumkan/menghapus) indeks, & sinonim.

SearchIndexerClient

Kelas untuk melakukan operasi untuk mengelola (membuat, memperbarui, mencantumkan/menghapus) pengindeks, sumber data & keterampilan.

SearchIndexingBufferedSender

Kelas yang digunakan untuk melakukan operasi buffer terhadap indeks pencarian, termasuk menambahkan, memperbarui, dan menghapusnya.

Antarmuka

AnalyzeRequest

Menentukan beberapa komponen teks dan analisis yang digunakan untuk memecah teks tersebut menjadi token.

AnalyzeResult

Hasil pengujian penganalisis pada teks.

AnalyzedTokenInfo

Informasi tentang token yang dikembalikan oleh penganalisis.

AsciiFoldingTokenFilter

Mengonversi karakter Unicode alfabet, numerik, dan simbolis yang tidak berada dalam 127 karakter ASCII pertama (blok Unicode "Latin Dasar") ke dalam setara ASCII mereka, jika setara tersebut ada. Filter token ini diimplementasikan menggunakan Apache Lucene.

AutocompleteItem

Hasil dari permintaan Pelengkapan otomatis.

AutocompleteRequest

Parameter untuk pencocokan fuzzy, dan perilaku kueri lengkapi otomatis lainnya.

AutocompleteResult

Hasil kueri Lengkapi Otomatis.

AzureActiveDirectoryApplicationCredentials

Kredensial aplikasi terdaftar yang dibuat untuk layanan pencarian Anda, digunakan untuk akses terautentikasi ke kunci enkripsi yang disimpan di Azure Key Vault.

BM25Similarity

Fungsi peringkat berdasarkan algoritma kesamaan Okapi BM25. BM25 adalah algoritma seperti TF-IDF yang mencakup normalisasi panjang (dikontrol oleh parameter 'b') serta saturasi frekuensi istilah (dikontrol oleh parameter 'k1').

BaseCharFilter

Jenis dasar untuk filter karakter.

BaseCognitiveServicesAccount

Jenis dasar untuk menjelaskan sumber daya layanan Azure AI apa pun yang melekat pada set keterampilan.

BaseDataChangeDetectionPolicy

Jenis dasar untuk kebijakan deteksi perubahan data.

BaseDataDeletionDetectionPolicy

Jenis dasar untuk kebijakan deteksi penghapusan data.

BaseLexicalAnalyzer

Jenis dasar untuk penganalisis.

BaseLexicalTokenizer

Jenis dasar untuk tokenizer.

BaseScoringFunction

Jenis dasar untuk fungsi yang dapat mengubah skor dokumen selama peringkat.

BaseSearchIndexerSkill

Jenis dasar untuk keterampilan.

BaseSearchRequestOptions

Parameter untuk pemfilteran, pengurutan, faset, penomoran halaman, dan perilaku kueri pencarian lainnya.

BaseTokenFilter

Jenis dasar untuk filter token.

BaseVectorQuery

Parameter kueri untuk kueri pencarian vektor dan hibrid.

BaseVectorSearchAlgorithmConfiguration

Berisi opsi konfigurasi khusus untuk algoritma yang digunakan selama pengindeksan dan/atau kueri.

CjkBigramTokenFilter

Membentuk bigram istilah CJK yang dihasilkan dari tokenizer standar. Filter token ini diimplementasikan menggunakan Apache Lucene.

ClassicSimilarity

Algoritma kesamaan warisan yang menggunakan implementasi Lucene TFIDFSimilarity dari TF-IDF. Variasi TF-IDF ini memperkenalkan normalisasi panjang dokumen statis serta faktor koordinasi yang menghukuskan dokumen yang hanya sebagian cocok dengan kueri yang dicari.

ClassicTokenizer

Tokenizer berbasis tata bahasa yang cocok untuk memproses sebagian besar dokumen berbahasa Eropa. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

CognitiveServicesAccountKey

Sumber daya layanan Azure AI yang disediakan dengan kunci yang dilampirkan ke set keterampilan.

CommonGramTokenFilter

Membuat bigram untuk istilah yang sering muncul saat mengindeks. Istilah tunggal juga masih diindeks, dengan bigram berlapis. Filter token ini diimplementasikan menggunakan Apache Lucene.

ComplexField

Mewakili bidang dalam definisi indeks, yang menjelaskan nama, jenis data, dan perilaku pencarian bidang.

ConditionalSkill

Keterampilan yang memungkinkan skenario yang memerlukan operasi Boolean untuk menentukan data yang akan ditetapkan ke output.

CorsOptions

Menentukan opsi untuk mengontrol Berbagi Sumber Daya Lintas Asal (CORS) untuk indeks.

CreateOrUpdateIndexOptions

Opsi untuk operasi buat/perbarui indeks.

CreateOrUpdateSkillsetOptions

Opsi untuk membuat/memperbarui operasi skillset.

CreateOrUpdateSynonymMapOptions

Opsi untuk operasi buat/perbarui synonymmap.

CreateorUpdateDataSourceConnectionOptions

Opsi untuk membuat/memperbarui operasi sumber data.

CreateorUpdateIndexerOptions

Opsi untuk operasi pengindeks buat/perbarui.

CustomAnalyzer

Memungkinkan Anda untuk mengambil kendali atas proses konversi teks menjadi token yang dapat diindeks/dicari. Ini adalah konfigurasi yang ditentukan pengguna yang terdiri dari satu tokenizer yang telah ditentukan dan satu atau beberapa filter. Tokenizer bertanggung jawab untuk memecah teks menjadi token, dan filter untuk memodifikasi token yang dipancarkan oleh tokenizer.

CustomEntity

Objek yang berisi informasi tentang kecocokan yang ditemukan, dan metadata terkait.

CustomEntityAlias

Objek kompleks yang dapat digunakan untuk menentukan ejaan atau sinonim alternatif ke nama entitas akar.

CustomEntityLookupSkill

Keterampilan mencari teks dari daftar kata dan frasa kustom yang ditentukan pengguna.

DefaultCognitiveServicesAccount

Objek kosong yang mewakili sumber daya layanan Azure AI default untuk set keterampilan.

DeleteDataSourceConnectionOptions

Opsi untuk menghapus operasi sumber data.

DeleteIndexOptions

Opsi untuk menghapus operasi indeks.

DeleteIndexerOptions

Opsi untuk menghapus operasi pengindeks.

DeleteSkillsetOptions

Opsi untuk menghapus operasi skillset.

DeleteSynonymMapOptions

Opsi untuk menghapus operasi sinonim.

DictionaryDecompounderTokenFilter

Menguraikan kata majemuk yang ditemukan dalam banyak bahasa Jermanik. Filter token ini diimplementasikan menggunakan Apache Lucene.

DistanceScoringFunction

Menentukan fungsi yang meningkatkan skor berdasarkan jarak dari lokasi geografis.

DistanceScoringParameters

Menyediakan nilai parameter ke fungsi penilaian jarak.

DocumentExtractionSkill

Keterampilan yang mengekstrak konten dari file dalam alur pengayaan.

EdgeNGramTokenFilter

Menghasilkan n-gram dari ukuran yang diberikan mulai dari depan atau belakang token input. Filter token ini diimplementasikan menggunakan Apache Lucene.

EdgeNGramTokenizer

Tokenisasi input dari tepi ke dalam n-gram dari ukuran yang diberikan. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

ElisionTokenFilter

Menghilangkan elision. Misalnya, "l'avion" (bidang) akan dikonversi menjadi "avion" (bidang). Filter token ini diimplementasikan menggunakan Apache Lucene.

EntityLinkingSkill

Menggunakan Text Analytics API, mengekstrak entitas tertaut dari teks.

EntityRecognitionSkill

Pengenalan entitas analitik teks.

EntityRecognitionSkillV3

Menggunakan Text Analytics API, mengekstrak entitas dari berbagai jenis dari teks.

ExhaustiveKnnParameters

Berisi parameter khusus untuk algoritma KNN lengkap.

ExtractiveQueryAnswer

Mengekstrak kandidat jawaban dari konten dokumen yang dikembalikan sebagai respons terhadap kueri yang dinyatakan sebagai pertanyaan dalam bahasa alami.

ExtractiveQueryCaption

Mengekstrak keterangan dari dokumen yang cocok yang berisi bagian yang relevan dengan kueri pencarian.

FacetResult

Wadah tunggal hasil kueri faset. Melaporkan jumlah dokumen dengan nilai bidang yang berada dalam rentang tertentu atau memiliki nilai atau interval tertentu.

FieldMapping

Menentukan pemetaan antara bidang dalam sumber data dan bidang target dalam indeks.

FieldMappingFunction

Mewakili fungsi yang mengubah nilai dari sumber data sebelum mengindeks.

FreshnessScoringFunction

Menentukan fungsi yang meningkatkan skor berdasarkan nilai bidang tanggal-waktu.

FreshnessScoringParameters

Menyediakan nilai parameter untuk fungsi penilaian kesegaran.

GetDocumentOptions

Opsi untuk mengambil satu dokumen.

HighWaterMarkChangeDetectionPolicy

Menentukan kebijakan deteksi perubahan data yang menangkap perubahan berdasarkan nilai kolom tanda air tinggi.

HnswParameters

Berisi parameter khusus untuk algoritma hnsw.

ImageAnalysisSkill

Keterampilan yang menganalisis file gambar. Ini mengekstrak serangkaian fitur visual yang kaya berdasarkan konten gambar.

IndexDocumentsClient

Klien Dokumen Indeks

IndexDocumentsOptions

Opsi untuk operasi ubah batch indeks.

IndexDocumentsResult

Respons yang berisi status operasi untuk semua dokumen dalam permintaan pengindeksan.

IndexerExecutionResult

Mewakili hasil eksekusi pengindeks individu.

IndexingParameters

Mewakili parameter untuk eksekusi pengindeks.

IndexingParametersConfiguration

Kamus properti konfigurasi khusus pengindeks. Setiap nama adalah nama properti tertentu. Setiap nilai harus berjenis primitif.

IndexingResult

Status operasi pengindeksan untuk satu dokumen.

IndexingSchedule

Mewakili jadwal untuk eksekusi pengindeks.

InputFieldMappingEntry

Pemetaan bidang input untuk keterampilan.

KeepTokenFilter

Filter token yang hanya menyimpan token dengan teks yang terkandung dalam daftar kata tertentu. Filter token ini diimplementasikan menggunakan Apache Lucene.

KeyPhraseExtractionSkill

Keterampilan yang menggunakan analitik teks untuk ekstraksi frasa kunci.

KeywordMarkerTokenFilter

Menandai istilah sebagai kata kunci. Filter token ini diimplementasikan menggunakan Apache Lucene.

KeywordTokenizer

Mengirimkan seluruh input sebagai token tunggal. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

LanguageDetectionSkill

Keterampilan yang mendeteksi bahasa teks input dan melaporkan satu kode bahasa untuk setiap dokumen yang dikirimkan pada permintaan. Kode bahasa dipasangkan dengan skor yang menunjukkan keyakinan analisis.

LengthTokenFilter

Menghapus kata-kata yang terlalu panjang atau terlalu pendek. Filter token ini diimplementasikan menggunakan Apache Lucene.

LimitTokenFilter

Membatasi jumlah token saat mengindeks. Filter token ini diimplementasikan menggunakan Apache Lucene.

ListSearchResultsPageSettings

Argumen untuk mengambil halaman hasil pencarian berikutnya.

LuceneStandardAnalyzer

Penganalisis Apache Lucene standar; Terdiri dari tokenizer standar, filter huruf kecil, dan filter berhenti.

LuceneStandardTokenizer

Memecah teks mengikuti aturan Segmentasi Teks Unicode. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

MagnitudeScoringFunction

Mendefinisikan fungsi yang meningkatkan skor berdasarkan besarnya bidang numerik.

MagnitudeScoringParameters

Menyediakan nilai parameter ke fungsi penilaian besaran.

MappingCharFilter

Filter karakter yang menerapkan pemetaan yang ditentukan dengan opsi pemetaan. Pencocokan bersifat rakus (pola terpanjang yang cocok di titik tertentu menang). Penggantian diperbolehkan menjadi string kosong. Filter karakter ini diimplementasikan menggunakan Apache Lucene.

MergeSkill

Keterampilan untuk menggabungkan dua string atau lebih ke dalam satu string terpadu, dengan pemisah opsional yang ditentukan pengguna yang memisahkan setiap bagian komponen.

MicrosoftLanguageStemmingTokenizer

Membagi teks menggunakan aturan khusus bahasa dan mengurangi kata-kata ke formulir dasarnya.

MicrosoftLanguageTokenizer

Membagi teks menggunakan aturan spesifik bahasa.

NGramTokenFilter

Menghasilkan n-gram dengan ukuran yang diberikan. Filter token ini diimplementasikan menggunakan Apache Lucene.

NGramTokenizer

Tokenisasi input menjadi n-gram dari ukuran yang diberikan. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

OcrSkill

Keterampilan yang mengekstrak teks dari file gambar.

OutputFieldMappingEntry

Pemetaan bidang output untuk keterampilan.

PIIDetectionSkill

Menggunakan Text Analytics API, mengekstrak informasi pribadi dari teks input dan memberi Anda opsi untuk menutupinya.

PathHierarchyTokenizer

Tokenizer untuk hierarki seperti jalur. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

PatternAnalyzer

Secara fleksibel memisahkan teks menjadi istilah melalui pola ekspresi reguler. Penganalisis ini diimplementasikan menggunakan Apache Lucene.

PatternCaptureTokenFilter

Menggunakan regex Java untuk memancarkan beberapa token - satu untuk setiap grup pengambilan dalam satu atau beberapa pola. Filter token ini diimplementasikan menggunakan Apache Lucene.

PatternReplaceCharFilter

Filter karakter yang menggantikan karakter dalam string input. Menggunakan ekspresi reguler untuk mengidentifikasi urutan karakter untuk dipertahankan dan pola pengganti untuk mengidentifikasi karakter untuk diganti. Misalnya, mengingat teks input "aa bb aa bb", pola "(aa)\s+(bb)", dan penggantian "$1#$2", hasilnya adalah "aa#bb aa#bb". Filter karakter ini diimplementasikan menggunakan Apache Lucene.

PatternReplaceTokenFilter

Filter karakter yang menggantikan karakter dalam string input. Menggunakan ekspresi reguler untuk mengidentifikasi urutan karakter untuk dipertahankan dan pola pengganti untuk mengidentifikasi karakter untuk diganti. Misalnya, mengingat teks input "aa bb aa bb", pola "(aa)\s+(bb)", dan penggantian "$1#$2", hasilnya adalah "aa#bb aa#bb". Filter token ini diimplementasikan menggunakan Apache Lucene.

PatternTokenizer

Tokenizer yang menggunakan pencocokan pola regex untuk membangun token yang berbeda. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

PhoneticTokenFilter

Membuat token untuk kecocokan fonetik. Filter token ini diimplementasikan menggunakan Apache Lucene.

QueryAnswerResult

Jawabannya adalah bagian teks yang diekstrak dari konten dokumen yang paling relevan yang cocok dengan kueri. Jawaban diekstrak dari hasil pencarian teratas. Kandidat jawaban diberi skor dan jawaban teratas dipilih.

QueryCaptionResult

Keterangan adalah bagian yang paling representatif dari dokumen relatif terhadap kueri pencarian. Mereka sering digunakan sebagai ringkasan dokumen. Keterangan hanya dikembalikan untuk kueri jenis semantic.

ResourceCounter

Mewakili penggunaan dan kuota sumber daya.

ScoringProfile

Menentukan parameter untuk indeks pencarian yang memengaruhi penilaian dalam kueri pencarian.

SearchClientOptions

Opsi klien yang digunakan untuk mengonfigurasi permintaan Cognitive Search API.

SearchDocumentsPageResult

Respons yang berisi hasil halaman pencarian dari indeks.

SearchDocumentsResult

Respons yang berisi hasil pencarian dari indeks.

SearchDocumentsResultBase

Respons yang berisi hasil pencarian dari indeks.

SearchIndex

Mewakili definisi indeks pencarian, yang menjelaskan bidang dan perilaku pencarian indeks.

SearchIndexClientOptions

Opsi klien yang digunakan untuk mengonfigurasi permintaan Cognitive Search API.

SearchIndexStatistics

Statistik untuk indeks tertentu. Statistik dikumpulkan secara berkala dan tidak dijamin selalu diperbarui.

SearchIndexer

Mewakili pengindeks.

SearchIndexerClientOptions

Opsi klien yang digunakan untuk mengonfigurasi permintaan Cognitive Search API.

SearchIndexerDataContainer

Mewakili informasi tentang entitas (seperti tabel Azure SQL atau koleksi CosmosDB) yang akan diindeks.

SearchIndexerDataSourceConnection

Mewakili definisi sumber data, yang dapat digunakan untuk mengonfigurasi pengindeks.

SearchIndexerError

Mewakili kesalahan pengindeksan tingkat item atau dokumen.

SearchIndexerKnowledgeStore

Definisi proyeksi tambahan ke blob azure, tabel, atau file, dari data yang diperkaya.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Kelas abstrak untuk berbagi properti antara pemilih konkret.

SearchIndexerKnowledgeStoreFileProjectionSelector

Definisi proyeksi untuk data apa yang akan disimpan di Azure Files.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Definisi proyeksi untuk data apa yang akan disimpan di Azure Blob.

SearchIndexerKnowledgeStoreProjection

Objek kontainer untuk berbagai pemilih proyeksi.

SearchIndexerKnowledgeStoreProjectionSelector

Kelas abstrak untuk berbagi properti antara pemilih konkret.

SearchIndexerKnowledgeStoreTableProjectionSelector

Deskripsi untuk data apa yang akan disimpan di Azure Tables.

SearchIndexerLimits
SearchIndexerSkillset

Daftar keterampilan.

SearchIndexerStatus

Mewakili status saat ini dan riwayat eksekusi pengindeks.

SearchIndexerWarning

Mewakili peringatan tingkat item.

SearchIndexingBufferedSenderOptions

Opsi untuk SearchIndexingBufferedSender.

SearchResourceEncryptionKey

Kunci enkripsi yang dikelola pelanggan di Azure Key Vault. Kunci yang Anda buat dan kelola dapat digunakan untuk mengenkripsi atau mendekripsi data tidak aktif di Azure Cognitive Search, seperti indeks dan peta sinonim.

SearchServiceStatistics

Respons dari permintaan statistik layanan get. Jika berhasil, ini termasuk penghitung dan batas tingkat layanan.

SearchSuggester

Menentukan bagaimana Suggest API harus berlaku untuk sekelompok bidang dalam indeks.

SemanticConfiguration

Mendefinisikan konfigurasi tertentu yang akan digunakan dalam konteks kemampuan semantik.

SemanticField

Bidang yang digunakan sebagai bagian dari konfigurasi semantik.

SemanticPrioritizedFields

Menjelaskan bidang judul, konten, dan kata kunci yang akan digunakan untuk peringkat, keterangan, sorotan, dan jawaban semantik.

SemanticSearch

Menentukan parameter untuk indeks pencarian yang memengaruhi kemampuan semantik.

SemanticSearchOptions

Menentukan opsi untuk kueri pencarian semantik

SentimentSkill

Analisis sentimen positif-negatif analitik teks, dinilai sebagai nilai titik mengambang dalam rentang nol hingga 1.

SentimentSkillV3

Menggunakan Text Analytics API, mengevaluasi teks yang tidak terstruktur dan untuk setiap rekaman, menyediakan label sentimen (seperti "negatif", "netral" dan "positif") berdasarkan skor keyakinan tertinggi yang ditemukan oleh layanan pada tingkat kalimat dan dokumen.

ServiceCounters

Mewakili penghitung dan kuota sumber daya tingkat layanan.

ServiceLimits

Mewakili berbagai batas tingkat layanan.

ShaperSkill

Keterampilan untuk membentuk ulang output. Ini membuat jenis kompleks untuk mendukung bidang komposit (juga dikenal sebagai bidang multibagian).

ShingleTokenFilter

Membuat kombinasi token sebagai token tunggal. Filter token ini diimplementasikan menggunakan Apache Lucene.

Similarity

Jenis dasar untuk algoritma kesamaan. Algoritma kesamaan digunakan untuk menghitung skor yang mengikat kueri ke dokumen. Semakin tinggi skor, semakin relevan dokumen dengan kueri tertentu tersebut. Skor tersebut digunakan untuk memberi peringkat pada hasil pencarian.

SimpleField

Mewakili bidang dalam definisi indeks, yang menjelaskan nama, jenis data, dan perilaku pencarian bidang.

SnowballTokenFilter

Filter yang membendung kata-kata menggunakan stemmer yang dihasilkan Snowball. Filter token ini diimplementasikan menggunakan Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Menentukan kebijakan deteksi penghapusan data yang menerapkan strategi penghapusan sementara. Ini menentukan apakah item harus dihapus berdasarkan nilai kolom 'penghapusan sementara' yang ditunjuk.

SplitSkill

Keterampilan untuk membagi string menjadi potongan teks.

SqlIntegratedChangeTrackingPolicy

Menentukan kebijakan deteksi perubahan data yang menangkap perubahan menggunakan fitur Pelacakan Perubahan Terintegrasi Azure SQL Database.

StemmerOverrideTokenFilter

Menyediakan kemampuan untuk mengambil alih filter stemming lainnya dengan stemming berbasis kamus kustom. Setiap istilah kamus-stemmed akan ditandai sebagai kata kunci sehingga mereka tidak akan dibendung dengan stemmer ke bawah rantai. Harus ditempatkan sebelum filter stemming. Filter token ini diimplementasikan menggunakan Apache Lucene.

StemmerTokenFilter

Filter stemming khusus bahasa. Filter token ini diimplementasikan menggunakan Apache Lucene.

StopAnalyzer

Membagi teks pada non-huruf; Menerapkan filter token huruf kecil dan stopword. Penganalisis ini diimplementasikan menggunakan Apache Lucene.

StopwordsTokenFilter

Menghapus kata-kata umum dari stream token. Filter token ini diimplementasikan menggunakan Apache Lucene.

SuggestDocumentsResult

Respons yang berisi hasil kueri saran dari indeks.

SuggestRequest

Parameter untuk pemfilteran, pengurutan, pencocokan fuzzy, dan perilaku kueri saran lainnya.

SynonymMap

Mewakili definisi peta sinonim.

SynonymTokenFilter

Cocok dengan sinonim tunggal atau multi-kata dalam aliran token. Filter token ini diimplementasikan menggunakan Apache Lucene.

TagScoringFunction

Menentukan fungsi yang meningkatkan skor dokumen dengan nilai string yang cocok dengan daftar tag tertentu.

TagScoringParameters

Menyediakan nilai parameter ke fungsi penilaian tag.

TextTranslationSkill

Keterampilan untuk menerjemahkan teks dari satu bahasa ke bahasa lain.

TextWeights

Menentukan bobot pada bidang indeks yang kecocokannya harus meningkatkan penilaian dalam kueri pencarian.

TruncateTokenFilter

Memotong istilah ke panjang tertentu. Filter token ini diimplementasikan menggunakan Apache Lucene.

UaxUrlEmailTokenizer

Tokenisasi url dan email sebagai satu token. Tokenizer ini diimplementasikan menggunakan Apache Lucene.

UniqueTokenFilter

Memfilter token dengan teks yang sama dengan token sebelumnya. Filter token ini diimplementasikan menggunakan Apache Lucene.

VectorSearch

Berisi opsi konfigurasi yang terkait dengan pencarian vektor.

VectorSearchOptions

Menentukan opsi untuk kueri pencarian vektor

VectorSearchProfile

Menentukan kombinasi konfigurasi yang akan digunakan dengan pencarian vektor.

VectorizedQuery

Parameter kueri yang digunakan untuk pencarian vektor saat nilai vektor mentah disediakan.

WebApiSkill

Keterampilan yang dapat memanggil titik akhir API Web, memungkinkan Anda memperluas set keterampilan dengan memanggil kode kustom Anda.

WordDelimiterTokenFilter

Membagi kata menjadi subkata dan melakukan transformasi opsional pada grup subkata. Filter token ini diimplementasikan menggunakan Apache Lucene.

Alias Jenis

AnalyzeTextOptions

Opsi untuk menganalisis operasi teks.

AutocompleteMode

Menentukan nilai untuk AutocompleteMode.

AutocompleteOptions

Opsi untuk mengambil teks penyelesaian untuk searchText parsial.

BlobIndexerDataToExtract

Nilai yang diketahui didukung oleh layanan

storageMetadata: Hanya mengindeks properti blob standar dan metadata yang ditentukan pengguna. allMetadata: Mengekstrak metadata yang disediakan oleh subsistem penyimpanan blob Azure dan metadata khusus jenis konten (misalnya, metadata yang unik hanya untuk .png file yang diindeks). contentAndMetadata: Mengekstrak semua metadata dan konten tekstual dari setiap blob.

BlobIndexerImageAction

Nilai yang diketahui didukung oleh layanan

tidak ada: Mengabaikan gambar atau file gambar yang disematkan dalam himpunan data. Ini adalah default. generateNormalizedImages: Mengekstrak teks dari gambar (misalnya, kata "STOP" dari tanda berhenti lalu lintas), dan menyematkannya ke bidang konten. Tindakan ini mengharuskan "dataToExtract" diatur ke "contentAndMetadata". Gambar yang dinormalisasi mengacu pada pemrosesan tambahan yang menghasilkan output gambar yang seragam, berukuran dan diputar untuk mempromosikan penyajian yang konsisten saat Anda menyertakan gambar dalam hasil pencarian visual. Informasi ini dihasilkan untuk setiap gambar saat Anda menggunakan opsi ini. generateNormalizedImagePerPage: Mengekstrak teks dari gambar (misalnya, kata "STOP" dari tanda penghentian lalu lintas), dan menyematkannya ke dalam bidang konten, tetapi memperlakukan file PDF secara berbeda di mana setiap halaman akan dirender sebagai gambar dan dinormalisasi sesuai, alih-alih mengekstrak gambar yang disematkan. Jenis file non-PDF akan diperlakukan sama seperti jika "generateNormalizedImages" diatur.

BlobIndexerPDFTextRotationAlgorithm

Nilai yang diketahui didukung oleh layanan

none: Memanfaatkan ekstraksi teks normal. Ini adalah default. detectAngles: Dapat menghasilkan ekstraksi teks yang lebih baik dan lebih mudah dibaca dari file PDF yang telah memutar teks di dalamnya. Perhatikan bahwa mungkin ada dampak kecepatan performa kecil ketika parameter ini digunakan. Parameter ini hanya berlaku untuk file PDF, dan hanya untuk PDF dengan teks yang disematkan. Jika teks yang diputar muncul dalam gambar yang disematkan dalam PDF, parameter ini tidak berlaku.

BlobIndexerParsingMode

Nilai yang diketahui didukung oleh layanan

default: Atur ke default untuk pemrosesan file normal. teks: Atur ke teks untuk meningkatkan performa pengindeksan pada file teks biasa dalam penyimpanan blob. delimitedText: Atur ke delimitedText saat blob adalah file CSV biasa. json: Atur ke json untuk mengekstrak konten terstruktur dari file JSON. jsonArray: Atur ke jsonArray untuk mengekstrak elemen individual array JSON sebagai dokumen terpisah dalam Azure Cognitive Search. jsonLines: Atur ke jsonLines untuk mengekstrak entitas JSON individual, dipisahkan oleh baris baru, sebagai dokumen terpisah dalam Azure Cognitive Search.

CharFilter

Berisi kemungkinan kasus untuk CharFilter.

CharFilterName

Menentukan nilai untuk CharFilterName.
<xref:KnownCharFilterName> dapat digunakan secara bergantian dengan CharFilterName, enum ini berisi nilai yang diketahui yang didukung layanan.

Nilai yang diketahui didukung oleh layanan

html_strip: Filter karakter yang mencoba menghapus konstruksi HTML. Lihat https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilterScripts

Menentukan nilai untuk CjkBigramTokenFilterScripts.

CognitiveServicesAccount

Berisi kemungkinan kasus untuk CognitiveServicesAccount.

ComplexDataType

Menentukan nilai untuk ComplexDataType. Nilai yang mungkin termasuk: 'Edm.ComplexType', 'Collection(Edm.ComplexType)'

CountDocumentsOptions

Opsi untuk melakukan operasi penghitungan pada indeks.

CreateDataSourceConnectionOptions

Opsi untuk membuat operasi sumber data.

CreateIndexOptions

Opsi untuk membuat operasi indeks.

CreateIndexerOptions

Opsi untuk membuat operasi pengindeks.

CreateSkillsetOptions

Opsi untuk membuat operasi skillset.

CreateSynonymMapOptions

Opsi untuk membuat operasi sinonim.

CustomEntityLookupSkillLanguage

Menentukan bahasa yang didukung untuk CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage dapat digunakan secara bergantian dengan jenis ini

DataChangeDetectionPolicy

Berisi kemungkinan kasus untuk DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Berisi kemungkinan kasus untuk DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Opsi untuk operasi hapus dokumen.

EdgeNGramTokenFilterSide

Menentukan nilai untuk EdgeNGramTokenFilterSide.

EntityCategory
EntityRecognitionSkillLanguage

Menentukan bahasa yang didukung untuk EntityRecognitionSkillKnownEntityRecognitionSkillLanguage dapat digunakan secara bergantian dengan jenis ini

ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Berisi opsi konfigurasi khusus untuk algoritma KNN lengkap yang digunakan selama kueri, yang akan melakukan pencarian brute-force di seluruh indeks vektor.

ExtractDocumentKey
GetDataSourceConnectionOptions

Opsi untuk mendapatkan operasi sumber data.

GetIndexOptions

Opsi untuk mendapatkan operasi indeks.

GetIndexStatisticsOptions

Opsi untuk mendapatkan operasi statistik indeks.

GetIndexerOptions

Opsi untuk mendapatkan operasi pengindeks.

GetIndexerStatusOptions

Opsi untuk mendapatkan operasi status pengindeks.

GetServiceStatisticsOptions

Opsi untuk mendapatkan operasi statistik layanan.

GetSkillSetOptions

Opsi untuk mendapatkan operasi skillset.

GetSynonymMapsOptions

Opsi untuk mendapatkan operasi sinonim.

HnswAlgorithmConfiguration

Berisi opsi konfigurasi khusus untuk algoritma tetangga terdekat hnsw perkiraan yang digunakan selama waktu pengindeksan.

ImageAnalysisSkillLanguage

Menentukan bahasa yang didukung untuk ImageAnalysisSkillKnownImageAnalysisSkillLanguage dapat digunakan secara bergantian dengan jenis ini

ImageDetail
IndexActionType

Menentukan nilai untuk IndexActionType.

IndexDocumentsAction

Mewakili tindakan indeks yang beroperasi pada dokumen.

IndexIterator

Iterator untuk mencantumkan indeks yang ada di layanan Pencarian. Akan membuat permintaan sesuai kebutuhan selama perulangan. Gunakan .byPage() untuk membuat satu permintaan ke server per iterasi.

IndexNameIterator

Iterator untuk mencantumkan indeks yang ada di layanan Pencarian. Akan membuat permintaan sesuai kebutuhan selama perulangan. Gunakan .byPage() untuk membuat satu permintaan ke server per iterasi.

IndexerExecutionEnvironment

Nilai yang diketahui didukung oleh layanan

standar: Menunjukkan bahwa Azure Cognitive Search dapat menentukan di mana pengindeks harus dijalankan. Ini adalah lingkungan default ketika tidak ada yang ditentukan dan merupakan nilai yang direkomendasikan. privat: Menunjukkan bahwa pengindeks harus berjalan dengan lingkungan yang disediakan khusus untuk layanan pencarian. Ini hanya boleh ditentukan sebagai lingkungan eksekusi jika pengindeks perlu mengakses sumber daya dengan aman melalui sumber daya tautan privat bersama.

IndexerExecutionStatus

Menentukan nilai untuk IndexerExecutionStatus.

IndexerStatus

Menentukan nilai untuk IndexerStatus.

KeyPhraseExtractionSkillLanguage

Menentukan bahasa yang didukung untuk KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage dapat digunakan secara bergantian dengan jenis ini

LexicalAnalyzer

Berisi kemungkinan kasus untuk Analyzer.

LexicalAnalyzerName

Menentukan nilai untuk LexicalAnalyzerName.
<xref:KnownLexicalAnalyzerName> dapat digunakan secara bergantian dengan LexicalAnalyzerName, enum ini berisi nilai yang diketahui yang didukung layanan.

Nilai yang diketahui didukung oleh layanan

ar.microsoft: Penganalisis Microsoft untuk bahasa Arab.
ar.lucene: Penganalisis Lucene untuk bahasa Arab.
hy.lucene: Penganalisis Lucene untuk Armenia.
bn.microsoft: Penganalisis Microsoft untuk Bangla.
eu.lucene: Penganalisis Lucene untuk Basque.
bg.microsoft: Penganalisis Microsoft untuk bahasa Bulgaria.
bg.lucene: Penganalisis Lucene untuk bahasa Bulgaria.
ca.microsoft: Penganalisis Microsoft untuk Catalan.
ca.lucene: Penganalisis Lucene untuk Bahasa Catalan.
zh-Hans.microsoft: Penganalisis Microsoft untuk Bahasa Tionghoa (Disederhanakan).
zh-Hans.lucene: Penganalisis Lucene untuk bahasa Tionghoa (Sederhana).
zh-Hant.microsoft: Penganalisis Microsoft untuk Bahasa Tionghoa (Tradisional).
zh-Hant.lucene: Penganalisis Lucene untuk Bahasa Tionghoa (Tradisional).
hr.microsoft: Penganalisis Microsoft untuk bahasa Kroasia.
cs.microsoft: Penganalisis Microsoft untuk Ceko.
cs.lucene: Penganalisis Lucene untuk Ceko.
da.microsoft: Penganalisis Microsoft untuk Bahasa Denmark.
da.lucene: Penganalisis Lucene untuk Bahasa Denmark.
nl.microsoft: Penganalisis Microsoft untuk Bahasa Belanda.
nl.lucene: Penganalisis Lucene untuk Bahasa Belanda.
en.microsoft: Penganalisis Microsoft untuk bahasa Inggris.
en.lucene: Penganalisis Lucene untuk bahasa Inggris.
et.microsoft: Penganalisis Microsoft untuk Estonia.
fi.microsoft: Penganalisis Microsoft untuk bahasa Finlandia.
fi.lucene: Penganalisis Lucene untuk bahasa Finlandia.
fr.microsoft: Penganalisis Microsoft untuk bahasa Prancis.
fr.lucene: Penganalisis Lucene untuk bahasa Prancis.
gl.lucene: Penganalisis Lucene untuk Galician.
de.microsoft: Penganalisis Microsoft untuk bahasa Jerman.
de.lucene: Penganalisis Lucene untuk bahasa Jerman.
el.microsoft: Microsoft analyzer for Greek.
el.lucene: Penganalisis Lucene untuk bahasa Yunani.
gu.microsoft: Penganalisis Microsoft untuk Gujarati.
he.microsoft: Penganalisis Microsoft untuk Bahasa Ibrani.
hi.microsoft: Penganalisis Microsoft untuk Bahasa Hindi.
hi.lucene: Penganalisis Lucene untuk Bahasa Hindi.
hu.microsoft: Penganalisis Microsoft untuk Hungaria.
hu.lucene: Penganalisis Lucene untuk bahasa Hungaria.
is.microsoft: Penganalisis Microsoft untuk Islandia.
id.microsoft: Microsoft analyzer for Indonesian (Bahasa Indonesia).
id.lucene: Penganalisis Lucene untuk bahasa Indonesia.
ga.lucene: Penganalisis Lucene untuk Irlandia.
it.microsoft: Penganalisis Microsoft untuk bahasa Italia.
it.lucene: Penganalisis Lucene untuk bahasa Italia.
ja.microsoft: Microsoft analyzer untuk bahasa Jepang.
ja.lucene: Penganalisis Lucene untuk bahasa Jepang.
kn.microsoft: Penganalisis Microsoft untuk Kannada.
ko.microsoft: Penganalisis Microsoft untuk bahasa Korea.
ko.lucene: Penganalisis Lucene untuk bahasa Korea.
lv.microsoft: Penganalisis Microsoft untuk Latvia.
lv.lucene: Penganalisis Lucene untuk bahasa Latvia.
lt.microsoft: Penganalisis Microsoft untuk Bahasa Lithuania.
ml.microsoft: Penganalisis Microsoft untuk Malayalam.
ms.microsoft: Penganalisis Microsoft untuk Bahasa Melayu (Latin).
mr.microsoft: Penganalisis Microsoft untuk Marathi.
nb.microsoft: Penganalisis Microsoft untuk Norwegia (Bokmål).
no.lucene: Penganalisis Lucene untuk Norwegia.
fa.lucene: Penganalisis Lucene untuk bahasa Persia.
pl.microsoft: Penganalisis Microsoft untuk Polandia.
pl.lucene: Penganalisis Lucene untuk Polandia.
pt-BR.microsoft: Penganalisis Microsoft untuk Bahasa Portugis (Brasil).
pt-BR.lucene: Penganalisis Lucene untuk Bahasa Portugis (Brasil).
pt-PT.microsoft: Penganalisis Microsoft untuk Bahasa Portugis (Portugal).
pt-PT.lucene: Penganalisis Lucene untuk Bahasa Portugis (Portugal).
pa.microsoft: Penganalisis Microsoft untuk Punjabi.
ro.microsoft: Penganalisis Microsoft untuk Rumania.
ro.lucene: Penganalisis Lucene untuk rumania.
ru.microsoft: Penganalisis Microsoft untuk bahasa Rusia.
ru.lucene: Penganalisis Lucene untuk bahasa Rusia.
sr-cyrillic.microsoft: Penganalisis Microsoft untuk Serbia (Sirilik).
sr-latin.microsoft: Penganalisis Microsoft untuk Serbia (Latin).
sk.microsoft: Penganalisis Microsoft untuk Slowakia.
sl.microsoft: Penganalisis Microsoft untuk Slovenia.
es.microsoft: Penganalisis Microsoft untuk bahasa Spanyol.
es.lucene: Penganalisis Lucene untuk bahasa Spanyol.
sv.microsoft: Microsoft analyzer untuk Swedia.
sv.lucene: Penganalisis Lucene untuk Swedia.
ta.microsoft: Penganalisis Microsoft untuk Tamil.
te.microsoft: Penganalisis Microsoft untuk Telugu.
th.microsoft: Penganalisis Microsoft untuk Thailand.
th.lucene: Penganalisis Lucene untuk Bahasa Thailand.
tr.microsoft: Penganalisis Microsoft untuk Bahasa Turki.
tr.lucene: Penganalisis Lucene untuk bahasa Turki.
uk.microsoft: Penganalisis Microsoft untuk Ukraina.
your.microsoft: Penganalisis Microsoft untuk Urdu.
vi.microsoft: Penganalisis Microsoft untuk bahasa Vietnam.
standard.lucene: Penganalisis Lucene Standar.
standardasciifolding.lucene: Penganalisis Lucene Lipat ASCII Standar. Lihat https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
kata kunci: Memperlakukan seluruh konten bidang sebagai token tunggal. Ini berguna untuk data seperti kode pos, id, dan beberapa nama produk. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
pattern: Secara fleksibel memisahkan teks ke dalam istilah melalui pola ekspresi reguler. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
sederhana: Membagi teks pada non-huruf dan mengonversinya menjadi huruf kecil. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
stop: Membagi teks pada non-huruf; Menerapkan filter token huruf kecil dan stopword. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
spasi kosong: Penganalisis yang menggunakan tokenizer spasi kosong. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalTokenizer

Berisi kemungkinan kasus untuk Tokenizer.

LexicalTokenizerName

Menentukan nilai untuk LexicalTokenizerName.
<xref:KnownLexicalTokenizerName> dapat digunakan secara bergantian dengan LexicalTokenizerName, enum ini berisi nilai yang diketahui yang didukung layanan.

Nilai yang diketahui didukung oleh layanan

klasik: Tokenizer berbasis tata bahasa yang cocok untuk memproses sebagian besar dokumen berbahasa Eropa. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: Tokenisasi input dari tepi ke dalam n-gram dari ukuran yang diberikan. Lihat https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: Memancarkan seluruh input sebagai token tunggal. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
letter: Membagi teks pada non-huruf. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
huruf kecil: Membagi teks pada non-huruf dan mengonversinya menjadi huruf kecil. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer: Membagi teks menggunakan aturan khusus bahasa.
microsoft_language_stemming_tokenizer: Membagi teks menggunakan aturan khusus bahasa dan mengurangi kata-kata ke bentuk dasarnya.
nGram: Tokenisasi input ke dalam n-gram dari ukuran yang diberikan. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: Tokenizer untuk hierarki seperti jalur. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
pola: Tokenizer yang menggunakan pencocokan pola regex untuk membangun token yang berbeda. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: Penganalisis Lucene Standar; Terdiri dari tokenizer standar, filter huruf kecil, dan filter berhenti. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: Tokenisasi url dan email sebagai satu token. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
spasi kosong: Membagi teks pada spasi kosong. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListDataSourceConnectionsOptions

Opsi untuk operasi daftar sumber data.

ListIndexersOptions

Opsi untuk operasi pengindeks daftar.

ListIndexesOptions

Opsi untuk operasi indeks daftar.

ListSkillsetsOptions

Opsi untuk operasi set keterampilan daftar.

ListSynonymMapsOptions

Opsi untuk daftar operasi synonymMaps.

MergeDocumentsOptions

Opsi untuk operasi penggabungan dokumen.

MergeOrUploadDocumentsOptions

Opsi untuk operasi gabungkan atau unggah dokumen.

MicrosoftStemmingTokenizerLanguage

Menentukan nilai untuk MicrosoftStemmingTokenizerLanguage.

MicrosoftTokenizerLanguage

Menentukan nilai untuk MicrosoftTokenizerLanguage.

NarrowedModel

Mempersempit jenis Model untuk hanya menyertakan Bidang yang dipilih

OcrSkillLanguage

Mendefinisikan bahasa yang didukung untuk OcrSkillKnownOcrSkillLanguage dapat digunakan secara bergantian dengan jenis ini

PIIDetectionSkillMaskingMode

Menentukan nilai untuk PIIDetectionSkillMaskingMode.

Nilai yang diketahui didukung oleh layanan

none: Tidak ada masking yang terjadi dan output maskedText tidak akan dikembalikan. ganti: Mengganti entitas yang terdeteksi dengan karakter yang diberikan dalam parameter maskingCharacter. Karakter akan diulangi hingga panjang entitas yang terdeteksi sehingga offset akan sesuai dengan teks input serta maskedText output.

PhoneticEncoder

Menentukan nilai untuk PhoneticEncoder.

QueryAnswer

Nilai yang menentukan apakah jawaban harus dikembalikan sebagai bagian dari respons pencarian. Parameter ini hanya valid jika jenis kueri adalah 'semantik'. Jika diatur ke extractive, kueri mengembalikan jawaban yang diekstrak dari bagian kunci dalam dokumen berperingkat tertinggi.

QueryCaption

Nilai yang menentukan apakah keterangan harus dikembalikan sebagai bagian dari respons pencarian. Parameter ini hanya valid jika jenis kueri adalah 'semantik'. Jika diatur, kueri mengembalikan keterangan yang diekstrak dari bagian kunci dalam dokumen berperingkat tertinggi. Saat Keterangan 'ekstraktif', penyorotan diaktifkan secara default. Default ke 'none'.

QueryType

Menentukan nilai untuk QueryType.

RegexFlags

Menentukan bendera untuk pencocokan pola regex

Nilai yang diketahui didukung oleh layanan

CANON_EQ: Memungkinkan kesetaraan kanonis. CASE_INSENSITIVE: Memungkinkan pencocokan tidak peka huruf besar/kecil. KOMENTAR: Mengizinkan spasi kosong dan komentar dalam pola. Dotall: Mengaktifkan mode dotall. LITERAL: Memungkinkan penguraian harfiah pola. MULTILINE: Mengaktifkan mode multibaris. UNICODE_CASE: Memungkinkan pelipatan kasus sadar Unicode. UNIX_LINES: Mengaktifkan mode garis Unix.

ResetIndexerOptions

Opsi untuk mengatur ulang operasi pengindeks.

RunIndexerOptions

Opsi untuk menjalankan operasi pengindeks.

ScoringFunction

Berisi kemungkinan kasus untuk ScoringFunction.

ScoringFunctionAggregation

Menentukan nilai untuk ScoringFunctionAggregation.

ScoringFunctionInterpolation

Menentukan nilai untuk ScoringFunctionInterpolation.

ScoringStatistics

Menentukan nilai untuk ScoringStatistics.

SearchField

Mewakili bidang dalam definisi indeks, yang menjelaskan nama, jenis data, dan perilaku pencarian bidang.

SearchFieldArray

Jika TModel adalah objek yang tidak dititik, array string yang tidak ditata Jika tidak, bidang yang dibatasi garis miring dari TModel.

SearchFieldDataType

Menentukan nilai untuk SearchFieldDataType. Nilai yang mungkin termasuk: 'Edm.String', 'Edm.Int32', 'Edm.Int64', 'Edm.Double', 'Edm.Boolean', 'Edm.DateTimeOffset', 'Edm.GeographyPoint', 'Collection(Edm.String)', 'Collection(Edm.Int32)', 'Collection(Edm.Int64)', 'Collection(Edm.Double)', 'Collection(Edm.Boolean)', 'Collection(Edm.DateTimeOffset)', 'Collection(Edm.GeographyPoint)', 'Collection(Edm.Single)'

NB: Edm.Single saja bukan tipe data yang valid. Ini harus digunakan sebagai bagian dari jenis koleksi.

SearchIndexerDataSourceType
SearchIndexerSkill

Berisi kemungkinan kasus untuk Keterampilan.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Opsi untuk SearchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Opsi untuk SearchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Opsi untuk SearchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Opsi untuk SearchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Opsi untuk SearchIndexingBufferedSenderUploadDocuments.

SearchIterator

Iterator untuk hasil pencarian kueri paticular. Akan membuat permintaan sesuai kebutuhan selama perulangan. Gunakan .byPage() untuk membuat satu permintaan ke server per iterasi.

SearchMode

Menentukan nilai untuk SearchMode.

SearchOptions

Opsi untuk menerapkan permintaan pencarian lengkap.

SearchPick

Pilih bidang T secara mendalam menggunakan jalur $select OData Cognitive Search yang valid.

SearchRequestOptions

Parameter untuk pemfilteran, pengurutan, faset, penomoran halaman, dan perilaku kueri pencarian lainnya.

SearchRequestQueryTypeOptions
SearchResult

Berisi dokumen yang ditemukan oleh kueri pencarian, ditambah metadata terkait.

SelectArray

Jika TFields tidak pernah, array string yang tidak diketik Jika tidak, jenis yang dipersempit Fields[] untuk digunakan di tempat lain dalam jenis penggunaan.

SelectFields

Menghasilkan penyatuan jalur $select OData Cognitive Search yang valid untuk T menggunakan traversal pasca-pesanan pohon bidang yang berakar pada T.

SemanticErrorMode

parsial: Jika pemrosesan semantik gagal, hasil parsial masih kembali. Definisi hasil parsial tergantung pada langkah semantik apa yang gagal dan apa alasan kegagalannya.

gagal: Jika ada pengecualian selama langkah pemrosesan semantik, kueri akan gagal dan mengembalikan kode HTTP yang sesuai tergantung pada kesalahan.

SemanticErrorReason

maxWaitExceeded: Jika 'semanticMaxWaitInMilliseconds' diatur dan durasi pemrosesan semantik melebihi nilai tersebut. Hanya hasil dasar yang dikembalikan.

capacityOverloaded: Permintaan dibatasi. Hanya hasil dasar yang dikembalikan.

sementara: Setidaknya satu langkah proses semantik gagal.

SemanticSearchResultsType

baseResults: Hasil tanpa pengayaan semantik atau reranking.

rerankedResults: Hasil telah direrank dengan model reranker dan akan menyertakan keterangan semantik. Mereka tidak akan menyertakan jawaban, jawaban sorotan, atau sorotan caption.

SentimentSkillLanguage

Menentukan bahasa yang didukung untuk SentimentSkillKnownSentimentSkillLanguage dapat digunakan secara bergantian dengan jenis ini

SimilarityAlgorithm

Berisi kemungkinan kasus untuk Kesamaan.

SnowballTokenFilterLanguage

Mendefinisikan nilai untuk SnowballTokenFilterLanguage.

SplitSkillLanguage

Menentukan bahasa yang didukung untuk SplitSkillKnownSplitSkillLanguage dapat digunakan secara bergantian dengan jenis ini

StemmerTokenFilterLanguage

Mendefinisikan nilai untuk StemmerTokenFilterLanguage.

StopwordsList

Menentukan nilai untuk StopwordsList.

SuggestNarrowedModel
SuggestOptions

Opsi untuk mengambil saran berdasarkan searchText.

SuggestResult

Hasil yang berisi dokumen yang ditemukan oleh kueri saran, ditambah metadata terkait.

TextSplitMode
TextTranslationSkillLanguage

Menentukan bahasa yang didukung untuk TextTranslationSkillKnownTextTranslationSkillLanguage dapat digunakan secara bergantian dengan jenis ini

TokenCharacterKind

Menentukan nilai untuk TokenCharacterKind.

TokenFilter

Berisi kemungkinan kasus untuk TokenFilter.

TokenFilterName

Menentukan nilai untuk TokenFilterName.
<xref:KnownTokenFilterName> dapat digunakan secara bergantian dengan TokenFilterName, enum ini berisi nilai yang diketahui yang didukung layanan.

Nilai yang diketahui didukung oleh layanan

arabic_normalization: Filter token yang menerapkan normalizer Arab untuk menormalkan ortografi. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
apostrophe: Menghapus semua karakter setelah apostrof (termasuk apostrof itu sendiri). Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding: Mengonversi karakter Unicode alfabet, numerik, dan simbolis yang tidak berada dalam 127 karakter ASCII pertama (blok Unicode "Dasar Latin") ke dalam setara ASCII mereka, jika setara tersebut ada. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram: Membentuk bigram istilah CJK yang dihasilkan dari tokenizer standar. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width: Menormalkan perbedaan lebar CJK. Melipat varian ASCII penuh ke dalam varian Latin dasar yang setara, dan Katakana lebar setengah ke dalam Kana yang setara. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
klasik: Menghapus posesif bahasa Inggris, dan titik-titik dari akronim. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams: Membuat bigram untuk istilah yang sering terjadi saat mengindeks. Istilah tunggal juga masih diindeks, dengan bigram berlapis. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2: Menghasilkan n-gram dari ukuran yang diberikan mulai dari depan atau belakang token input. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
elision: Menghapus elisi. Misalnya, "l'avion" (bidang) akan dikonversi menjadi "avion" (bidang). Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization: Menormalkan karakter Jerman sesuai dengan heuristik algoritma bola salju Jerman2. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization: Menormalkan teks dalam bahasa Hindi untuk menghapus beberapa perbedaan dalam variasi ejaan. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization: Menormalkan representasi Teks Unicode dalam bahasa India. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat: Memancarkan setiap token masuk dua kali, sekali sebagai kata kunci dan sekali sebagai non-kata kunci. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem: Filter kstem berkinerja tinggi untuk bahasa Inggris. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
length: Menghapus kata-kata yang terlalu panjang atau terlalu pendek. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
batas: Membatasi jumlah token saat mengindeks. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
huruf kecil: Menormalkan teks token ke huruf kecil. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.htm
nGram_v2: Menghasilkan n-gram dari ukuran yang diberikan. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization: Menerapkan normalisasi untuk bahasa Persia. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
fonetik: Membuat token untuk kecocokan fonetik. Lihat https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem: Menggunakan algoritma stemming Porter untuk mengubah aliran token. Lihat http://tartarus.org/~martin/PorterStemmer
balik: Membalikkan string token. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization: Menormalkan penggunaan karakter Skandinavia yang dapat dipertukarkan. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding: Melipat karakter Skandinavia åÅäæÄÆ-a> dan öÖøØ-o>. Juga mendiskriminasi terhadap penggunaan vokal ganda aa, ae, ao, oe dan oo, hanya menyisakan yang pertama. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
shingle: Membuat kombinasi token sebagai token tunggal. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
bola salju: Filter yang membendung kata-kata menggunakan stemmer yang dihasilkan Snowball. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization: Menormalkan representasi Unicode dari teks Sorani. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
stemmer: Filter stemming khusus bahasa. Lihat https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
stopwords: Menghapus hentikan kata dari aliran token. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
pangkas: Memangkas spasi putih di depan dan di belakang dari token. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
memotong: Memotong istilah ke panjang tertentu. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
unik: Memfilter token dengan teks yang sama dengan token sebelumnya. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
huruf besar: Menormalkan teks token ke huruf besar. Lihat http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter: Membagi kata menjadi subkata dan melakukan transformasi opsional pada grup subkata.

UnionToIntersection
UploadDocumentsOptions

Opsi untuk operasi unggah dokumen.

VectorFilterMode

Menentukan apakah filter diterapkan sebelum atau sesudah pencarian vektor dilakukan atau tidak.

VectorQuery

Parameter kueri untuk kueri pencarian vektor dan hibrid.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Berisi opsi konfigurasi khusus untuk algoritma yang digunakan selama pengindeksan dan/atau kueri.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric

Metrik kesamaan yang digunakan untuk perbandingan vektor.

VisualFeature

Enum

KnownAnalyzerNames

Menentukan nilai untuk AnalyzerName. Lihat https://docs.microsoft.com/rest/api/searchservice/Language-support

KnownBlobIndexerDataToExtract

Nilai blobIndexerDataToExtract yang diketahui oleh layanan.

KnownBlobIndexerImageAction

Nilai blobIndexerImageAction yang diketahui yang diterima layanan.

KnownBlobIndexerPDFTextRotationAlgorithm

Nilai blobIndexerPDFTextRotationAlgorithm yang diterima layanan.

KnownBlobIndexerParsingMode

Nilai blobIndexerParsingMode yang diketahui yang diterima layanan.

KnownCharFilterNames

Nilai CharFilterName yang diketahui yang diterima layanan.

KnownCustomEntityLookupSkillLanguage

Nilai yang diketahui dari CustomEntityLookupSkillLanguage yang diterima layanan.

KnownEntityCategory

Nilai entityCategory yang diketahui yang diterima layanan.

KnownEntityRecognitionSkillLanguage

Nilai yang diketahui dari EntityRecognitionSkillLanguage yang diterima layanan.

KnownImageAnalysisSkillLanguage

Nilai yang diketahui dari ImageAnalysisSkillLanguage yang diterima layanan.

KnownImageDetail

Nilai ImageDetail yang diketahui yang diterima layanan.

KnownKeyPhraseExtractionSkillLanguage

Nilai yang diketahui dari KeyPhraseExtractionSkillLanguage yang diterima layanan.

KnownOcrSkillLanguage

Nilai yang diketahui dari OcrSkillLanguage yang diterima layanan.

KnownRegexFlags

Nilai RegexFlags yang diketahui yang diterima layanan.

KnownSearchAudience

Nilai yang diketahui untuk Audiens Pencarian

KnownSearchIndexerDataSourceType

Nilai yang diketahui dari SearchIndexerDataSourceType yang diterima layanan.

KnownSentimentSkillLanguage

Nilai sentimentSkillLanguage yang diketahui yang diterima layanan.

KnownSplitSkillLanguage

Nilai yang diketahui dari SplitSkillLanguage yang diterima layanan.

KnownTextSplitMode

Nilai TextSplitMode yang diketahui yang diterima layanan.

KnownTextTranslationSkillLanguage

Nilai yang diketahui dari TextTranslationSkillLanguage yang diterima layanan.

KnownTokenFilterNames

Nilai TokenFilterName yang diketahui yang diterima layanan.

KnownTokenizerNames

Nilai LexicalTokenizerName yang diketahui yang diterima layanan.

KnownVisualFeature

Nilai VisualFeature yang diketahui yang diterima layanan.

Fungsi

createSynonymMapFromFile(string, string)

Metode pembantu untuk membuat objek SynonymMap. Ini adalah metode khusus NodeJS.

odata(TemplateStringsArray, unknown[])

Lolos dari ekspresi filter odata untuk menghindari kesalahan dengan mengutip literal string. Contoh penggunaan:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Untuk informasi selengkapnya tentang sintaks yang didukung, lihat: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

Detail Fungsi

createSynonymMapFromFile(string, string)

Metode pembantu untuk membuat objek SynonymMap. Ini adalah metode khusus NodeJS.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Parameter

name

string

Nama SynonymMap.

filePath

string

Jalur file yang berisi Sinonim (dipisahkan oleh baris baru)

Mengembalikan

Promise<SynonymMap>

Objek SynonymMap

odata(TemplateStringsArray, unknown[])

Lolos dari ekspresi filter odata untuk menghindari kesalahan dengan mengutip literal string. Contoh penggunaan:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Untuk informasi selengkapnya tentang sintaks yang didukung, lihat: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Parameter

strings

TemplateStringsArray

Array string untuk ekspresi

values

unknown[]

Array nilai untuk ekspresi

Mengembalikan

string