@azure/search-documents package

Классы

AzureKeyCredential

Учетные данные на основе статического ключа, поддерживающие обновление значения базового ключа.

GeographyPoint

Представляет географическую точку в глобальных координатах.

IndexDocumentsBatch

Класс, используемый для выполнения пакетных операций с несколькими документами в индексе.

SearchClient

Класс, используемый для выполнения операций с индексом поиска, включая запрос документов в индексе, а также их добавление, обновление и удаление.

SearchIndexClient

Класс для выполнения операций по управлению (созданию, обновлению, перечислению и удалению) индексов, & синонимов.

SearchIndexerClient

Класс для выполнения операций по управлению (созданию, обновлению, перечислению и удалению) индексаторов, источниками данных & наборами навыков.

SearchIndexingBufferedSender

Класс, используемый для выполнения буферизованных операций с индексом поиска, включая их добавление, обновление и удаление.

Интерфейсы

AnalyzeRequest

Указывает некоторые компоненты текста и анализа, используемые для разбиения этого текста на маркеры.

AnalyzeResult

Результат тестирования анализатора в тексте.

AnalyzedTokenInfo

Сведения о маркере, возвращаемом анализатором.

AsciiFoldingTokenFilter

Преобразует буквенные, числовые и символические символы Юникода, которые не входят в первые 127 символов ASCII (блок Юникода "Базовый латиница"), в их эквиваленты ASCII, если такие эквиваленты существуют. Этот фильтр маркеров реализуется с помощью Apache Lucene.

AutocompleteItem

Результат запросов автозаполнения.

AutocompleteRequest

Параметры для нечеткого сопоставления и других поведений автозавершения запросов.

AutocompleteResult

Результат запроса автозаполнения.

AzureActiveDirectoryApplicationCredentials

Учетные данные зарегистрированного приложения, созданного для службы поиска, которые используются для доступа с проверкой подлинности к ключам шифрования, хранящимся в Azure Key Vault.

BM25Similarity

Ранжирующая функция на основе алгоритма сходства Okapi BM25. BM25 — это алгоритм, подобный TF-IDF, который включает нормализацию длины (управляется параметром b), а также насыщение термином частоты (управляется параметром k1).

BaseCharFilter

Базовый тип для символьных фильтров.

BaseCognitiveServicesAccount

Базовый тип для описания любого ресурса службы ИИ Azure, присоединенного к набору навыков.

BaseDataChangeDetectionPolicy

Базовый тип для политик обнаружения изменений данных.

BaseDataDeletionDetectionPolicy

Базовый тип для политик обнаружения удаления данных.

BaseLexicalAnalyzer

Базовый тип для анализаторов.

BaseLexicalTokenizer

Базовый тип для создателей маркеров.

BaseScoringFunction

Базовый тип для функций, которые могут изменять оценки документов во время ранжирования.

BaseSearchIndexerSkill

Базовый тип для навыков.

BaseSearchRequestOptions

Параметры для фильтрации, сортировки, фасетирования, разбиения по страницам и других поведений поисковых запросов.

BaseTokenFilter

Базовый тип для фильтров маркеров.

BaseVectorQuery

Параметры запроса для векторных и гибридных поисковых запросов.

BaseVectorSearchAlgorithmConfiguration

Содержит параметры конфигурации, относящиеся к алгоритму, используемому во время индексирования и (или) запросов.

CjkBigramTokenFilter

Формирует биграмы терминов CJK, созданные из стандартного создателя маркеров. Этот фильтр маркеров реализуется с помощью Apache Lucene.

ClassicSimilarity

Устаревший алгоритм сходства, который использует реализацию Lucene TFIDFSimilarity TF-IDF. Этот вариант TF-IDF вводит нормализацию статической длины документов, а также координирующих факторов, которые наказывают документы, которые лишь частично соответствуют поисковым запросам.

ClassicTokenizer

Грамматический создатель маркеров, который подходит для обработки большинства документов на европейском языке. Этот создатель маркеров реализуется с помощью Apache Lucene.

CognitiveServicesAccountKey

Ресурс службы ИИ Azure, подготовленный с ключом, подключенным к набору навыков.

CommonGramTokenFilter

Создает биграммы для часто встречающихся терминов при индексировании. Отдельные термины также индексируются с наложением биграмм. Этот фильтр маркеров реализуется с помощью Apache Lucene.

ComplexField

Представляет поле в определении индекса, которое описывает имя, тип данных и поведение поиска поля.

ConditionalSkill

Навык, который позволяет сценариям, для которых требуется логическая операция для определения данных, назначаемых выходным данным.

CorsOptions

Определяет параметры для управления общим доступом к ресурсам независимо от источника (CORS) для индекса.

CreateOrUpdateIndexOptions

Параметры для операции создания и обновления индекса.

CreateOrUpdateSkillsetOptions

Параметры для операции создания и обновления набора навыков.

CreateOrUpdateSynonymMapOptions

Параметры для операции создания и обновления синонимов.

CreateorUpdateDataSourceConnectionOptions

Параметры для операции создания и обновления источника данных.

CreateorUpdateIndexerOptions

Параметры для операции создания и обновления индексатора.

CustomAnalyzer

Позволяет управлять процессом преобразования текста в индексируемые и доступные для поиска маркеры. Это определяемая пользователем конфигурация, состоящая из одного предопределенного создателя маркеров и одного или нескольких фильтров. Создатель маркеров отвечает за разбиение текста на маркеры и фильтры для изменения маркеров, выдаваемых создателем маркеров.

CustomEntity

Объект , содержащий сведения о найденных совпадениях и связанные метаданные.

CustomEntityAlias

Сложный объект, который можно использовать для указания альтернативных орфографических выражений или синонимов для имени корневой сущности.

CustomEntityLookupSkill

Навык ищет текст из пользовательского списка слов и фраз.

DefaultCognitiveServicesAccount

Пустой объект, представляющий ресурс службы ИИ Azure по умолчанию для набора навыков.

DeleteDataSourceConnectionOptions

Параметры операции удаления источника данных.

DeleteIndexOptions

Параметры операции удаления индекса.

DeleteIndexerOptions

Параметры для операции удаления индексатора.

DeleteSkillsetOptions

Параметры для удаления операции набора навыков.

DeleteSynonymMapOptions

Параметры для операции удаления синонимов.

DictionaryDecompounderTokenFilter

Разбивает составные слова, распространенные во многих германских языках. Этот фильтр маркеров реализуется с помощью Apache Lucene.

DistanceScoringFunction

Определяет функцию, повышающую оценку на основе расстояния от географического расположения.

DistanceScoringParameters

Предоставляет значения параметров для функции оценки расстояния.

DocumentExtractionSkill

Навык, который извлекает содержимое из файла в конвейере обогащения.

EdgeNGramTokenFilter

Создает n-граммов заданного размера, начиная с передней или задней части входного маркера. Этот фильтр маркеров реализуется с помощью Apache Lucene.

EdgeNGramTokenizer

Маркеризует входные данные из края в n-граммы заданного размера. Этот создатель маркеров реализуется с помощью Apache Lucene.

ElisionTokenFilter

Удаляет элизии. Например, "l'avion" (плоскость) будет преобразован в "avion" (плоскость). Этот фильтр маркеров реализуется с помощью Apache Lucene.

EntityLinkingSkill

С помощью API Анализ текста извлекает связанные сущности из текста.

EntityRecognitionSkill

Распознавание сущностей анализа текста.

EntityRecognitionSkillV3

С помощью API Анализ текста извлекает сущности разных типов из текста.

ExhaustiveKnnParameters

Содержит параметры, относящиеся к исчерпывающим алгоритмам KNN.

ExtractiveQueryAnswer

Извлекает кандидаты ответов из содержимого документов, возвращаемых в ответ на запрос, выраженный в виде вопроса на естественном языке.

ExtractiveQueryCaption

Извлекает субтитры из соответствующих документов, содержащих фрагменты, относящиеся к поисковому запросу.

FacetResult

Один сегмент результата запроса аспекта. Сообщает количество документов со значением поля, которое попадает в определенный диапазон или имеет определенное значение или интервал.

FieldMapping

Определяет сопоставление между полем в источнике данных и целевым полем в индексе.

FieldMappingFunction

Представляет функцию, которая преобразует значение из источника данных перед индексированием.

FreshnessScoringFunction

Определяет функцию, повышающую оценку на основе значения поля даты и времени.

FreshnessScoringParameters

Предоставляет значения параметров для функции оценки актуальности.

GetDocumentOptions

Параметры для получения одного документа.

HighWaterMarkChangeDetectionPolicy

Определяет политику обнаружения изменений данных, которая фиксирует изменения на основе значения столбца высокой отметки воды.

HnswParameters

Содержит параметры, относящиеся к алгоритму hnsw.

ImageAnalysisSkill

Навык, который анализирует файлы изображений. Он извлекает широкий набор визуальных функций на основе содержимого изображения.

IndexDocumentsClient

Клиент индексирования документов

IndexDocumentsOptions

Параметры пакетной операции изменения индекса.

IndexDocumentsResult

Ответ, содержащий состояние операций для всех документов в запросе на индексирование.

IndexerExecutionResult

Представляет результат выполнения отдельного индексатора.

IndexingParameters

Представляет параметры для выполнения индексатора.

IndexingParametersConfiguration

Словарь свойств конфигурации, относящихся к индексатору. Каждое имя является именем определенного свойства. Каждое значение должно иметь примитивный тип.

IndexingResult

Состояние операции индексирования для одного документа.

IndexingSchedule

Представляет расписание для выполнения индексатора.

InputFieldMappingEntry

Сопоставление полей ввода для навыка.

KeepTokenFilter

Фильтр маркеров, который хранит только маркеры с текстом, содержащимся в указанном списке слов. Этот фильтр маркеров реализуется с помощью Apache Lucene.

KeyPhraseExtractionSkill

Навык, использующий анализ текста для извлечения ключевых фраз.

KeywordMarkerTokenFilter

Помечает термины как ключевые слова. Этот фильтр маркеров реализуется с помощью Apache Lucene.

KeywordTokenizer

Выдает все входные данные в виде одного маркера. Этот создатель маркеров реализуется с помощью Apache Lucene.

LanguageDetectionSkill

Навык, который определяет язык входного текста и сообщает один код языка для каждого документа, отправленного в запрос. Код языка сопряжен с оценкой, указывающей достоверность анализа.

LengthTokenFilter

Удаляет слишком длинные или слишком короткие слова. Этот фильтр маркеров реализуется с помощью Apache Lucene.

LimitTokenFilter

Ограничивает количество маркеров при индексировании. Этот фильтр маркеров реализуется с помощью Apache Lucene.

ListSearchResultsPageSettings

Аргументы для получения следующей страницы результатов поиска.

LuceneStandardAnalyzer

Стандартный анализатор Apache Lucene; Состоит из стандартного маркеризатора, нижнего регистра фильтра и фильтра stop.

LuceneStandardTokenizer

Разбивает текст по правилам сегментации текста в формате Юникод. Этот создатель маркеров реализуется с помощью Apache Lucene.

MagnitudeScoringFunction

Определяет функцию, которая повышает оценку на основе величины числового поля.

MagnitudeScoringParameters

Предоставляет значения параметров для функции оценки величины.

MappingCharFilter

Фильтр символов, который применяет сопоставления, определенные с помощью параметра сопоставления. Сопоставление является каскадным (самое длинное сопоставление шаблона в заданной точке имеет приоритет). Замена может быть пустой строкой. Этот фильтр символов реализуется с помощью Apache Lucene.

MergeSkill

Навык объединения двух или более строк в одну единую строку с необязательным определяемым пользователем разделителем, разделяющим каждую часть компонента.

MicrosoftLanguageStemmingTokenizer

Разделяет текст, используя правила для конкретного языка, и сводит слова к их базовым формам.

MicrosoftLanguageTokenizer

Разбивает текст на основе правил определенного языка.

NGramTokenFilter

Создает N-граммы заданного размера. Этот фильтр маркеров реализуется с помощью Apache Lucene.

NGramTokenizer

Размечает входные данные на N-граммы заданного размера. Этот создатель маркеров реализуется с помощью Apache Lucene.

OcrSkill

Навык, который извлекает текст из файлов изображений.

OutputFieldMappingEntry

Сопоставление полей выходных данных для навыка.

PIIDetectionSkill

С помощью API Анализ текста извлекает личную информацию из входного текста и предоставляет возможность маскирования.

PathHierarchyTokenizer

Создатель маркеров для иерархий в виде пути. Этот создатель маркеров реализуется с помощью Apache Lucene.

PatternAnalyzer

Гибко разделяет текст на термины с помощью шаблона регулярного выражения. Этот анализатор реализуется с помощью Apache Lucene.

PatternCaptureTokenFilter

Использует регулярные выражения Java для выдачи нескольких маркеров — по одному для каждой группы отслеживания в одном или нескольких шаблонах. Этот фильтр маркеров реализуется с помощью Apache Lucene.

PatternReplaceCharFilter

Фильтр символов, заменяющий символы во входной строке. Он использует регулярное выражение, чтобы определить последовательности знаков, которые нужно сохранить, и шаблон замены, чтобы определить знаки для замены. Например, с учетом входного текста "aa bb aa bb", шаблона "(aa)\s+(bb)" и замены "$1#$2", результатом будет "aa#bb aa#bb". Этот фильтр символов реализуется с помощью Apache Lucene.

PatternReplaceTokenFilter

Фильтр символов, заменяющий символы во входной строке. Он использует регулярное выражение, чтобы определить последовательности знаков, которые нужно сохранить, и шаблон замены, чтобы определить знаки для замены. Например, с учетом входного текста "aa bb aa bb", шаблона "(aa)\s+(bb)" и замены "$1#$2", результатом будет "aa#bb aa#bb". Этот фильтр маркеров реализуется с помощью Apache Lucene.

PatternTokenizer

Создатель маркеров, использующий сопоставление шаблонов регулярных выражений для создания уникальных маркеров. Этот создатель маркеров реализуется с помощью Apache Lucene.

PhoneticTokenFilter

Создает маркеры для фонетических совпадений. Этот фильтр маркеров реализуется с помощью Apache Lucene.

QueryAnswerResult

Ответ — это фрагмент текста, извлеченный из содержимого наиболее релевантных документов, соответствующих запросу. Ответы извлекаются из лучших результатов поиска. Кандидаты на ответ оцениваются, и выбираются лучшие ответы.

QueryCaptionResult

Субтитры — это наиболее репрезентативные фрагменты из документа относительно поискового запроса. Они часто используются в качестве сводки по документам. Заголовки возвращаются только для запросов типа semantic.

ResourceCounter

Представляет использование и квоту ресурса.

ScoringProfile

Определяет параметры индекса поиска, влияющие на оценку в поисковых запросах.

SearchClientOptions

Параметры клиента, используемые для настройки запросов API Когнитивного поиска.

SearchDocumentsPageResult

Ответ, содержащий результаты страницы поиска по индексу.

SearchDocumentsResult

Ответ, содержащий результаты поиска по индексу.

SearchDocumentsResultBase

Ответ, содержащий результаты поиска по индексу.

SearchIndex

Представляет определение индекса поиска, которое описывает поля и поведение поиска индекса.

SearchIndexClientOptions

Параметры клиента, используемые для настройки запросов API Когнитивного поиска.

SearchIndexStatistics

Статистика по заданному индексу. Статистические данные собираются периодически и не всегда будут актуальными.

SearchIndexer

Представляет индексатор.

SearchIndexerClientOptions

Параметры клиента, используемые для настройки запросов API Когнитивного поиска.

SearchIndexerDataContainer

Представляет сведения о сущности (например, Azure SQL таблице или коллекции CosmosDB), которая будет индексирована.

SearchIndexerDataSourceConnection

Представляет определение источника данных, которое можно использовать для настройки индексатора.

SearchIndexerError

Представляет ошибку индексации уровня элемента или документа.

SearchIndexerKnowledgeStore

Определение дополнительных проекций для больших двоичных объектов Azure, таблиц или файлов обогащенных данных.

SearchIndexerKnowledgeStoreBlobProjectionSelector

Абстрактный класс для совместного использования свойств между конкретными селекторами.

SearchIndexerKnowledgeStoreFileProjectionSelector

Определение проекции данных для хранения в Файлы Azure.

SearchIndexerKnowledgeStoreObjectProjectionSelector

Определение проекции данных для хранения в BLOB-объекте Azure.

SearchIndexerKnowledgeStoreProjection

Объект контейнера для различных селекторов проекций.

SearchIndexerKnowledgeStoreProjectionSelector

Абстрактный класс для совместного использования свойств между конкретными селекторами.

SearchIndexerKnowledgeStoreTableProjectionSelector

Описание данных для хранения в таблицах Azure.

SearchIndexerLimits
SearchIndexerSkillset

Список навыков.

SearchIndexerStatus

Представляет текущее состояние и журнал выполнений индексатора.

SearchIndexerWarning

Представляет предупреждение на уровне элемента.

SearchIndexingBufferedSenderOptions

Параметры searchIndexingBufferedSender.

SearchResourceEncryptionKey

Управляемый клиентом ключ шифрования в Azure Key Vault. Ключи, которые вы создаете и которыми управляете, можно использовать для шифрования или расшифровки неактивных данных в Когнитивный поиск Azure, таких как индексы и карты синонимов.

SearchServiceStatistics

Ответ на запрос на получение статистики службы. В случае успешного выполнения он включает счетчики уровня обслуживания и ограничения.

SearchSuggester

Определяет, как API предложения должен применяться к группе полей в индексе.

SemanticConfiguration

Определяет определенную конфигурацию для использования в контексте семантических возможностей.

SemanticField

Поле, используемое как часть семантической конфигурации.

SemanticPrioritizedFields

Описывает поля заголовка, содержимого и ключевых слов, которые будут использоваться для семантического ранжирования, субтитров, выделений и ответов.

SemanticSearch

Определяет параметры для индекса поиска, которые влияют на семантические возможности.

SemanticSearchOptions

Определяет параметры для семантических поисковых запросов

SentimentSkill

Анализ положительно-отрицательной тональности для анализа текста, оцененный как значение с плавающей запятой в диапазоне от нуля до 1.

SentimentSkillV3

Используя API Анализ текста, оценивает неструктурированный текст и для каждой записи предоставляет метки тональности (например, "отрицательные", "нейтральные" и "положительные") на основе самой высокой оценки достоверности, найденной службой на уровне предложения и документа.

ServiceCounters

Представляет счетчики ресурсов уровня обслуживания и квоты.

ServiceLimits

Представляет различные ограничения уровня обслуживания.

ShaperSkill

Навык изменения формы выходных данных. Он создает сложный тип для поддержки составных полей (также известных как многокомпонентные поля).

ShingleTokenFilter

Создает сочетания маркеров в виде одного маркера. Этот фильтр маркеров реализуется с помощью Apache Lucene.

Similarity

Базовый тип для алгоритмов сходства. Алгоритмы сходства используются для вычисления оценок, которые связывают запросы с документами. Чем выше оценка, тем более релевантный документ для конкретного запроса. Эти оценки используются для ранжирования результатов поиска.

SimpleField

Представляет поле в определении индекса, которое описывает имя, тип данных и поведение поиска поля.

SnowballTokenFilter

Фильтр, который объединяет слова с помощью парадигматического модуля, созданного Snowball. Этот фильтр маркеров реализуется с помощью Apache Lucene.

SoftDeleteColumnDeletionDetectionPolicy

Определяет политику обнаружения удаления данных, реализующую стратегию обратимого удаления. Он определяет, следует ли удалять элемент на основе значения назначенного столбца обратимого удаления.

SplitSkill

Навык разделения строки на фрагменты текста.

SqlIntegratedChangeTrackingPolicy

Определяет политику обнаружения изменений данных, которая фиксирует изменения с помощью функции интегрированного Отслеживание изменений базы данных Azure SQL.

StemmerOverrideTokenFilter

Предоставляет возможность переопределять другие фильтры с помощью пользовательского парадигматического поиска на основе словаря. Все термины, связанные со словарем, будут помечены как ключевые слова, чтобы они не были объединяться парадигматических модулей по цепочке. Необходимо поместить перед всеми стемминговыми фильтрами. Этот фильтр маркеров реализуется с помощью Apache Lucene.

StemmerTokenFilter

Фильтр стволов для конкретного языка. Этот фильтр маркеров реализуется с помощью Apache Lucene.

StopAnalyzer

Делит текст на небуквенный; Применяет фильтры токена нижнего регистра и токена стоп-слова. Этот анализатор реализуется с помощью Apache Lucene.

StopwordsTokenFilter

Удаляет стоп-слова из потока маркеров. Этот фильтр маркеров реализуется с помощью Apache Lucene.

SuggestDocumentsResult

Ответ, содержащий результаты запроса предложения из индекса.

SuggestRequest

Параметры для фильтрации, сортировки, нечеткого сопоставления и других вариантов поведения запросов.

SynonymMap

Представляет определение сопоставления синонимов.

SynonymTokenFilter

Соответствует синонимам из одного или нескольких слов в потоке маркеров. Этот фильтр маркеров реализуется с помощью Apache Lucene.

TagScoringFunction

Определяет функцию, которая повышает оценки документов со строковыми значениями, соответствующими заданному списку тегов.

TagScoringParameters

Предоставляет значения параметров для функции оценки тегов.

TextTranslationSkill

Навык перевода текста с одного языка на другой.

TextWeights

Определяет весовые коэффициенты для полей индекса, для которых совпадения должны повышать оценку в поисковых запросах.

TruncateTokenFilter

Усекает термины до определенной длины. Этот фильтр маркеров реализуется с помощью Apache Lucene.

UaxUrlEmailTokenizer

Размечает URL-адреса и сообщения электронной почты как один маркер. Этот создатель маркеров реализуется с помощью Apache Lucene.

UniqueTokenFilter

Отфильтровывает маркеры с тем же текстом, что и в предыдущем маркере. Этот фильтр маркеров реализуется с помощью Apache Lucene.

VectorSearch

Содержит параметры конфигурации, связанные с поиском векторов.

VectorSearchOptions

Определяет параметры для запросов поиска векторов

VectorSearchProfile

Определяет сочетание конфигураций, используемых при поиске векторов.

VectorizedQuery

Параметры запроса, используемые для поиска векторов при указании необработанного векторного значения.

WebApiSkill

Навык, который может вызывать конечную точку веб-API, позволяя расширить набор навыков, вызывая пользовательский код.

WordDelimiterTokenFilter

Разделяет слова на подслова и выполняет необязательные преобразования в группах подслов. Этот фильтр маркеров реализуется с помощью Apache Lucene.

Псевдонимы типа

AnalyzeTextOptions

Параметры для операции анализа текста.

AutocompleteMode

Определяет значения для параметра AutocompleteMode.

AutocompleteOptions

Параметры получения текста завершения для частичного searchText.

BlobIndexerDataToExtract

Известные значения, поддерживаемые службой

storageMetadata: индексирует только стандартные свойства большого двоичного объекта и метаданные, заданные пользователем. allMetadata. Извлекает метаданные, предоставляемые подсистемой хранилища BLOB-объектов Azure, и метаданные конкретного типа контента (например, метаданные, уникальные только для .png индексируются файлы). contentAndMetadata. Извлекает все метаданные и текстовое содержимое из каждого большого двоичного объекта.

BlobIndexerImageAction

Известные значения, поддерживаемые службой

none: игнорирует внедренные изображения или файлы изображений в наборе данных. Это значение по умолчанию. generateNormalizedImages: извлекает текст из изображений (например, слово "STOP" из знака остановки трафика) и внедряет его в поле содержимого. Для этого действия требуется, чтобы для параметра dataToExtract было задано значение contentAndMetadata. Нормализованное изображение относится к дополнительной обработке, что приводит к единообразию вывода изображения, размеру и повороту для повышения согласованности отрисовки при включении изображений в результаты визуального поиска. Эта функция формируют такие сведения по каждому изображению. generateNormalizedImagePerPage: извлекает текст из изображений (например, слово "СТОП" из знака остановки трафика) и внедряет его в поле содержимого, но обрабатывает PDF-файлы по-разному, так как каждая страница будет отображаться как изображение и нормализуется соответствующим образом, а не извлекать внедренные изображения. Типы файлов, отличные от PDF, будут обрабатываться так же, как если бы был задан параметр generateNormalizedImages.

BlobIndexerPDFTextRotationAlgorithm

Известные значения, поддерживаемые службой

none: использует обычное извлечение текста. Это значение по умолчанию. detectAngles: может улучшить и улучшить удобочитаемое извлечение текста из PDF-файлов с повернутым текстом. Обратите внимание, что при использовании этого параметра может быть небольшое влияние на скорость производительности. Этот параметр применяется только к PDF-файлам и только к PDF-файлам с внедренным текстом. Если повернутый текст отображается во внедренном изображении в PDF-файле, этот параметр не применяется.

BlobIndexerParsingMode

Известные значения, поддерживаемые службой

default: задайте значение по умолчанию для обычной обработки файлов. text: задайте значение text, чтобы повысить производительность индексирования файлов в виде обычного текста в хранилище BLOB-объектов. delimitedText: задайте значение delimitedText, если большие двоичные объекты являются обычными CSV-файлами. json: задайте значение json, чтобы извлечь структурированное содержимое из json-файлов. jsonArray. Задайте для параметра значение jsonArray, чтобы извлечь отдельные элементы массива JSON в виде отдельных документов в Когнитивный поиск Azure. jsonLines: задайте значение jsonLines, чтобы извлечь отдельные сущности JSON, разделенные новой строкой, в виде отдельных документов в Когнитивный поиск Azure.

CharFilter

Содержит возможные варианты для CharFilter.

CharFilterName

Определяет значения для CharFilterName.
<xref:KnownCharFilterName> может использоваться взаимозаменяемо с CharFilterName. Это перечисление содержит известные значения, поддерживаемые службой.

Известные значения, поддерживаемые службой

html_strip: фильтр символов, который пытается удалить конструкции HTML. См. раздел https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilterScripts

Определяет значения для CjkBigramTokenFilterScripts.

CognitiveServicesAccount

Содержит возможные варианты для CognitiveServicesAccount.

ComplexDataType

Определяет значения для ComplexDataType. Возможные значения: "Edm.ComplexType", "Collection(Edm.ComplexType)".

CountDocumentsOptions

Параметры для выполнения операции подсчета для индекса.

CreateDataSourceConnectionOptions

Параметры для операции создания источника данных.

CreateIndexOptions

Параметры для операции создания индекса.

CreateIndexerOptions

Параметры для операции создания индексатора.

CreateSkillsetOptions

Параметры для операции создания набора навыков.

CreateSynonymMapOptions

Параметры для операции создания синонимов.

CustomEntityLookupSkillLanguage

Определяет поддерживаемые языки для CustomEntityLookupSkillKnownCustomEntityLookupSkillLanguage можно использовать взаимозаменяемо с этим типом.

DataChangeDetectionPolicy

Содержит возможные варианты для DataChangeDetectionPolicy.

DataDeletionDetectionPolicy

Содержит возможные варианты для DataDeletionDetectionPolicy.

DeleteDocumentsOptions

Параметры для операции удаления документов.

EdgeNGramTokenFilterSide

Определяет значения для EdgeNGramTokenFilterSide.

EntityCategory
EntityRecognitionSkillLanguage

Определяет поддерживаемые языки для EntityRecognitionSkillKnownEntityRecognitionSkillLanguage можно использовать взаимозаменяемо с этим типом.

ExcludedODataTypes
ExhaustiveKnnAlgorithmConfiguration

Содержит параметры конфигурации, характерные для исчерпывающего алгоритма KNN, используемого во время запроса, который будет выполнять поиск методом подбора по всему индексу вектора.

ExtractDocumentKey
GetDataSourceConnectionOptions

Параметры для операции получения источника данных.

GetIndexOptions

Параметры для операции получения индекса.

GetIndexStatisticsOptions

Параметры для операции получения статистики индекса.

GetIndexerOptions

Параметры для операции получения индексатора.

GetIndexerStatusOptions

Параметры для операции получения состояния индексатора.

GetServiceStatisticsOptions

Параметры для операции получения статистики службы.

GetSkillSetOptions

Параметры для операции получения набора навыков.

GetSynonymMapsOptions

Параметры для операции получения синонимов.

HnswAlgorithmConfiguration

Содержит параметры конфигурации, относящиеся к приблизительному алгоритму ближайших соседей hnsw, используемому во время индексирования.

ImageAnalysisSkillLanguage

Определяет поддерживаемые языки для ImageAnalysisSkillKnownImageAnalysisSkillLanguage можно использовать взаимозаменяемо с этим типом.

ImageDetail
IndexActionType

Определяет значения для IndexActionType.

IndexDocumentsAction

Представляет действие индекса, которое работает с документом.

IndexIterator

Итератор для перечисления индексов, существующих в служба . Будет выполнять запросы по мере необходимости во время итерации. Используйте .byPage() для выполнения одного запроса к серверу для каждой итерации.

IndexNameIterator

Итератор для перечисления индексов, существующих в служба . Будет выполнять запросы по мере необходимости во время итерации. Используйте .byPage() для выполнения одного запроса к серверу для каждой итерации.

IndexerExecutionEnvironment

Известные значения, поддерживаемые службой

standard: указывает, что Когнитивный поиск Azure может определить, где должен выполняться индексатор. Это среда по умолчанию, если ничего не указано и является рекомендуемой. private: указывает, что индексатор должен выполняться в среде, подготовленной специально для службы поиска. Его следует указывать в качестве среды выполнения, только если индексатору требуется безопасный доступ к ресурсам через общие ресурсы приватного канала.

IndexerExecutionStatus

Определяет значения для IndexerExecutionStatus.

IndexerStatus

Определяет значения для IndexerStatus.

KeyPhraseExtractionSkillLanguage

Определяет поддерживаемые языки для KeyPhraseExtractionSkillKnownKeyPhraseExtractionSkillLanguage можно использовать взаимозаменяемо с этим типом.

LexicalAnalyzer

Содержит возможные варианты для анализатора.

LexicalAnalyzerName

Определяет значения для LexicalAnalyzerName.
<xref:KnownLexicalAnalyzerName> можно использовать взаимозаменяемо с LexicalAnalyzerName. Это перечисление содержит известные значения, поддерживаемые службой.

Известные значения, поддерживаемые службой

ar.microsoft: Анализатор Майкрософт для арабского языка.
ar.lucene: анализатор Lucene для арабского языка.
hy.lucene: Анализатор Люсена для армянского.
bn.microsoft: Анализатор Майкрософт для Bangla.
eu.lucene: анализатор Lucene для Баскского.
bg.microsoft: Анализатор Майкрософт для болгарского.
bg.lucene: анализатор Lucene для болгарского.
ca.microsoft: Анализатор Майкрософт для каталонского.
ca.lucene: Анализатор Lucene для каталонского.
zh-Hans.microsoft: Анализатор Майкрософт для китайского языка (упрощенное письмо).
zh-Hans.lucene: анализатор Lucene для китайского языка (упрощенное письмо).
zh-Hant.microsoft: Анализатор Майкрософт для китайского языка (традиционное письмо).
zh-Hant.lucene: анализатор Lucene для китайского языка (традиционное письмо).
hr.microsoft: Анализатор Майкрософт для хорватского языка.
cs.microsoft: Анализатор Майкрософт для чешского языка.
cs.lucene: анализатор Lucene для чешского языка.
da.microsoft: Анализатор Майкрософт для датского языка.
da.lucene: анализатор Lucene для датского языка.
nl.microsoft: Анализатор Майкрософт для голландского языка.
nl.lucene: анализатор Lucene для голландского языка.
en.microsoft: Анализатор Майкрософт для английского языка.
en.lucene: анализатор Lucene для английского языка.
et.microsoft: Анализатор Майкрософт для эстонии.
fi.microsoft: Анализатор Майкрософт для финского языка.
fi.lucene: анализатор Lucene для финского языка.
fr.microsoft: Анализатор Майкрософт для французского языка.
fr.lucene: анализатор Lucene для французского языка.
gl.lucene: Анализатор Lucene для Галисии.
de.microsoft: Анализатор Майкрософт для немецкого языка.
de.lucene: Анализатор Lucene для немецкого языка.
el.microsoft: Анализатор Майкрософт для греческого языка.
el.lucene: Анализатор Люсена для греческого языка.
gu.microsoft: Анализатор Майкрософт для Гуджарати.
he.microsoft: Анализатор Майкрософт для иврита.
hi.microsoft: Анализатор Майкрософт для хинди.
hi.lucene: Анализатор Lucene для хинди.
hu.microsoft: Анализатор Майкрософт для венгерского.
hu.lucene: Анализатор Lucene для венгерского.
is.microsoft: Анализатор Майкрософт для Исландии.
id.microsoft: Анализатор Майкрософт для индонезийского языка (Бахаса).
id.lucene: анализатор Lucene для индонезийского языка.
ga.lucene: анализатор Lucene для ирландского языка.
it.microsoft: Анализатор Майкрософт для итальянского языка.
it.lucene: анализатор Lucene для итальянского языка.
ja.microsoft: Анализатор Майкрософт для японского языка.
ja.lucene: анализатор Lucene для японского языка.
kn.microsoft: Анализатор Майкрософт для Каннада.
ko.microsoft: Анализатор Майкрософт для корейского языка.
ko.lucene: анализатор Lucene для корейского языка.
lv.microsoft: Анализатор Майкрософт для латышского языка.
lv.lucene: анализатор Lucene для латышского языка.
lt.microsoft: Анализатор Майкрософт для Литвы.
ml.microsoft: Анализатор Майкрософт для Малаялама.
ms.microsoft: Анализатор Майкрософт для малайского языка (латиница).
mr.microsoft: Анализатор Майкрософт для Маратхи.
nb.microsoft: Анализатор Майкрософт для норвежского языка (букмол).
no.lucene: анализатор Lucene для норвежского языка.
fa.lucene: анализатор Lucene для персидского языка.
pl.microsoft: Анализатор Майкрософт для польского.
pl.lucene: Анализатор Lucene для польского.
pt-BR.microsoft: Анализатор Майкрософт для португальского языка (Бразилия).
pt-BR.lucene: анализатор Lucene для португальского языка (Бразилия).
pt-PT.microsoft: Анализатор Майкрософт для португальского языка (Португалия).
pt-PT.lucene: анализатор Lucene для португальского языка (Португалия).
pa.microsoft: Анализатор Майкрософт для Punjabi.
ro.microsoft: Анализатор Майкрософт для румынского языка.
ro.lucene: Анализатор Lucene для румынского языка.
ru.microsoft: Анализатор Майкрософт для русского языка.
ru.lucene: Анализатор Lucene для русского языка.
sr-cyrillic.microsoft: Анализатор Майкрософт для сербского языка (кириллица).
sr-latin.microsoft: Анализатор Майкрософт для сербского языка (латиница).
sk.microsoft: Анализатор Майкрософт для словацкого языка.
sl.microsoft: Анализатор Майкрософт для словенского языка.
es.microsoft: Анализатор Майкрософт для испанского языка.
es.lucene: анализатор Lucene для испанского языка.
sv.microsoft: Анализатор Майкрософт для шведского языка.
sv.lucene: анализатор Lucene для шведского языка.
ta.microsoft: Анализатор Майкрософт для тамилов.
te.microsoft: Анализатор Майкрософт для Telugu.
th.microsoft: Анализатор Майкрософт для тайского языка.
th.lucene: анализатор Lucene для тайского языка.
tr.microsoft: Анализатор Майкрософт для турецкого языка.
tr.lucene: анализатор Lucene для турецкого языка.
uk.microsoft: Анализатор Майкрософт для украинского языка.
your.microsoft: Анализатор Майкрософт для Urdu.
vi.microsoft: Анализатор Майкрософт для Вьетнама.
standard.lucene: стандартный анализатор Lucene.
standardasciifolding.lucene: стандартный анализатор ASCII Folding Lucene. См. раздел https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers
ключевое слово. Обрабатывает все содержимое поля как один маркер. Это полезно для данных некоторых типов, таких как почтовые индексы, идентификаторы и названия продуктов. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html
pattern: гибко разделяет текст на термины с помощью шаблона регулярного выражения. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html
simple: делит текст на небуквенный и преобразует его в нижний регистр. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html
stop: делит текст на небуквенный; Применяет фильтры токена нижнего регистра и токена стоп-слова. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html
whitespace: анализатор, использующий создатель маркеров пробелов. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalTokenizer

Содержит возможные варианты для создателя маркеров.

LexicalTokenizerName

Определяет значения для LexicalTokenizerName.
<xref:KnownLexicalTokenizerName> можно использовать взаимозаменяемо с LexicalTokenizerName. Это перечисление содержит известные значения, поддерживаемые службой.

Известные значения, поддерживаемые службой

classic: грамматический создатель маркеров, который подходит для обработки большинства документов на европейском языке. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html
edgeNGram: маркеризует входные данные из ребра в n-граммы заданного размера. См. раздел https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html
keyword_v2: выдает все входные данные в виде одного маркера. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html
letter: делит текст на небуквенный. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html
нижний регистр: делит текст на небуквенный и преобразует его в нижний регистр. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html
microsoft_language_tokenizer. Разделяет текст с помощью правил для конкретного языка.
microsoft_language_stemming_tokenizer. Разделяет текст с помощью правил, зависящих от языка, и сводит слова к их базовым формам.
nGram: маркеризует входные данные в n-граммах заданного размера. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html
path_hierarchy_v2: создатель маркеров для иерархий, похожих на путь. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html
pattern: создатель токенов, использующий сопоставление шаблонов регулярных выражений для создания уникальных маркеров. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html
standard_v2: стандартный анализатор Lucene; Состоит из стандартного маркеризатора, нижнего регистра фильтра и фильтра stop. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html
uax_url_email: маркеризует URL-адреса и сообщения электронной почты как один маркер. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html
пробелы: делит текст на пробелы. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

ListDataSourceConnectionsOptions

Параметры для операции со списком источников данных.

ListIndexersOptions

Параметры для операции индексаторов списка.

ListIndexesOptions

Параметры для операции со списком индексов.

ListSkillsetsOptions

Параметры для операции со списком наборов навыков.

ListSynonymMapsOptions

Параметры для операции list synonymMaps.

MergeDocumentsOptions

Параметры для операции слияния документов.

MergeOrUploadDocumentsOptions

Параметры для операции слияния или отправки документов.

MicrosoftStemmingTokenizerLanguage

Определяет значения для MicrosoftStemmingTokenizerLanguage.

MicrosoftTokenizerLanguage

Определяет значения для MicrosoftTokenizerLanguage.

NarrowedModel

Сужает тип модели, включив только выбранные поля.

OcrSkillLanguage

Определяет поддерживаемые языки для OcrSkillKnownOcrSkillLanguage можно использовать взаимозаменяемо с этим типом.

PIIDetectionSkillMaskingMode

Определяет значения для PIIDetectionSkillMaskingMode.

Известные значения, поддерживаемые службой

none: маскирование не происходит, и выходные данные maskedText не будут возвращены. replace: заменяет обнаруженные сущности символом, заданным в параметре maskingCharacter. Символ будет повторяться до длины обнаруженной сущности, чтобы смещения правильно соответствовали как входному тексту, так и выходному maskedText.

PhoneticEncoder

Определяет значения для PhoneticEncoder.

QueryAnswer

Значение типа , указывающее, следует ли возвращать ответы как часть поискового ответа. Этот параметр действителен, только если тип запроса — "семантический". Если задано значение extractive, запрос возвращает ответы, извлеченные из ключевых фрагментов в документах с самым высоким рейтингом.

QueryCaption

Значение типа , указывающее, следует ли возвращать субтитры в ответе на поиск. Этот параметр действителен, только если тип запроса — "семантический". Если задано значение , запрос возвращает заголовки, извлеченные из ключевых фрагментов в документах с самым высоким рейтингом. Если параметр Captions имеет значение extractive, выделение включено по умолчанию. Значение по умолчанию — none.

QueryType

Определяет значения для QueryType.

RegexFlags

Определяет флаги для сопоставления шаблонов регулярных выражений

Известные значения, поддерживаемые службой

CANON_EQ: включает каноническую эквивалентность. CASE_INSENSITIVE. Включает сопоставление без учета регистра. КОММЕНТАРИИ: допускает пробелы и комментарии в шаблоне. DOTALL: включает режим dotall. LITERAL: включает литеральный анализ шаблона. MULTILINE: включает многостроковый режим. UNICODE_CASE: включает свертывание регистра с поддержкой Юникода. UNIX_LINES: включает режим строк Unix.

ResetIndexerOptions

Параметры для сброса операции индексатора.

RunIndexerOptions

Параметры запуска операции индексатора.

ScoringFunction

Содержит возможные варианты для ScoringFunction.

ScoringFunctionAggregation

Определяет значения для ScoringFunctionAggregation.

ScoringFunctionInterpolation

Определяет значения для ScoringFunctionInterpolation.

ScoringStatistics

Определяет значения для ScoringStatistics.

SearchField

Представляет поле в определении индекса, описывающее имя, тип данных и поведение поиска поля.

SearchFieldArray

Если TModel является нетипизированным объектом, массивом нетипизированных строк. В противном случае поля с разделителями косой чертой .TModel

SearchFieldDataType

Определяет значения для SearchFieldDataType. Возможные значения: "Edm.String", "Edm.Int32", "Edm.Int64", "Edm.Double", "Edm.Boolean", "Edm.DateTimeOffset", "Edm.GeographyPoint", 'Collection(Edm.String)', 'Collection(Edm.Int32)', 'Collection(Edm.Int64)', 'Collection(Edm.Double)', 'Collection(Edm.Boolean)', 'Collection(Edm.DateTimeOffset)', 'Collection(Edm.GeographyPoint)', 'Collection(Edm.Single)'

NB: Edm.Single только не является допустимым типом данных. Он должен использоваться как часть типа коллекции.

SearchIndexerDataSourceType
SearchIndexerSkill

Содержит возможные варианты для Skill.

SearchIndexingBufferedSenderDeleteDocumentsOptions

Параметры searchIndexingBufferedSenderDeleteDocuments.

SearchIndexingBufferedSenderFlushDocumentsOptions

Параметры searchIndexingBufferedSenderFlushDocuments.

SearchIndexingBufferedSenderMergeDocumentsOptions

Параметры searchIndexingBufferedSenderMergeDocuments.

SearchIndexingBufferedSenderMergeOrUploadDocumentsOptions

Параметры searchIndexingBufferedSenderMergeOrUploadDocuments.

SearchIndexingBufferedSenderUploadDocumentsOptions

Параметры searchIndexingBufferedSenderUploadDocuments.

SearchIterator

Итератор для результатов поиска патикулярного запроса. Будет выполнять запросы по мере необходимости во время итерации. Используйте .byPage() для выполнения одного запроса к серверу для каждой итерации.

SearchMode

Определяет значения для SearchMode.

SearchOptions

Параметры для фиксации запроса полного поиска.

SearchPick

Глубокий выбор полей T с помощью допустимых путей OData когнитивного поиска $select.

SearchRequestOptions

Параметры для фильтрации, сортировки, фасетирования, разбиения по страницам и других поведений поисковых запросов.

SearchRequestQueryTypeOptions
SearchResult

Содержит документ, найденный поисковым запросом, а также связанные метаданные.

SelectArray

Если TFields значение никогда не задано, массив нетипизированной строки. В противном случае — узкий Fields[] тип, который будет использоваться в другом месте потребляемого типа.

SelectFields

Создает объединение допустимых путей OData когнитивного поиска $select для T с помощью обхода после заказа дерева полей, корнями в T.

SemanticErrorMode

partial. Если семантическая обработка завершается сбоем, частичные результаты по-прежнему возвращаются. Определение частичных результатов зависит от того, какой семантический шаг завершился сбоем и что стало причиной сбоя.

fail. Если на этапе семантической обработки возникло исключение, запрос завершится ошибкой и вернет соответствующий код HTTP в зависимости от ошибки.

SemanticErrorReason

maxWaitExceeded: если задан параметр semanticMaxWaitInMilliseconds и семантическая длительность обработки превысила это значение. Были возвращены только базовые результаты.

capacityOverloaded: запрос был отрегулирован. Были возвращены только базовые результаты.

временный: по крайней мере один шаг семантического процесса завершился сбоем.

SemanticSearchResultsType

baseResults: результаты без семантического обогащения или повторного выполнения.

rerankedResults: результаты были повторно отрантированы с помощью модели reranker и будут содержать семантические субтитры. Они не будут включать ответы, ответы или подпись основные моменты.

SentimentSkillLanguage

Определяет поддерживаемые языки для SentimentSkillKnownSentimentSkillLanguage можно использовать взаимозаменяемо с этим типом.

SimilarityAlgorithm

Содержит возможные варианты сходства.

SnowballTokenFilterLanguage

Определяет значения для SnowballTokenFilterLanguage.

SplitSkillLanguage

Определяет поддерживаемые языки для SplitSkillKnownSplitSkillLanguage , которые можно использовать взаимозаменяемо с этим типом.

StemmerTokenFilterLanguage

Определяет значения для StemmerTokenFilterLanguage.

StopwordsList

Определяет значения для StopwordsList.

SuggestNarrowedModel
SuggestOptions

Параметры получения предложений на основе searchText.

SuggestResult

Результат, содержащий документ, найденный запросом предложения, а также связанные метаданные.

TextSplitMode
TextTranslationSkillLanguage

Определяет поддерживаемые языки для TextTranslationSkillKnownTextTranslationSkillLanguage можно использовать взаимозаменяемо с этим типом.

TokenCharacterKind

Определяет значения для TokenCharacterKind.

TokenFilter

Содержит возможные варианты для TokenFilter.

TokenFilterName

Определяет значения для TokenFilterName.
<xref:KnownTokenFilterName> можно использовать взаимозаменяемо с TokenFilterName. Это перечисление содержит известные значения, поддерживаемые службой.

Известные значения, поддерживаемые службой

arabic_normalization: фильтр маркеров, который применяет арабский нормализатор для нормализации орфографии. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html
апостроф: удаляет все символы после апострофа (включая сам апостроф). См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html
asciifolding. Преобразует буквенные, числовые и символьные символы Юникода, которые не входят в первые 127 символов ASCII (блок Юникода "Базовый латиница"), в их эквиваленты ASCII, если такие эквиваленты существуют. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html
cjk_bigram: формирует бикрамы терминов CJK, созданные из стандартного создателя маркеров. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html
cjk_width: нормализует различия в ширине CJK. Сворачивают варианты fullwidth ASCII в эквивалентный базовый латиница, а полуширинный вариант Катакана — в эквивалентную кану. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html
classic: удаляет английские притяжательные символы и точки из аббревиатур. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html
common_grams. Создание биграмов для часто встречающихся терминов во время индексирования. Отдельные термины также индексируются с наложением биграмм. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html
edgeNGram_v2: создает n граммов заданного размера, начиная с передней или задней части входного маркера. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html
elision: удаляет элизии. Например, "l'avion" (плоскость) будет преобразована в "avion" (плоскость). См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html
german_normalization: Нормализует немецкие символы в соответствии с эвристической алгоритмом snowball german2. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html
hindi_normalization: нормализует текст на хинди, чтобы удалить некоторые различия в вариантах орфографии. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html
indic_normalization: нормализует представление текста в Юникоде на индийских языках. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html
keyword_repeat: выдает каждый входящий маркер дважды: один раз как ключевое слово и один раз как не ключевое слово. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html
kstem: высокопроизводительный фильтр kstem для английского языка. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html
length: удаляет слишком длинные или слишком короткие слова. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html
limit: ограничивает количество маркеров при индексировании. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html
в нижнем регистре: нормализует текст маркера в нижнем регистре. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.htm
nGram_v2: создает n-граммов заданного размера. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html
persian_normalization: применяет нормализацию для персидского языка. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html
фонетическое: создание маркеров для фонетических совпадений. См. раздел https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html
porter_stem. Для преобразования потока маркеров используется алгоритм stemming Porter. См. раздел http://tartarus.org/~martin/PorterStemmer
reverse: отменяет строку маркера. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html
scandinavian_normalization: нормализует использование взаимозаменяемых скандинавских символов. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html
scandinavian_folding: Складки скандинавских символов åäæÄÆ-a> и öÖøØ-o>. Он также предотвращает использование двойных гласных aa, ae, ao, oe и oo, оставляя только первую. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html
Shingle: создает комбинации маркеров в виде одного маркера. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html
snowball: фильтр, который выравливает слова с помощью стеммера, созданного Snowball. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html
sorani_normalization: нормализует представление текста Sorani в Юникоде. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html
stemmer: фильтр для конкретного языка. См. раздел https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters
stopwords: удаляет слова stop из потока маркеров. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html
trim: обрезает начальные и конечные пробелы из маркеров. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html
усечение: усекает термины до определенной длины. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html
unique: отфильтровывает маркеры с тем же текстом, что и предыдущий маркер. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html
верхний регистр: нормализует текст маркера в верхнем регистре. См. раздел http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html
word_delimiter. Разбивает слова на подсловии и выполняет необязательные преобразования в группах подсловных слов.

UnionToIntersection
UploadDocumentsOptions

Параметры для операции отправки документов.

VectorFilterMode

Определяет, применяются ли фильтры до или после выполнения поиска векторов.

VectorQuery

Параметры запроса для векторных и гибридных поисковых запросов.

VectorQueryKind
VectorSearchAlgorithmConfiguration

Содержит параметры конфигурации, относящиеся к алгоритму, используемому во время индексирования и (или) запросов.

VectorSearchAlgorithmKind
VectorSearchAlgorithmMetric

Метрика сходства, используемая для векторного сравнения.

VisualFeature

Перечисления

KnownAnalyzerNames

Определяет значения для AnalyzerName. См. раздел https://docs.microsoft.com/rest/api/searchservice/Language-support

KnownBlobIndexerDataToExtract

Известные значения BlobIndexerDataToExtract , которые принимает служба.

KnownBlobIndexerImageAction

Известные значения BlobIndexerImageAction , которые принимает служба.

KnownBlobIndexerPDFTextRotationAlgorithm

Известные значения BlobIndexerPDFTextRotationAlgorithm , которые принимает служба.

KnownBlobIndexerParsingMode

Известные значения BlobIndexerParsingMode , которые принимает служба.

KnownCharFilterNames

Известные значения CharFilterName , которые принимает служба.

KnownCustomEntityLookupSkillLanguage

Известные значения CustomEntityLookupSkillLanguage , которые принимает служба.

KnownEntityCategory

Известные значения EntityCategory , которые принимает служба.

KnownEntityRecognitionSkillLanguage

Известные значения EntityRecognitionSkillLanguage , которые принимает служба.

KnownImageAnalysisSkillLanguage

Известные значения ImageAnalysisSkillLanguage , которые принимает служба.

KnownImageDetail

Известные значения ImageDetail , которые принимает служба.

KnownKeyPhraseExtractionSkillLanguage

Известные значения KeyPhraseExtractionSkillLanguage , которые принимает служба.

KnownOcrSkillLanguage

Известные значения OcrSkillLanguage , которые принимает служба.

KnownRegexFlags

Известные значения RegexFlags , которые принимает служба.

KnownSearchAudience

Известные значения для аудитории поиска

KnownSearchIndexerDataSourceType

Известные значения SearchIndexerDataSourceType , которые принимает служба.

KnownSentimentSkillLanguage

Известные значения SentimentSkillLanguage , которые принимает служба.

KnownSplitSkillLanguage

Известные значения SplitSkillLanguage , которые принимает служба.

KnownTextSplitMode

Известные значения TextSplitMode , которые принимает служба.

KnownTextTranslationSkillLanguage

Известные значения TextTranslationSkillLanguage , которые принимает служба.

KnownTokenFilterNames

Известные значения TokenFilterName , которые принимает служба.

KnownTokenizerNames

Известные значения LexicalTokenizerName , которые принимает служба.

KnownVisualFeature

Известные значения VisualFeature , которые принимает служба.

Функции

createSynonymMapFromFile(string, string)

Вспомогательный метод для создания объекта SynonymMap. Это единственный метод NodeJS.

odata(TemplateStringsArray, unknown[])

Экранирует выражение фильтра odata, чтобы избежать ошибок при кавыкании строковых литералах. Пример использования:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Дополнительные сведения о поддерживаемом синтаксисе см. в следующих разделах: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

Сведения о функции

createSynonymMapFromFile(string, string)

Вспомогательный метод для создания объекта SynonymMap. Это единственный метод NodeJS.

function createSynonymMapFromFile(name: string, filePath: string): Promise<SynonymMap>

Параметры

name

string

Имя SynonymMap.

filePath

string

Путь к файлу, который содержит синонимы (разделяемый новыми строками)

Возвращаемое значение

Promise<SynonymMap>

Объект SynonymMap

odata(TemplateStringsArray, unknown[])

Экранирует выражение фильтра odata, чтобы избежать ошибок при кавыкании строковых литералах. Пример использования:

const baseRateMax = 200;
const ratingMin = 4;
const filter = odata`Rooms/any(room: room/BaseRate lt ${baseRateMax}) and Rating ge ${ratingMin}`;

Дополнительные сведения о поддерживаемом синтаксисе см. в следующих разделах: https://docs.microsoft.com/en-us/azure/search/search-query-odata-filter

function odata(strings: TemplateStringsArray, values: unknown[]): string

Параметры

strings

TemplateStringsArray

Массив строк для выражения

values

unknown[]

Массив значений для выражения

Возвращаемое значение

string