Microsoft.Azure.Search.Models Espacio de nombres

Clases

AccessCondition

Parámetros adicionales para un conjunto de operaciones.

Analyzer

Clase base abstracta para analizadores.

AnalyzeRequest

Especifica algunos componentes de texto y análisis que se usan para dividir ese texto en tokens.

AnalyzeResult

Resultado de la prueba de un analizador en texto.

AnalyzerName.AsString

Los nombres de todos los analizadores como cadenas sin formato.

AsciiFoldingTokenFilter

Convierte caracteres alfabéticos, numéricos y simbólicos Unicode que no están en los primeros 127 caracteres ASCII (el bloque Unicode "Basic Latin" ) en sus equivalentes ASCII, si existen dichos equivalentes. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html

AutocompleteItem

Resultado de las solicitudes de Autocompletar.

AutocompleteParameters

Parámetros adicionales para la operación AutocompleteGet.

AutocompleteResult

Resultado de la consulta Autocompletar.

CharFilter

Clase base abstracta para filtros de caracteres. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

CjkBigramTokenFilter

Forma bigramas de términos CJK que se generan a partir de StandardTokenizer. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html

ClassicTokenizer

Tokenizador basado en gramática que es adecuado para procesar la mayoría de los documentos de idioma europeo. Este tokenizador se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html

CognitiveServices

Clase base abstracta para describir cualquier recurso de Cognitive Services asociado al conjunto de aptitudes.

CognitiveServicesByKey

Un recurso de Cognitive Services aprovisionado con una clave que está asociada a un conjunto de aptitudes.

CommonGramTokenFilter

Construye bigramas para términos que se repiten con frecuencia durante la indexación. Los términos individuales también se indexan, con los bigramas superpuestos. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html

ConditionalSkill

Aptitud que permite escenarios que requieren una operación booleana para determinar los datos que se van a asignar a una salida. https://docs.microsoft.com/azure/search/cognitive-search-skill-conditional

CorsOptions

Define las opciones para controlar el uso compartido de recursos entre orígenes (CORS) para un índice. https://docs.microsoft.com/rest/api/searchservice/Create-Index

CustomAnalyzer

Permite tomar el control sobre el proceso de conversión de texto en tokens indexables o buscables. Se trata de una configuración definida por el usuario que consta de un único tokenizador predefinido y uno o varios filtros. El tokenizador es responsable de dividir el texto en tokens y de los filtros para modificar los tokens emitidos por el tokenizador.

DataChangeDetectionPolicy

Clase base abstracta para las directivas de detección de cambios de datos.

DataContainer

Representa información sobre la entidad (como Azure SQL tabla o colección DocumentDb) que se indexará.

DataDeletionDetectionPolicy

Clase base abstracta para las directivas de detección de eliminación de datos.

DataSource

Representa una definición de origen de datos, que se puede usar para configurar un indexador.

DataSourceCredentials

Representa las credenciales que pueden usarse para conectarse a un origen de datos.

DataSourceListResult

Respuesta de una solicitud List Datasources. Si se ejecuta correctamente, incluye las definiciones completas de todos los orígenes de datos.

DataType.AsString

Nombres de todos los tipos de datos como cadenas sin formato.

DataTypeExtensions

Define métodos de extensión para DataType.

DefaultCognitiveServices

Objeto vacío que representa el recurso predeterminado de Cognitive Services para un conjunto de aptitudes.

DictionaryDecompounderTokenFilter

Descompone las palabras compuestas que se encuentran en muchas lenguas germánicas. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/compound/DictionaryCompoundWordTokenFilter.html

DistanceScoringFunction

Define una función que aumenta las puntuaciones en función de la distancia desde una ubicación geográfica. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index

DistanceScoringParameters

Proporciona valores de parámetro a una función de puntuación de distancia.

Document

Representa un documento como contenedor de propiedades. Esto resulta útil en escenarios en los que el esquema de índice solo se conoce en tiempo de ejecución.

DocumentIndexResult

Respuesta que contiene el estado de las operaciones de todos los documentos de la solicitud de indexación.

DocumentSearchResult<T>

Respuesta que contiene los resultados de búsqueda de un índice.

DocumentSuggestResult<T>

Respuesta que contiene los resultados de la consulta de sugerencias de un índice.

EdgeNGramTokenFilter

Genera n-gramas de los tamaños especificados a partir de la parte delantera o posterior de un token de entrada. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html

EdgeNGramTokenFilterV2

Genera n-gramas de los tamaños especificados a partir de la parte delantera o posterior de un token de entrada. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html

EdgeNGramTokenizer

Tokeniza la entrada de un borde en n-gramas de los tamaños especificados. Este tokenizador se implementa mediante Apache Lucene. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html

ElisionTokenFilter

Quita las elisiones. Por ejemplo, "l'avion" (el plano) se convertirá en "avion" (plano). Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html

EntityRecognitionSkill

Reconocimiento de entidades de Text Analytics. https://docs.microsoft.com/azure/search/cognitive-search-skill-entity-recognition

FacetResult

Un único cubo de un resultado de consulta de faceta. Notifica el número de documentos con un valor de campo que se encuentra dentro de un intervalo determinado o que tiene un valor o intervalo determinado.

Field

Representa un campo de una definición de índice, que describe el nombre, el tipo de datos y el comportamiento de búsqueda de un campo. https://docs.microsoft.com/rest/api/searchservice/Create-Index

FieldMapping

Define una asignación entre un campo de un origen de datos y un campo de destino en un índice. https://docs.microsoft.com/azure/search/search-indexer-field-mappings

FieldMappingFunction

Representa una función que transforma un valor de un origen de datos antes de la indexación. https://docs.microsoft.com/azure/search/search-indexer-field-mappings

FreshnessScoringFunction

Define una función que aumenta las puntuaciones en función del valor de un campo de fecha y hora. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index

FreshnessScoringParameters

Proporciona valores de parámetro a una función de puntuación de actualización.

HighWaterMarkChangeDetectionPolicy

Define una directiva de detección de cambios de datos que captura los cambios en función del valor de una columna de marca de agua alta.

ImageAnalysisSkill

Aptitud que analiza los archivos de imagen. Extrae un amplio conjunto de características visuales basadas en el contenido de la imagen. https://docs.microsoft.com/azure/search/cognitive-search-skill-image-analysis

Index

Representa una definición de índice de búsqueda, que describe los campos y el comportamiento de búsqueda de un índice.

IndexAction

Proporciona métodos de fábrica para crear una acción de índice que funciona en un documento.

IndexAction<T>

Representa una acción de índice que funciona en un documento.

IndexBatch

Proporciona métodos de fábrica para crear un lote de operaciones de escritura de documentos que se van a enviar al índice de búsqueda.

IndexBatch<T>

Contiene un lote de acciones de escritura de documentos que se van a enviar al índice.

Indexer

Representa un indexador. https://docs.microsoft.com/rest/api/searchservice/Indexer-operations

IndexerExecutionInfo

Representa el historial de ejecución y el estado actual de un indizador.

IndexerExecutionResult

Representa el resultado de una ejecución de indizador individual.

IndexerLimits
IndexerListResult

Respuesta de una solicitud List Indexers. Si se ejecuta correctamente, incluye las definiciones completas de todos los indexadores.

IndexGetStatisticsResult

Estadísticas de un índice determinado. Las estadísticas se recopilan periódicamente y no se garantiza que siempre estén actualizadas.

IndexingParameters

Representa los parámetros para la ejecución del indizador.

IndexingParametersExtensions

Define métodos de extensión para la clase IndexingParameters.

IndexingResult

Estado de una operación de indexación para un único documento.

IndexingSchedule

Representa una programación para la ejecución del indizador.

IndexListResult

Respuesta de una solicitud de índices de lista. Si se ejecuta correctamente, incluye las definiciones completas de todos los índices.

InputFieldMappingEntry

Asignación de campos de entrada para una aptitud.

ItemError

Representa un error de indización de nivel de elemento o documento.

ItemWarning

Representa una advertencia de nivel de elemento.

KeepTokenFilter

Filtro de token que solo mantiene los tokens con texto contenido en una lista especificada de palabras. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeepWordFilter.html

KeyPhraseExtractionSkill

Una aptitud que usa text analytics para la extracción de frases clave. https://docs.microsoft.com/azure/search/cognitive-search-skill-keyphrases

KeywordMarkerTokenFilter

Marca los términos como palabras clave. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordMarkerFilter.html

KeywordTokenizer

Emite la entrada completa como un solo token. Este tokenizador se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html

KeywordTokenizerV2

Emite la entrada completa como un solo token. Este tokenizador se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html

LanguageDetectionSkill

Una aptitud que detecta el idioma del texto de entrada e informa de un único código de idioma para cada documento enviado en la solicitud. El código de idioma se empareja con una puntuación que indica la confianza del análisis. https://docs.microsoft.com/azure/search/cognitive-search-skill-language-detection

LengthTokenFilter

Quita las palabras que son demasiado largas o demasiado cortas. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html

LimitTokenFilter

Limita el número de tokens durante la indexación. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html

MagnitudeScoringFunction

Define una función que aumenta las puntuaciones en función de la magnitud de un campo numérico. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index

MagnitudeScoringParameters

Proporciona valores de parámetro a una función de puntuación de magnitud.

MappingCharFilter

Filtro de caracteres que aplica asignaciones definidas con la opción asignaciones. La coincidencia es ambiciosa (la mayor coincidencia de patrones en un momento dado gana). Se permite que la sustitución sea una cadena vacía. Este filtro de caracteres se implementa mediante Apache Lucene. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/MappingCharFilter.html

MergeSkill

Una aptitud para combinar dos o más cadenas en una sola cadena unificada, con un delimitador opcional definido por el usuario que separa cada parte de componente. https://docs.microsoft.com/azure/search/cognitive-search-skill-textmerger

MicrosoftLanguageStemmingTokenizer

Divide el texto mediante reglas específicas del idioma y reduce las palabras a sus formas base.

MicrosoftLanguageTokenizer

Divide el texto mediante reglas específicas del idioma.

NamedEntityRecognitionSkill

Text Analytics denominado reconocimiento de entidades. Esta aptitud está en desuso en favor de EntityRecognitionSkillhttps://docs.microsoft.com/azure/search/cognitive-search-skill-named-entity-recognition

NGramTokenFilter

Genera n-gramas de los tamaños dados. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html

NGramTokenFilterV2

Genera n-gramas de los tamaños dados. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html

NGramTokenizer

Tokeniza la entrada en n-gramas de tamaños dados. Este tokenizador se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html

OcrSkill

Una aptitud que extrae texto de los archivos de imagen. https://docs.microsoft.com/azure/search/cognitive-search-skill-ocr

OutputFieldMappingEntry

Asignación de campos de salida para una aptitud. https://docs.microsoft.com/rest/api/searchservice/naming-rules

PathHierarchyTokenizer

Tokenizador para las jerarquías parecidas a rutas de acceso. Este tokenizador se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html

PathHierarchyTokenizerV2

Tokenizador para las jerarquías parecidas a rutas de acceso. Este tokenizador se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html

PatternAnalyzer

Separa el texto de manera flexible en términos a través de un patrón de expresión regular. Este analizador se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html

PatternCaptureTokenFilter

Usa expresiones regulares de Java para emitir varios tokens: uno para cada grupo de capturas en uno o varios patrones. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternCaptureGroupTokenFilter.html

PatternReplaceCharFilter

Filtro de caracteres que reemplaza los caracteres de la cadena de entrada. Usa una expresión regular para identificar las secuencias de caracteres que se desean conservar y un patrón de reemplazo para identificar los caracteres que se desean reemplazar. Por ejemplo, dado el texto de entrada "aa bb aa bb", el patrón "(aa)\s+(bb)" y el reemplazo "$1#$2", el resultado sería "aa#bb aa#bb aa#bb". Este filtro de caracteres se implementa mediante Apache Lucene. https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternReplaceCharFilter.html

PatternReplaceTokenFilter

Filtro de caracteres que reemplaza los caracteres de la cadena de entrada. Usa una expresión regular para identificar las secuencias de caracteres que se desean conservar y un patrón de reemplazo para identificar los caracteres que se desean reemplazar. Por ejemplo, dado el texto de entrada "aa bb aa bb", el patrón "(aa)\s+(bb)" y el reemplazo "$1#$2", el resultado sería "aa#bb aa#bb aa#bb". Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternReplaceFilter.html

PatternTokenizer

Tokenizador que usa la coincidencia de patrones regex para construir tokens distintos. Este tokenizador se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html

PhoneticTokenFilter

Crea tokens para coincidencias fonéticas. Este filtro de token se implementa mediante Apache Lucene. https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html

RangeFacetResult<T>

Un único cubo de un resultado de consulta de faceta de intervalo que informa del número de documentos con un valor de campo que se encuentra dentro de un intervalo determinado.

ResourceCounter

Representa el uso y la cuota de un recurso.

ScoringFunction

Clase base abstracta para funciones que pueden modificar las puntuaciones de documentos durante la clasificación. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index

ScoringParameter

Representa un valor de parámetro que se va a usar en las funciones de puntuación (por ejemplo, referencePointParameter).

ScoringProfile

Define parámetros para un índice de búsqueda que influye en la puntuación en las consultas de búsqueda. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index

SearchContinuationToken

Encapsula el estado necesario para continuar capturando los resultados de búsqueda. Esto es necesario cuando Azure Cognitive Search no puede cumplir una solicitud de búsqueda con una única respuesta.

SearchParameters

Parámetros para filtrar, ordenar, facetar, paginar y otros comportamientos de consulta de búsqueda.

SearchRequestOptions

Parámetros adicionales para un conjunto de operaciones.

SearchResult<T>

Contiene un documento encontrado por una consulta de búsqueda, además de metadatos asociados.

SentimentSkill

Análisis de opiniones positivas negativas de Text Analytics, puntuadas como un valor de punto flotante en un intervalo de cero a 1. https://docs.microsoft.com/azure/search/cognitive-search-skill-sentiment

SerializePropertyNamesAsCamelCaseAttribute

Indica que las propiedades públicas de un tipo de modelo se deben serializar como mayúsculas y minúsculas para que coincidan con los nombres de campo de un índice de búsqueda.

ServiceCounters

Representa los contadores y cuotas de recursos de nivel de servicio.

ServiceLimits

Representa varios límites de nivel de servicio.

ServiceStatistics

Respuesta de una solicitud de obtención de estadísticas de servicio. Si se ejecuta correctamente, incluye contadores y límites de nivel de servicio.

ShaperSkill

Una aptitud para cambiar la forma de las salidas. Crea un tipo complejo para admitir campos compuestos (también conocidos como campos de varias partes). https://docs.microsoft.com/azure/search/cognitive-search-skill-shaper

ShingleTokenFilter

Crea combinaciones de tokens como un solo token. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html

Skill

Clase base abstracta para aptitudes. https://docs.microsoft.com/azure/search/cognitive-search-predefined-skills

Skillset

Lista de aptitudes. https://docs.microsoft.com/azure/search/cognitive-search-tutorial-blob

SkillsetListResult

Respuesta de una solicitud de conjunto de aptitudes de lista. Si se ejecuta correctamente, incluye las definiciones completas de todos los conjuntos de aptitudes.

SnowballTokenFilter

Filtro que deriva palabras mediante un lematizador generado por Snowball. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html

SoftDeleteColumnDeletionDetectionPolicy

Define una directiva de detección de eliminación de datos que implementa una estrategia de eliminación temporal. Determina si se debe eliminar un elemento en función del valor de una columna designada "eliminación temporal".

SplitSkill

Una aptitud para dividir una cadena en fragmentos de texto. https://docs.microsoft.com/azure/search/cognitive-search-skill-textsplit

SqlIntegratedChangeTrackingPolicy

Define una directiva de detección de cambios de datos que captura los cambios mediante la característica Change Tracking integrada de Azure SQL Database.

StandardAnalyzer

Analizador estándar de Apache Lucene; Compuesto por el tokenizador estándar, el filtro en minúsculas y el filtro stop. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardAnalyzer.html

StandardTokenizer

Divide el texto siguiendo las reglas de segmentación de texto Unicode. Este tokenizador se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html

StandardTokenizerV2

Divide el texto siguiendo las reglas de segmentación de texto Unicode. Este tokenizador se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html

StemmerOverrideTokenFilter

Proporciona la capacidad de invalidar otros filtros de lematización con lematización personalizada basada en diccionarios. Los términos con lematización del diccionario se marcarán como palabras clave para que no se lematice con lematizadores hacia abajo en la cadena. Se debe colocar antes de los filtros de lematización. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/StemmerOverrideFilter.html

StemmerTokenFilter

Filtro de lematización específico del idioma. Este filtro de token se implementa mediante Apache Lucene. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

StopAnalyzer

Divide el texto en letras no letras; Aplica los filtros de token en minúsculas y de palabra irrelevante. Este analizador se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html

StopwordsTokenFilter

Quita las palabras irrelevantes de una secuencia de tokens. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

Suggester

Define cómo se debe aplicar suggest API a un grupo de campos del índice.

SuggestParameters

Parámetros para filtrar, ordenar, coincidencia aproximada y otros comportamientos de consulta de sugerencias.

SuggestResult<T>

Resultado que contiene un documento encontrado por una consulta de sugerencia, además de metadatos asociados.

SynonymMap

Representa una definición de mapa de sinónimos.

SynonymMapListResult

Respuesta de una solicitud SynonymMaps de lista. Si se ejecuta correctamente, incluye las definiciones completas de todos los mapas de sinónimos.

SynonymTokenFilter

Coincide con sinónimos de una o varias palabras en una secuencia de tokens. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/synonym/SynonymFilter.html

TagScoringFunction

Define una función que aumenta las puntuaciones de documentos con valores de cadena que coinciden con una lista determinada de etiquetas. https://docs.microsoft.com/rest/api/searchservice/Add-scoring-profiles-to-a-search-index

TagScoringParameters

Proporciona valores de parámetro a una función de puntuación de etiquetas.

TextTranslationSkill

Aptitud para traducir texto de un idioma a otro. https://docs.microsoft.com/azure/search/cognitive-search-skill-text-translation

TextWeights

Define las ponderaciones en los campos de índice para los que las coincidencias deben aumentar la puntuación en las consultas de búsqueda.

TokenFilter

Clase base abstracta para filtros de token. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

TokenInfo

Información sobre un token devuelto por un analizador.

Tokenizer

Clase base abstracta para tokenizadores. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

TruncateTokenFilter

Trunca los términos a una longitud específica. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html

UaxUrlEmailTokenizer

Tokeniza las direcciones URL y los correos electrónicos como un token. Este tokenizador se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html

UniqueTokenFilter

Filtra los tokens con el mismo texto que el token anterior. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html

ValueFacetResult<T>

Un único cubo de un resultado de consulta de faceta simple o de intervalo que informa del número de documentos con un campo que se encuentra dentro de un intervalo determinado o que tiene un valor específico.

WebApiSkill

Aptitud que puede llamar a un punto de conexión de API web, lo que le permite ampliar un conjunto de aptitudes haciendo que llame al código personalizado. https://docs.microsoft.com/azure/search/cognitive-search-custom-skill-web-api

WordDelimiterTokenFilter

Divide palabras en subpalabras y realiza transformaciones opcionales en los grupos de subpalabras. Este filtro de token se implementa mediante Apache Lucene. http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/WordDelimiterFilter.html

Estructuras

AnalyzerName

Define los nombres de todos los analizadores de texto admitidos por Azure Cognitive Search. https://docs.microsoft.com/rest/api/searchservice/Language-support

BlobExtractionMode

Define qué partes de un blob se indexarán mediante el indexador de Blob Storage. https://docs.microsoft.com/azure/search/search-howto-indexing-azure-blob-storage

CharFilterName

Define los nombres de todos los filtros de caracteres admitidos por Azure Cognitive Search. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

DataSourceType

Define el tipo de un origen de datos.

DataType

Define el tipo de datos de un campo en un índice de búsqueda.

NamedEntityRecognitionSkillLanguage

Define el formato de los códigos de idioma admitidos namedEntityRecognitionSkill.

RegexFlags

Define marcas que se pueden combinar para controlar cómo se usan las expresiones regulares en el analizador de patrones y el tokenizador de patrones. http://docs.oracle.com/javase/6/docs/api/java/util/regex/Pattern.html#field_summary

TokenFilterName

Define los nombres de todos los filtros de token admitidos por Azure Cognitive Search. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

TokenizerName

Define los nombres de todos los tokenizadores admitidos por Azure Cognitive Search. https://docs.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search

Interfaces

IResourceWithETag

Las clases de modelo que implementan esta interfaz representan los recursos que se conservan con una versión de ETag en el servidor.

Enumeraciones

AutocompleteMode

Define valores para AutocompleteMode.

CjkBigramTokenFilterScripts

Define valores para CjkBigramTokenFilterScripts.

EdgeNGramTokenFilterSide

Define valores para EdgeNGramTokenFilterSide.

EntityCategory

Define valores para EntityCategory.

EntityRecognitionSkillLanguage

Define valores para EntityRecognitionSkillLanguage.

FacetType

Especifica el tipo de resultado de una consulta de faceta.

ImageAnalysisSkillLanguage

Define valores para ImageAnalysisSkillLanguage.

ImageDetail

Define valores para ImageDetail.

IndexActionType

Define valores para IndexActionType.

IndexerExecutionStatus

Define valores para IndexerExecutionStatus.

IndexerStatus

Define valores para IndexerStatus.

KeyPhraseExtractionSkillLanguage

Define los valores de KeyPhraseExtractionSkillLanguage.

MicrosoftStemmingTokenizerLanguage

Define los valores de MicrosoftStemmingTokenizerLanguage.

MicrosoftTokenizerLanguage

Define los valores de MicrosoftTokenizerLanguage.

NamedEntityCategory

Define los valores de NamedEntityCategory. Esto está en desuso, use EntityCategory en su lugar.

OcrSkillLanguage

Define valores para OcrSkillLanguage.

PhoneticEncoder

Define valores para PhoneticEncoder.

QueryType

Define los valores de QueryType.

ScoringFunctionAggregation

Define los valores de ScoringFunctionAggregation.

ScoringFunctionInterpolation

Define los valores de ScoringFunctionInterpolation.

SearchMode

Define valores para SearchMode.

SentimentSkillLanguage

Define los valores de SentimentSkillLanguage.

SnowballTokenFilterLanguage

Define los valores de SnowballTokenFilterLanguage.

SplitSkillLanguage

Define valores para SplitSkillLanguage.

StemmerTokenFilterLanguage

Define valores para StemmerTokenFilterLanguage.

StopwordsList

Define valores para StopwordsList.

TextExtractionAlgorithm

Define valores para TextExtractionAlgorithm.

TextSplitMode

Define valores para TextSplitMode.

TextTranslationSkillLanguage

Define valores para TextTranslationSkillLanguage.

TokenCharacterKind

Define valores para TokenCharacterKind.

VisualFeature

Define valores para VisualFeature.