Referencia del componente y algoritmo para el diseñador de Azure Machine Learning

SE APLICA A: SDK de Python azure-ai-ml v2 (actual)

Nota

El diseñador admite dos tipos de componentes: componentes precompilados clásicos y componentes personalizados. Estos dos tipos de componentes no son compatibles.

Los componentes precompilados clásicos proporcionan componentes precompilados principalmente para el procesamiento de datos y las tareas tradicionales de aprendizaje automático, como la regresión y la clasificación. Este tipo de componentes se sigue admitiendo, pero no se agregará ningún componente nuevo.

Los componentes personalizados permiten proporcionar su propio código como componente. Admiten el uso compartido entre áreas de trabajo y la creación fluida entre Estudio, la CLI y las interfaces del SDK.

Este artículo se aplica a los componentes precompilados clásicos.

Este contenido de referencia proporciona el contexto técnico de cada uno de los componentes precompilados clásicos disponibles en el diseñador de Azure Machine Learning.

Cada componente representa un conjunto de código que puede ejecutarse de forma independiente y realizar una tarea de aprendizaje automático, dadas las entradas necesarias. Un componente puede contener un algoritmo en particular o realizar una tarea que sea importante para el aprendizaje automático, como el reemplazo de un valor que falta o análisis estadísticos.

Para obtener ayuda con la elección de algoritmos, consulte

Sugerencia

En cualquier canalización del diseñador, puede obtener información sobre un componente específico. Seleccione el vínculo Más información en la tarjeta de componentes al mantener el puntero sobre el componente en la lista de componentes o en el panel derecho del componente.

Componentes de preparación de datos

Funcionalidad Descripción component
Entrada y salida de datos Mueva los datos de los orígenes en la nube a la canalización. Escriba los resultados o los datos intermedios en Azure Storage o SQL Database mientras ejecuta una canalización, o use el almacenamiento en la nube para intercambiar datos entre canalizaciones. Introducción manual de datos
Export Data
Import Data
Transformación de datos Operaciones con los datos que son exclusivas del aprendizaje automático, como la normalización o discretización de datos, la reducción de la dimensionalidad y la conversión de datos entre barios formatos de archivo. Adición de columnas
Adición de filas
Aplicación de operación matemática
Aplicación de transformaciones de SQL
Clean Missing Data (limpiar datos faltantes)
Recorte de valores
Conversión a CSV
Conversión en conjunto de datos
Convertir en valores de indicador
Edición de metadatos
Agrupación de datos en intervalos
Combinación de datos
Normalize Data (normalizar datos)
Partición y ejemplo
Supresión de filas duplicadas
SMOTE
Selección de transformación de columnas
Seleccionar columnas de conjunto de datos
División de datos
Selección de características Seleccione un subconjunto de características pertinentes y útiles para la creación de un modelo analítico. Selección de características basada en filtros
Importancia de la característica de permutación
Funciones estadísticas Proporcionar una amplia variedad de métodos estadísticos relacionados con la ciencia de datos. Resumen de datos

Algoritmos de aprendizaje automático

Funcionalidad Descripción component
Regresión Prediga un valor. Boosted Decision Tree Regression (Regresión del árbol de decisión ampliado)
Regresión de bosque de decisión
Regresión rápida de bosque por cuantiles
Regresión lineal
Regresión de red neuronal
Regresión de Poisson
Agrupación en clústeres Agrupe datos. Agrupación en clústeres K-Means
clasificación Prediga una clase. Elija en algoritmos binarios (dos clases) o multiclase. Árbol de decisión ampliado multiclase
Bosque de decisión multiclase
Regresión logística multiclase
Red neuronal multiclase
One vs. All Multiclass (Multiclase uno frente a todos)
Uno contra One Multiclass
Perceptrón promedio de dos clases
Two-Class Boosted Decision Tree (Árbol de decisión promovido por dos clases)
Bosque de decisión de dos clases
Regresión logística de dos clases
Red neuronal de dos clases
Two Class Support Vector Machine (Máquina de vectores compatible con dos clases)

Componentes para compilar y evaluar modelos

Funcionalidad Descripción component
Entrenamiento del modelo Ejecute datos a través del algoritmo. Entrenamiento del modelo de agrupación en clústeres
Train Model (entrenar modelo)
Entrenamiento del modelo de PyTorch
Tune Model Hyperparameters (Optimizar hiperparámetros del modelo)
Evaluación y puntuación del modelo Mida la precisión del modelo entrenado. Aplicación de la transformación
Assign Data to Clusters (asignar datos a los clústeres)
Cross Validate Model (Modelo de validación cruzada)
Evaluación de módulo
Puntuación del modelo de imagen
Score Model (puntuar modelo)
Lenguaje Python Escriba código e insértelo en un componente para integrar Python con la canalización. Creación de modelo Python
Ejecución de script de Python
Lenguaje R Escriba código e insértelo en un componente para integrar R con la canalización. Ejecución script de R
Text Analytics Proporcione herramientas de cálculo especializadas para trabajar con texto estructurado y no estructurado. Conversión de palabra en vector
Extracción de características de n-gramas a partir de texto
Hash de características
Preprocesamiento de texto
Asignación de Dirichlet latente
Puntuación del modelo de Vowpal Wabbit
Entrenamiento del modelo de Vowpal Wabbit
Computer Vision Componentes relacionados con el preprocesamiento de datos de imagen y el reconocimiento de imágenes. Aplicación de transformación de imagen
Conversión al directorio de imagen
Transformación de imagen init
División de directorio de imagen
DenseNet
ResNet
Recomendación Compile modelos de recomendación. Evaluate Recommender (Evaluar recomendador)
Score SVD Recommender (Puntuar recomendador de SVD)
Puntuación del recomendador ancho y profundo
Train SVD Recommender (Entrenar recomendador de SVD)
Entrenamiento del recomendador ancho y profundo
Detección de anomalías Compile modelos de detección de anomalías. Detección de anomalías basada en PCA
Train Anomaly Detection Model (entrenar un modelo de detección de anomalías)

Servicio web

Obtenga información sobre los componentes del servicio web, que son necesarios para la inferencia en tiempo real en el diseñador de Azure Machine Learning.

Mensajes de error

Obtenga información sobre los mensajes de error y códigos de excepción que pueden surgir al usar los componentes del diseñador de Azure Machine Learning.

Entorno de componentes

Todos los componentes integrados del diseñador se ejecutarán en un entorno fijo proporcionado por Microsoft.

Anteriormente, este entorno se basaba en Python 3.6, y ahora se ha actualizado a Python 3.8. Esta actualización es transparente, ya que los componentes se ejecutarán automáticamente en el entorno de Python 3.8 y no se requiere ninguna acción por parte del usuario. La actualización del entorno puede afectar a las salidas de los componentes e implementar un punto de conexión en tiempo real desde una inferencia en tiempo real. Consulte las secciones siguientes para obtener más información.

Las salidas de componentes son diferentes comparadas con los resultados anteriores.

Después de actualizar la versión de Python de la versión 3.6 a la 3.8, las dependencias de los componentes integrados también podrían actualizarse en consecuencia. Por lo tanto, es posible que algunas salidas de componentes sean diferentes comparadas con los resultados anteriores.

Si usa el componente Execute Python Script y ha instalado previamente paquetes vinculados a Python 3.6, es posible que se produzcan errores como:

  • «No se pudo encontrar una versión que cumpla el requisito.»
  • «No se encontró ninguna distribución coincidente.» Deberá especificar la versión del paquete adaptada a Python 3.8 y volver a ejecutar la canalización.

Implementar el punto de conexión en tiempo real desde un problema de canalización de inferencia en tiempo real

Si implementa directamente el punto de conexión en tiempo real desde una canalización de inferencia en tiempo real completada anteriormente, puede encontrarse con errores.

Recomendación: clone la canalización de inferencia y envíela de nuevo. A continuación, implemente el punto de conexión en tiempo real.

Pasos siguientes