Importar desde Azure SQL Database

En este artículo se describe cómo usar el módulo importar datos en Azure machine learning Studio (clásico) para obtener datos de un Azure SQL Database o Azure SQL Data Warehouse.

Nota

Se aplica a: machine learning Studio (clásico)

Este contenido solo pertenece a Studio (clásico). Se han agregado módulos similares de arrastrar y colocar al diseñador de Azure Machine Learning. Obtenga más información en este artículo comparativa de las dos versiones.

Para importar datos de una base de datos, debe especificar el nombre del servidor y el nombre de la base de datos, así como una instrucción SQL que defina la tabla, la vista o la consulta.

En general, el almacenamiento de datos en bases de datos de Azure es más caro que el uso de tablas o blobs en Azure. También puede haber límites en la cantidad de datos que puede almacenar en una base de datos, en función del tipo de suscripción. Sin embargo, no hay cuotas de transacciones en Azure SQL Database, por lo que esta opción es idónea para un acceso rápido a cantidades más pequeñas de información usada con frecuencia, como tablas de búsqueda de datos o diccionarios de datos.

También se prefiere almacenar datos en una base de datos de Azure si es necesario poder filtrar los datos antes de leerlos, o si se desea guardar las predicciones o las métricas en la base de datos para la creación de informes.

Cómo importar datos de Azure SQL Database o SQL Data Warehouse

Usar el Asistente para importación de datos

El módulo incluye un nuevo asistente que le ayuda a elegir una opción de almacenamiento, seleccionar entre las suscripciones y cuentas existentes y configurar rápidamente todas las opciones.

  1. Agregue el módulo Importación de datos al experimento. Puede encontrar el módulo en Studio (clásico), en la categoría entrada y salida de datos .

  2. Haga clic en iniciar el Asistente para importar datos y siga las indicaciones.

  3. Una vez completada la configuración, para copiar realmente los datos en el experimento, haga clic con el botón derecho en el módulo y seleccione Ejecutar seleccionado.

Si necesita modificar una conexión de datos existente, el asistente carga todos los detalles de configuración anteriores para que no tenga que volver a empezar desde cero.

Establecer manualmente las propiedades en el módulo Importar datos

En los pasos siguientes se describe cómo configurar manualmente el origen de la importación.

  1. Agregue el módulo Importación de datos al experimento. Puede encontrar este módulo en Studio (clásico), en la categoría entrada y salida de datos .

  2. En Data source (Origen de datos), seleccione Azure SQL Database.

  3. Establezca las siguientes opciones específicas de Azure SQL Database o Azure SQL Data Warehouse.

    Nombre del servidor de base de datos: escriba el nombre del servidor que genera Azure. Normalmente tiene el formato <generated_identifier>.database.windows.net.

    Nombre de la base de datos: escriba el nombre de una base de datos existente en el servidor que acaba de especificar.

    Nombre de la cuenta de usuario del servidor: escriba el nombre de usuario de una cuenta que tenga permisos de acceso para la base de datos.

    Contraseña de la cuenta de usuario del servidor: proporcione la contraseña de la cuenta de usuario especificada.

    Consulta de base de datos: escriba o pegue una instrucción SQL que describa los datos que desea leer. Valide siempre la instrucción SQL y compruebe los resultados de la consulta con antelación, mediante una herramienta como el Explorador de servidores de Visual Studio o SQL Server Data Tools.

    Nota

    El módulo importar datos solo admite la entrada del nombre de la base de datos, el nombre y la contraseña de la cuenta de usuario como credenciales.

  4. Si el conjunto de resultados que lee en Azure Machine Learning no se espera que cambie entre las ejecuciones del experimento, seleccione la opción usar resultados almacenados en caché .

    Cuando se selecciona esta opción, si no hay ningún otro cambio en los parámetros del módulo, el experimento carga los datos la primera vez que se ejecuta el módulo y, a partir de ese momento, usa una versión en caché del conjunto de datos.

    Si desea volver a cargar el conjunto de los conjuntos de pruebas en cada iteración del experimento, anule la selección de esta opción. El conjunto de datos se recarga desde el origen cada vez que se cambia cualquier parámetro en Import Data (Importar datos).

  5. Ejecute el experimento.

    A medida que los datos de importación cargan los datos en Studio (clásico), también podría realizarse alguna conversión de tipos implícita, dependiendo de los tipos de datos utilizados en la base de datos de origen.

Results

Cuando haya terminado la importación, haga clic en el conjunto de datos de salida y seleccione Visualize (Visualizar) para ver si los datos se han importado correctamente.

Opcionalmente, puede cambiar el conjunto de datos y sus metadatos con las herramientas de Studio (clásico):

  • Use Edit Metadata (Editar metadatos) para cambiar los nombres de columna, para convertir una columna en un tipo de datos diferente, o para indicar qué columnas son etiquetas o características.

  • Use Select Columns in Dataset (Seleccionar columnas de conjunto de datos) para seleccionar un subconjunto de columnas.

  • Use Partition and Sample (Partición y muestra) para separar el conjunto de datos por criterios u obtener las primeras n filas.

Ejemplos

Para ver un ejemplo de cómo usar los datos de las bases de datos de Azure en aprendizaje automático, consulte estos artículos y experimentos:

Notas técnicas

Esta sección contiene detalles de implementación, sugerencias y respuestas a las preguntas más frecuentes.

Preguntas frecuentes

¿Se pueden filtrar los datos a medida que se leen desde el origen?

El módulo importar datos no admite el filtrado a medida que se leen los datos. Se recomienda crear una vista o definir una consulta que genere solo las filas que necesite.

Nota

Si descubre que ha cargado más datos de los que necesita, puede sobrescribir el conjunto de datos en caché. Para ello, lea un nuevo conjunto de datos y guárdelo con el mismo nombre que los datos más antiguos y más grandes.

¿Por qué aparece el error "no se admite el tipo decimal"?

Al leer datos de una base de datos SQL, es posible que aparezca un mensaje de error que informa de un tipo de datos no admitido.

Si los datos que obtiene de la base de datos SQL incluyen tipos de datos que no se admiten en Azure Machine Learning, debe convertir los decimales a datos compatibles antes de leer los datos. La importación de datos no puede realizar automáticamente ninguna conversión que pueda provocar una pérdida de precisión.

Para obtener más información sobre los tipos de datos admitidos, vea Module Data Types.

Lo que sucede si la base de datos está en una región geográfica diferente. ¿Puede importar datos todavía tener acceso a la base de datos? ¿Dónde se guardan los datos?

Si la base de datos está en una región diferente de la cuenta de aprendizaje automático, el acceso a los datos puede ser más lento. Además, se le cobrará por la entrada y salida de datos en la suscripción si el nodo de proceso está en una región distinta a la de la cuenta de almacenamiento.

Los datos que lee en el área de trabajo de un experimento se guardan en la cuenta de almacenamiento asociada al experimento.

¿Por qué algunos caracteres no se muestran correctamente?

Azure Machine Learning admite la codificación UTF-8. Si las columnas de cadena de la base de datos utilizan una codificación diferente, es posible que los caracteres no se importen correctamente.

Una opción consiste en exportar los datos a un archivo CSV en Azure Storage y usar la opción CSV con codificación para especificar parámetros para delimitadores personalizados, la página de códigos, etc.

Parámetros del módulo

Nombre Intervalo Tipo Valor predeterminado Descripción
Origen de datos List Origen de datos o receptor Azure Blob Storage El origen de datos puede ser HTTP, FTP, HTTPS anónimo o FTPS, un archivo de Azure BLOB Storage, una tabla de Azure, una Azure SQL Database, una base de datos de SQL Server local, una tabla de Hive o un extremo de OData.
URI del servidor de HDFS cualquiera String ninguno Punto de conexión REST de HDFS
Nombre del servidor de base de datos cualquiera String ninguno Nombre de la cuenta de almacenamiento de Azure
Nombre de la base de datos cualquiera SecureString ninguno Claves de Azure Storage
Nombre de cuenta de usuario del servidor cualquiera String ninguno Nombre del contenedor de Azure
Nombre de cuenta de usuario del servidor Lista (subconjunto) Contenido de la dirección URL OData Tipo de formato de datos
Consulta de base de datos cualquiera String ninguno Tipo de formato de datos
Usar resultados almacenados en caché TRUE/FALSE Boolean false description

Salidas

Nombre Tipo Descripción
Conjunto de datos de resultados Tabla de datos Conjunto de datos con datos descargados

Excepciones

Excepción Descripción
Error 0027 Se produce una excepción cuando dos objetos tienen que ser del mismo tamaño pero no lo son.
Error 0003 Se produce una excepción si una o varias de las entradas son nulas o están vacías.
Error 0029 Se produce una excepción cuando se pasa un URI no válido.
Error 0030 Se produce una excepción cuando no es posible descargar un archivo.
Error 0002 Se produce una excepción si uno o más parámetros no se pudieron analizar o convertir del tipo especificado al tipo requerido por el método de destino.
Error 0009 Se produce una excepción si se especifica incorrectamente el nombre de la cuenta de almacenamiento de Azure o el nombre del contenedor.
Error 0048 Se produce una excepción cuando no es posible abrir un archivo.
Error 0015 Se produce una excepción si se ha producido un error en la conexión de base de datos.
Error 0046 Se produce una excepción si no es posible crear el directorio en la ruta de acceso especificada.
Error 0049 Se produce una excepción cuando no es posible analizar un archivo.

Para obtener una lista de los errores específicos de los módulos de Studio (clásico), consulte Machine Learning de los códigos de error.

Para obtener una lista de excepciones de API, consulte códigos de error de la API de REST de machine learning.

Vea también

Importar datos
Exportar datos
Importar desde la dirección URL web a través de HTTP
Importar desde consulta de Hive
Importar desde la tabla de Azure
Importar desde Azure Blob Storage
Importar desde proveedores de fuentes de distribución de datos
Importar desde la base de datos de SQL Server local