Importar desde la base de datos de SQL Server local

En este artículo se describe cómo usar el módulo importar datos en Azure machine learning Studio (clásico) para importar datos de una base de datos de SQL Server local a un experimento de machine learning.

Nota

Se aplica a: machine learning Studio (clásico)

Este contenido solo pertenece a Studio (clásico). Se han agregado módulos similares de arrastrar y colocar al diseñador de Azure Machine Learning. Obtenga más información en este artículo comparativa de las dos versiones.

Azure Machine Learning puede tener acceso a una base de datos de SQL Server local si los datos se proporcionan mediante una Data Management Gateway de Microsoft. Por lo tanto, antes de usar importar datos, debe cumplir estos requisitos:

Después de establecer la conexión de puerta de enlace, puede especificar propiedades adicionales, como los nombres de servidor y base de datos, el método de autenticación y una consulta de base de datos.

Cómo instalar un Data Management Gateway de Microsoft

Para tener acceso a una base de datos de SQL Server local en Azure Machine Learning, debe descargar e instalar el Data Management Gateway de Microsoft y, a continuación, registrar la puerta de enlace en machine learning Studio (clásico).

Para obtener más información sobre cómo instalar y registrar la puerta de enlace, consulte estos artículos:

Cómo importar datos de una base de datos de SQL Server local

Una vez que se ha instalado un Data Management Gateway en un equipo en el que se puede tener acceso a la base de datos de SQL Server y se ha registrado la puerta de enlace en Machine Learning Studio (clásico), debe configurar el módulo importar datos .

Antes de empezar, deshabilite el bloqueador de elementos emergentes del explorador para el sitio studio.azureml.net .

Si usa el explorador Google Chrome, debe descargar e instalar uno de los complementos que están disponibles en Google Chrome Webstore: haga clic en la extensiónde la aplicación.

Usar el Asistente para importación de datos

El módulo incluye un nuevo asistente que le ayuda a elegir una opción de almacenamiento, seleccionar entre las suscripciones y cuentas existentes y configurar rápidamente todas las opciones.

  1. Agregue el módulo Importación de datos al experimento. Puede encontrar el módulo en Studio (clásico), en la categoría entrada y salida de datos .

  2. Haga clic en iniciar el Asistente para importar datos y siga las indicaciones.

  3. Una vez completada la configuración, para copiar realmente los datos en el experimento, haga clic con el botón derecho en el módulo y seleccione Ejecutar seleccionado.

Si necesita modificar una conexión de datos existente, el asistente carga todos los detalles de configuración anteriores para que no tenga que volver a empezar desde cero.

Establecer manualmente las propiedades en el módulo Importar datos

  1. Agregue el módulo Importación de datos al experimento. Puede encontrar el módulo en Studio (clásico), en la categoría entrada y salida de datos .

  2. En origen de datos, seleccione SQL Database local.

  3. Establezca las siguientes opciones específicas de la base de datos SQL Server.

    • Puerta de enlace de datos: seleccione la puerta de enlace que creó. La puerta de enlace debe estar registrada o no se muestra en la lista.

    • Nombre del servidor de base de datos: escriba el nombre de la instancia de SQL Server.

    • Nombre de la base de datos: escriba el nombre de la base de datos.

    • Haga clic en Enter values (Escribir valores) de User name and password (Nombre de usuario y contraseña) y escriba sus credenciales de la base de datos. Puede usar la autenticación integrada de Windows o la autenticación de SQL Server según la configuración de SQL Server local.

      Importante

      El administrador de credenciales se debe iniciar desde la misma red que la instancia de SQL Server y el cliente de puerta de enlace. No se pueden pasar credenciales entre dominios.

    • Escriba o pegue en la base de datos una instrucción SQL que describa los datos que desea leer. Valide siempre la instrucción SQL y compruebe los resultados de la consulta con antelación, mediante una herramienta como el Explorador de servidores de Visual Studio o SQL Server Data Tools.

    • Si no se espera que el conjunto de cambios cambie entre las ejecuciones del experimento, seleccione la opción usar resultados almacenados en caché . Cuando se selecciona esta opción, si no hay ningún otro cambio en los parámetros del módulo, el experimento cargará los datos la primera vez que se ejecute el módulo y, a partir de ese momento, usará una versión almacenada en caché del conjunto de datos.

  4. Ejecute el experimento.

Results

A medida que los datos de importación cargan los datos en Studio (clásico), es posible que se realice alguna conversión de tipos implícita, en función de los tipos de datos utilizados en la base de datos de origen. Para obtener más información sobre los tipos de datos, vea Module Data Types.

Cuando haya terminado, haga clic en el conjunto de datos de salida y seleccione Visualizar para ver si los datos se han importado correctamente.

Opcionalmente, puede cambiar el conjunto de datos y sus metadatos con las herramientas de Studio (clásico):

  • Use Edit Metadata (Editar metadatos) para cambiar los nombres de columna, para convertir una columna en un tipo de datos diferente, o para indicar qué columnas son etiquetas o características.

  • Use Select Columns in Dataset (Seleccionar columnas de conjunto de datos) para seleccionar un subconjunto de columnas.

  • Use la partición y el ejemplo para separar el conjunto de filas por criterios u obtener las n primeras filas.

Notas técnicas

Esta sección contiene detalles de implementación, sugerencias y respuestas a las preguntas más frecuentes.

Preguntas frecuentes

¿Se pueden filtrar los datos a medida que se leen desde el origen?

El propio módulo importar datos no admite el filtrado a medida que se leen los datos. Se recomienda crear una vista o definir una consulta que genere solo las filas que necesite.

Nota

Si descubre que ha cargado más datos de los que necesita, puede sobrescribir el conjunto de datos en caché. Para ello, lea un nuevo conjunto de datos y guárdelo con el mismo nombre que los datos más antiguos y más grandes.

¿Por qué aparece el error "no se admite el tipo decimal"

Al leer datos de una base de datos SQL, es posible que aparezca un mensaje de error que informa de un tipo de datos no admitido.

Si los datos que obtiene de la base de datos SQL incluyen tipos de datos que no se admiten en Azure Machine Learning, debe convertir los decimales a un tipo de datos compatible antes de leer los datos. El motivo es que la importación de datos no puede realizar automáticamente ninguna conversión que pueda provocar una pérdida de precisión.

¿Por qué algunos caracteres no se muestran correctamente?

Azure Machine Learning admite la codificación UTF-8. Si las columnas de cadena de la base de datos utilizan una codificación diferente, es posible que los caracteres no se importen correctamente.

Una opción para conservar estos caracteres es exportar los datos a un archivo CSV en Azure Storage y usar la opción CSV con codificación para especificar parámetros para delimitadores personalizados, la página de códigos, etc.

Configuro un Data Management Gateway en el servidor local. ¿Puedo compartir la misma puerta de enlace entre áreas de trabajo?

No. Debe crear una puerta de enlace independiente para cada área de trabajo.

Aunque puede configurar varias puertas de enlace de Administración de datos en una sola área de trabajo (por ejemplo, una para desarrollo, prueba, producción, etc.), una puerta de enlace no se puede compartir entre áreas de trabajo.

He configurado un Data Management Gateway en el servidor local que utilizo para Power BI o Azure Data Factory y desea usar la misma puerta de enlace para Azure Machine Learning

Cada servicio requiere un Data Management Gateway independiente. Si ya tiene una puerta de enlace que se usa para Power BI o Azure Data Factory, debe configurar un servidor independiente e instalar una puerta de enlace para machine learning.

No se pueden instalar varias puertas de enlace en un solo servidor.

Deseo poder exportar datos a la instancia local de SQL Server. ¿Puedo usar la puerta de enlace con el módulo exportar datos para escribir datos en el servidor SQL Server local?

Actualmente, Azure Machine Learning solo admite la importación de datos. Estamos evaluando si podrá escribir en la base de datos local en el futuro. Mientras tanto, puede usar Azure Data Factory para copiar datos desde la nube a la base de datos local.

Tengo un origen de datos que no es Microsoft SQL Server (Oracle, Teradata, etc.). ¿Puedo leer los datos en Azure Machine Learning mediante la opción local en el módulo importar datos?

Actualmente, el módulo Azure Machine Learning Import Data solo admite Microsoft SQL Server.

Como alternativa, puede usar Azure Data Factory para copiar los datos locales en el almacenamiento en la nube, como Azure Blob Storage o Azure Database y, después, usar el origen de datos en la nube en el módulo importar datos .

Parámetros del módulo

Nombre Intervalo Tipo Valor predeterminado Descripción
Origen de datos List Origen de datos o receptor Azure Blob Storage El origen de datos puede ser HTTP, FTP, HTTPS anónimo o FTPS, un archivo de Azure BLOB Storage, una tabla de Azure, una Azure SQL Database, una base de datos de SQL Server local, una tabla de Hive o un extremo de OData.
Puerta de enlace de datos cualquiera DataGatewayName ninguno Nombre de puerta de enlace de datos
Nombre del servidor de base de datos cualquiera String ninguno SQL Server local
Nombre de la base de datos cualquiera String ninguno Instancia de base de datos SQL Server local
Nombre de usuario y contraseña cualquiera SecureString ninguno Nombre de usuario y contraseña
Consulta de base de datos cualquiera StreamReader ninguno Consulta SQL local

Salidas

Nombre Tipo Descripción
Conjunto de datos de resultados Tabla de datos Conjunto de datos con datos descargados

Excepciones

Excepción Descripción
Error 0027 Se produce una excepción cuando dos objetos tienen que ser del mismo tamaño pero no lo son.
Error 0003 Se produce una excepción si una o varias de las entradas son nulas o están vacías.
Error 0029 Se produce una excepción cuando se pasa un URI no válido.
Error 0030 Se produce una excepción cuando no es posible descargar un archivo.
Error 0002 Se produce una excepción si uno o más parámetros no se pudieron analizar o convertir del tipo especificado al tipo requerido por el método de destino.
Error 0048 Se produce una excepción cuando no es posible abrir un archivo.
Error 0015 Se produce una excepción si se ha producido un error en la conexión de base de datos.
Error 0046 Se produce una excepción si no es posible crear el directorio en la ruta de acceso especificada.
Error 0049 Se produce una excepción cuando no es posible analizar un archivo.

Para obtener una lista de los errores específicos de los módulos de Studio (clásico), consulte Machine Learning de los códigos de error.

Para obtener una lista de excepciones de API, consulte códigos de error de la API de REST de machine learning.

Vea también

Importar datos
Exportar datos
Importar desde la dirección URL web a través de HTTP
Importar desde consulta de Hive
Importar desde Azure SQL Database
Importar desde la tabla de Azure
Importar desde Azure Blob Storage
Importar desde los proveedores de fuentes de distribución de datos