Conectores de Power Query (versión preliminar)

Importante

La compatibilidad con el conector de Power Query se introdujo como versión preliminar pública controlada según los Términos de uso complementarios para las Versiones preliminares de Microsoft Azure, pero ahora está descontinuada. Si tiene una solución de búsqueda que usa un conector de Power Query, migre a una solución alternativa.

Migración del 28 de noviembre

La versión preliminar del conector de Power Query se anunció en mayo de 2021 y no avanzará hacia la disponibilidad general. La siguiente guía de migración está disponible para Snowflake y PostgreSQL. Si usa otro conector y necesita instrucciones de migración, use la información de contacto de correo electrónico proporcionada en el registro de la versión preliminar para solicitar ayuda o abrir una incidencia con el equipo de Soporte técnico de Azure.

Requisitos previos

Migración de una canalización de datos de Snowflake

En esta sección, se explica cómo copiar datos de una base de datos de Snowflake a un índice de Azure Cognitive Search. No hay ningún proceso para indexar directamente desde Snowflake a Azure Cognitive Search, por lo que esta sección incluye una fase de almacenamiento provisional que copia el contenido de la base de datos en un contenedor de blobs de Azure Storage. A continuación, realizará la indexación desde ese contenedor de almacenamiento provisional mediante una canalización de Data Factory.

Paso 1: Recuperación de la información de la base de datos de Snowflake

  1. Vaya a Snowflake e inicie sesión en su cuenta de Snowflake. Una cuenta de Snowflake es similar a https://<nombre_de_cuenta>.snowflakecomputing.com.

  2. Una vez que haya iniciado sesión, recopile la siguiente información en el panel izquierdo. Utilizará esta información en el siguiente paso:

    • En Data (Datos), seleccione Databases (Bases de datos) y copie el nombre del origen de la base de datos.
    • En Admin (Administración), seleccione Users & Roles (Usuarios y roles) y copie el nombre del usuario. Asegúrese de que el usuario tenga permisos de lectura.
    • En Admin (Administración), seleccione Accounts (Cuentas) y copie el valor de LOCATOR (Localizador) de la cuenta.
    • Desde la dirección URL de Snowflake, que es similar a https://app.snowflake.com/<region_name>/xy12345/organization), copie el nombre de la región. Por ejemplo, en https://app.snowflake.com/south-central-us.azure/xy12345/organization, el nombre de la región es south-central-us.azure.
    • En Admin (Administración), seleccione Warehouses (Almacenes) y copie el nombre del almacén asociado a la base de datos que usará como origen.

Paso 2: Configuración del servicio vinculado de Snowflake

  1. Inicie sesión en Azure Data Factory Studio con su cuenta de Azure.

  2. Seleccione la factoría de datos y, a continuación, seleccione Continuar.

  3. En el menú izquierdo, seleccione el icono Administrar.

    Screenshot showing how to choose the Manage icon in Azure Data Factory to configure Snowflake Linked Service.

  4. En Servicios vinculados, seleccione Nuevo.

    Screenshot showing how to choose New Linked Service in Azure Data Factory.

  5. En el panel derecho, en la búsqueda del almacén de datos, escriba "snowflake". Seleccione el icono de Snowflake y seleccione Continuar.

    Screenshot showing how to choose Snowflake tile in new Linked Service data store.

  6. Rellene el formulario Nuevo servicio vinculado con los datos recopilados en el paso anterior. El nombre de la cuenta incluye un valor LOCATOR (Localizador) y la región (por ejemplo: xy56789south-central-us.azure).

    Screenshot showing how to fill out Snowflake Linked Service form.

  7. Una vez completado el formulario, seleccione Probar conexión.

  8. Si la prueba se realiza correctamente, seleccione Crear.

Paso 3: Configuración del conjunto de datos de Snowflake

  1. En el menú izquierdo, seleccione el icono Crear.

  2. Seleccione Conjuntos de datos y, a continuación, seleccione el menú de puntos suspensivos de acciones de conjuntos de datos (...).

    Screenshot showing how to choose the Author icon and datasets option.

  3. Seleccione Nuevo conjunto de datos.

    Screenshot showing how to choose a new dataset in Azure Data Factory for Snowflake.

  4. En el panel derecho, en la búsqueda del almacén de datos, escriba "snowflake". Seleccione el icono de Snowflake y seleccione Continuar.

    Screenshot showing how to choose Snowflake from data source for Dataset.

  5. En Definir propiedades:

    • Seleccione el servicio vinculado que creó en el paso 2.
    • Seleccione la tabla que desea importar y, a continuación, seleccione Aceptar.

    Screenshot showing how to configure dataset properties for Snowflake.

  6. Seleccione Guardar.

Cree un nuevo índice en el servicio Azure Cognitive Search con el mismo esquema que el que ha configurado actualmente para los datos de Snowflake.

Puede reasignar el índice que está usando actualmente para el conector de Power Query de Snowflake. En Azure Portal, busque el índice y seleccione Definición de índice (JSON). Seleccione la definición y cópiela en el cuerpo de la nueva solicitud de índice.

Screenshot showing how to copy existing Azure Cognitive Search index JSON configuration for existing Snowflake index.

Paso 5: Configuración del servicio vinculado de Azure Cognitive Search

  1. En el menú izquierdo, seleccione el icono Administrar.

    Screenshot showing how to choose the Manage icon in Azure Data Factory to add a new linked service.

  2. En Servicios vinculados, seleccione Nuevo.

    Screenshot showing how to choose New Linked Service in Azure Data Factory for Cognitive Search.

  3. En el panel derecho, en la búsqueda del almacén de datos, escriba "search". Seleccione el icono de Azure Search y seleccione Continuar.

    Screenshot showing how to choose New Linked Search in Azure Data Factory to import from Snowflake.

  4. Rellene los valores de Nuevo servicio vinculado:

    • Elija la suscripción de Azure donde reside el servicio Azure Cognitive Search.
    • Elija el servicio Azure Cognitive Search que tiene el indexador del conector de Power Query.
    • Seleccione Crear.

    Screenshot showing how to choose New Linked Search Service in Azure Data Factory with its properties to import from Snowflake.

Paso 6: Configuración del conjunto de datos de Azure Cognitive Search

  1. En el menú izquierdo, seleccione el icono Crear.

  2. Seleccione Conjuntos de datos y, a continuación, seleccione el menú de puntos suspensivos de acciones de conjuntos de datos (...).

    Screenshot showing how to choose the Author icon and datasets option for Cognitive Search.

  3. Seleccione Nuevo conjunto de datos.

    Screenshot showing how to choose a new dataset in Azure Data Factory.

  4. En el panel derecho, en la búsqueda del almacén de datos, escriba "search". Seleccione el icono de Azure Search y seleccione Continuar.

    Screenshot showing how to choose an Azure Cognitive Search service for a Dataset in Azure Data Factory to use as sink.

  5. En Definir propiedades:

    • Seleccione el servicio vinculado que creó recientemente en el paso 5.

    • Elija el índice de búsqueda que creó en el paso 4.

    • Seleccione Aceptar.

      Screenshot showing how to choose New Search Linked Service in Azure Data Factory for Snowflake.

  6. Seleccione Guardar.

Paso 7: Configuración del servicio vinculado de Azure Blob Storage

  1. En el menú izquierdo, seleccione el icono Administrar.

    Screenshot showing how to choose the Manage icon in Azure Data Factory to link a new service.

  2. En Servicios vinculados, seleccione Nuevo.

    Screenshot showing how to choose New Linked Service in Azure Data Factory to assign a storage account.

  3. En el panel derecho, en la búsqueda del almacén de datos, escriba "storage". Seleccione el icono de Azure Blob Storage en la lista y, a continuación, seleccione Continuar.

    Screenshot showing how to choose New Linked Blob Storage Service to use as sink for Snowflake in Azure Data Factory.

  4. Rellene los valores de Nuevo servicio vinculado:

    • Elija el tipo de autenticación: URI de SAS. Solo se puede usar este tipo de autenticación para importar datos de Snowflake en Azure Blob Storage.

    • Genere una dirección URL de SAS para la cuenta de almacenamiento que usará para el almacenamiento provisional. Pegue la dirección URL de SAS del blob en el campo Dirección URL de SAS.

    • Seleccione Crear.

      Screenshot showing how to fill out New Linked Search Service form in Azure Data Factory with its properties to import from SnowFlake.

Paso 8: Configuración del conjunto de datos de Storage

  1. En el menú izquierdo, seleccione el icono Crear.

  2. Seleccione Conjuntos de datos y, a continuación, seleccione el menú de puntos suspensivos de acciones de conjuntos de datos (...).

    Screenshot showing how to choose the Author icon and datasets option.

  3. Seleccione Nuevo conjunto de datos.

    Screenshot showing how to choose a new dataset for storage in Azure Data Factory.

  4. En el panel derecho, en la búsqueda del almacén de datos, escriba "storage". Seleccione el icono de Azure Blob Storage en la lista y, a continuación, seleccione Continuar.

    Screenshot showing how to choose a new blob storage data store in Azure Data Factory for staging.

  5. Seleccione DelimitedText como formato y, luego, seleccione Continuar.

  6. En Definir propiedades:

    • En Servicio vinculado, seleccione el servicio vinculado creado en el paso 7.

    • En Ruta de acceso del archivo, elija el contenedor que será el receptor para el proceso de almacenamiento provisional y seleccione Aceptar.

      Screenshot showing how to configure properties for storage dataset for Snowflake in Azure Data Factory.

    • En Delimitador de fila, seleccione Avance de línea (\n).

    • Active la casilla Primera fila como encabezado.

    • Seleccione Guardar.

      Screenshot showing how to save a DelimitedText configuration to be used as sink for Snowflake.

Paso 9: Configuración de la canalización

  1. En el menú izquierdo, seleccione el icono Crear.

  2. Seleccione Canalizaciones y, a continuación, seleccione el menú de puntos suspensivos de acciones de canalizaciones (...).

    Screenshot showing how to choose the Author icon and Pipelines option to configure Pipeline for Snowflake data transformation.

  3. Selecciona Nueva canalización.

    Screenshot showing how to choose a new Pipeline in Azure Data Factory to create for Snowflake data ingestion.

  4. Cree y configure las actividades de Data Factory que copian desde Snowflake al contenedor de Azure Storage:

    • Expanda la sección Mover y transformar y arrastre y coloque la actividad Copiar datos en el lienzo del editor de canalizaciones en blanco.

      Screenshot showing how to drag and drop a Copy data activity in Pipeline canvas to copy data from Snowflake.

    • Abra la pestaña General. Acepte los valores predeterminados a menos que necesite personalizar la ejecución.

    • En la pestaña Origen, seleccione la tabla de Snowflake. Deje las opciones restantes con los valores predeterminados.

      Screenshot showing how to configure the Source in a pipeline to import data from Snowflake.

    • En la pestaña Receptor:

      • Seleccione el conjunto de datos Storage DelimitedText creado en el paso 8.

      • En Extensión de archivo, agregue .csv.

      • Deje las opciones restantes con los valores predeterminados.

        Screenshot showing how to configure the sink in a Pipeline to move the data to Azure Storage from Snowflake.

    • Seleccione Guardar.

  5. Configure las actividades que copian de Azure Storage Blob a un índice de búsqueda:

    • Expanda la sección Mover y transformar y arrastre y coloque la actividad Copiar datos en el lienzo del editor de canalizaciones en blanco.

      Screenshot showing how to drag and drop a Copy data activity in Pipeline canvas to index from Storage.

    • En la pestaña General, acepte los valores predeterminados a menos que necesite personalizar la ejecución.

    • En la pestaña Origen:

      • Seleccione el conjunto de datos Storage DelimitedText creado en el paso 8.
      • En el campo Tipo de ruta de acceso de archivo, seleccione Ruta de acceso de archivo comodín.
      • Deje todos los campos restantes con los valores predeterminados.

      Screenshot showing how to configure the Source in a pipeline to import data from blob storage to Azure Cognitive Search index for staging phase.

    • En la pestaña Receptor, seleccione el índice de Azure Cognitive Search. Deje las opciones restantes con los valores predeterminados.

      Screenshot showing how to configure the Sink in a pipeline to import data from blob storage to Azure Cognitive Search index as final step from pipeline.

    • Seleccione Guardar.

Paso 10: Configuración del orden de las actividades

  1. En el editor de lienzo de la canalización, seleccione el pequeño cuadrado verde situado en el borde del icono de actividad de canalización. Arrástrelo a la actividad "Índices desde la cuenta de Storage a Azure Cognitive Search" para establecer el orden de ejecución.

  2. Seleccione Guardar.

    Screenshot showing how to link Pipeline activities to provide the order of execution for Snowflake.

Paso 11: Adición de un desencadenador de canalización

  1. Seleccione Agregar desencadenador para programar la ejecución de la canalización y seleccione Nuevo/Editar.

    Screenshot showing how to add a new trigger for a Pipeline in Data Factory to run for Snowflake.

  2. En la lista desplegable Elegir desencadenador, seleccione Nuevo.

    Screenshot showing how to select adding a new trigger for a Pipeline in Data Factory for Snowflake.

  3. Revise las opciones del desencadenador para ejecutar la canalización y seleccione Aceptar.

    Screenshot showing how to configure a trigger to run a Pipeline in Data Factory for Snowflake.

  4. Seleccione Guardar.

  5. Seleccione Publicar.

    How to Publish a Pipeline in Data Factory for Snowflake ingestion to index.

Migración de una canalización de datos de PostgreSQL

En esta sección, se explica cómo copiar datos de una base de datos de PostgreSQL a un índice de Azure Cognitive Search. No hay ningún proceso para indexar directamente desde PostgreSQL a Azure Cognitive Search, por lo que esta sección incluye una fase de almacenamiento provisional que copia el contenido de la base de datos en un contenedor de blobs de Azure Storage. A continuación, realizará la indexación desde ese contenedor de almacenamiento provisional mediante una canalización de Data Factory.

Paso 1: Configuración del servicio vinculado de PostgreSQL

  1. Inicie sesión en Azure Data Factory Studio con su cuenta de Azure.

  2. Seleccione la factoría de datos y, a continuación, seleccione Continuar.

  3. En el menú izquierdo, seleccione el icono Administrar.

    How to choose the Manage icon in Azure Data Factory.

  4. En Servicios vinculados, seleccione Nuevo.

    Screenshot showing how to choose New Linked Service in Azure Data Factory.

  5. En el panel derecho, en la búsqueda del almacén de datos, escriba "postgresql". Seleccione el icono de PostgreSQL que representa dónde se encuentra la base de datos de PostgreSQL (Azure u otro) y seleccione Continuar. En este ejemplo, la base de datos de PostgreSQL se encuentra en Azure.

    How to choose PostgreSQL data store for a Linked Service in Azure Data Factory.

  6. Rellene los valores de Nuevo servicio vinculado:

    • En Método de selección de cuenta, seleccione Especificar manualmente.

    • En la página de información general de la instancia de Azure Database for PostgreSQL en Azure Portal, pegue los valores siguientes en su campo respectivo:

      • Agregue el nombre del servidor al nombre de dominio completo.
      • Agregue el nombre de usuario administrador a Nombre de usuario.
      • Agregue la base de datos a Nombre de base de datos.
      • Escriba la contraseña del nombre de usuario administrador en Contraseña de nombre de usuario.
      • Seleccione Crear.

      Choose the Manage icon in Azure Data Factory

Paso 2: Configuración del conjunto de datos de PostgreSQL

  1. En el menú izquierdo, seleccione el icono Crear.

  2. Seleccione Conjuntos de datos y, a continuación, seleccione el menú de puntos suspensivos de acciones de conjuntos de datos (...).

    Screenshot showing how to choose the Author icon and datasets option.

  3. Seleccione Nuevo conjunto de datos.

    Screenshot showing how to choose a new dataset in Azure Data Factory.

  4. En el panel derecho, en la búsqueda del almacén de datos, escriba "postgresql". Seleccione el icono de Azure PostgreSQL. Seleccione Continuar.

    Screenshot showing how to choose PostgreSQL data store for a Dataset in Azure Data Factory.

  5. Rellene los valores de Definir propiedades:

    • Elija el servicio vinculado de PostgreSQL creado en el paso 1.

    • Seleccione la tabla que quiere importar o indexar.

    • Seleccione Aceptar.

      Screenshot showing how to set PostgreSQL properties for dataset in Azure Data Factory.

  6. Seleccione Guardar.

Cree un nuevo índice en el servicio Azure Cognitive Search con el mismo esquema que el que se usa para los datos de PostgreSQL.

Puede reasignar el índice que está usando actualmente para el conector de Power Query de PostgreSQL. En Azure Portal, busque el índice y seleccione Definición de índice (JSON). Seleccione la definición y cópiela en el cuerpo de la nueva solicitud de índice.

Screenshot showing how to copy existing Azure Cognitive Search index JSON configuration.

Paso 4: Configuración del servicio vinculado de Azure Cognitive Search

  1. En el menú izquierdo, seleccione el icono Administrar.

    Screenshot showing how to choose the Manage icon in Azure Data Factory to link a service.

  2. En Servicios vinculados, seleccione Nuevo.

    Screenshot showing how to choose New Linked Service in Azure Data Factory.

  3. En el panel derecho, en la búsqueda del almacén de datos, escriba "search". Seleccione el icono de Azure Search y seleccione Continuar.

    Screenshot showing how to choose New Linked Search service in Azure Data Factory.

  4. Rellene los valores de Nuevo servicio vinculado:

    • Elija la suscripción de Azure donde reside el servicio Azure Cognitive Search.
    • Elija el servicio Azure Cognitive Search que tiene el indexador del conector de Power Query.
    • Seleccione Crear.

    Screenshot showing how to choose New Linked Search Service in Azure Data Factory with its properties to import from PostgreSQL.

Paso 5: Configuración del conjunto de datos de Azure Cognitive Search

  1. En el menú izquierdo, seleccione el icono Crear.

  2. Seleccione Conjuntos de datos y, a continuación, seleccione el menú de puntos suspensivos de acciones de conjuntos de datos (...).

    Screenshot showing how to choose the Author icon and datasets option.

  3. Seleccione Nuevo conjunto de datos.

    Screenshot showing how to choose a new dataset in Azure Data Factory.

  4. En el panel derecho, en la búsqueda del almacén de datos, escriba "search". Seleccione el icono de Azure Search y seleccione Continuar.

    Screenshot showing how to choose an Azure Cognitive Search service for a Dataset in Azure Data Factory.

  5. En Definir propiedades:

    • Seleccione el servicio vinculado creado para Azure Cognitive Search en el paso 4.

    • Elija el índice que creó como parte del paso 3.

    • Seleccione Aceptar.

      Screenshot showing how to fill out Set Properties for search dataset.

  6. Seleccione Guardar.

Paso 6: Configuración del servicio vinculado de Azure Blob Storage

  1. En el menú izquierdo, seleccione el icono Administrar.

    Screenshot showing how to choose the Manage icon in Azure Data Factory to link a service.

  2. En Servicios vinculados, seleccione Nuevo.

    Screenshot showing how to choose New Linked Service in Azure Data Factory.

  3. En el panel derecho, en la búsqueda del almacén de datos, escriba "storage". Seleccione el icono de Azure Blob Storage en la lista y, a continuación, seleccione Continuar.

    Screenshot showing how to choose a new data store

  4. Rellene los valores de Nuevo servicio vinculado:

    • Elija el Tipo de autenticación: URI de SAS. Solo se puede usar este método para importar datos de PostgreSQL en Azure Blob Storage.

    • Genere una dirección URL de SAS para la cuenta de almacenamiento que va a usar para el almacenamiento provisional y copie la dirección URL de SAS del blob en el campo Dirección URL de SAS.

    • Seleccione Crear.

      Screenshot showing how to fill out New Linked Search Service form in Azure Data Factory with its properties to import from PostgreSQL.

Paso 7: Configuración del conjunto de datos de Storage

  1. En el menú izquierdo, seleccione el icono Crear.

  2. Seleccione Conjuntos de datos y, a continuación, seleccione el menú de puntos suspensivos de acciones de conjuntos de datos (...).

    Screenshot showing how to choose the Author icon and datasets option.

  3. Seleccione Nuevo conjunto de datos.

    Screenshot showing how to choose a new dataset in Azure Data Factory.

  4. En el panel derecho, en la búsqueda del almacén de datos, escriba "storage". Seleccione el icono de Azure Blob Storage en la lista y, a continuación, seleccione Continuar.

    Screenshot showing how to choose a new blob storage data store in Azure Data Factory.

  5. Seleccione DelimitedText como formato y, luego, seleccione Continuar.

  6. En Delimitador de fila, seleccione Avance de línea (\n).

  7. Active la casilla Primera fila como encabezado.

  8. Seleccione Guardar.

    Screenshot showing options to import data to Azure Storage blob.

Paso 8: Configuración de la canalización

  1. En el menú izquierdo, seleccione el icono Crear.

  2. Seleccione Canalizaciones y, a continuación, seleccione el menú de puntos suspensivos de acciones de canalizaciones (...).

    Screenshot showing how to choose the Author icon and Pipelines option.

  3. Selecciona Nueva canalización.

    Screenshot showing how to choose a new Pipeline in Azure Data Factory.

  4. Cree y configure las actividades de Data Factory que copian desde PostgreSQL al contenedor de Azure Storage.

    • Expanda la sección Mover y transformar y arrastre y coloque la actividad Copiar datos en el lienzo del editor de canalizaciones en blanco.

      Screenshot showing how to drag and drop in Azure Data Factory to copy data from PostgreSQL.

    • Abra la pestaña General y acepte los valores predeterminados a menos que necesite personalizar la ejecución.

    • En la pestaña Origen, seleccione la tabla de PostgreSQL. Deje las opciones restantes con los valores predeterminados.

      Screenshot showing how to configure Source to import data from PostgreSQL into Azure Storage blob in staging phase.

    • En la pestaña Receptor:

      • Seleccione el conjunto de datos de PostgreSQL llamado Storage DelimitedText configurado en el paso 7.

      • En Extensión de archivo, agregue .csv.

      • Deje las opciones restantes con los valores predeterminados.

        Screenshot showing how to configure sink to import data from PostgreSQL into Azure Storage blob.

    • Seleccione Guardar.

  5. Configure las actividades que copian de Azure Storage a un índice de búsqueda:

    • Expanda la sección Mover y transformar y arrastre y coloque la actividad Copiar datos en el lienzo del editor de canalizaciones en blanco.

      Screenshot showing how to drag and drop in Azure Data Factory to configure a copy activity.

    • En la pestaña General, deje los valores predeterminados a menos que necesite personalizar la ejecución.

    • En la pestaña Origen:

      • Seleccione el conjunto de datos de origen Storage configurado en el paso 7.
      • En el campo Tipo de ruta de acceso de archivo, seleccione Ruta de acceso de archivo comodín.
      • Deje todos los campos restantes con los valores predeterminados.

      Screenshot showing how to configure Source for indexing from Storage to Azure Cognitive Search index.

    • En la pestaña Receptor, seleccione el índice de Azure Cognitive Search. Deje las opciones restantes con los valores predeterminados.

      Screenshot showing how to configure Sink for indexing from Storage to Azure Cognitive Search index.

    • Seleccione Guardar.

Paso 9: Configuración del orden de las actividades

  1. En el editor de lienzo de la canalización, seleccione el pequeño cuadrado verde situado en el borde de la actividad de canalización. Arrástrelo a la actividad "Índices desde la cuenta de Storage a Azure Cognitive Search" para establecer el orden de ejecución.

  2. Seleccione Guardar.

    Screenshot showing how to configure activity order in the pipeline for proper execution.

Paso 10: Adición de un desencadenador de canalización

  1. Seleccione Agregar desencadenador para programar la ejecución de la canalización y seleccione Nuevo/Editar.

    Screenshot showing how to add a new trigger for a Pipeline in Data Factory.

  2. En la lista desplegable Elegir desencadenador, seleccione Nuevo.

    Screenshot showing how to select adding a new trigger for a Pipeline in Data Factory.

  3. Revise las opciones del desencadenador para ejecutar la canalización y seleccione Aceptar.

    Screenshot showing how to configure a trigger to run a Pipeline in Data Factory.

  4. Seleccione Guardar.

  5. Seleccione Publicar.

    Screenshot showing how to Publish a Pipeline in Data Factory for PostgreSQL data copy.

Contenido heredado para la versión preliminar del conector de Power Query

Se usa un conector de Power Query con un indexador de búsqueda para automatizar la ingesta de datos de varios orígenes de datos, incluidos los de otros proveedores de nube. Usa Power Query para recuperar los datos.

Los orígenes de datos admitidos en la versión preliminar incluyen:

  • Amazon Redshift
  • Elasticsearch
  • PostgreSQL
  • Objetos de Salesforce
  • Informes de Salesforce
  • Smartsheet
  • Snowflake

Funcionalidad admitida

Los conectores de Power Query se usan en indizadores. Un indizador de Azure Cognitive Search es un rastreador (crawler) que extrae datos y metadatos utilizables en búsquedas de un origen de datos externo y rellena un índice basado en las asignaciones de un campo a otro entre el índice y su origen de datos. Este enfoque se denomina a veces "modelo de extracción", porque el servicio extrae datos sin que sea preciso escribir código que agregue datos en un índice. Los indizadores proporcionan un método cómodo para que los usuarios indexen el contenido de su origen de datos sin tener que escribir su propio rastreador o modelo de inserción.

Los indizadores que hacen referencia a los orígenes de datos de Power Query tienen el mismo nivel de compatibilidad con conjuntos de aptitudes, programaciones, lógica de detección de cambios de límite máximo y la mayoría de los parámetros que admiten otros indizadores.

Requisitos previos

Antes de empezar a extraer datos de uno de los orígenes de datos admitidos, deberá asegurarse de que tiene todos los recursos configurados.

  • El servicio Azure Cognitive Search en una región admitida.

  • Registro para obtener la versión preliminar. Esta característica debe estar habilitada en el back-end.

  • Cuenta de Azure Blob Storage, que se usa como intermediario para los datos. Los datos fluirán desde el origen de datos, luego a Blob Storage y, después, al índice. Este requisito solo existe con la versión preliminar validada inicial.

Disponibilidad regional

La versión preliminar solo está disponible en los servicios de búsqueda de las siguientes regiones:

  • Centro de EE. UU.
  • Este de EE. UU.
  • Este de EE. UU. 2
  • Centro-Norte de EE. UU
  • Norte de Europa
  • Centro-sur de EE. UU.
  • Centro-Oeste de EE. UU.
  • Oeste de Europa
  • Oeste de EE. UU.
  • Oeste de EE. UU. 2

Limitaciones de vista previa

En esta sección se describen las limitaciones específicas de la versión preliminar actual.

Introducción al uso de Azure Portal

Azure Portal proporciona compatibilidad con los conectores de Power Query. Mediante el muestre de datos y la lectura de metadatos en el contenedor, el asistente Importar datos de Azure Cognitive Search puede crear un índice predeterminado, asignar campos de origen a campos de índice de destino y cargar el índice en una sola operación. Según el tamaño y la complejidad del origen de datos, puede tener un índice de búsqueda de texto completo y operativo en cuestión de minutos.

En el vídeo siguiente se muestra cómo configurar un conector Power Query en Azure Cognitive Search.

Paso 1: preparación de los datos de origen

Asegúrese de que el origen de datos contenga datos. El Asistente para importar datos lee los metadatos y realiza el muestreo de datos para inferir un esquema de índice, pero también carga los datos del origen de datos. Si faltan los datos, el asistente se detendrá y devolverá un error.

Paso 2: inicio del asistente para la importación de datos

Una vez aprobada la versión preliminar, el equipo de Azure Cognitive Search le proporcionará un vínculo de Azure Portal que usa una marca de características para que pueda acceder a los conectores de Power Query. Abra esta página e inicie el asistente desde la barra de comandos de la página del servicio Azure Cognitive Search; para ello, seleccione Importar datos.

Screenshot of the Import data command

Paso 3: selección de los datos

Hay algunos orígenes de datos de los que puede extraer datos mediante esta versión preliminar. Todos los orígenes de datos que usan Power Query incluirán la leyenda "Con tecnología de Power Query" en su icono. Seleccione el origen de datos.

Screenshot of the Select a data source page.

Una vez que haya seleccionado el origen de datos, seleccione Siguiente: Configuración de los datos para pasar a la sección siguiente.

Paso 4: configuración de los datos

En este paso, va a configurar la conexión. Cada origen de datos requerirá información diferente. Para algunos orígenes de datos, la documentación de Power Query proporciona detalles adicionales sobre cómo conectarse a los datos.

Una vez que haya proporcionado las credenciales de conexión, seleccione Siguiente.

Paso 5: selección de los datos

El Asistente para importación mostrará una vista previa de varias tablas que están disponibles en el origen de datos. En este paso, va a comprobar una tabla que contiene los datos que desea importar en el índice.

Screenshot of data preview.

Una vez que haya seleccionado la tabla, seleccione Siguiente.

Paso 6: transformación de los datos (opcional)

Los conectores de Power Query proporcionan una experiencia de interfaz de usuario enriquecida que le permite manipular los datos para que pueda enviar los datos correctos al índice. Puede quitar columnas, filtrar filas y mucho más.

No es necesario transformar los datos antes de importarlos en Azure Cognitive Search.

Screenshot of Transform your data page.

Para obtener más información sobre cómo transformar datos con Power Query, consulte Uso de Power Query en Power BI Desktop.

Una vez transformados los datos, seleccione Siguiente.

Paso 7: adición de Azure Blob Storage

Actualmente, la versión preliminar del conector de Power Query requiere que proporcione una cuenta de almacenamiento de blobs. Este paso solo existe con la versión preliminar validada inicial. Esta cuenta de almacenamiento de blobs servirá como almacenamiento temporal para los datos que se mueven del origen de datos a un índice de Azure Cognitive Search.

Se recomienda proporcionar una cadena de conexión de acceso completo para la cuenta de almacenamiento:

{ "connectionString" : "DefaultEndpointsProtocol=https;AccountName=<your storage account>;AccountKey=<your account key>;" }

Para obtener la cadena de conexión de Azure Portal, vaya a la hoja de la cuenta de almacenamiento > Configuración > Claves (para las cuentas de almacenamiento del modelo clásico) o Configuración > Claves de acceso (para las cuentas de almacenamiento de Azure Resource Manager).

Después de proporcionar un nombre de origen de datos y una cadena de conexión, seleccione "Siguiente: adición de aptitudes cognitivas (opcional)".

Paso 8: adición de aptitudes cognitivas (opcional)

El enriquecimiento con IA es una extensión de indizadores que se puede usar para que el contenido sea más fácil de buscar.

Puede agregar cualquier enriquecimiento que agregue ventajas a su escenario. Cuando haya terminado, seleccione Siguiente: personalización del índice de destino.

Paso 9: personalización del índice de destino

En la página Índice, debería mostrarse una lista de campos con un tipo de datos y una serie de casillas de verificación para configurar los atributos del índice. El asistente puede generar una lista de campos basada en metadatos y mediante el muestreo de los datos de origen.

Puede seleccionar atributos de forma masiva si activa la casilla situada en la parte superior de una columna de atributos. Elija Se puede recuperar y Se puede buscar para cada campo que se debe devolver a una aplicación cliente y está sujeto a un proceso de búsqueda de texto completo. Observará que los números enteros no permiten búsquedas de texto completo o de texto parcial (los números se evalúan literalmente y suelen ser útiles en los filtros).

Revise la descripción de atributos de índice y analizadores de lenguaje para más información.

Dedique un momento a la revisión de las selecciones. Una vez que se ejecuta al asistente, se crean las estructuras de datos físicas y no podrá modificar la mayoría de las propiedades de estos campos sin quitar y volver a crear todos los objetos.

Screenshot of Create your index page.

Cuando haya terminado, seleccione Siguiente: creación de un indizador.

Paso 10: creación de un indizador

El último paso crea el indizador. Al asignarle un nombre al indizador, este puede existir como un recurso independiente que se puede programar y administrar independientemente de los objetos de origen de datos y del de índice que se crearon en la misma secuencia del asistente.

La salida del Asistente para importar datos es un indizador que rastrea el origen de datos e importa los datos seleccionados a un índice en Azure Cognitive Search.

Al crear el indizador, opcionalmente puede elegir ejecutarlo según una programación y agregar la detección de cambios. Para agregar la detección de cambios, designe una columna como "límite máximo".

Screenshot of Create your indexer page.

Cuando haya terminado de rellenar esta página, seleccione Enviar.

Directiva de detección de cambios de límite superior

Esta directiva de detección de cambios se basa en una columna de "marca de límite superior" que captura la versión o la hora en que se actualizó por última vez una fila.

Requisitos

  • Todas las inserciones especifican un valor para la columna.
  • Todas las actualizaciones de un elemento también cambian el valor de la columna.
  • El valor de esta columna aumenta con cada inserción o actualización.

Nombres de columna no admitidos

Los nombres de campo de un índice de Azure Cognitive Search deben cumplir ciertos requisitos. Uno de estos requisitos es que no se permiten algunos caracteres, como "/". Si un nombre de columna de la base de datos no cumple estos requisitos, la detección del esquema del índice no reconocerá la columna como un nombre de campo válido, ni se mostrará esa columna como un campo sugerido para el índice. Normalmente, el uso de asignaciones de campos solucionaría este problema, pero no se admiten en el portal.

Para indexar el contenido de una columna de la tabla que tiene un nombre de campo no admitido, cambie el nombre de la columna durante la fase "Transformación de los datos" del proceso de importación de datos. Por ejemplo, puede cambiar el nombre de una columna denominada "Código postal o código postal de facturación" por "código postal". Al cambiar el nombre de la columna, la detección del esquema de índice la reconocerá como un nombre de campo válido y la agregará como una sugerencia a la definición del índice.

Pasos siguientes

En este artículo, se ha explicado cómo extraer datos mediante los conectores de Power Query. Dado que esta característica en versión preliminar está descontinuada, también se explica cómo migrar las soluciones existentes a un escenario admitido.

Para obtener más información sobre los indizadores, consulte Indizadores en Azure Cognitive Search.