Partilhar via


Como acessar fontes de dados locais no Data Factory for Microsoft Fabric

O Data Factory for Microsoft Fabric é um poderoso serviço de integração de dados baseado em nuvem que permite criar, agendar e gerenciar fluxos de trabalho para várias fontes de dados. Em cenários em que suas fontes de dados estão localizadas localmente, a Microsoft fornece o Gateway de Dados Local para preencher com segurança a lacuna entre seu ambiente local e a nuvem. Este documento orienta você pelo processo de acesso a fontes de dados locais no Data Factory for Microsoft Fabric usando o Gateway de Dados Local.

Criar um gateway de dados local

  1. Um gateway de dados local é um aplicativo de software projetado para ser instalado em um ambiente de rede local. Ele fornece um meio de instalar diretamente o gateway em sua máquina local. Para obter instruções detalhadas sobre como baixar e instalar o gateway de dados local, consulte Instalar um gateway de dados local.

    Captura de tela mostrando a configuração do gateway de dados local.

  2. Entre usando sua conta de usuário para acessar o gateway de dados local, após o qual ele estará preparado para utilização.

    Captura de ecrã a mostrar a configuração do gateway de dados no local depois de o utilizador iniciar sessão.

Criar uma conexão para sua fonte de dados local

  1. Navegue até o portal de administração e selecione o botão de configurações (um ícone que se parece com uma engrenagem) no canto superior direito da página. Em seguida, escolha Gerenciar conexões e gateways no menu suspenso exibido.

    Captura de ecrã a mostrar o menu Definições com Gerir ligações e gateways realçado.

  2. Na caixa de diálogo Nova conexão exibida, selecione Local e forneça seu cluster de gateway, juntamente com o tipo de recurso associado e informações relevantes.

    Captura de tela mostrando a caixa de diálogo Nova conexão com On-premises selecionada.

Conecte sua fonte de dados local a um Dataflow Gen2 no Data Factory for Microsoft Fabric

  1. Vá para o seu espaço de trabalho e crie um Dataflow Gen2.

    Captura de tela mostrando um espaço de trabalho de demonstração com a nova opção Dataflow Gen2 realçada.

  2. Adicione uma nova fonte ao fluxo de dados e selecione a conexão estabelecida na etapa anterior.

    Captura de tela mostrando a caixa de diálogo Conectar à fonte de dados em um Dataflow Gen2 com uma fonte local selecionada.

  3. Você pode usar o Dataflow Gen2 para executar quaisquer transformações de dados necessárias com base em suas necessidades.

    Captura de ecrã a mostrar o editor do Power Query com algumas transformações aplicadas à origem de dados de exemplo.

  4. Utilize o botão Adicionar destino de dados no separador Base do editor do Power Query para adicionar um destino para os seus dados a partir da origem local.

    Captura de ecrã a mostrar o editor do Power Query com o botão Adicionar destino de dados selecionado, mostrando os tipos de destino disponíveis.

  5. Publique o Dataflow Gen2.

    Captura de ecrã a mostrar o editor do Power Query com o botão Publicar realçado.

Agora você criou um Dataflow Gen2 para carregar dados de uma fonte de dados local em um destino na nuvem.

Usando dados locais em um pipeline (Visualização)

  1. Vá para o seu espaço de trabalho e crie um pipeline de dados.

    Captura de tela mostrando como criar um novo pipeline de dados.

Nota

Você precisa configurar o firewall para permitir conexões de saída *.frontend.clouddatahub.net do gateway para recursos de pipeline de malha.

  1. Na guia Página Inicial do editor de pipeline, selecione Copiar dados e, em seguida, Usar assistente de cópia. Adicione uma nova fonte à atividade na página Escolher fonte de dados do assistente e, em seguida, selecione a conexão estabelecida na etapa anterior.

    Captura de tela mostrando onde escolher uma nova fonte de dados da atividade Copiar dados.

  2. Selecione um destino para seus dados na fonte de dados local.

    Captura de ecrã a mostrar onde escolher o destino dos dados na atividade Copiar.

  3. Executar o pipeline.

    Captura de tela mostrando onde executar o pipeline na janela do editor de pipeline.

Agora você criou e executou um pipeline para carregar dados de uma fonte de dados local em um destino na nuvem.