Início Rápido: Criar um data factory usando a interface do usuário do Azure Data FactoryQuickstart: Create a data factory by using the Azure Data Factory UI

APLICA-SE A: Azure Data Factory Azure Synapse Analytics (Versão prévia)

Este guia de início rápido descreve como usar a interface do usuário do Azure Data Factory para criar e monitorar um data factory.This quickstart describes how to use the Azure Data Factory UI to create and monitor a data factory. O pipeline que você criar nesse data factory copia dados de uma pasta para outra no Armazenamento de Blobs do Azure.The pipeline that you create in this data factory copies data from one folder to another folder in Azure Blob storage. Para transformar dados usando o Azure Data Factory, consulte Fluxo de dados de mapeamento e Fluxo de dados de estruturação (versão prévia).To transform data by using Azure Data Factory, see Mapping data flow and Wrangling data flow (Preview).

Observação

Se você for novo no Azure Data Factory, confira a Introdução ao Azure Data Factory antes de fazer este guia de início rápido.If you are new to Azure Data Factory, see Introduction to Azure Data Factory before doing this quickstart.

Pré-requisitosPrerequisites

Assinatura do AzureAzure subscription

Se você não tiver uma assinatura do Azure, crie uma conta gratuita antes de começar.If you don't have an Azure subscription, create a free account before you begin.

Funções do AzureAzure roles

Para criar instâncias de Data Factory, a conta de usuário usada para entrar no Azure deve ser um membro das funções colaborador ou proprietário, ou um administrador da assinatura do Azure.To create Data Factory instances, the user account that you use to sign in to Azure must be a member of the contributor or owner role, or an administrator of the Azure subscription. Para exibir as permissões que você tem na assinatura, acesse o portal do Azure, selecione seu nome de usuário no canto superior direito e selecione o ícone “ ... ” para obter mais opções; em seguida, selecione Minhas permissões.To view the permissions that you have in the subscription, go to the Azure portal, select your username in the upper-right corner, select "..." icon for more options, and then select My permissions. Se tiver acesso a várias assinaturas, selecione a que for adequada.If you have access to multiple subscriptions, select the appropriate subscription.

Para criar e gerenciar recursos filho para o Data Factory – incluindo conjuntos de dados, serviços vinculados, pipelines, gatilhos e runtimes de integração –, os requisitos a seguir são aplicáveis:To create and manage child resources for Data Factory - including datasets, linked services, pipelines, triggers, and integration runtimes - the following requirements are applicable:

  • Para criar e gerenciar recursos filho no portal do Azure, você precisa pertencer à função Colaborador do Data Factory no nível do grupo de recursos ou superior.To create and manage child resources in the Azure portal, you must belong to the Data Factory Contributor role at the resource group level or above.
  • Para criar e gerenciar recursos filho com o PowerShell ou o SDK, a função de colaborador no nível do recurso ou superior é suficiente.To create and manage child resources with PowerShell or the SDK, the contributor role at the resource level or above is sufficient.

Para obter instruções de exemplo sobre como adicionar um usuário a uma função, confira o artigo Adicionar funções.For sample instructions about how to add a user to a role, see the Add roles article.

Para obter mais informações, confira os seguintes artigos:For more info, see the following articles:

Conta de Armazenamento do AzureAzure Storage account

Use uma conta de Armazenamento do Azure de uso geral (especificamente o Armazenamento de Blobs) como armazenamentos de dados de origem e destino neste início rápido.You use a general-purpose Azure Storage account (specifically Blob storage) as both source and destination data stores in this quickstart. Se você não tiver uma conta de Armazenamento do Azure de uso geral, confira Criar uma conta de armazenamento para criar uma.If you don't have a general-purpose Azure Storage account, see Create a storage account to create one.

Obter o nome da conta de armazenamentoGet the storage account name

Você precisará do nome da sua conta de Armazenamento do Azure para este início rápido.You need the name of your Azure Storage account for this quickstart. O procedimento a seguir fornece as etapas para obter o nome da sua conta de armazenamento:The following procedure provides steps to get the name of your storage account:

  1. Em um navegador da Web, vá para o portal do Azure e entre usando seu nome de usuário e senha do Azure.In a web browser, go to the Azure portal and sign in using your Azure username and password.
  2. No menu do portal do Azure, selecione Todos os serviços, em seguida, selecione Armazenamento > Contas de armazenamento.From the Azure portal menu, select All services, then select Storage > Storage accounts. Você também pode pesquisar e selecionar Contas de armazenamento de qualquer página.You can also search for and select Storage accounts from any page.
  3. Na página Contas de armazenamento, filtre pela sua conta de armazenamento (se necessário) e selecione a sua conta de armazenamento.In the Storage accounts page, filter for your storage account (if needed), and then select your storage account.

Você também pode pesquisar e selecionar Contas de armazenamento de qualquer página.You can also search for and select Storage accounts from any page.

Criar um contêiner de blobCreate a blob container

Nesta seção, você cria um contêiner de blobs chamado adftutorial no armazenamento de Blobs do Azure.In this section, you create a blob container named adftutorial in Azure Blob storage.

  1. Na página da conta de armazenamento, selecione Visão geral > Contêineres.From the storage account page, select Overview > Containers.

  2. Na barra de ferramentas da página de <Account name> - Contêineres, selecione Contêiner.On the <Account name> - Containers page's toolbar, select Container.

  3. Na caixa de diálogo Novo contêiner, insira adftutorial como o nome e selecione OK.In the New container dialog box, enter adftutorial for the name, and then select OK. A página de <Account name> - Contêineres está atualizada para incluir o adftutorial na lista de contêineres.The <Account name> - Containers page is updated to include adftutorial in the list of containers.

    Lista de contêineres

Adicionar uma pasta de entrada e um arquivo ao contêiner de blobAdd an input folder and file for the blob container

Nesta seção, você pode adicionar uma pasta chamada entrada ao contêiner que acabou de criar e, em seguida, carregar um arquivo de exemplo na pasta de entrada.In this section, you create a folder named input in the container you created, and then upload a sample file to the input folder. Antes de começar, abra um editor de texto como o Bloco de Notas e crie um arquivo chamado emp.txt com o seguinte conteúdo:Before you begin, open a text editor such as Notepad, and create a file named emp.txt with the following content:

John, Doe
Jane, Doe

Salve o arquivo na pasta C:\ADFv2QuickStartPSH.Save the file in the C:\ADFv2QuickStartPSH folder. (Se a pasta ainda não existir, crie-a.) Então volte ao portal do Azure e siga estas etapas:(If the folder doesn't already exist, create it.) Then return to the Azure portal and follow these steps:

  1. Na página de <Account name> - Contêineres em que você parou, selecione o adftutorial da lista de contêineres atualizada.In the <Account name> - Containers page where you left off, select adftutorial from the updated list of containers.

    1. Se você fechou a janela ou foi para outra página, entre no portal do Azure novamente.If you closed the window or went to another page, sign in to the Azure portal again.
    2. No menu do portal do Azure, selecione Todos os serviços, em seguida, selecione Armazenamento > Contas de armazenamento.From the Azure portal menu, select All services, then select Storage > Storage accounts. Você também pode pesquisar e selecionar Contas de armazenamento de qualquer página.You can also search for and select Storage accounts from any page.
    3. Selecione a sua conta de armazenamento e, em seguida, Contêineres > adftutorial.Select your storage account, and then select Containers > adftutorial.
  2. Na barra de ferramentas da página de contêiner do adftutorial, selecione Carregar.On the adftutorial container page's toolbar, select Upload.

  3. Na página Carregar blob, selecione a caixa Arquivos e, em seguida, navegue até o arquivo emp.txt e selecione-o.In the Upload blob page, select the Files box, and then browse to and select the emp.txt file.

  4. Expanda o título Avançado.Expand the Advanced heading. A página agora será exibida como mostrado:The page now displays as shown:

    Selecione o link Avançado

  5. Na caixa Carregar para a pasta, insira entrada.In the Upload to folder box, enter input.

  6. Selecione o botão Carregar.Select the Upload button. O arquivo emp.txt e o status do carregamento devem estar na lista.You should see the emp.txt file and the status of the upload in the list.

  7. Selecione o ícone Fechar (um X) para fechar a página Carregar blob.Select the Close icon (an X) to close the Upload blob page.

Mantenha a página do contêiner adftutorial aberta.Keep the adftutorial container page open. Você a usa para verificar a saída no final do guia de início rápido.You use it to verify the output at the end of this quickstart.

VídeoVideo

Assistir a este vídeo o ajuda a entender a interface do usuário do Data Factory:Watching this video helps you understand the Data Factory UI:

Criar um data factoryCreate a data factory

  1. Iniciar o navegador da Web Microsoft Edge ou Google Chrome.Launch Microsoft Edge or Google Chrome web browser. Atualmente, a interface do usuário do Data Factory tem suporte apenas nos navegadores da Web Microsoft Edge e Google Chrome.Currently, Data Factory UI is supported only in Microsoft Edge and Google Chrome web browsers.

  2. Vá para o Portal do Azure.Go to the Azure portal.

  3. No menu do portal do Azure, selecione Criar um recurso.From the Azure portal menu, select Create a resource.

  4. Selecione Análise e, em seguida, Data Factory.Select Analytics , and then select Data Factory.

    Seleção de Data Factory no painel "Novo"

  5. Na página Novo data factory , insira ADFTutorialDataFactory no campo Nome.On the New data factory page, enter ADFTutorialDataFactory for Name.

    O nome do Azure Data Factory deve ser globalmente exclusivo.The name of the Azure data factory must be globally unique. Se você visualizar o seguinte erro, altere o nome de data factory (por exemplo, <yourname>ADFTutorialDataFactory ) e tente criar novamente.If you see the following error, change the name of the data factory (for example, <yourname>ADFTutorialDataFactory ) and try creating again. Para ver as regras de nomenclatura para artefatos do Data Factory consulte o artigo Data Factory - regras de nomenclatura.For naming rules for Data Factory artifacts, see the Data Factory - naming rules article.

    Erro quando um nome não está disponível

  6. Para Assinatura , selecione a assinatura do Azure na qual você deseja criar o data factory.For Subscription , select your Azure subscription in which you want to create the data factory.

  7. Para o Grupo de Recursos , use uma das seguintes etapas:For Resource Group , use one of the following steps:

    • Selecione Usar existente e selecione um grupo de recursos existente na lista.Select Use existing , and select an existing resource group from the list.
    • Selecione Criar novo e insira o nome de um grupo de recursos.Select Create new , and enter the name of a resource group.

    Para saber mais sobre grupos de recursos, consulte Usando grupos de recursos para gerenciar recursos do Azure.To learn about resource groups, see Using resource groups to manage your Azure resources.

  8. Para Versão , selecione V2.For Version , select V2.

  9. Em Local , selecione uma localização para o data factory.For Location , select the location for the data factory.

    A lista mostra somente os locais aos quais o Data Factory dá suporte e em que os metadados do Azure Data Factory serão armazenados.The list shows only locations that Data Factory supports, and where your Azure Data Factory meta data will be stored. Os armazenamentos de dados associados (como o Armazenamento do Azure e o Banco de Dados SQL do Azure) e os serviços de computação (como o Azure HDInsight) usados pelo Data Factory podem ser executados em outras regiões.The associated data stores (like Azure Storage and Azure SQL Database) and computes (like Azure HDInsight) that Data Factory uses can run in other regions.

  10. Selecione Avançar: Configuração do Git e, em seguida, selecione Configurar o Git depois.Select Next: Git configuration , and then select Configure Git later.

  11. Selecione Criar.Select Create. Após a conclusão da criação, selecione Ir para o recurso para navegar até a página do Data Factory.After the creation is complete, select Go to resource to navigate to the Data Factory page.

  12. Clique no bloco Criar e Monitorar para iniciar o aplicativo de interface do usuário (IU) do Azure Data Factory em uma guia separada.Select the Author & Monitor tile to start the Azure Data Factory user interface (UI) application on a separate tab.

    Página inicial do Data Factory, com o bloco “Criar e Monitorar"

    Observação

    Se você vir que o navegador da Web está preso em "Autorizando", desmarque a caixa de seleção Bloquear cookies de terceiros e dados do site.If you see that the web browser is stuck at "Authorizing", clear the Block third-party cookies and site data check box. Ou a mantenha selecionada, crie uma exceção para login.microsoftonline.com e tente abrir o aplicativo novamente.Or keep it selected, create an exception for login.microsoftonline.com , and then try to open the app again.

  13. Na página Introdução , acesse a guia Autor no painel esquerdo.On the Let's get started page, switch to the Author tab in the left panel.

    Página “Introdução”

Criar um serviço vinculadoCreate a linked service

Neste procedimento, você criará um serviço vinculado para vincular sua Conta de Armazenamento do Azure ao Data Factory.In this procedure, you create a linked service to link your Azure Storage account to the data factory. O serviço vinculado tem as informações de conexão que o serviço do Data Factory usa no runtime para se conectar a ele.The linked service has the connection information that the Data Factory service uses at runtime to connect to it.

  1. Abra a guia Gerenciar no painel esquerdo.Open Manage tab from the left pane.

  2. Na página Serviços vinculados, selecione +Novo para criar um serviço vinculado.On the Linked services page, select +New to create a new linked service.

    Novo serviço vinculado

  3. Na página Novo Serviço Vinculado , selecione Armazenamento de Blobs do Azure e selecione Continuar.On the New Linked Service page, select Azure Blob Storage , and then select Continue.

  4. Na página Novo Serviço Vinculado (Armazenamento de Blobs do Azure), conclua as seguintes etapas:On the New Linked Service (Azure Blob Storage) page, complete the following steps:

    a.a. Para o campo Nome , insira AzureStorageLinkedService.For Name , enter AzureStorageLinkedService.

    b.b. Selecione o nome da sua conta de Armazenamento do Azure em Nome da conta de armazenamento.For Storage account name , select the name of your Azure Storage account.

    c.c. Selecione Testar conectividade para confirmar se o serviço do Data Factory pode se conectar à conta de armazenamento.Select Test connection to confirm that the Data Factory service can connect to the storage account.

    d.d. Selecione Criar para salvar o serviço vinculado.Select Create to save the linked service.

    Serviço vinculado

Criar conjuntos de dadosCreate datasets

Neste procedimento, você criará dois conjuntos de dados: InputDataset e OutputDataset.In this procedure, you create two datasets: InputDataset and OutputDataset. Esses conjuntos de dados são do tipo AzureBlob.These datasets are of type AzureBlob. Eles se referem ao Serviço vinculado do Armazenamento do Azure que você criou na seção anterior.They refer to the Azure Storage linked service that you created in the previous section.

O conjunto de dados de entrada representa os dados de origem na pasta de entrada.The input dataset represents the source data in the input folder. Na definição de conjunto de dados de entrada, especifique o contêiner de blob ( adftutorial ), a pasta ( entrada ) e o arquivo ( emp.txt ) que contém os dados de origem.In the input dataset definition, you specify the blob container ( adftutorial ), the folder ( input ), and the file ( emp.txt ) that contain the source data.

Esse conjunto de dados de saída representa os dados que são copiados para o destino.The output dataset represents the data that's copied to the destination. Na definição de conjunto de dados de saída, especifique o contêiner de blob ( adftutorial ), a pasta ( saída ) e o arquivo para o qual os dados são copiados.In the output dataset definition, you specify the blob container ( adftutorial ), the folder ( output ), and the file to which the data is copied. Cada execução de um pipeline tem uma ID exclusiva associada a ele.Each run of a pipeline has a unique ID associated with it. Você pode acessar essa ID, usando a variável do sistema RunId.You can access this ID by using the system variable RunId. O nome do arquivo de saída é avaliado dinamicamente com base na ID de execução do pipeline.The name of the output file is dynamically evaluated based on the run ID of the pipeline.

Nas configurações de serviço vinculado, você especificou a conta de Armazenamento do Azure que contém os dados de origem.In the linked service settings, you specified the Azure Storage account that contains the source data. Nas configurações do conjunto de dados de origem, especifique onde exatamente os dados de origem residem (contêiner de blob, pasta e arquivo).In the source dataset settings, you specify where exactly the source data resides (blob container, folder, and file). Nas configurações de conjunto de dados do coletor, especifique para onde os dados são copiados (contêiner de blob, pasta e arquivo).In the sink dataset settings, you specify where the data is copied to (blob container, folder, and file).

  1. Selecione o botão + (mais) adição e, em seguida, selecione Conjunto de Dados.Select the + (plus) button, and then select Dataset.

    Menu para criar um conjunto de dados

  2. Na página Novo Conjunto de Dados , selecione Armazenamento de Blobs do Azure e, em seguida, selecione Concluir.On the New Dataset page, select Azure Blob Storage , and then select Continue.

  3. Na página Selecionar Formato , escolha o tipo de formato dos dados e, em seguida, selecione Continuar.On the Select Format page, choose the format type of your data, and then select Continue. Nesse caso, selecione Binário ao copiar arquivos no estado em que se encontram sem analisar o conteúdo.In this case, select Binary when copy files as-is without parsing the content.

    Selecione formatar

  4. Na página Definir Propriedades , conclua as seguintes etapas:On the Set Properties page, complete following steps:

    a.a. Em Nome , insira InputDataset.Under Name , enter InputDataset.

    b.b. Selecione AzureStorageLinkedService para Serviço vinculado.For Linked service , select AzureStorageLinkedService.

    c.c. Para Caminho do arquivo , selecione o botão Procurar.For File path , select the Browse button.

    d.d. Na janela Escolher um arquivo ou uma pasta , navegue até a pasta entrada no contêiner adftutorial , selecione o arquivo emp.txt e selecione OK.In the Choose a file or folder window, browse to the input folder in the adftutorial container, select the emp.txt file, and then select OK.

    e.e. Selecione OK.Select OK.

    Definir propriedades para InputDataset

  5. Repita as etapas para criar o conjunto de dados de saída:Repeat the steps to create the output dataset:

    a.a. Selecione o botão + (mais) adição e, em seguida, selecione Conjunto de Dados.Select the + (plus) button, and then select Dataset.

    b.b. Na página Novo Conjunto de Dados , selecione Armazenamento de Blobs do Azure e, em seguida, selecione Concluir.On the New Dataset page, select Azure Blob Storage , and then select Continue.

    c.c. Na página Selecionar Formato , escolha o tipo de formato dos dados e, em seguida, selecione Continuar.On the Select Format page, choose the format type of your data, and then select Continue.

    d.d. Na página Definir Propriedades , especifique OutputDataset para o nome.On the Set Properties page, specify OutputDataset for the name. Selecione AzureStorageLinkedService como serviço vinculado.Select AzureStorageLinkedService as linked service.

    e.e. Em Caminho do arquivo , insira adftutorial/output.Under File path , enter adftutorial/output. Se a pasta output não existir, a atividade de cópia a criará em runtime.If the output folder doesn't exist, the copy activity creates it at runtime.

    f.f. Selecione OK.Select OK.

    Definir propriedades para OutputDataset

Criar um pipelineCreate a pipeline

Neste procedimento, você criará e validará um pipeline com uma atividade Copiar que usa o conjunto de dados de entrada e saída.In this procedure, you create and validate a pipeline with a copy activity that uses the input and output datasets. A Atividade de cópia copia os dados do arquivo especificado por você nas configurações do conjunto de dados de entrada para o arquivo especificado por você nas configurações do conjunto de dados de saída.The copy activity copies data from the file you specified in the input dataset settings to the file you specified in the output dataset settings. Se o conjunto de dados de entrada especifica apenas uma pasta (não o nome de arquivo), a Atividade de cópia copia todos os arquivos da pasta de origem para o destino.If the input dataset specifies only a folder (not the file name), the copy activity copies all the files in the source folder to the destination.

  1. Selecione o botão + (mais) adição e, em seguida, selecione Pipeline.Select the + (plus) button, and then select Pipeline.

  2. No painel geral, em Propriedades , especifique CopyPipeline para Nome.In the General panel under Properties , specify CopyPipeline for Name. Em seguida, recolha o painel clicando no ícone Propriedades no canto superior direito.Then collapse the panel by clicking the Properties icon in the top-right corner.

  3. Na caixa de ferramentas Atividades , expanda Mover e transformar.In the Activities toolbox, expand Move & Transform. Arraste a atividade Copiar Dados da caixa de ferramentas Atividades para a superfície do Designer de Pipeline.Drag the Copy Data activity from the Activities toolbox to the pipeline designer surface. Você também pode pesquisar atividades na caixa de ferramentas Atividades.You can also search for activities in the Activities toolbox. Especifique CopyFromBlobToBlob para o Nome.Specify CopyFromBlobToBlob for Name. Criar uma atividade de cópia de dadosCreating a copy data activity

  4. Alterne para a guia Fonte nas configurações da atividade de cópia e selecione InputDataset para o Conjunto de dados de origem.Switch to the Source tab in the copy activity settings, and select InputDataset for Source Dataset.

  5. Alterne para a guia Coletor nas configurações da atividade de cópia e selecione OutputDataset para o Conjunto de dados do coletor.Switch to the Sink tab in the copy activity settings, and select OutputDataset for Sink Dataset.

  6. Clique em Validar na barra de ferramentas do pipeline sobre a tela para validar as configurações de pipeline.Click Validate on the pipeline toolbar above the canvas to validate the pipeline settings. Confirme se esse pipeline foi validado com êxito.Confirm that the pipeline has been successfully validated. Para fechar a saída de validação, selecione o botão >> (seta para a direita).To close the validation output, select the >> (right arrow) button. Validar um pipelineValidate a pipeline

Depurar o pipelineDebug the pipeline

Nesta etapa, você depura o pipeline antes de implantá-lo no Data Factory.In this step, you debug the pipeline before deploying it to Data Factory.

  1. Na barra de ferramentas do pipeline acima da tela, clique em Depurar para disparar uma execução de teste.On the pipeline toolbar above the canvas, click Debug to trigger a test run.

  2. Confirme se você vê o status da execução do pipeline na guia Saída das configurações do pipeline na parte inferior.Confirm that you see the status of the pipeline run on the Output tab of the pipeline settings at the bottom.

    Saída da execução do pipeline

  3. Confirme que você vê um arquivo de saída na pasta saída do contêiner adftutorial.Confirm that you see an output file in the output folder of the adftutorial container. O serviço Data Factory cria a pasta de saída automaticamente caso ela não exista.If the output folder doesn't exist, the Data Factory service automatically creates it.

Disparar o pipeline manualmenteTrigger the pipeline manually

Nesta procedimento, você implanta entidades (serviços vinculados, conjuntos de dados, pipelines) ao Azure Data Factory.In this procedure, you deploy entities (linked services, datasets, pipelines) to Azure Data Factory. Depois, dispare manualmente a execução do pipeline.Then, you manually trigger a pipeline run.

  1. Antes de disparar um pipeline, você deve publicar as entidades no Data Factory.Before you trigger a pipeline, you must publish entities to Data Factory. Para publicar, selecione Publicar tudo na parte superior.To publish, select Publish all on the top. Publicar tudoPublish all

  2. Para disparar o pipeline manualmente, selecione Adicionar Gatilho na barra de ferramentas do pipeline e, em seguida, selecione Disparar Agora.To trigger the pipeline manually, select Add Trigger on the pipeline toolbar, and then select Trigger Now. Na página Execução de pipeline , selecione Concluir.On the Pipeline run page, select Finish.

Monitorar o PipelineMonitor the pipeline

  1. Alterne para a guia Monitorar à esquerda.Switch to the Monitor tab on the left. Use o botão Atualizar para atualizar a lista.Use the Refresh button to refresh the list.

    Guia para monitoramento de execuções de pipeline

  2. Selecione o link CopyPipeline ; você verá o status de execução da atividade de cópia nesta página.Select the CopyPipeline link, you'll see the status of the copy activity run on this page.

  3. Para exibir detalhes sobre a operação de cópia, selecione o link Detalhes (imagem de óculos).To view details about the copy operation, select the Details (eyeglasses image) link. Para obter detalhes sobre as propriedades, confira Visão geral da atividade de cópia.For details about the properties, see Copy Activity overview.

    Obter detalhes da operação

  4. Confirme que você vê um arquivo novo na pasta de saída.Confirm that you see a new file in the output folder.

  5. Alterne novamente para a exibição Execuções de pipeline do modo de exibição Execuções de atividade selecionando o link Todas as execuções de pipeline.You can switch back to the Pipeline runs view from the Activity runs view by selecting the All pipeline runs link.

Disparar o pipeline em um cronogramaTrigger the pipeline on a schedule

Este procedimento é opcional neste tutorial.This procedure is optional in this tutorial. Você pode criar um agendador de gatilho para agendar a execução periódica do pipeline (por hora, diariamente, e assim por diante).You can create a scheduler trigger to schedule the pipeline to run periodically (hourly, daily, and so on). Nesta procedimento, você cria um gatilho para ser executado a cada minuto até a data e hora de término especificadas.In this procedure, you create a trigger to run every minute until the end date and time that you specify.

  1. Alterne para a guia Autor.Switch to the Author tab.

  2. Acesse o pipeline, selecione Adicionar Gatilho na barra de ferramentas do pipeline e, em seguida, selecione Novo/Editar.Go to your pipeline, select Add Trigger on the pipeline toolbar, and then select New/Edit.

  3. Na página Adicionar gatilhos , selecione Escolher gatilho e, em seguida, selecione Novo.On the Add Triggers page, select Choose trigger , and then select New.

  4. Na página Novo Gatilho , no campo Final , selecione Na Data , especifique como hora de término alguns minutos após a hora atual e selecione OK.On the New Trigger page, under End , select On Date , specify an end time a few minutes after the current time, and then select OK.

    Um custo associado a cada execução de pipeline, então, especifique o a hora de término como apenas alguns minutos após a hora de início.A cost is associated with each pipeline run, so specify the end time only minutes apart from the start time. Verifique se está como o mesmo dia.Ensure that it's the same day. No entanto, verifique se há tempo suficiente para a execução do pipeline entre a hora da publicação e a hora de término.However, ensure that there's enough time for the pipeline to run between the publish time and the end time. O gatilho só entra em vigor depois de você publicar a solução no Data Factory, e não ao salvar o gatilho na interface do usuário.The trigger comes into effect only after you publish the solution to Data Factory, not when you save the trigger in the UI.

  5. Na página Novo Gatilho , marque a caixa de seleção Ativado e, em seguida, selecione OK.On the New Trigger page, select the Activated check box, and then select OK.

    Nova configuração de gatilho

  6. Examine a mensagem de aviso e selecione OK.Review the warning message, and select OK.

  7. Selecione Publicar tudo para publicar as alterações no Data Factory.Select Publish all to publish changes to Data Factory.

  8. Alterne para a guia Monitorar à esquerda.Switch to the Monitor tab on the left. Selecione Atualizar para atualizar a lista.Select Refresh to refresh the list. Você verá que o pipeline é executado uma vez por minuto desde o momento da publicação até hora de término.You see that the pipeline runs once every minute from the publish time to the end time.

    Observe os valores na coluna DISPARADO POR.Notice the values in the TRIGGERED BY column. A execução do gatilho manual foi feita em uma etapa anterior ( Disparar agora ).The manual trigger run was from the step ( Trigger Now ) that you did earlier.

  9. Alterne para o modo de exibição Execuções de gatilho.Switch to the Trigger runs view.

  10. Confirme que um arquivo de saída é criado para cada execução de pipeline até a data e hora de término especificadas na pasta saída.Confirm that an output file is created for every pipeline run until the specified end date and time in the output folder.

Próximas etapasNext steps

O pipeline neste exemplo copia dados de uma localização para outra em um Armazenamento de Blobs do Azure.The pipeline in this sample copies data from one location to another location in Azure Blob storage. Percorra os tutoriais para saber mais sobre o uso do Data Factory em mais cenários.To learn about using Data Factory in more scenarios, go through the tutorials.