Démarrage rapide : Créer une fabrique de données à l’aide de l’interface utilisateur d’Azure Data FactoryQuickstart: Create a data factory by using the Azure Data Factory UI

S’APPLIQUE À : Azure Data Factory Azure Synapse Analytics

Ce guide de démarrage rapide explique comment utiliser l’interface utilisateur d’Azure Data Factory pour créer et surveiller une fabrique de données.This quickstart describes how to use the Azure Data Factory UI to create and monitor a data factory. Le pipeline que vous créez dans cette fabrique de données copie les données d’un dossier vers un autre dossier dans un stockage Blob Azure.The pipeline that you create in this data factory copies data from one folder to another folder in Azure Blob storage. Pour transformer des données à l’aide d’Azure Data Factory, consultez Flux de données de mappage et Flux de wrangling data (préversion).To transform data by using Azure Data Factory, see Mapping data flow and Wrangling data flow (Preview).

Nota

Si vous débutez avec Azure Data Factory, consultez Présentation d’Azure Data Factory avant de commencer ce guide de démarrage rapide.If you are new to Azure Data Factory, see Introduction to Azure Data Factory before doing this quickstart.

PrérequisPrerequisites

Abonnement AzureAzure subscription

Si vous n’avez pas d’abonnement Azure, créez un compte gratuit avant de commencer.If you don't have an Azure subscription, create a free account before you begin.

Rôles AzureAzure roles

Pour créer des instances Data Factory, le compte d’utilisateur que vous utilisez pour vous connecter à Azure doit être membre des rôles Contributeur ou Propriétaire, ou administrateur de l’abonnement Azure.To create Data Factory instances, the user account that you use to sign in to Azure must be a member of the contributor or owner role, or an administrator of the Azure subscription. Pour voir les autorisations dont vous disposez dans l’abonnement, accédez au portail Azure, sélectionnez votre nom d’utilisateur en haut à droite, sélectionnez l’icône «  ...  » pour plus d’options, puis sélectionnez Mes autorisations.To view the permissions that you have in the subscription, go to the Azure portal, select your username in the upper-right corner, select "..." icon for more options, and then select My permissions. Si vous avez accès à plusieurs abonnements, sélectionnez l’abonnement approprié.If you have access to multiple subscriptions, select the appropriate subscription.

Les exigences applicables à la création et à la gestion des ressources enfants pour Data Factory (jeux de données, services liés, pipelines, déclencheurs et runtimes d’intégration) sont les suivantes :To create and manage child resources for Data Factory - including datasets, linked services, pipelines, triggers, and integration runtimes - the following requirements are applicable:

  • Pour créer et gérer des ressources enfants dans le Portail Azure, vous devez appartenir au rôle Contributeurs de Data Factory au niveau du groupe de ressources ou à un niveau supérieur.To create and manage child resources in the Azure portal, you must belong to the Data Factory Contributor role at the resource group level or above.
  • Pour créer et gérer des ressources enfants à l’aide de PowerShell ou du Kit de développement logiciel (SDK), le rôle Contributeur au niveau du groupe de ressources ou à un niveau supérieur est suffisant.To create and manage child resources with PowerShell or the SDK, the contributor role at the resource level or above is sufficient.

Pour découvrir des exemples d’instructions concernant l’ajout d’un utilisateur à un rôle, consultez l’article décrivant comment ajouter des rôles.For sample instructions about how to add a user to a role, see the Add roles article.

Pour plus d’informations, consultez les articles suivants :For more info, see the following articles:

Compte de Stockage AzureAzure Storage account

Dans ce guide de démarrage rapide, vous utilisez un compte de Stockage Azure (plus précisément, un compte de Stockage Blob) à usage général à la fois comme magasins de données source et de destination.You use a general-purpose Azure Storage account (specifically Blob storage) as both source and destination data stores in this quickstart. Si vous ne possédez pas de compte de Stockage Azure à usage général, consultez Créer un compte de stockage pour en créer un.If you don't have a general-purpose Azure Storage account, see Create a storage account to create one.

Obtenir le nom du compte de stockageGet the storage account name

Pour ce guide de démarrage rapide, vous avez besoin du nom de votre compte de Stockage Azure.You need the name of your Azure Storage account for this quickstart. La procédure suivante détaille les étapes à suivre pour obtenir le nom de votre compte de stockage :The following procedure provides steps to get the name of your storage account:

  1. Dans un navigateur web, accédez au portail Azure et connectez-vous à l’aide de vos nom d’utilisateur et mot de passe Azure.In a web browser, go to the Azure portal and sign in using your Azure username and password.
  2. Dans le menu Portail Azure, sélectionnez Tous les services, puis sélectionnez Stockage > Comptes de stockage.From the Azure portal menu, select All services, then select Storage > Storage accounts. Vous pouvez également rechercher et sélectionner Comptes de stockage à partir de n’importe quelle page.You can also search for and select Storage accounts from any page.
  3. Dans la page Comptes de stockage, appliquez un filtre pour votre compte de stockage (si nécessaire), puis sélectionnez votre compte de stockage.In the Storage accounts page, filter for your storage account (if needed), and then select your storage account.

Vous pouvez également rechercher et sélectionner Comptes de stockage à partir de n’importe quelle page.You can also search for and select Storage accounts from any page.

Création d’un conteneur d’objets blobCreate a blob container

Dans cette section, vous allez créer un conteneur d’objets blob nommé adftutorial dans un stockage Blob Azure.In this section, you create a blob container named adftutorial in Azure Blob storage.

  1. Dans la page du compte de stockage, sélectionnez Présentation > Conteneurs.From the storage account page, select Overview > Containers.

  2. Dans la barre d’outils de la page <Account name> - Conteneurs, sélectionnez Conteneur.On the <Account name> - Containers page's toolbar, select Container.

  3. Dans la boîte de dialogue Nouveau conteneur, saisissez le nom adftutorial, puis sélectionnez OK.In the New container dialog box, enter adftutorial for the name, and then select OK. La page <Account name> - Conteneurs est mise à jour pour inclure adftutorial dans la liste des conteneurs.The <Account name> - Containers page is updated to include adftutorial in the list of containers.

    Liste des conteneurs

Ajouter un dossier et un fichier d’entrée pour le conteneur d’objets blobAdd an input folder and file for the blob container

Dans cette section, vous créez un dossier nommé input (entrée) dans le conteneur que vous avez créé, puis chargez un exemple de fichier dans ce dossier.In this section, you create a folder named input in the container you created, and then upload a sample file to the input folder. Avant de commencer, ouvrez un éditeur de texte tel que Bloc-notes, puis créez un fichier nommé emp.txt avec le contenu suivant :Before you begin, open a text editor such as Notepad, and create a file named emp.txt with the following content:

John, Doe
Jane, Doe

Enregistrez-le dans le dossier C:\ADFv2QuickStartPSHSave the file in the C:\ADFv2QuickStartPSH folder. (si le dossier n’existe pas, créez-le). Revenez ensuite au portail Azure et procédez comme suit :(If the folder doesn't already exist, create it.) Then return to the Azure portal and follow these steps:

  1. Dans la page <Account name> - Conteneurs, là où vous vous êtes arrêté, sélectionnez adftutorial dans la liste mise à jour des conteneurs.In the <Account name> - Containers page where you left off, select adftutorial from the updated list of containers.

    1. Si vous avez fermé la fenêtre ou accédé à une autre page, connectez-vous au Portail Azure à nouveau.If you closed the window or went to another page, sign in to the Azure portal again.
    2. Dans le menu Portail Azure, sélectionnez Tous les services, puis sélectionnez Stockage > Comptes de stockage.From the Azure portal menu, select All services, then select Storage > Storage accounts. Vous pouvez également rechercher et sélectionner Comptes de stockage à partir de n’importe quelle page.You can also search for and select Storage accounts from any page.
    3. Sélectionnez votre compte de stockage, puis sélectionnez Conteneurs > adftutorial.Select your storage account, and then select Containers > adftutorial.
  2. Dans la barre d’outils de la page du conteneur adftutorial, sélectionnez Charger.On the adftutorial container page's toolbar, select Upload.

  3. Dans la page Charger l’objet blob, sélectionnez la zone Fichiers, puis recherchez et sélectionnez le fichier emp.txt.In the Upload blob page, select the Files box, and then browse to and select the emp.txt file.

  4. Développez le titre Avancé.Expand the Advanced heading. La page s’affiche à présent comme indiqué :The page now displays as shown:

    Sélectionner le lien Avancé

  5. Dans la zone Charger dans le dossier, entrez input.In the Upload to folder box, enter input.

  6. Cliquez sur le bouton Charger.Select the Upload button. Vous devriez voir le fichier emp.txt et l’état du chargement dans la liste.You should see the emp.txt file and the status of the upload in the list.

  7. Sélectionnez l’icône Fermer (X) pour fermer la page Charger l’objet blob.Select the Close icon (an X) to close the Upload blob page.

Laissez la page du conteneur adftutorial ouverte.Keep the adftutorial container page open. Vous l’utiliserez pour vérifier la sortie à la fin de ce guide de démarrage rapide.You use it to verify the output at the end of this quickstart.

VidéoVideo

Regardez cette vidéo pour comprendre l’interface de fabrique de Data Factory :Watching this video helps you understand the Data Factory UI:

Créer une fabrique de donnéesCreate a data factory

  1. Lancez le navigateur web Microsoft Edge ou Google Chrome.Launch Microsoft Edge or Google Chrome web browser. L’interface utilisateur de Data Factory n’est actuellement prise en charge que par les navigateurs web Microsoft Edge et Google Chrome.Currently, Data Factory UI is supported only in Microsoft Edge and Google Chrome web browsers.

  2. Accédez au portail Azure.Go to the Azure portal.

  3. Dans le menu du Portail Azure, sélectionnez Créer une ressource.From the Azure portal menu, select Create a resource.

  4. Sélectionnez Intégration, puis Data Factory.Select Integration, and then select Data Factory.

    Sélection Data Factory dans le volet « Nouveau »

  5. Dans la page Créer une fabrique de données, sous l’onglet De base, sélectionnez l’Abonnement Azure dans lequel vous voulez créer la fabrique de données.On the Create Data Factory page, under Basics tab, select your Azure Subscription in which you want to create the data factory.

  6. Pour Groupe de ressources, réalisez l’une des opérations suivantes :For Resource Group, take one of the following steps:

    a.a. Sélectionnez un groupe de ressources existant dans la liste déroulante.Select an existing resource group from the drop-down list.

    b.b. Sélectionnez Créer, puis entrez le nom d’un nouveau groupe de ressources.Select Create new, and enter the name of a new resource group.

    Pour plus d’informations sur les groupes de ressources, consultez Utilisation des groupes de ressources pour gérer vos ressources Azure.To learn about resource groups, see Use resource groups to manage your Azure resources.

  7. Pour Région, sélectionnez l’emplacement de la fabrique de données.For Region, select the location for the data factory.

    La liste n’affiche que les emplacements pris en charge par Data Factory et où vos métadonnées Azure Data Factory sont stockées.The list shows only locations that Data Factory supports, and where your Azure Data Factory meta data will be stored. Les magasins de données associés (tels que Stockage Azure et Azure SQL Database) et les services de calcul (comme Azure HDInsight) utilisés par Data Factory peuvent s’exécuter dans d’autres régions.The associated data stores (like Azure Storage and Azure SQL Database) and computes (like Azure HDInsight) that Data Factory uses can run in other regions.

  8. Pour Nom, entrez ADFTutorialDataFactory.For Name, enter ADFTutorialDataFactory. Le nom de la fabrique de données Azure doit être un nom global unique.The name of the Azure data factory must be globally unique. Si l’erreur suivante s’affiche, changez le nom de la fabrique de données (par exemple, <votrenom>ADFTutorialDataFactory), puis tentez de la recréer.If you see the following error, change the name of the data factory (for example, <yourname>ADFTutorialDataFactory) and try creating again. Consultez l’article Data Factory - Règles d’affectation des noms pour en savoir plus sur les règles d’affectation des noms d’artefacts Data Factory.For naming rules for Data Factory artifacts, see the Data Factory - naming rules article.

    Erreur quand le nom n’est pas disponible

  9. Pour Version, sélectionnez V2.For Version, select V2.

  10. Sélectionnez Suivant : Configuration Git, puis cochez la case Configurer Git plus tard.Select Next: Git configuration, and then select Configure Git later check box.

  11. Sélectionnez Vérifier + créer, puis sélectionnez Créer une fois la validation passée.Select Review + create, and select Create after the validation is passed. Une fois la ressource créée, sélectionnez Accéder à la ressource pour ouvrir la page Data Factory.After the creation is complete, select Go to resource to navigate to the Data Factory page.

  12. Sélectionnez la vignette Créer et surveiller pour démarrer l’application d’interface utilisateur (IU) d’Azure Data Factory dans un autre onglet du navigateur.Select the Author & Monitor tile to start the Azure Data Factory user interface (UI) application on a separate browser tab.

    Page d’accueil de la fabrique de données, avec la vignette « Créer et surveiller »

    Nota

    Si vous constatez que le navigateur web est bloqué à l’étape « Autorisation », décochez la case Bloquer les cookies et les données de site tiers.If you see that the web browser is stuck at "Authorizing", clear the Block third-party cookies and site data check box. Sinon, gardez-la cochée, créez une exception pour login.microsoftonline.com, puis réessayez d’ouvrir l’application.Or keep it selected, create an exception for login.microsoftonline.com, and then try to open the app again.

Créer un service liéCreate a linked service

Dans cette procédure, vous créez un service lié qui associe votre compte de Stockage Azure à la fabrique de données.In this procedure, you create a linked service to link your Azure Storage account to the data factory. Le service lié comporte les informations de connexion utilisées par le service Data Factory lors de l’exécution pour s’y connecter.The linked service has the connection information that the Data Factory service uses at runtime to connect to it.

  1. Sur la page de l’interface utilisateur Azure Data Factory, ouvrez l’onglet Gérer dans le volet gauche.On the Azure Data Factory UI page, open Manage tab from the left pane.

  2. Dans la page Services liés, sélectionnez + Nouveau pour créer un service lié.On the Linked services page, select +New to create a new linked service.

    Nouveau service lié

  3. Dans la page Nouveau service lié, sélectionnez Stockage Blob Azure, puis cliquez sur Continuer.On the New Linked Service page, select Azure Blob Storage, and then select Continue.

  4. Dans la page New Linked Service (Azure Blob Storage) (Nouveau service lié (Stockage Blob Azure)), procédez comme suit :On the New Linked Service (Azure Blob Storage) page, complete the following steps:

    a.a. Pour le Nom, entrez AzureStorageLinkedService.For Name, enter AzureStorageLinkedService.

    b.b. Pour Nom du compte de stockage, sélectionnez le nom de votre compte de Stockage Azure.For Storage account name, select the name of your Azure Storage account.

    c.c. Cliquez sur Tester la connexion pour confirmer que le service Data Factory peut se connecter au compte de stockage.Select Test connection to confirm that the Data Factory service can connect to the storage account.

    d.d. Sélectionnez Créer pour enregistrer le service lié.Select Create to save the linked service.

    Service lié

Créez les jeux de donnéesCreate datasets

Dans cette procédure, vous créez deux jeux de données : InputDataset et OutputDataset.In this procedure, you create two datasets: InputDataset and OutputDataset. Ces jeux de données sont de type AzureBlob.These datasets are of type AzureBlob. Ils font référence au service lié Stockage Azure que vous avez créé dans la section précédente.They refer to the Azure Storage linked service that you created in the previous section.

Le jeu de données d’entrée représente les données sources dans le dossier d’entrée.The input dataset represents the source data in the input folder. Dans la définition du jeu de données d’entrée, vous spécifiez le conteneur d’objets Blob (adftutorial), le dossier (input) et le fichier (emp.txt) qui contient la source de données.In the input dataset definition, you specify the blob container (adftutorial), the folder (input), and the file (emp.txt) that contain the source data.

Le jeu de données de sortie représente les données qui sont copiées vers la destination.The output dataset represents the data that's copied to the destination. Dans la définition du jeu de données de sortie, vous spécifiez le conteneur d’objets Blob (adftutorial), le dossier (output) et le fichier dans lequel les données sont copiées.In the output dataset definition, you specify the blob container (adftutorial), the folder (output), and the file to which the data is copied. Chaque exécution d’un pipeline possède un ID unique associé.Each run of a pipeline has a unique ID associated with it. Vous pouvez accéder à cet ID à l’aide de la variable système RunId.You can access this ID by using the system variable RunId. Le nom du fichier de sortie est évalué dynamiquement en fonction de l’ID d’exécution du pipeline.The name of the output file is dynamically evaluated based on the run ID of the pipeline.

Dans les paramètres du service lié, vous avez spécifié le compte de Stockage Azure qui contient les données sources.In the linked service settings, you specified the Azure Storage account that contains the source data. Dans les paramètres de jeu de données source, vous spécifiez où se trouvent exactement les données sources (conteneur d’objets Blob, dossier et fichier).In the source dataset settings, you specify where exactly the source data resides (blob container, folder, and file). Dans les paramètres de jeu de données récepteur, vous spécifiez où les données sont copiées (conteneur d’objets Blob, dossier et fichier).In the sink dataset settings, you specify where the data is copied to (blob container, folder, and file).

  1. Sélectionnez l’onglet Créer dans le volet gauche.Select Author tab from the left pane.

  2. Cliquez sur le bouton + (plus), puis sélectionnez Jeu de données.Select the + (plus) button, and then select Dataset.

    Menu pour la création d’un jeu de données

  3. Dans la page Nouveau jeu de données, sélectionnez Stockage Blob Azure, puis Continuer.On the New Dataset page, select Azure Blob Storage, and then select Continue.

  4. Dans la page Sélectionner le format, choisissez le type de format de vos données, puis sélectionnez Continuer.On the Select Format page, choose the format type of your data, and then select Continue. Dans ce cas, sélectionnez Binaire lorsque la copie s’effectue en l’état sans analyser le contenu.In this case, select Binary when copy files as-is without parsing the content.

    Sélectionner le format

  5. Dans la page Définir les propriétés, effectuez les étapes suivantes :On the Set Properties page, complete following steps:

    a.a. Sous Nom, entrez InputDataset.Under Name, enter InputDataset.

    b.b. Pour le Service lié, sélectionnez AzureStorageLinkedService.For Linked service, select AzureStorageLinkedService.

    c.c. Pour le Chemin d’accès, sélectionnez le bouton Parcourir.For File path, select the Browse button.

    d.d. Dans la fenêtre Choisir un fichier ou dossier, accédez au dossier d’entrée dans le conteneur adftutorial, sélectionnez le fichier emp.txt, puis sélectionnez OK.In the Choose a file or folder window, browse to the input folder in the adftutorial container, select the emp.txt file, and then select OK.

    e.e. Sélectionnez OK.Select OK.

    Définir les propriétés pour InputDataset

  6. Répétez les étapes pour créer le jeu de données de sortie :Repeat the steps to create the output dataset:

    a.a. Cliquez sur le bouton + (plus), puis sélectionnez Jeu de données.Select the + (plus) button, and then select Dataset.

    b.b. Dans la page Nouveau jeu de données, sélectionnez Stockage Blob Azure, puis Continuer.On the New Dataset page, select Azure Blob Storage, and then select Continue.

    c.c. Dans la page Sélectionner le format, choisissez le type de format de vos données, puis sélectionnez Continuer.On the Select Format page, choose the format type of your data, and then select Continue.

    d.d. Dans la page Définir des propriétés, spécifiez OutputDataset comme nom.On the Set Properties page, specify OutputDataset for the name. Sélectionnez AzureStorageLinkedService comme service lié.Select AzureStorageLinkedService as linked service.

    e.e. Sous Chemin d’accès au fichier, entrez adftutorial/output.Under File path, enter adftutorial/output. Si le dossier Sortie n’existe pas, il est créé lors de l’exécution de l’activité de copie.If the output folder doesn't exist, the copy activity creates it at runtime.

    f.f. Sélectionnez OK.Select OK.

    Définir les propriétés pour OutputDataset

Créer un pipelineCreate a pipeline

Dans cette procédure, vous créez et validez un pipeline avec une activité de copie qui utilise les jeux de données d’entrée et de sortie.In this procedure, you create and validate a pipeline with a copy activity that uses the input and output datasets. L’activité de copie copie les données du fichier que vous avez spécifié dans les paramètres du jeu de données d’entrée dans le fichier que vous avez spécifié dans les paramètres du jeu de données de sortie.The copy activity copies data from the file you specified in the input dataset settings to the file you specified in the output dataset settings. Si le jeu de données d’entrée ne spécifie qu’un dossier (et pas le nom de fichier), l’activité de copie copie tous les fichiers dans le dossier source vers la destination.If the input dataset specifies only a folder (not the file name), the copy activity copies all the files in the source folder to the destination.

  1. Cliquez sur le bouton + (plus), puis sélectionnez Pipeline.Select the + (plus) button, and then select Pipeline.

  2. Dans le panneau Général, sous Propriétés, spécifiez CopyPipeline comme Nom.In the General panel under Properties, specify CopyPipeline for Name. Réduisez ensuite le panneau en cliquant sur l’icône Propriétés dans le coin supérieur droit.Then collapse the panel by clicking the Properties icon in the top-right corner.

  3. Dans la boîte à outils Activités, développez Move & Transform (Déplacer et transformer).In the Activities toolbox, expand Move & Transform. Faites glisser l’activité Copier des données depuis la boîte à outils Activités vers la surface du concepteur de pipeline.Drag the Copy Data activity from the Activities toolbox to the pipeline designer surface. Vous pouvez également rechercher des activités dans la boîte à outils Activités.You can also search for activities in the Activities toolbox. Spécifiez CopyFromBlobToBlob pour le Nom.Specify CopyFromBlobToBlob for Name.

    Création d’une activité de copie de données

  4. Basculez vers l’onglet Source dans les paramètres de l’activité de copie et sélectionnez InputDataset pour le Jeu de données source.Switch to the Source tab in the copy activity settings, and select InputDataset for Source Dataset.

  5. Basculez vers l’onglet Récepteur dans les paramètres de l’activité de copie et sélectionnez OutputDataset pour le Jeu de données récepteur.Switch to the Sink tab in the copy activity settings, and select OutputDataset for Sink Dataset.

  6. Pour valider les paramètres du pipeline, cliquez sur Valider sur la barre d’outils pour le pipeline au-dessus du canevas.Click Validate on the pipeline toolbar above the canvas to validate the pipeline settings. Vérifiez que le pipeline a été validé avec succès.Confirm that the pipeline has been successfully validated. Pour fermer la sortie de validation, sélectionnez le bouton Validation dans le coin supérieur droit.To close the validation output, select the Validation button in the top-right corner.

    Valider un pipeline

Déboguer le pipelineDebug the pipeline

Dans cette étape, vous déboguez le pipeline avant de le déployer vers Data Factory.In this step, you debug the pipeline before deploying it to Data Factory.

  1. Sur la barre d’outils du pipeline au-dessus du canevas, cliquez sur Déboguer pour déclencher une série de tests.On the pipeline toolbar above the canvas, click Debug to trigger a test run.

  2. Vérifiez que vous voyez l’état de l’exécution du pipeline dans l’onglet Sortie des paramètres du pipeline.Confirm that you see the status of the pipeline run on the Output tab of the pipeline settings at the bottom.

    Sortie de l’exécution du pipeline

  3. Vérifiez qu’un fichier de sortie apparaît bien dans le dossier de sortie du conteneur adftutorial.Confirm that you see an output file in the output folder of the adftutorial container. Si le dossier de sortie n’existe pas, le service Data Factory le crée automatiquement.If the output folder doesn't exist, the Data Factory service automatically creates it.

Déclencher le pipeline manuellementTrigger the pipeline manually

Dans cette procédure, vous déployez des entités (services liés, jeux de données, pipelines) vers Azure Data Factory.In this procedure, you deploy entities (linked services, datasets, pipelines) to Azure Data Factory. Vous déclenchez ensuite manuellement une exécution du pipeline.Then, you manually trigger a pipeline run.

  1. Avant de déclencher un pipeline, vous devez publier des entités dans Data Factory.Before you trigger a pipeline, you must publish entities to Data Factory. Pour les publier, sélectionnez Publier tout dans la partie supérieure.To publish, select Publish all on the top.

    Publier tout

  2. Pour déclencher le pipeline manuellement, sélectionnez Ajouter un déclencheur dans la barre d’outils du pipeline, puis sélectionnez Déclencher maintenant.To trigger the pipeline manually, select Add Trigger on the pipeline toolbar, and then select Trigger Now. Dans la page Exécution de pipeline, sélectionnez OK.On the Pipeline run page, select OK.

Surveiller le pipelineMonitor the pipeline

  1. Basculez vers l’onglet Surveiller sur la gauche.Switch to the Monitor tab on the left. Utilisez le bouton Actualiser pour actualiser la liste.Use the Refresh button to refresh the list.

    Onglet pour la surveillance des exécutions de pipelines

  2. Sélectionnez le lien CopyPipeline pour voir l’état d’exécution de l’activité de copie dans cette page.Select the CopyPipeline link, you'll see the status of the copy activity run on this page.

  3. Pour afficher les détails de l’opération de copie, sélectionnez le lien Détails (image en forme de lunettes).To view details about the copy operation, select the Details (eyeglasses image) link. Pour plus d’informations sur les propriétés, consultez Vue d’ensemble de l’activité de copie.For details about the properties, see Copy Activity overview.

    Détails de l’opération de copie

  4. Vérifiez qu’un nouveau fichier apparaît bien dans le dossier de sortie.Confirm that you see a new file in the output folder.

  5. Vous pouvez revenir à la vue Exécutions du pipeline à partir de la vue Exécutions d’activités en sélectionnant le lien Toutes les exécutions de pipelines.You can switch back to the Pipeline runs view from the Activity runs view by selecting the All pipeline runs link.

Déclencher le pipeline selon une planificationTrigger the pipeline on a schedule

Cette procédure est facultative dans ce didacticiel.This procedure is optional in this tutorial. Vous pouvez créer un déclencheur par planificateur afin de planifier une exécution périodique du pipeline (toutes les heures, tous les jours, etc.).You can create a scheduler trigger to schedule the pipeline to run periodically (hourly, daily, and so on). Dans cette procédure, vous créez un déclencheur qui doit s’exécuter toutes les minutes jusqu’à la date et l’heure de fin que vous spécifiez.In this procedure, you create a trigger to run every minute until the end date and time that you specify.

  1. Passez à l’onglet Auteur.Switch to the Author tab.

  2. Accédez à votre pipeline, sélectionnez Ajouter un déclencheur dans la barre d’outils du pipeline, puis Nouveau/Modifier.Go to your pipeline, select Add Trigger on the pipeline toolbar, and then select New/Edit.

  3. Sur la page Ajouter des déclencheurs, sélectionnez Choisir un déclencheur, puis Nouveau.On the Add Triggers page, select Choose trigger, and then select New.

  4. Dans la page Nouveau déclencheur, sous Fin, sélectionnez On Date (À la date), spécifiez une heure de fin quelques minutes après l’heure actuelle, puis sélectionnez OK.On the New Trigger page, under End, select On Date, specify an end time a few minutes after the current time, and then select OK.

    Un coût est associé à chaque exécution du pipeline, vous devez donc spécifier l’heure de fin quelques minutes seulement après l’heure de début.A cost is associated with each pipeline run, so specify the end time only minutes apart from the start time. Vérifiez qu’elle est le même jour.Ensure that it's the same day. Toutefois, vérifiez que la durée est suffisante entre l’heure de publication et l’heure de fin pour permettre l’exécution du pipeline.However, ensure that there's enough time for the pipeline to run between the publish time and the end time. Le déclencheur ne s’applique que lorsque vous avez publié la solution dans Data Factory, et non lorsque vous enregistrez le déclencheur dans l’interface utilisateur.The trigger comes into effect only after you publish the solution to Data Factory, not when you save the trigger in the UI.

  5. Dans la page Nouveau déclencheur, cochez la case Activé, puis sélectionnez OK.On the New Trigger page, select the Activated check box, and then select OK.

    Paramètre Nouveau déclencheur

  6. Lisez le message d’avertissement, puis sélectionnez OK.Review the warning message, and select OK.

  7. Sélectionnez Publier tout pour publier les changements sur Data Factory.Select Publish all to publish changes to Data Factory.

  8. Basculez vers l’onglet Surveiller sur la gauche.Switch to the Monitor tab on the left. Sélectionnez Actualiser pour actualiser la liste.Select Refresh to refresh the list. Vous voyez que le pipeline s’exécute toutes les minutes entre l’heure de publication et l’heure de fin.You see that the pipeline runs once every minute from the publish time to the end time.

    Notez les valeurs contenues dans la colonne TRIGGERED BY (DÉCLENCHÉ PAR).Notice the values in the TRIGGERED BY column. L’exécution manuelle du déclencheur était celle de l’étape précédente (Déclencher maintenant).The manual trigger run was from the step (Trigger Now) that you did earlier.

  9. Passez à la vue Exécutions du déclencheur.Switch to the Trigger runs view.

  10. Vérifiez qu’un fichier de sortie est créé pour chaque exécution du pipeline jusqu’à la date/heure de fin spécifiée dans le dossier de sortie.Confirm that an output file is created for every pipeline run until the specified end date and time in the output folder.

Étapes suivantesNext steps

Dans cet exemple, le pipeline copie les données d’un emplacement vers un autre dans un stockage Blob Azure.The pipeline in this sample copies data from one location to another location in Azure Blob storage. Pour en savoir plus sur l’utilisation de Data Factory dans d’autres scénarios, consultez les didacticiels.To learn about using Data Factory in more scenarios, go through the tutorials.