Schnellstart: Erstellen einer Data Factory über die Azure Data Factory-BenutzeroberflächeQuickstart: Create a data factory by using the Azure Data Factory UI

GILT FÜR: Azure Data Factory Azure Synapse Analytics

Diese Schnellstartanleitung beschreibt, wie Sie mithilfe der Azure Data Factory-Benutzeroberfläche eine Data Factory erstellen und überwachen.This quickstart describes how to use the Azure Data Factory UI to create and monitor a data factory. Die in dieser Data Factory erstellte Pipeline kopiert Daten aus einem Ordner in einen anderen Ordner in Azure Blob Storage.The pipeline that you create in this data factory copies data from one folder to another folder in Azure Blob storage. Informationen zum Transformieren von Daten mithilfe von Azure Data Factory finden Sie unter Was sind Zuordnungsdatenflüsse? und Wranglingdatenfluss (Vorschau).To transform data by using Azure Data Factory, see Mapping data flow and Wrangling data flow (Preview).

Hinweis

Wenn Sie mit Azure Data Factory nicht vertraut sind, lesen Sie vor der Durchführung dieses Schnellstarts die Informationen unter Einführung in Azure Data Factory.If you are new to Azure Data Factory, see Introduction to Azure Data Factory before doing this quickstart.

VoraussetzungenPrerequisites

Azure-AbonnementAzure subscription

Wenn Sie kein Azure-Abonnement besitzen, können Sie ein kostenloses Konto erstellen, bevor Sie beginnen.If you don't have an Azure subscription, create a free account before you begin.

Azure-RollenAzure roles

Damit Sie Data Factory-Instanzen erstellen können, muss das Benutzerkonto, mit dem Sie sich bei Azure anmelden, ein Mitglied der Rolle Mitwirkender oder Besitzer oder ein Administrator des Azure-Abonnements sein.To create Data Factory instances, the user account that you use to sign in to Azure must be a member of the contributor or owner role, or an administrator of the Azure subscription. Wenn Sie die Berechtigungen anzeigen möchten, über die Sie im Abonnement verfügen, wechseln Sie zum Azure-Portal, wählen Sie in der oberen rechten Ecke Ihren Benutzernamen aus, wählen Sie Weitere Optionen (...) aus, und wählen Sie dann Meine Berechtigungen aus.To view the permissions that you have in the subscription, go to the Azure portal, select your username in the upper-right corner, select "..." icon for more options, and then select My permissions. Wenn Sie Zugriff auf mehrere Abonnements besitzen, wählen Sie das entsprechende Abonnement aus.If you have access to multiple subscriptions, select the appropriate subscription.

Für das Erstellen und Verwalten von untergeordneten Ressourcen für Data Factory – z.B. Datasets, verknüpfte Dienste, Pipelines, Trigger und Integration Runtimes – gelten die folgenden Anforderungen:To create and manage child resources for Data Factory - including datasets, linked services, pipelines, triggers, and integration runtimes - the following requirements are applicable:

  • Für das Erstellen und Verwalten von untergeordneten Ressourcen im Azure-Portal müssen Sie auf Ressourcengruppenebene oder höher Mitglied der Rolle Mitwirkender von Data Factory sein.To create and manage child resources in the Azure portal, you must belong to the Data Factory Contributor role at the resource group level or above.
  • Zum Erstellen und Verwalten von untergeordneten Ressourcen mit PowerShell oder dem SDK auf Ressourcenebene oder höher ist die Rolle Mitwirkender ausreichend.To create and manage child resources with PowerShell or the SDK, the contributor role at the resource level or above is sufficient.

Eine Beispielanleitung zum Hinzufügen eines Benutzers zu einer Rolle finden Sie im Artikel Hinzufügen oder Ändern von Azure-Administratorrollen, die das Abonnement oder die Dienste verwalten.For sample instructions about how to add a user to a role, see the Add roles article.

Weitere Informationen finden Sie in den folgenden Artikeln:For more info, see the following articles:

Azure-SpeicherkontoAzure Storage account

Sie verwenden in diesem Schnellstart ein allgemeines Azure Storage-Konto (Blobspeicher) als Datenspeicher vom Typ Quelle und vom Typ Ziel.You use a general-purpose Azure Storage account (specifically Blob storage) as both source and destination data stores in this quickstart. Falls Sie noch nicht über ein allgemeines Azure Storage-Konto verfügen, lesen Sie zum Erstellen die Informationen unter Erstellen Sie ein Speicherkonto.If you don't have a general-purpose Azure Storage account, see Create a storage account to create one.

Abrufen des SpeicherkontonamensGet the storage account name

In dieser Schnellstartanleitung benötigen Sie den Namen Ihres Azure Storage-Kontos.You need the name of your Azure Storage account for this quickstart. Das folgende Verfahren enthält die Schritte zum Abrufen des Namens für Ihr Speicherkonto:The following procedure provides steps to get the name of your storage account:

  1. Navigieren Sie in einem Webbrowser zum Azure-Portal, und melden Sie sich mit Ihrem Azure-Benutzernamen und dem zugehörigen Kennwort an.In a web browser, go to the Azure portal and sign in using your Azure username and password.
  2. Wählen Sie im Menü des Azure-Portals die Option Alle Dienste und anschließend Storage > Speicherkonten aus.From the Azure portal menu, select All services, then select Storage > Storage accounts. Alternativ können Sie auf einer beliebigen Seite nach Speicherkonten suchen und die entsprechende Option auswählen.You can also search for and select Storage accounts from any page.
  3. Filtern Sie auf der Seite Speicherkonten nach Ihrem Speicherkonto (falls erforderlich), und wählen Sie dann Ihr Speicherkonto aus.In the Storage accounts page, filter for your storage account (if needed), and then select your storage account.

Alternativ können Sie auf einer beliebigen Seite nach Speicherkonten suchen und die entsprechende Option auswählen.You can also search for and select Storage accounts from any page.

Erstellen eines BlobcontainersCreate a blob container

In diesem Abschnitt erstellen Sie einen Blobcontainer mit dem Namen adftutorial in Azure Blob Storage.In this section, you create a blob container named adftutorial in Azure Blob storage.

  1. Wählen Sie auf der Seite „Speicherkonto“ die Optionen Übersicht > Container aus.From the storage account page, select Overview > Containers.

  2. Wählen Sie auf der Symbolleiste der Seite <Account name> - Container die Option Container aus.On the <Account name> - Containers page's toolbar, select Container.

  3. Geben Sie im Dialogfeld Neuer Container als Namen adftutorial ein, und klicken Sie auf OK.In the New container dialog box, enter adftutorial for the name, and then select OK. Die Seite <Account name> - Container wird aktualisiert, woraufhin die Liste der Container den Eintrag adftutorial enthält.The <Account name> - Containers page is updated to include adftutorial in the list of containers.

    Liste der Container

Hinzufügen eines Eingabeordners und einer Datei für den BlobcontainerAdd an input folder and file for the blob container

In diesem Abschnitt erstellen Sie einen Ordner mit dem Namen input in dem Container, den Sie erstellt haben, und laden eine Beispieldatei in den Eingabeordner hoch.In this section, you create a folder named input in the container you created, and then upload a sample file to the input folder. Öffnen Sie zunächst einen Text-Editor wie Notepad, und erstellen Sie eine Datei mit dem Namen emp.txt und folgendem Inhalt:Before you begin, open a text editor such as Notepad, and create a file named emp.txt with the following content:

John, Doe
Jane, Doe

Speichern Sie die Datei im Ordner C:\ADFv2QuickStartPSH.Save the file in the C:\ADFv2QuickStartPSH folder. (Erstellen Sie den Ordner, falls er noch nicht vorhanden ist.) Kehren Sie dann zum Azure-Portal zurück, und führen Sie die folgenden Schritte aus:(If the folder doesn't already exist, create it.) Then return to the Azure portal and follow these steps:

  1. Wählen Sie auf der Seite <Account name> - Container, auf der Sie Ihre Arbeit unterbrochen haben, in der aktualisierten Liste der Container den Eintrag adftutorial aus.In the <Account name> - Containers page where you left off, select adftutorial from the updated list of containers.

    1. Falls Sie das Fenster geschlossen oder zu einer anderen Seite gewechselt haben, melden Sie sich erneut beim Azure-Portal an.If you closed the window or went to another page, sign in to the Azure portal again.
    2. Wählen Sie im Menü des Azure-Portals die Option Alle Dienste und anschließend Storage > Speicherkonten aus.From the Azure portal menu, select All services, then select Storage > Storage accounts. Alternativ können Sie auf einer beliebigen Seite nach Speicherkonten suchen und die entsprechende Option auswählen.You can also search for and select Storage accounts from any page.
    3. Wählen Sie Ihr Speicherkonto und anschließend Container > adftutorial aus.Select your storage account, and then select Containers > adftutorial.
  2. Wählen Sie auf der Symbolleiste der Seite des Containers adftutorial die Option Hochladen aus.On the adftutorial container page's toolbar, select Upload.

  3. Wählen Sie auf der Seite Blob hochladen das Feld Dateien aus. Navigieren Sie zur Datei emp.txt, und wählen Sie dann die Datei aus.In the Upload blob page, select the Files box, and then browse to and select the emp.txt file.

  4. Erweitern Sie die Überschrift Erweitert.Expand the Advanced heading. Die Seite wird jetzt wie folgt angezeigt:The page now displays as shown:

    Klicken auf den Link „Erweitert“

  5. Geben Sie im Feld In Ordner hochladen den Namen input ein.In the Upload to folder box, enter input.

  6. Wählen Sie die Schaltfläche Hochladen.Select the Upload button. Daraufhin sollten in der Liste die Datei emp.txt und der Status des Uploads angezeigt werden.You should see the emp.txt file and the status of the upload in the list.

  7. Wählen Sie das Symbol Schließen (das X) aus, um die Seite Blob hochladen zu schließen.Select the Close icon (an X) to close the Upload blob page.

Lassen Sie die Seite des Containers adftutorial geöffnet.Keep the adftutorial container page open. Sie überprüfen darauf am Ende dieser Schnellstartanleitung die Ausgabe.You use it to verify the output at the end of this quickstart.

VideoVideo

Dieses Video enthält Informationen zur Data Factory-Benutzeroberfläche:Watching this video helps you understand the Data Factory UI:

Erstellen einer Data FactoryCreate a data factory

  1. Starten Sie den Webbrowser Microsoft Edge oder Google Chrome.Launch Microsoft Edge or Google Chrome web browser. Die Data Factory-Benutzeroberfläche wird zurzeit nur in den Webbrowsern Microsoft Edge und Google Chrome unterstützt.Currently, Data Factory UI is supported only in Microsoft Edge and Google Chrome web browsers.

  2. Öffnen Sie das Azure-Portal.Go to the Azure portal.

  3. Wählen Sie im Menü des Azure-Portals die Option Ressource erstellen aus.From the Azure portal menu, select Create a resource.

  4. Wählen Sie Integration und dann Data Factory aus.Select Integration, and then select Data Factory.

    Auswählen von „Data Factory“ im Bereich „Neu“

  5. Wählen Sie auf der Seite Data Factory erstellen auf der Registerkarte Grundlagen Ihr Azure-Abonnement aus, in dem Sie die Data Factory erstellen möchten.On the Create Data Factory page, under Basics tab, select your Azure Subscription in which you want to create the data factory.

  6. Führen Sie unter Ressourcengruppe einen der folgenden Schritte aus:For Resource Group, take one of the following steps:

    a.a. Wählen Sie in der Dropdownliste eine vorhandene Ressourcengruppe aus.Select an existing resource group from the drop-down list.

    b.b. Wählen Sie Neu erstellen aus, und geben Sie den Namen einer neuen Ressourcengruppe ein.Select Create new, and enter the name of a new resource group.

    Weitere Informationen zu Ressourcengruppen finden Sie unter Verwenden von Ressourcengruppen zum Verwalten von Azure-Ressourcen.To learn about resource groups, see Use resource groups to manage your Azure resources.

  7. Wählen Sie unter Region den Standort für die Data Factory aus.For Region, select the location for the data factory.

    In der Liste werden nur Standorte angezeigt, die von Data Factory unterstützt werden und an denen Ihre Azure Data Factory-Metadaten gespeichert werden.The list shows only locations that Data Factory supports, and where your Azure Data Factory meta data will be stored. Die von Data Factory verwendeten zugeordneten Datenspeicher (z. B. Azure Storage und Azure SQL-Datenbank) und Computedienste (z. B. Azure HDInsight) können in anderen Regionen ausgeführt werden.The associated data stores (like Azure Storage and Azure SQL Database) and computes (like Azure HDInsight) that Data Factory uses can run in other regions.

  8. Geben Sie unter Name den Namen ADFTutorialDataFactory ein.For Name, enter ADFTutorialDataFactory. Der Name der Azure Data Factory muss global eindeutig sein.The name of the Azure data factory must be globally unique. Sollte der folgende Fehler auftreten, ändern Sie den Namen der Data Factory (beispielsweise in <IhrName>ADFTutorialDataFactory), und wiederholen Sie den Vorgang.If you see the following error, change the name of the data factory (for example, <yourname>ADFTutorialDataFactory) and try creating again. Benennungsregeln für Data Factory-Artefakte finden Sie im Artikel Azure Data Factory – Benennungsregeln.For naming rules for Data Factory artifacts, see the Data Factory - naming rules article.

    Fehler, wenn ein Name nicht verfügbar ist

  9. Wählen Sie V2 als Version aus.For Version, select V2.

  10. Klicken Sie auf Weiter: Git-Konfiguration, und aktivieren Sie das Kontrollkästchen Git später konfigurieren.Select Next: Git configuration, and then select Configure Git later check box.

  11. Wählen Sie Überprüfen und erstellen und nach erfolgreicher Prüfung Erstellen aus.Select Review + create, and select Create after the validation is passed. Wählen Sie nach der Erstellung Zu Ressource wechseln aus, um zur Seite Data Factory zu navigieren.After the creation is complete, select Go to resource to navigate to the Data Factory page.

  12. Wählen Sie die Kachel Erstellen und überwachen aus, um die Anwendung für die Azure Data Factory-Benutzeroberfläche (User Interface, UI) auf einer separaten Registerkarte des Browsers zu starten.Select the Author & Monitor tile to start the Azure Data Factory user interface (UI) application on a separate browser tab.

    Startseite der Data Factory mit der Kachel „Erstellen und überwachen“

    Hinweis

    Falls der Webbrowser bei „Autorisierung läuft“ hängt, sollten Sie das Kontrollkästchen Cookies und Websitedaten von Drittanbietern blockieren deaktivieren.If you see that the web browser is stuck at "Authorizing", clear the Block third-party cookies and site data check box. Alternativ können Sie die Aktivierung beibehalten, eine Ausnahme für login.microsoftonline.com erstellen und dann erneut versuchen, die App zu öffnen.Or keep it selected, create an exception for login.microsoftonline.com, and then try to open the app again.

Erstellen eines verknüpften DienstsCreate a linked service

In dieser Prozedur erstellen Sie einen verknüpften Dienst, der Ihr Azure Storage-Konto mit der Data Factory verbindet.In this procedure, you create a linked service to link your Azure Storage account to the data factory. Der verknüpfte Dienste enthält die Verbindungsinformationen, die der Data Factory-Dienst zur Laufzeit zur Verbindungsherstellung verwendet.The linked service has the connection information that the Data Factory service uses at runtime to connect to it.

  1. Öffnen Sie auf der Seite „Azure Data Factory-Benutzeroberfläche“ im linken Bereich die Registerkarte Verwalten.On the Azure Data Factory UI page, open Manage tab from the left pane.

  2. Wählen Sie auf der Seite „Verknüpfte Dienste“ die Option +Neu aus, um einen neuen verknüpften Dienst zu erstellen.On the Linked services page, select +New to create a new linked service.

    Neuer verknüpfter Dienst

  3. Wählen Sie auf der Seite Neuer verknüpfter Dienst die Option Azure Blob Storage, und klicken Sie dann auf Weiter.On the New Linked Service page, select Azure Blob Storage, and then select Continue.

  4. Führen Sie auf der Seite „New Linked Service (Azure Blob Storage)“ (Neuer verknüpfter Dienst (Azure Blob Storage)) die folgenden Schritte aus:On the New Linked Service (Azure Blob Storage) page, complete the following steps:

    a.a. Geben Sie unter Name den Namen AzureStorageLinkedService ein.For Name, enter AzureStorageLinkedService.

    b.b. Wählen Sie unter Speicherkontoname den Namen Ihres Azure Storage-Kontos aus.For Storage account name, select the name of your Azure Storage account.

    c.c. Klicken Sie auf Verbindung testen, um zu überprüfen, ob der Data Factory-Dienst eine Verbindung mit dem Speicherkonto herstellen kann.Select Test connection to confirm that the Data Factory service can connect to the storage account.

    d.d. Wählen Sie Erstellen aus, um den verknüpften Dienst zu speichern.Select Create to save the linked service.

    Verknüpfter Dienst

Erstellen von DatasetsCreate datasets

In diesem Verfahren erstellen Sie zwei Datasets: InputDataset und OutputDataset.In this procedure, you create two datasets: InputDataset and OutputDataset. Diese Datasets sind vom Typ AzureBlob.These datasets are of type AzureBlob. Sie verweisen auf den mit Azure Storage verknüpften Dienst, den Sie im vorherigen Abschnitt erstellt haben.They refer to the Azure Storage linked service that you created in the previous section.

Das Eingabedataset stellt die Quelldaten im Eingabeordner dar.The input dataset represents the source data in the input folder. In der Definition des Eingabedatasets geben Sie den Blobcontainer (adftutorial), den Ordner (input) und die Datei (emp.txt) mit den Quelldaten an.In the input dataset definition, you specify the blob container (adftutorial), the folder (input), and the file (emp.txt) that contain the source data.

Das Ausgabedataset stellt die Daten dar, die zum Ziel kopiert werden.The output dataset represents the data that's copied to the destination. In der Definition des Ausgabedatasets geben Sie den Blobcontainer (adftutorial), den Ordner (output) und die Datei an, in die die Daten kopiert werden.In the output dataset definition, you specify the blob container (adftutorial), the folder (output), and the file to which the data is copied. Jeder Ausführung einer Pipeline wird eine eindeutige ID zugeordnet.Each run of a pipeline has a unique ID associated with it. Sie können auf diese ID mithilfe der Systemvariablen RunId zugreifen.You can access this ID by using the system variable RunId. Der Name der Ausgabedatei wird basierend auf der Ausführungs-ID der Pipeline dynamisch ausgewertet.The name of the output file is dynamically evaluated based on the run ID of the pipeline.

In den Einstellungen des verknüpften Diensts haben Sie das Azure Storage-Konto angegeben, das die Quelldaten enthält.In the linked service settings, you specified the Azure Storage account that contains the source data. In den Einstellungen des Quelldatasets geben Sie an, wo genau sich die Quelldaten befinden (Blobcontainer, Order und Datei).In the source dataset settings, you specify where exactly the source data resides (blob container, folder, and file). In den Einstellungen des Senkendatasets geben Sie an, wohin die Daten kopiert werden (Blobcontainer, Order und Datei).In the sink dataset settings, you specify where the data is copied to (blob container, folder, and file).

  1. Wählen Sie im linken Bereich die Registerkarte Autor aus.Select Author tab from the left pane.

  2. Klicken Sie auf die Schaltfläche + (Plus) und dann auf Dataset.Select the + (plus) button, and then select Dataset.

    Menü zum Erstellen eines Datasets

  3. Wählen Sie auf der Seite Neues Dataset die Option Azure Blob Storage und dann Weiter aus.On the New Dataset page, select Azure Blob Storage, and then select Continue.

  4. Wählen Sie auf der Seite Format auswählen den Formattyp Ihrer Daten und dann Weiter aus.On the Select Format page, choose the format type of your data, and then select Continue. Wählen Sie in diesem Fall Binär aus, wenn Dateien unverändert kopiert werden, ohne dass der Inhalt analysiert wird.In this case, select Binary when copy files as-is without parsing the content.

    Auswählen des Formats

  5. Führen Sie auf der Seite Einstellungen festlegen die folgenden Schritte aus:On the Set Properties page, complete following steps:

    a.a. Geben Sie unter Name den Namen InputDataset ein.Under Name, enter InputDataset.

    b.b. Wählen Sie unter Verknüpfter Dienst die Option AzureStorageLinkedService.For Linked service, select AzureStorageLinkedService.

    c.c. Klicken Sie neben Dateipfad auf die Schaltfläche Durchsuchen.For File path, select the Browse button.

    d.d. Navigieren Sie im Fenster Choose a file or folder (Datei oder Ordner auswählen) zum Ordner input im Container adftutorial, wählen Sie die Datei emp.txt aus, und wählen Sie anschließend OK aus.In the Choose a file or folder window, browse to the input folder in the adftutorial container, select the emp.txt file, and then select OK.

    e.e. Klicken Sie auf OK.Select OK.

    Festlegen der Eigenschaften für InputDataset

  6. Wiederholen Sie die Schritte zum Erstellen des Ausgabedatasets:Repeat the steps to create the output dataset:

    a.a. Klicken Sie auf die Schaltfläche + (Plus) und dann auf Dataset.Select the + (plus) button, and then select Dataset.

    b.b. Wählen Sie auf der Seite Neues Dataset die Option Azure Blob Storage und dann Weiter aus.On the New Dataset page, select Azure Blob Storage, and then select Continue.

    c.c. Wählen Sie auf der Seite Format auswählen den Formattyp Ihrer Daten und dann Weiter aus.On the Select Format page, choose the format type of your data, and then select Continue.

    d.d. Geben Sie auf der Seite Eigenschaften festlegen als Name OutputDataset ein.On the Set Properties page, specify OutputDataset for the name. Wählen Sie AzureStorageLinkedService als verknüpften Dienst aus.Select AzureStorageLinkedService as linked service.

    e.e. Geben Sie unter Dateipfad den Pfad adftutorial/output ein.Under File path, enter adftutorial/output. Wenn der Ordner output nicht vorhanden ist, wird er von der Copy-Aktivität zur Laufzeit erstellt.If the output folder doesn't exist, the copy activity creates it at runtime.

    f.f. Klicken Sie auf OK.Select OK.

    Festlegen der Eigenschaften für „OutputDataset“

Erstellen einer PipelineCreate a pipeline

In diesem Schritt erstellen und überprüfen Sie eine Pipeline mit einer Copy-Aktivität, die das Eingabe- und Ausgabedataset verwendet.In this procedure, you create and validate a pipeline with a copy activity that uses the input and output datasets. Die Copy-Aktivität kopiert Daten aus der in den Einstellungen des Eingabedatasets angegebenen Datei in die Datei, die in den Einstellungen des Ausgabedatasets angegeben ist.The copy activity copies data from the file you specified in the input dataset settings to the file you specified in the output dataset settings. Wenn das Eingabedataset nur einen Ordner (nicht den Dateinamen) angibt, kopiert die Copy-Aktivität alle Dateien im Quellordner ans Ziel.If the input dataset specifies only a folder (not the file name), the copy activity copies all the files in the source folder to the destination.

  1. Klicken Sie auf die Schaltfläche + (Plus) und dann auf Pipeline.Select the + (plus) button, and then select Pipeline.

  2. Geben Sie im Bereich „Allgemein“ unter Eigenschaften die Eigenschaft CopyPipeline für Name an.In the General panel under Properties, specify CopyPipeline for Name. Reduzieren Sie dann den Bereich, indem Sie in der oberen rechten Ecke auf das Symbol „Eigenschaften“ klicken.Then collapse the panel by clicking the Properties icon in the top-right corner.

  3. Erweitern Sie in der Toolbox Aktivitäten die Option Move & Transform (Verschieben und transformieren).In the Activities toolbox, expand Move & Transform. Ziehen Sie die Copy Data-Aktivität aus der Toolbox Aktivitäten auf die Oberfläche des Pipeline-Designers.Drag the Copy Data activity from the Activities toolbox to the pipeline designer surface. Sie können in der Toolbox Aktivitäten auch nach Aktivitäten suchen.You can also search for activities in the Activities toolbox. Geben Sie unter Name den Namen CopyFromBlobToBlob ein.Specify CopyFromBlobToBlob for Name.

    Erstellen einer Aktivität zum Kopieren von Daten

  4. Wechseln Sie in den Einstellungen der Copy-Aktivität zur Registerkarte Quelle, und wählen Sie für Quelldataset die Option InputDataset aus.Switch to the Source tab in the copy activity settings, and select InputDataset for Source Dataset.

  5. Wechseln Sie in den Einstellungen der Copy-Aktivität zur Registerkarte Senke, und wählen Sie für Senkendataset die Option OutputDataset aus.Switch to the Sink tab in the copy activity settings, and select OutputDataset for Sink Dataset.

  6. Klicken Sie zum Überprüfen der Pipelineeinstellungen oberhalb der Canvas auf der Symbolleiste für die Pipeline auf Überprüfen.Click Validate on the pipeline toolbar above the canvas to validate the pipeline settings. Vergewissern Sie sich, dass die Pipeline überprüft wurde.Confirm that the pipeline has been successfully validated. Wählen Sie zum Schließen der Überprüfungsausgabe oben rechts die Schaltfläche „Prüfung“ aus.To close the validation output, select the Validation button in the top-right corner.

    Überprüfen einer Pipeline

Debuggen der PipelineDebug the pipeline

In diesem Schritt debuggen Sie die Pipeline, bevor Sie sie in Data Factory bereitstellen.In this step, you debug the pipeline before deploying it to Data Factory.

  1. Klicken Sie oberhalb der Canvas auf der Symbolleiste für die Pipeline auf Debuggen, um einen Testlauf auszulösen.On the pipeline toolbar above the canvas, click Debug to trigger a test run.

  2. Überprüfen Sie, ob der Status der Pipelineausführung auf der Registerkarte Ausgabe der Pipelineeinstellungen unten angezeigt wird.Confirm that you see the status of the pipeline run on the Output tab of the pipeline settings at the bottom.

    Ausgabe der Pipelineausführung

  3. Vergewissern Sie sich, dass im Ordner output des Containers adftutorial eine Ausgabedatei angezeigt wird.Confirm that you see an output file in the output folder of the adftutorial container. Ist der Ausgabeordner nicht vorhanden, wird er vom Data Factory-Dienst automatisch erstellt.If the output folder doesn't exist, the Data Factory service automatically creates it.

Manuelles Auslösen der PipelineTrigger the pipeline manually

In diesem Verfahren stellen Sie Entitäten (verknüpfte Dienste, Datasets, Pipelines) in Azure Data Factory bereit.In this procedure, you deploy entities (linked services, datasets, pipelines) to Azure Data Factory. Anschließend lösen Sie manuell eine Pipelineausführung aus.Then, you manually trigger a pipeline run.

  1. Vor dem Auslösen einer Pipeline müssen Sie Entitäten in Data Factory veröffentlichen.Before you trigger a pipeline, you must publish entities to Data Factory. Klicken Sie zum Veröffentlichen im oberen Bereich auf Alle veröffentlichen.To publish, select Publish all on the top.

    Alle veröffentlichen

  2. Klicken Sie zum manuellen Auslösen der Pipeline auf der Symbolleiste für die Pipeline auf Trigger hinzufügen und dann auf Trigger Now (Jetzt auslösen).To trigger the pipeline manually, select Add Trigger on the pipeline toolbar, and then select Trigger Now. Wählen Sie auf der Seite Pipelineausführung die Schaltfläche OK aus.On the Pipeline run page, select OK.

Überwachen der PipelineMonitor the pipeline

  1. Wechseln Sie im linken Bereich zur Registerkarte Überwachen.Switch to the Monitor tab on the left. Aktualisieren Sie die Liste mithilfe der Schaltfläche Aktualisieren.Use the Refresh button to refresh the list.

    Registerkarte zum Überwachen von Pipelineausführungen

  2. Wählen Sie den Link CopyPipeline aus. Auf dieser Seite wird der Ausführungsstatus der Kopieraktivität angezeigt.Select the CopyPipeline link, you'll see the status of the copy activity run on this page.

  3. Wenn Sie Details zum Kopiervorgang anzeigen möchten, wählen Sie den Link Details (Brillensymbol) aus.To view details about the copy operation, select the Details (eyeglasses image) link. Einzelheiten zu den Eigenschaften finden Sie unter Kopieraktivität in Azure Data Factory.For details about the properties, see Copy Activity overview.

    Einzelheiten zum Kopiervorgang

  4. Vergewissern Sie sich, dass im Ordner output eine neue Datei enthalten ist.Confirm that you see a new file in the output folder.

  5. Wenn Sie von der Ansicht Aktivitätsausführungen zur Ansicht Pipelineausführungen zurückkehren möchten, wählen Sie den Link Alle Pipelineausführungen aus.You can switch back to the Pipeline runs view from the Activity runs view by selecting the All pipeline runs link.

Auslösen der Pipeline nach einem ZeitplanTrigger the pipeline on a schedule

Dieser Schritt ist in diesem Tutorial optional.This procedure is optional in this tutorial. Sie können einen Planer-Trigger erstellen, um eine regelmäßige Ausführung der Pipeline (stündlich, täglich usw.) festzulegen.You can create a scheduler trigger to schedule the pipeline to run periodically (hourly, daily, and so on). In diesem Schritt erstellen Sie einen Trigger, der bis zur angegebenen Endzeit (Datum und Uhrzeit) minütlich ausgeführt wird.In this procedure, you create a trigger to run every minute until the end date and time that you specify.

  1. Wechseln Sie zur Registerkarte Autor.Switch to the Author tab.

  2. Navigieren Sie zu Ihrer Pipeline, und wählen Sie auf der Symbolleiste für die Pipeline Trigger hinzufügen und dann Neu/Bearbeiten aus.Go to your pipeline, select Add Trigger on the pipeline toolbar, and then select New/Edit.

  3. Klicken Sie auf der Seite Add Triggers (Trigger hinzufügen) auf Choose trigger (Trigger auswählen) und dann auf Neu.On the Add Triggers page, select Choose trigger, and then select New.

  4. Wählen Sie auf der Seite Neuer Trigger unter Ende die Option An Datum aus, geben Sie eine Endzeit an, die einige Minuten nach der aktuellen Zeit liegt, und wählen Sie anschließend OK aus.On the New Trigger page, under End, select On Date, specify an end time a few minutes after the current time, and then select OK.

    Da für jede Pipelineausführung Gebühren anfallen, sollten zwischen Endzeit und Startzeit nur wenige Minuten liegen.A cost is associated with each pipeline run, so specify the end time only minutes apart from the start time. Vergewissern Sie sich, dass der gleiche Tag festgelegt ist.Ensure that it's the same day. Stellen Sie jedoch sicher, dass zwischen Veröffentlichungszeit und Endzeit ausreichend Zeit für die Pipelineausführung bleibt.However, ensure that there's enough time for the pipeline to run between the publish time and the end time. Der Trigger wird erst wirksam, nachdem Sie die Lösung in Data Factory veröffentlicht haben, nicht beim Speichern des Triggers auf der Benutzeroberfläche.The trigger comes into effect only after you publish the solution to Data Factory, not when you save the trigger in the UI.

  5. Aktivieren Sie auf der Seite Neuer Trigger das Kontrollkästchen Aktiviert, und wählen Sie anschließend OK aus.On the New Trigger page, select the Activated check box, and then select OK.

    Einstellung „Neuer Trigger“

  6. Lesen Sie die Warnmeldung, und wählen Sie OK aus.Review the warning message, and select OK.

  7. Wählen Sie Alle veröffentlichen aus, um Änderungen für die Data Factory zu veröffentlichen.Select Publish all to publish changes to Data Factory.

  8. Wechseln Sie im linken Bereich zur Registerkarte Überwachen.Switch to the Monitor tab on the left. Klicken Sie zum Aktualisieren der Liste auf Aktualisieren.Select Refresh to refresh the list. Sie sehen, dass die Pipeline zwischen Veröffentlichungszeit und Endzeit minütlich ausgeführt wird.You see that the pipeline runs once every minute from the publish time to the end time.

    Beachten Sie die Werte in der Spalte AUSGELÖST DURCH.Notice the values in the TRIGGERED BY column. Die manuelle Triggerausführung stammt aus dem zuvor ausgeführten Schritt (Trigger Now (Jetzt auslösen)).The manual trigger run was from the step (Trigger Now) that you did earlier.

  9. Wechseln Sie zur Ansicht Triggerausführungen.Switch to the Trigger runs view.

  10. Vergewissern Sie sich, dass für jede Pipelineausführung bis zur angegebenen Endzeit eine Ausgabedatei im Ordner output erstellt wird.Confirm that an output file is created for every pipeline run until the specified end date and time in the output folder.

Nächste SchritteNext steps

Die Pipeline in diesem Beispiel kopiert Daten in Azure Blob Storage von einem Speicherort in einen anderen.The pipeline in this sample copies data from one location to another location in Azure Blob storage. Arbeiten Sie die Tutorials durch, um zu erfahren, wie Sie Data Factory in anderen Szenarien verwenden können.To learn about using Data Factory in more scenarios, go through the tutorials.