Grundlegendes zu Azure Data Factory-Preisen anhand von BeispielenUnderstanding Data Factory pricing through examples

GILT FÜR: Azure Data Factory Azure Synapse Analytics

In diesem Artikel wird das Preismodell für Azure Data Factory mit ausführlichen Beispielen veranschaulicht.This article explains and demonstrates the Azure Data Factory pricing model with detailed examples.

Hinweis

Die in diesen Beispielen verwendeten Preise sind hypothetisch und stellen keine tatsächliche Preisgestaltung dar.The prices used in these examples below are hypothetical and are not intended to imply actual pricing.

Stündliches Kopieren von Daten aus AWS S3 in Azure Blob StorageCopy data from AWS S3 to Azure Blob storage hourly

In diesem Szenario möchten Sie Daten aus AWS S3 stündlich in Azure Blob Storage kopieren.In this scenario, you want to copy data from AWS S3 to Azure Blob storage on an hourly schedule.

Um dieses Szenario zu realisieren, müssen Sie eine Pipeline mit folgenden Elementen erstellen:To accomplish the scenario, you need to create a pipeline with the following items:

  1. Eine Kopieraktivität mit einem Eingabedataset für die aus AWS S3 zu kopierenden Daten.A copy activity with an input dataset for the data to be copied from AWS S3.

  2. Ein Ausgabedataset für die Daten in Azure Storage.An output dataset for the data on Azure Storage.

  3. Einen Zeitplantrigger, der die Pipeline einmal pro Stunde ausführt.A schedule trigger to execute the pipeline every hour.

    Diagramm einer Pipeline mit einem Zeitplantrigger.

VorgängeOperations Typen und EinheitenTypes and Units
Erstellen eines verknüpften DienstsCreate Linked Service 2 Lese-/Schreibzugriffentitäten2 Read/Write entity
Erstellen von DatasetsCreate Datasets 4 Lese-/Schreibzugriffentitäten (2 für Dataseterstellung, 2 für Verweise auf verknüpfte Dienste)4 Read/Write entities (2 for dataset creation, 2 for linked service references)
Erstellen der PipelineCreate Pipeline 3 Lese-/Schreibzugriffentitäten (1 für Pipelineerstellung, 2 für Datasetverweise)3 Read/Write entities (1 for pipeline creation, 2 for dataset references)
Abrufen der PipelineGet Pipeline 1 Lese-/Schreibzugriffentität1 Read/Write entity
Ausführen der PipelineRun Pipeline 2 Aktivitätsausführungen (1 für den Trigger, 1 für die Aktivität)2 Activity runs (1 for trigger run, 1 for activity runs)
Annahme für Kopieren der Daten: Ausführungszeit = 10 MinutenCopy Data Assumption: execution time = 10 min 10 * 4 Azure Integration Runtime (Standard-DIU-Einstellung = 4) Weitere Informationen zu Datenintegrationseinheiten und Optimieren der Kopierleistung finden Sie in diesem Artikel10 * 4 Azure Integration Runtime (default DIU setting = 4) For more information on data integration units and optimizing copy performance, see this article
Annahme für Überwachung der Pipeline: Nur 1 Ausführung ist aufgetretenMonitor Pipeline Assumption: Only 1 run occurred 2 abgerufene Überwachungsausführungsaufzeichnungen (1 für Pipelineausführung, 1 für Aktivitätsausführung)2 Monitoring run records retrieved (1 for pipeline run, 1 for activity run)

Preis für gesamtes Szenario: 0,16811 US-$Total Scenario pricing: $0.16811

  • Data Factory-Vorgänge = 0,0001 US-$Data Factory Operations = $0.0001
    • Lesen/Schreiben = 10*00001 = 0,0001 US-$ [1 R/W = 0,50 US-$/50.000 = 0,00001]Read/Write = 10*00001 = $0.0001 [1 R/W = $0.50/50000 = 0.00001]
    • Überwachung = 2*000005 = 0,00001 US-$ [1 Überwachung = 0,25 US-$/50.000 = 0,000005]Monitoring = 2*000005 = $0.00001 [1 Monitoring = $0.25/50000 = 0.000005]
  • Pipelineorchestrierung & -ausführung = 0,168 US-$Pipeline Orchestration & Execution = $0.168
    • Aktivitätsausführungen = 001*2 = 0,002 [1 Ausführung = 1 US-$/1.000 = 0,001]Activity Runs = 001*2 = 0.002 [1 run = $1/1000 = 0.001]
    • Datenverschiebungsaktivitäten = 0,166 US-$ (anteilig für die Ausführungszeit von 10 Minuten.Data Movement Activities = $0.166 (Prorated for 10 minutes of execution time. 0,25 US-$/Stunde auf Azure Integration Runtime)$0.25/hour on Azure Integration Runtime)

Stündliches Kopieren und Transformieren von Daten mit Azure DatabricksCopy data and transform with Azure Databricks hourly

In diesem Szenario möchten Sie stündlich Daten aus AWS S3 in Azure Blob Storage kopieren und die Daten mit Azure Databricks transformieren.In this scenario, you want to copy data from AWS S3 to Azure Blob storage and transform the data with Azure Databricks on an hourly schedule.

Um dieses Szenario zu realisieren, müssen Sie eine Pipeline mit folgenden Elementen erstellen:To accomplish the scenario, you need to create a pipeline with the following items:

  1. Eine Kopieraktivität mit einem Eingabedataset für die aus AWS S3 kopierten Daten und ein Ausgabedataset für die Daten in Azure Storage.One copy activity with an input dataset for the data to be copied from AWS S3, and an output dataset for the data on Azure storage.
  2. Eine Azure Databricks-Aktivität für die Datentransformation.One Azure Databricks activity for the data transformation.
  3. Ein Zeitplantrigger, um die Pipeline einmal pro Stunde auszuführen.One schedule trigger to execute the pipeline every hour.

Diagramm einer Pipeline mit einem Zeitplantrigger.

VorgängeOperations Typen und EinheitenTypes and Units
Erstellen eines verknüpften DienstsCreate Linked Service 3 Lese-/Schreibzugriffentitäten3 Read/Write entity
Erstellen von DatasetsCreate Datasets 4 Lese-/Schreibzugriffentitäten (2 für Dataseterstellung, 2 für Verweise auf verknüpfte Dienste)4 Read/Write entities (2 for dataset creation, 2 for linked service references)
Erstellen der PipelineCreate Pipeline 3 Lese-/Schreibzugriffentitäten (1 für Pipelineerstellung, 2 für Datasetverweise)3 Read/Write entities (1 for pipeline creation, 2 for dataset references)
Abrufen der PipelineGet Pipeline 1 Lese-/Schreibzugriffentität1 Read/Write entity
Ausführen der PipelineRun Pipeline 3 Aktivitätsausführungen (1 für den Trigger, 2 für die Aktivität)3 Activity runs (1 for trigger run, 2 for activity runs)
Annahme für Kopieren der Daten: Ausführungszeit = 10 MinutenCopy Data Assumption: execution time = 10 min 10 * 4 Azure Integration Runtime (Standard-DIU-Einstellung = 4) Weitere Informationen zu Datenintegrationseinheiten und Optimieren der Kopierleistung finden Sie in diesem Artikel10 * 4 Azure Integration Runtime (default DIU setting = 4) For more information on data integration units and optimizing copy performance, see this article
Annahme für Überwachung der Pipeline: Nur 1 Ausführung ist aufgetretenMonitor Pipeline Assumption: Only 1 run occurred 3 abgerufene Überwachungsausführungsaufzeichnungen (1 für Pipelineausführung, 2 für Aktivitätsausführung)3 Monitoring run records retrieved (1 for pipeline run, 2 for activity run)
Annahme für Ausführung der Databricks-Aktivität: Ausführungszeit = 10 MinutenExecute Databricks activity Assumption: execution time = 10 min 10 Minuten Ausführung der externen Pipelineaktivität10 min External Pipeline Activity Execution

Preis für gesamtes Szenario: 0,16916 US-$Total Scenario pricing: $0.16916

  • Data Factory-Vorgänge = 0,00012 US-$Data Factory Operations = $0.00012
    • Lesen/Schreiben = 11*00001 = 0,00011 US-$ [1 R/W = 0,50 US-$/50.000 = 0,00001]Read/Write = 11*00001 = $0.00011 [1 R/W = $0.50/50000 = 0.00001]
    • Überwachung = 3*000005 = 0,00001 US-$ [1 Überwachung = 0,25 US-$/50.000 = 0,000005]Monitoring = 3*000005 = $0.00001 [1 Monitoring = $0.25/50000 = 0.000005]
  • Pipelineorchestrierung & -ausführung = 0,16904 US-$Pipeline Orchestration & Execution = $0.16904
    • Aktivitätsausführungen = 001*3 = 0,003 [1 Ausführung = 1 US-$/1.000 = 0,001]Activity Runs = 001*3 = 0.003 [1 run = $1/1000 = 0.001]
    • Datenverschiebungsaktivitäten = 0,166 US-$ (anteilig für die Ausführungszeit von 10 Minuten.Data Movement Activities = $0.166 (Prorated for 10 minutes of execution time. 0,25 US-$/Stunde auf Azure Integration Runtime)$0.25/hour on Azure Integration Runtime)
    • Externe Pipelineaktivität = 0,000041 US-$ (anteilig für die Ausführungszeit von 10 Minuten.External Pipeline Activity = $0.000041 (Prorated for 10 minutes of execution time. 0,00025 US-$/Stunde auf Azure Integration Runtime)$0.00025/hour on Azure Integration Runtime)

Stündliches Kopieren und Transformieren von Daten mit dynamischen ParameternCopy data and transform with dynamic parameters hourly

In diesem Szenario möchten Sie stündlich Daten aus AWS S3 in Azure Blob Storage kopieren und die Daten mit Azure Databricks transformieren (mit dynamischen Parametern im Skript).In this scenario, you want to copy data from AWS S3 to Azure Blob storage and transform with Azure Databricks (with dynamic parameters in the script) on an hourly schedule.

Um dieses Szenario zu realisieren, müssen Sie eine Pipeline mit folgenden Elementen erstellen:To accomplish the scenario, you need to create a pipeline with the following items:

  1. Eine Kopieraktivität mit einem Eingabedataset für die aus AWS S3 kopierten Daten und ein Ausgabedataset für die Daten in Azure Storage.One copy activity with an input dataset for the data to be copied from AWS S3, an output dataset for the data on Azure storage.
  2. Eine Suchaktivität zur dynamischen Übergabe von Parametern an das Skript für die Transformation.One Lookup activity for passing parameters dynamically to the transformation script.
  3. Eine Azure Databricks-Aktivität für die Datentransformation.One Azure Databricks activity for the data transformation.
  4. Ein Zeitplantrigger, um die Pipeline einmal pro Stunde auszuführen.One schedule trigger to execute the pipeline every hour.

Diagramm einer Pipeline mit einem Zeitplantrigger.

VorgängeOperations Typen und EinheitenTypes and Units
Erstellen eines verknüpften DienstsCreate Linked Service 3 Lese-/Schreibzugriffentitäten3 Read/Write entity
Erstellen von DatasetsCreate Datasets 4 Lese-/Schreibzugriffentitäten (2 für Dataseterstellung, 2 für Verweise auf verknüpfte Dienste)4 Read/Write entities (2 for dataset creation, 2 for linked service references)
Erstellen der PipelineCreate Pipeline 3 Lese-/Schreibzugriffentitäten (1 für Pipelineerstellung, 2 für Datasetverweise)3 Read/Write entities (1 for pipeline creation, 2 for dataset references)
Abrufen der PipelineGet Pipeline 1 Lese-/Schreibzugriffentität1 Read/Write entity
Ausführen der PipelineRun Pipeline 4 Aktivitätsausführungen (1 für den Trigger, 3 für die Aktivität)4 Activity runs (1 for trigger run, 3 for activity runs)
Annahme für Kopieren der Daten: Ausführungszeit = 10 MinutenCopy Data Assumption: execution time = 10 min 10 * 4 Azure Integration Runtime (Standard-DIU-Einstellung = 4) Weitere Informationen zu Datenintegrationseinheiten und Optimieren der Kopierleistung finden Sie in diesem Artikel10 * 4 Azure Integration Runtime (default DIU setting = 4) For more information on data integration units and optimizing copy performance, see this article
Annahme für Überwachung der Pipeline: Nur 1 Ausführung ist aufgetretenMonitor Pipeline Assumption: Only 1 run occurred 4 abgerufene Überwachungsausführungsaufzeichnungen (1 für Pipelineausführung, 3 für Aktivitätsausführung)4 Monitoring run records retrieved (1 for pipeline run, 3 for activity run)
Annahme für Ausführung der Suchaktivität: Ausführungszeit = 1 MinuteExecute Lookup activity Assumption: execution time = 1 min 1 Minute Ausführung der Pipelineaktivität1 min Pipeline Activity execution
Annahme für Ausführung der Databricks-Aktivität: Ausführungszeit = 10 MinutenExecute Databricks activity Assumption: execution time = 10 min 10 Minuten Ausführung der externen Pipelineaktivität10 min External Pipeline Activity execution

Preis für gesamtes Szenario: 0,17020 US-$Total Scenario pricing: $0.17020

  • Data Factory-Vorgänge = 0,00013 US-$Data Factory Operations = $0.00013
    • Lesen/Schreiben = 11*00001 = 0,00011 US-$ [1 R/W = 0,50 US-$/50.000 = 0,00001]Read/Write = 11*00001 = $0.00011 [1 R/W = $0.50/50000 = 0.00001]
    • Überwachung = 4*000005 = 0,00002 US-$ [1 Überwachung = 0,25 US-$/50.000 = 0,000005]Monitoring = 4*000005 = $0.00002 [1 Monitoring = $0.25/50000 = 0.000005]
  • Pipelineorchestrierung & -ausführung = 0,17007 US-$Pipeline Orchestration & Execution = $0.17007
    • Aktivitätsausführungen = 001*4 = 0,004 [1 Ausführung = 1 US-$/1.000 = 0,001]Activity Runs = 001*4 = 0.004 [1 run = $1/1000 = 0.001]
    • Datenverschiebungsaktivitäten = 0,166 US-$ (anteilig für die Ausführungszeit von 10 Minuten.Data Movement Activities = $0.166 (Prorated for 10 minutes of execution time. 0,25 US-$/Stunde auf Azure Integration Runtime)$0.25/hour on Azure Integration Runtime)
    • Pipelineaktivität = 0,00003 US-$ (anteilig für die Ausführungszeit von 1 Minute.Pipeline Activity = $0.00003 (Prorated for 1 minute of execution time. 0,002 US-$/Stunde auf Azure Integration Runtime)$0.002/hour on Azure Integration Runtime)
    • Externe Pipelineaktivität = 0,000041 US-$ (anteilig für die Ausführungszeit von 10 Minuten.External Pipeline Activity = $0.000041 (Prorated for 10 minutes of execution time. 0,00025 US-$/Stunde auf Azure Integration Runtime)$0.00025/hour on Azure Integration Runtime)

Verwenden der Zuordnungsdatenfluss-Debugfunktion für einen normalen ArbeitstagUsing mapping data flow debug for a normal workday

Als Dateningenieur ist Sam täglich für das Entwerfen, Erstellen und Testen von Zuordnungsdatenflüssen verantwortlich.As a Data Engineer, Sam is responsible for designing, building, and testing mapping data flows every day. Sam melden sich morgens in der ADF-Benutzeroberfläche an und aktiviert den Debugmodus für Datenflüsse.Sam logs into the ADF UI in the morning and enables the Debug mode for Data Flows. Die Standardgültigkeitsdauer (TTL) für Debugsitzungen ist 60 Minuten.The default TTL for Debug sessions is 60 minutes. Sam arbeitet den ganzen Tag 8 Stunden lang, sodass die Debugsitzung nie abläuft.Sam works throughout the day for 8 hours, so the Debug session never expires. Daher fallen für diesen Tag folgende Gebühren für Sam an:Therefore, Sam's charges for the day will be:

8 (Stunden) x 8 (computeoptimierte Kerne) x 0,193 US-$ = 12,35 US-$8 (hours) x 8 (compute-optimized cores) x $0.193 = $12.35

Gleichzeitig meldet sich Chris, ein anderer Datenengineer, ebenfalls bei der Browserbenutzeroberfläche von ADF an, um Datenprofile zu erstellen und an ETL-Entwürfen zu arbeiten.At the same time, Chris, another Data Engineer, also logs into the ADF browser UI for data profiling and ETL design work. Chris arbeitet nicht wie Sam den ganzen Tag in ADF.Chris does not work in ADF all day like Sam. Chris muss lediglich den Datenflussdebugger für eine Stunde innerhalb desselben Zeitraums und an demselben Tag wie Sam oben verwenden.Chris only needs to use the data flow debugger for 1 hour during the same period and same day as Sam above. Diese Gebühren fallen bei Chris für die Debugnutzung an:These are the charges Chris incurs for debug usage:

1 (Stunde) × 8 (universelle Kerne) × 0,274 USD = 2,19 USD1 (hour) x 8 (general purpose cores) x $0.274 = $2.19

Transformieren von Daten im Blobspeicher mit ZuordnungsdatenflüssenTransform data in blob store with mapping data flows

In diesem Szenario möchten Sie stündlich Daten in einem Blob-Speicher visuell in ADF Mapping Data Flows transformieren.In this scenario, you want to transform data in Blob Store visually in ADF mapping data flows on an hourly schedule.

Um dieses Szenario zu realisieren, müssen Sie eine Pipeline mit folgenden Elementen erstellen:To accomplish the scenario, you need to create a pipeline with the following items:

  1. Eine Data Flow-Aktivität mit der Transformationslogik.A Data Flow activity with the transformation logic.

  2. Ein Eingabedataset für die Daten in Azure Storage.An input dataset for the data on Azure Storage.

  3. Ein Ausgabedataset für die Daten in Azure Storage.An output dataset for the data on Azure Storage.

  4. Einen Zeitplantrigger, der die Pipeline einmal pro Stunde ausführt.A schedule trigger to execute the pipeline every hour.

VorgängeOperations Typen und EinheitenTypes and Units
Erstellen eines verknüpften DienstsCreate Linked Service 2 Lese-/Schreibzugriffentitäten2 Read/Write entity
Erstellen von DatasetsCreate Datasets 4 Lese-/Schreibzugriffentitäten (2 für Dataseterstellung, 2 für Verweise auf verknüpfte Dienste)4 Read/Write entities (2 for dataset creation, 2 for linked service references)
Erstellen der PipelineCreate Pipeline 3 Lese-/Schreibzugriffentitäten (1 für Pipelineerstellung, 2 für Datasetverweise)3 Read/Write entities (1 for pipeline creation, 2 for dataset references)
Abrufen der PipelineGet Pipeline 1 Lese-/Schreibzugriffentität1 Read/Write entity
Ausführen der PipelineRun Pipeline 2 Aktivitätsausführungen (1 für den Trigger, 1 für die Aktivität)2 Activity runs (1 for trigger run, 1 for activity runs)
Data Flow-Annahmen: Ausführungszeit = 10 Minuten + 10 Minuten TTLData Flow Assumptions: execution time = 10 min + 10 min TTL 10 * 16 allgemeine Computekerne mit einer TTL von 1010 * 16 cores of General Compute with TTL of 10
Annahme für Überwachung der Pipeline: Nur 1 Ausführung ist aufgetretenMonitor Pipeline Assumption: Only 1 run occurred 2 abgerufene Überwachungsausführungsaufzeichnungen (1 für Pipelineausführung, 1 für Aktivitätsausführung)2 Monitoring run records retrieved (1 for pipeline run, 1 for activity run)

Preis für gesamtes Szenario: 1,4631 US-$Total Scenario pricing: $1.4631

  • Data Factory-Vorgänge = 0,0001 US-$Data Factory Operations = $0.0001
    • Lesen/Schreiben = 10*00001 = 0,0001 US-$ [1 R/W = 0,50 US-$/50.000 = 0,00001]Read/Write = 10*00001 = $0.0001 [1 R/W = $0.50/50000 = 0.00001]
    • Überwachung = 2*000005 = 0,00001 US-$ [1 Überwachung = 0,25 US-$/50.000 = 0,000005]Monitoring = 2*000005 = $0.00001 [1 Monitoring = $0.25/50000 = 0.000005]
  • Pipelineorchestrierung & -ausführung = 1,463 US-$Pipeline Orchestration & Execution = $1.463
    • Aktivitätsausführungen = 001*2 = 0,002 [1 Ausführung = 1 US-$/1.000 = 0,001]Activity Runs = 001*2 = 0.002 [1 run = $1/1000 = 0.001]
    • Datenflussaktivitäten = 1,461 US-$ anteilig für 20 Minuten (10 Minuten Ausführungszeit + 10 Minuten TTL).Data Flow Activities = $1.461 prorated for 20 minutes (10 mins execution time + 10 mins TTL). 0,274 US-$ pro Stunde für die Azure Integration Runtime mit 16 allgemeinen Computekernen$0.274/hour on Azure Integration Runtime with 16 cores general compute

Datenintegration in einem verwalteten Azure Data Factory-VNETData integration in Azure Data Factory Managed VNET

In diesem Szenario möchten Sie die ursprünglichen Dateien in Azure Blob Storage löschen und Daten aus Azure SQL-Datenbank in Azure Blob Storage kopieren.In this scenario, you want to delete original files on Azure Blob Storage and copy data from Azure SQL Database to Azure Blob Storage. Diese Ausführung erfolgt zweimal für unterschiedliche Pipelines.You will do this execution twice on different pipelines. Die Ausführungszeit dieser beiden Pipelines überschneidet sich.The execution time of these two pipelines is overlapping. Szenario 4: Um dieses Szenario zu realisieren, müssen Sie zwei Pipelines mit folgenden Elementen erstellen:Scenario4 To accomplish the scenario, you need to create two pipelines with the following items:

  • Eine Pipelineaktivität – Löschaktivität.A pipeline activity – Delete Activity.
  • Eine Kopieraktivität mit einem Eingabedataset für die aus Azure Blob Storage zu kopierenden Daten.A copy activity with an input dataset for the data to be copied from Azure Blob storage.
  • Ein Ausgabedataset für die Daten in Azure SQL-Datenbank.An output dataset for the data on Azure SQL Database.
  • Einen Zeitplantrigger zum Ausführen der Pipeline.A schedule triggers to execute the pipeline.
VorgängeOperations Typen und EinheitenTypes and Units
Erstellen eines verknüpften DienstsCreate Linked Service 4 Lese-/Schreibzugriffentitäten4 Read/Write entity
Erstellen von DatasetsCreate Datasets 8 Lese-/Schreibzugriffentitäten (4 für Dataseterstellung, 4 für Verweise auf verknüpfte Dienste)8 Read/Write entities (4 for dataset creation, 4 for linked service references)
Erstellen der PipelineCreate Pipeline 6 Lese-/Schreibzugriffentitäten (2 für Pipelineerstellung, 4 für Datasetverweise)6 Read/Write entities (2 for pipeline creation, 4 for dataset references)
Abrufen der PipelineGet Pipeline 2 Lese-/Schreibzugriffentitäten2 Read/Write entity
Ausführen der PipelineRun Pipeline 6 Aktivitätsausführungen (2 für Triggerausführung, 4 für die Aktivität)6 Activity runs (2 for trigger run, 4 for activity runs)
Ausführen der Löschaktivität: jede Ausführungszeit = 5 min. Die Ausführung der Löschaktivität in der ersten Pipeline liegt zwischen 10:00 Uhr UTC und 10:05 Uhr UTC.Execute Delete Activity: each execution time = 5 min. The Delete Activity execution in first pipeline is from 10:00 AM UTC to 10:05 AM UTC. Die Ausführung der Löschaktivität in der zweiten Pipeline liegt zwischen 10:02 Uhr UTC und 10:07 Uhr UTC.The Delete Activity execution in second pipeline is from 10:02 AM UTC to 10:07 AM UTC. Insgesamt eine 7-minütige Ausführung der Pipelineaktivitäten im verwalteten VNET.Total 7 min pipeline activity execution in Managed VNET. Die Pipelineaktivität unterstützt eine Parallelität von bis zu 50 im verwalteten VNET.Pipeline activity supports up to 50 concurrency in Managed VNET.
Annahme für die Kopieraktivität: jede Ausführungszeit = 10 min. Die Ausführung der Kopieraktivität in der ersten Pipeline liegt zwischen 10:06 Uhr UTC und 10:15 Uhr UTC.Copy Data Assumption: each execution time = 10 min. The Copy execution in first pipeline is from 10:06 AM UTC to 10:15 AM UTC. Die Ausführung der Löschaktivität in der zweiten Pipeline liegt zwischen 10:08 Uhr UTC und 10:17 Uhr UTC.The Delete Activity execution in second pipeline is from 10:08 AM UTC to 10:17 AM UTC. 10 × 4 Azure Integration Runtime (Standard-DIU-Einstellung = 4) Weitere Informationen zu Datenintegrationseinheiten und Optimieren der Kopierleistung finden Sie in diesem Artikel.10 * 4 Azure Integration Runtime (default DIU setting = 4) For more information on data integration units and optimizing copy performance, see this article
Annahme für Überwachung der Pipeline: Nur 2 Ausführungen aufgetretenMonitor Pipeline Assumption: Only 2 runs occurred 6 abgerufene Überwachungsausführungsaufzeichnungen (2 für Pipelineausführung, 4 für Aktivitätsausführung)6 Monitoring run records retrieved (2 for pipeline run, 4 for activity run)

Preis für gesamtes Szenario: 0,45523 USDTotal Scenario pricing: $0.45523

  • Data Factory-Vorgänge = 0,00023 USDData Factory Operations = $0.00023
    • Lesen/Schreiben = 20 × 0,00001 = 0,0002 USD [1 R/W = 0,50 USD/50.000 = 0,00001]Read/Write = 20*00001 = $0.0002 [1 R/W = $0.50/50000 = 0.00001]
    • Überwachung = 6 × 0,000005 = 0,00003 USD [1 Überwachung = 0,25 USD/50.000 = 0,000005]Monitoring = 6*000005 = $0.00003 [1 Monitoring = $0.25/50000 = 0.000005]
  • Pipelineorchestrierung und -ausführung = 0,455 USDPipeline Orchestration & Execution = $0.455
    • Aktivitätsausführungen = 0,001 × 6 = 0,006 [1 Ausführung = 1 USD/1.000 = 0,001]Activity Runs = 0.001*6 = 0.006 [1 run = $1/1000 = 0.001]
    • Datenverschiebungsaktivitäten = 0,333 USD (anteilig für die Ausführungszeit von 10 Minuten.Data Movement Activities = $0.333 (Prorated for 10 minutes of execution time. 0,25 US-$/Stunde auf Azure Integration Runtime)$0.25/hour on Azure Integration Runtime)
    • Pipelineaktivität = 0,116 USD (anteilig für die Ausführungszeit von 7 Minuten.Pipeline Activity = $0.116 (Prorated for 7 minutes of execution time. 1 USD/Stunde auf Azure Integration Runtime)$1/hour on Azure Integration Runtime)

Hinweis

Diese Preise dienen nur als Beispiel.These prices are for example purposes only.

Häufig gestellte FragenFAQ

F: Können diese Aktivitäten gleichzeitig ausgeführt werden, wenn Sie mehr als 50 Pipelineaktivitäten ausführen möchten?Q: If I would like to run more than 50 pipeline activities, can these activities be executed simultaneously?

A: Es sind höchstens 50 gleichzeitige Pipelineaktivitäten zulässig.A: Max 50 concurrent pipeline activities will be allowed. Die 51. Pipelineaktivität wird in die Warteschlange eingereiht, bis ein Slot frei wird.The 51th pipeline activity will be queued until a “free slot” is opened up. Das gilt auch für externe Aktivitäten.Same for external activity. Es sind höchstens 800 gleichzeitige externe Pipelineaktivitäten zulässig.Max 800 concurrent external activities will be allowed.

Nächste SchritteNext steps

Jetzt kennen Sie die Preisgestaltung für Azure Data Factory und können beginnen!Now that you understand the pricing for Azure Data Factory, you can get started!