Comprendre les tarifs Data Factory à travers des exemplesUnderstanding Data Factory pricing through examples

S’APPLIQUE À : Azure Data Factory Azure Synapse Analytics

Cet article explique et décrit le modèle tarifaire Azure Data Factory avec des exemples détaillés.This article explains and demonstrates the Azure Data Factory pricing model with detailed examples.

Notes

Les prix mentionnés dans les exemples ci-dessous sont hypothétiques et ne sont pas destinés à indiquer la tarification réelle.The prices used in these examples below are hypothetical and are not intended to imply actual pricing.

Copier des données d’AWS S3 vers le Stockage Blob Azure toutes les heuresCopy data from AWS S3 to Azure Blob storage hourly

Dans ce scénario, vous souhaitez copier des données d’AWS S3 vers le Stockage Blob Azure selon une planification horaire.In this scenario, you want to copy data from AWS S3 to Azure Blob storage on an hourly schedule.

Pour réaliser ce scénario, créez un pipeline avec les éléments suivants :To accomplish the scenario, you need to create a pipeline with the following items:

  1. Une activité de copie avec un jeu de données d’entrée pour les données à copier à partir d’AWS S3.A copy activity with an input dataset for the data to be copied from AWS S3.

  2. Un jeu de données de sortie pour les données sur le Stockage Azure.An output dataset for the data on Azure Storage.

  3. Un déclencheur de planification pour exécuter le pipeline toutes les heures.A schedule trigger to execute the pipeline every hour.

    Le diagramme illustre un pipeline avec un déclencheur de planification.

OpérationsOperations Types et unitésTypes and Units
Création d’un service liéCreate Linked Service 2 entités en lecture/écriture2 Read/Write entity
Création de jeux de donnéesCreate Datasets 4 entités en lecture/écriture (2 pour la création du jeu de données, 2 pour les références de service lié)4 Read/Write entities (2 for dataset creation, 2 for linked service references)
Création d’un pipelineCreate Pipeline 3 entités de lecture/écriture (1 pour la création du pipeline, 2 pour les références de jeu de données)3 Read/Write entities (1 for pipeline creation, 2 for dataset references)
Récupération d’un pipelineGet Pipeline 1 entité en lecture/écriture1 Read/Write entity
Exécution d’un pipelineRun Pipeline 2 exécutions d’activité (1 pour l’exécution du déclencheur, 1 pour les exécutions d’activité)2 Activity runs (1 for trigger run, 1 for activity runs)
Copie de données – hypothèse : temps d’exécution = 10 minutesCopy Data Assumption: execution time = 10 min 10 * 4 Azure Integration Runtime (paramètre DIU par défaut = 4) – pour plus d’informations sur les unités d’intégration de données et l’optimisation des performances de copie, voir cet article10 * 4 Azure Integration Runtime (default DIU setting = 4) For more information on data integration units and optimizing copy performance, see this article
Monitoring du pipeline – hypothèse : 1 seule exécution s’est produiteMonitor Pipeline Assumption: Only 1 run occurred 2 enregistrements d’exécution de monitoring récupérés (1 pour l’exécution du pipeline, 1 pour l’exécution d’activité)2 Monitoring run records retrieved (1 for pipeline run, 1 for activity run)

Prix total du scénario : 0,16811 $Total Scenario pricing: $0.16811

  • Opérations Data Factory = 0,0001 $Data Factory Operations = $0.0001
    • Lecture/écriture = 10 * 0,00001 = 0,0001 $ [1 lecture/écriture = 0,50 / 50 000 = 0,00001]Read/Write = 10*00001 = $0.0001 [1 R/W = $0.50/50000 = 0.00001]
    • Monitoring = 2 * 0,000005 = 0,00001 $ [1 monitoring = 0,25 $/ 50 000 = 0,000005]Monitoring = 2*000005 = $0.00001 [1 Monitoring = $0.25/50000 = 0.000005]
  • Exécution & orchestration de pipeline = 0,168 $Pipeline Orchestration & Execution = $0.168
    • Exécutions d’activité = 0,001 * 2 = 0,002 $ [1 exécution = 1 $ / 1 000 = 0,001]Activity Runs = 001*2 = 0.002 [1 run = $1/1000 = 0.001]
    • Activités de déplacement des données = 0,166 $ (au prorata de 10 minutes de durée d’exécution,Data Movement Activities = $0.166 (Prorated for 10 minutes of execution time. à 0,25 $/h par Azure Integration Runtime)$0.25/hour on Azure Integration Runtime)

Copier des données et les transformer toutes les heures avec Azure DatabricksCopy data and transform with Azure Databricks hourly

Dans ce scénario, vous souhaitez copier des données d’AWS S3 vers le Stockage Blob Azure et les transformer avec Azure Databricks selon une planification horaire.In this scenario, you want to copy data from AWS S3 to Azure Blob storage and transform the data with Azure Databricks on an hourly schedule.

Pour réaliser ce scénario, créez un pipeline avec les éléments suivants :To accomplish the scenario, you need to create a pipeline with the following items:

  1. Une activité de copie avec un jeu de données d’entrée pour les données à copier à partir d’AWS S3 et un jeu de données de sortie pour les données sur le Stockage Azure.One copy activity with an input dataset for the data to be copied from AWS S3, and an output dataset for the data on Azure storage.
  2. Une activité Azure Databricks pour la transformation de données.One Azure Databricks activity for the data transformation.
  3. Un déclencheur de planification pour exécuter le pipeline toutes les heures.One schedule trigger to execute the pipeline every hour.

Le diagramme illustre un pipeline avec un déclencheur de planification.

OpérationsOperations Types et unitésTypes and Units
Création d’un service liéCreate Linked Service 3 entités en lecture/écriture3 Read/Write entity
Création de jeux de donnéesCreate Datasets 4 entités en lecture/écriture (2 pour la création du jeu de données, 2 pour les références de service lié)4 Read/Write entities (2 for dataset creation, 2 for linked service references)
Création d’un pipelineCreate Pipeline 3 entités de lecture/écriture (1 pour la création du pipeline, 2 pour les références de jeu de données)3 Read/Write entities (1 for pipeline creation, 2 for dataset references)
Récupération d’un pipelineGet Pipeline 1 entité en lecture/écriture1 Read/Write entity
Exécution d’un pipelineRun Pipeline 3 exécutions d’activité (1 pour l’exécution du déclencheur, 2 pour les exécutions d’activité)3 Activity runs (1 for trigger run, 2 for activity runs)
Copie de données – hypothèse : temps d’exécution = 10 minutesCopy Data Assumption: execution time = 10 min 10 * 4 Azure Integration Runtime (paramètre DIU par défaut = 4) – pour plus d’informations sur les unités d’intégration de données et l’optimisation des performances de copie, voir cet article10 * 4 Azure Integration Runtime (default DIU setting = 4) For more information on data integration units and optimizing copy performance, see this article
Monitoring du pipeline – hypothèse : 1 seule exécution s’est produiteMonitor Pipeline Assumption: Only 1 run occurred 3 enregistrements d’exécution de monitoring récupérés (1 pour l’exécution du pipeline, 2 pour l’exécution d’activité)3 Monitoring run records retrieved (1 for pipeline run, 2 for activity run)
Exécution de l’activité Databricks – hypothèse : temps d’exécution = 10 minutesExecute Databricks activity Assumption: execution time = 10 min 10 minutes d’exécution de l’activité de pipeline externe10 min External Pipeline Activity Execution

Prix total du scénario : 0,16916 $Total Scenario pricing: $0.16916

  • Opérations Data Factory = 0,00012 $Data Factory Operations = $0.00012
    • Lecture/écriture = 11 * 0,00001 = 0,00011 $ [1 lecture/écriture = 0,50 / 50 000 = 0,00001]Read/Write = 11*00001 = $0.00011 [1 R/W = $0.50/50000 = 0.00001]
    • Monitoring = 3 * 0,000005 = 0,00001 $ [1 monitoring = 0,25 $/ 50 000 = 0,000005]Monitoring = 3*000005 = $0.00001 [1 Monitoring = $0.25/50000 = 0.000005]
  • Exécution & orchestration de pipeline = 0,16904 $Pipeline Orchestration & Execution = $0.16904
    • Exécutions d’activité = 0,001 * 3 = 0,003 $ [1 exécution = 1 $ / 1 000 = 0,001]Activity Runs = 001*3 = 0.003 [1 run = $1/1000 = 0.001]
    • Activités de déplacement des données = 0,166 $ (au prorata de 10 minutes de durée d’exécution,Data Movement Activities = $0.166 (Prorated for 10 minutes of execution time. à 0,25 $/h par Azure Integration Runtime)$0.25/hour on Azure Integration Runtime)
    • Activité du pipeline externe = 0,000041 $ (au prorata de 10 minutes de durée d’exécution,External Pipeline Activity = $0.000041 (Prorated for 10 minutes of execution time. à 0,00025 $/h par Azure Integration Runtime)$0.00025/hour on Azure Integration Runtime)

Copier des données et les transformer toutes les heures avec des paramètres dynamiquesCopy data and transform with dynamic parameters hourly

Dans ce scénario, vous souhaitez copier des données d’AWS S3 vers le Stockage Blob Azure et les transformer avec Azure Databricks (avec des paramètres dynamiques dans le script) selon une planification horaire.In this scenario, you want to copy data from AWS S3 to Azure Blob storage and transform with Azure Databricks (with dynamic parameters in the script) on an hourly schedule.

Pour réaliser ce scénario, créez un pipeline avec les éléments suivants :To accomplish the scenario, you need to create a pipeline with the following items:

  1. Une activité de copie avec un jeu de données d’entrée pour les données à copier à partir d’AWS S3 et un jeu de données de sortie pour les données sur le Stockage Azure.One copy activity with an input dataset for the data to be copied from AWS S3, an output dataset for the data on Azure storage.
  2. Une activité de recherche pour transmettre dynamiquement des paramètres au script de transformation.One Lookup activity for passing parameters dynamically to the transformation script.
  3. Une activité Azure Databricks pour la transformation de données.One Azure Databricks activity for the data transformation.
  4. Un déclencheur de planification pour exécuter le pipeline toutes les heures.One schedule trigger to execute the pipeline every hour.

Le diagramme illustre un pipeline avec un déclencheur de planification.

OpérationsOperations Types et unitésTypes and Units
Création d’un service liéCreate Linked Service 3 entités en lecture/écriture3 Read/Write entity
Création de jeux de donnéesCreate Datasets 4 entités en lecture/écriture (2 pour la création du jeu de données, 2 pour les références de service lié)4 Read/Write entities (2 for dataset creation, 2 for linked service references)
Création d’un pipelineCreate Pipeline 3 entités de lecture/écriture (1 pour la création du pipeline, 2 pour les références de jeu de données)3 Read/Write entities (1 for pipeline creation, 2 for dataset references)
Récupération d’un pipelineGet Pipeline 1 entité en lecture/écriture1 Read/Write entity
Exécution d’un pipelineRun Pipeline 4 exécutions d’activité (1 pour l’exécution du déclencheur, 3 pour les exécutions d’activité)4 Activity runs (1 for trigger run, 3 for activity runs)
Copie de données – hypothèse : temps d’exécution = 10 minutesCopy Data Assumption: execution time = 10 min 10 * 4 Azure Integration Runtime (paramètre DIU par défaut = 4) – pour plus d’informations sur les unités d’intégration de données et l’optimisation des performances de copie, voir cet article10 * 4 Azure Integration Runtime (default DIU setting = 4) For more information on data integration units and optimizing copy performance, see this article
Monitoring du pipeline – hypothèse : 1 seule exécution s’est produiteMonitor Pipeline Assumption: Only 1 run occurred 4 enregistrements d’exécution de monitoring récupérés (1 pour l’exécution du pipeline, 3 pour l’exécution d’activité)4 Monitoring run records retrieved (1 for pipeline run, 3 for activity run)
Exécution de l’activité de recherche – hypothèse : temps d’exécution = 1 minuteExecute Lookup activity Assumption: execution time = 1 min 1 minute d’exécution de l’activité de pipeline1 min Pipeline Activity execution
Exécution de l’activité Databricks – hypothèse : temps d’exécution = 10 minutesExecute Databricks activity Assumption: execution time = 10 min 10 minutes d’exécution de l’activité de pipeline externe10 min External Pipeline Activity execution

Prix total du scénario : 0,17020 $Total Scenario pricing: $0.17020

  • Opérations Data Factory = 0,00013 $Data Factory Operations = $0.00013
    • Lecture/écriture = 11 * 0,00001 = 0,00011 $ [1 lecture/écriture = 0,50 / 50 000 = 0,00001]Read/Write = 11*00001 = $0.00011 [1 R/W = $0.50/50000 = 0.00001]
    • Monitoring = 4 * 0,000005 = 0,00002 $ [1 monitoring = 0,25 $/ 50 000 = 0,000005]Monitoring = 4*000005 = $0.00002 [1 Monitoring = $0.25/50000 = 0.000005]
  • Exécution & orchestration de pipeline = 0,17007 $Pipeline Orchestration & Execution = $0.17007
    • Exécutions d’activité = 0,001 * 4 = 0,004 $ [1 exécution = 1 $ / 1 000 = 0,001]Activity Runs = 001*4 = 0.004 [1 run = $1/1000 = 0.001]
    • Activités de déplacement des données = 0,166 $ (au prorata de 10 minutes de durée d’exécution,Data Movement Activities = $0.166 (Prorated for 10 minutes of execution time. à 0,25 $/h par Azure Integration Runtime)$0.25/hour on Azure Integration Runtime)
    • Activité du pipeline = 0,00003 (au prorata d’1 minute de durée d’exécution,Pipeline Activity = $0.00003 (Prorated for 1 minute of execution time. à 0,002 $/h par Azure Integration Runtime)$0.002/hour on Azure Integration Runtime)
    • Activité du pipeline externe = 0,000041 $ (au prorata de 10 minutes de durée d’exécution,External Pipeline Activity = $0.000041 (Prorated for 10 minutes of execution time. à 0,00025 $/h par Azure Integration Runtime)$0.00025/hour on Azure Integration Runtime)

Utilisation du débogage des flux de données de mappage pour une journée de travail normaleUsing mapping data flow debug for a normal workday

En tant qu’ingénieur Données, Sam est en charge au quotidien de la conception, de la création et du test des flux de données de mappage.As a Data Engineer, Sam is responsible for designing, building, and testing mapping data flows every day. Le matin, Sam se connecte à l’IU ADF et active le mode débogage pour les flux de données.Sam logs into the ADF UI in the morning and enables the Debug mode for Data Flows. La durée TTL par défaut pour les sessions de débogage est de 60 minutes.The default TTL for Debug sessions is 60 minutes. Sam travaillant 8 heures par jour, la session de débogage n’expire jamais.Sam works throughout the day for 8 hours, so the Debug session never expires. Par conséquent, les frais quotidiens de Sam sont les suivants :Therefore, Sam's charges for the day will be:

8 (heures) x 8 (cœurs optimisés pour le calcul) x 0,193 $ = 12,35 $8 (hours) x 8 (compute-optimized cores) x $0.193 = $12.35

En même temps, Chris, un autre ingénieur Données, se connecte également à l’interface utilisateur du navigateur ADF pour le profilage des données et le travail de conception des tâches d’extraction, de transformation et de chargement (ETL).At the same time, Chris, another Data Engineer, also logs into the ADF browser UI for data profiling and ETL design work. Chris n’opère pas toute la journée dans ADF comme Sam.Chris does not work in ADF all day like Sam. Chris a uniquement besoin d’utiliser le débogueur de flux de données pendant 1 heure durant la même période et le même jour que Sam ci-dessus.Chris only needs to use the data flow debugger for 1 hour during the same period and same day as Sam above. Les frais que Chris expose pour le débogage sont les suivants :These are the charges Chris incurs for debug usage:

1 (heure) x 8 (cœurs à usage général) x 0,274 USD = 2,19 USD1 (hour) x 8 (general purpose cores) x $0.274 = $2.19

Transformer des données dans le magasin d’objets blob à l’aide des flux de données de mappageTransform data in blob store with mapping data flows

Dans ce scénario, vous souhaitez transformer visuellement toutes les heures des données dans un magasin d’objets blob à partir du mappage des flux de données ADF.In this scenario, you want to transform data in Blob Store visually in ADF mapping data flows on an hourly schedule.

Pour réaliser ce scénario, créez un pipeline avec les éléments suivants :To accomplish the scenario, you need to create a pipeline with the following items:

  1. Une activité de flux de données avec la logique de transformation.A Data Flow activity with the transformation logic.

  2. Un jeu de données d’entrée pour les données sur le Stockage Azure.An input dataset for the data on Azure Storage.

  3. Un jeu de données de sortie pour les données sur le Stockage Azure.An output dataset for the data on Azure Storage.

  4. Un déclencheur de planification pour exécuter le pipeline toutes les heures.A schedule trigger to execute the pipeline every hour.

OpérationsOperations Types et unitésTypes and Units
Création d’un service liéCreate Linked Service 2 entités en lecture/écriture2 Read/Write entity
Création de jeux de donnéesCreate Datasets 4 entités en lecture/écriture (2 pour la création du jeu de données, 2 pour les références de service lié)4 Read/Write entities (2 for dataset creation, 2 for linked service references)
Création d’un pipelineCreate Pipeline 3 entités de lecture/écriture (1 pour la création du pipeline, 2 pour les références de jeu de données)3 Read/Write entities (1 for pipeline creation, 2 for dataset references)
Récupération d’un pipelineGet Pipeline 1 entité en lecture/écriture1 Read/Write entity
Exécution d’un pipelineRun Pipeline 2 exécutions d’activité (1 pour l’exécution du déclencheur, 1 pour les exécutions d’activité)2 Activity runs (1 for trigger run, 1 for activity runs)
Hypothèses concernant le flux de données : durée d’exécution = 10 min + durée de vie de 10 minData Flow Assumptions: execution time = 10 min + 10 min TTL 10 * 16 cœurs de calcul général avec une durée de vie de 1010 * 16 cores of General Compute with TTL of 10
Monitoring du pipeline – hypothèse : 1 seule exécution s’est produiteMonitor Pipeline Assumption: Only 1 run occurred 2 enregistrements d’exécution de monitoring récupérés (1 pour l’exécution du pipeline, 1 pour l’exécution d’activité)2 Monitoring run records retrieved (1 for pipeline run, 1 for activity run)

Prix total du scénario : 1,4631 $Total Scenario pricing: $1.4631

  • Opérations Data Factory = 0,0001 $Data Factory Operations = $0.0001
    • Lecture/écriture = 10 * 0,00001 = 0,0001 $ [1 lecture/écriture = 0,50 / 50 000 = 0,00001]Read/Write = 10*00001 = $0.0001 [1 R/W = $0.50/50000 = 0.00001]
    • Monitoring = 2 * 0,000005 = 0,00001 $ [1 monitoring = 0,25 $/ 50 000 = 0,000005]Monitoring = 2*000005 = $0.00001 [1 Monitoring = $0.25/50000 = 0.000005]
  • Exécution et orchestration du pipeline = 1,463 $Pipeline Orchestration & Execution = $1.463
    • Exécutions d’activité = 0,001 * 2 = 0,002 $ [1 exécution = 1 $ / 1 000 = 0,001]Activity Runs = 001*2 = 0.002 [1 run = $1/1000 = 0.001]
    • Activités de flux de données = 1,461 $ au prorata d’une durée de 20 minutes (durée d’exécution de 10 minutes + durée de vie de 10 minutes).Data Flow Activities = $1.461 prorated for 20 minutes (10 mins execution time + 10 mins TTL). 0,274 $/h sur Azure Integration Runtime avec 16 cœurs de calcul général$0.274/hour on Azure Integration Runtime with 16 cores general compute

Intégration de données dans un VNET managé Azure Data FactoryData integration in Azure Data Factory Managed VNET

Dans ce scénario, vous souhaitez supprimer des fichiers d’origine d’un Stockage Blob Azure et copier des données d’Azure SQL Database vers le Stockage Blob Azure.In this scenario, you want to delete original files on Azure Blob Storage and copy data from Azure SQL Database to Azure Blob Storage. Vous effectuerez cette opération à deux reprises sur des pipelines différents.You will do this execution twice on different pipelines. Le temps d’exécution de ces deux pipelines se chevauche.The execution time of these two pipelines is overlapping. Scenario4 Pour réaliser ce scénario, vous créez deux pipelines avec les éléments suivants :Scenario4 To accomplish the scenario, you need to create two pipelines with the following items:

  • Activité de pipeline – Supprimer l’activité.A pipeline activity – Delete Activity.
  • Activité de copie avec un jeu de données d’entrée pour les données à copier à partir du Stockage Blob Azure.A copy activity with an input dataset for the data to be copied from Azure Blob storage.
  • Un jeu de données de sortie pour les données sur Azure SQL Database.An output dataset for the data on Azure SQL Database.
  • Un déclencheur de planification pour exécuter le pipeline.A schedule triggers to execute the pipeline.
OpérationsOperations Types et unitésTypes and Units
Création d’un service liéCreate Linked Service 4 entités en lecture/écriture4 Read/Write entity
Création de jeux de donnéesCreate Datasets 8 entités en lecture/écriture (4 pour la création du jeu de données, 4 pour les références de service lié)8 Read/Write entities (4 for dataset creation, 4 for linked service references)
Création d’un pipelineCreate Pipeline 6 entités de lecture/écriture (2 pour la création du pipeline, 4 pour les références de jeu de données)6 Read/Write entities (2 for pipeline creation, 4 for dataset references)
Récupération d’un pipelineGet Pipeline 2 entités en lecture/écriture2 Read/Write entity
Exécution d’un pipelineRun Pipeline 6 exécutions d’activité (2 pour l’exécution du déclencheur, 4 pour les exécutions d’activité)6 Activity runs (2 for trigger run, 4 for activity runs)
Exécuter une activité de suppression : chaque durée d’exécution = 5 min. L’exécution de l’activité de suppression dans le premier pipeline a lieu de 10:00 UTC à 10:05 UTC.Execute Delete Activity: each execution time = 5 min. The Delete Activity execution in first pipeline is from 10:00 AM UTC to 10:05 AM UTC. L’exécution de l’activité de suppression dans le deuxième pipeline a lieu de 10:02 UTC à 10:07 UTC.The Delete Activity execution in second pipeline is from 10:02 AM UTC to 10:07 AM UTC. Exécution d’activité de pipeline totale de 7 minutes dans le VNET managé.Total 7 min pipeline activity execution in Managed VNET. L’activité de pipeline prend en charge jusqu’à 50 accès simultanés dans le VNET managé.Pipeline activity supports up to 50 concurrency in Managed VNET.
Hypothèse de copie de données : chaque durée d’exécution = 10 min. L’exécution de la copie dans le premier pipeline a lieu de 10:06 UTC et 10:15 UTC.Copy Data Assumption: each execution time = 10 min. The Copy execution in first pipeline is from 10:06 AM UTC to 10:15 AM UTC. L’exécution de l’activité de suppression dans le deuxième pipeline a lieu de 10:08 UTC à 10:17 UTC.The Delete Activity execution in second pipeline is from 10:08 AM UTC to 10:17 AM UTC. 10 * 4 Azure Integration Runtime (paramètre DIU par défaut = 4) – pour plus d’informations sur les unités d’intégration de données et l’optimisation des performances de copie, voir cet article10 * 4 Azure Integration Runtime (default DIU setting = 4) For more information on data integration units and optimizing copy performance, see this article
Monitoring du pipeline – hypothèse : Seules 2 exécutions ont eu lieuMonitor Pipeline Assumption: Only 2 runs occurred 6 enregistrements d’exécution de monitoring récupérés (2 pour l’exécution du pipeline, 4 pour l’exécution d’activité)6 Monitoring run records retrieved (2 for pipeline run, 4 for activity run)

Prix total du scénario : 0,45523 USDTotal Scenario pricing: $0.45523

  • Opérations Data Factory = 0,00023 USDData Factory Operations = $0.00023
    • Lecture/écriture = 20*00001 = 0,0002 USD [1 R/W = 0,50 USD/50000 = 0,00001]Read/Write = 20*00001 = $0.0002 [1 R/W = $0.50/50000 = 0.00001]
    • Monitoring = 6*000005 = 0,00003 USD [1 Monitoring = 0,25 USD/50000 = 0,000005]Monitoring = 6*000005 = $0.00003 [1 Monitoring = $0.25/50000 = 0.000005]
  • Exécution et orchestration du pipeline = 0,455 USDPipeline Orchestration & Execution = $0.455
    • Exécutions d’activité = 0,001*6 = 0,006 [1 exécution = 1 USD/1000 = 0,001]Activity Runs = 0.001*6 = 0.006 [1 run = $1/1000 = 0.001]
    • Activités de déplacement des données = 0,333 USD (au prorata de 10 minutes de durée d’exécution,Data Movement Activities = $0.333 (Prorated for 10 minutes of execution time. à 0,25 $/h par Azure Integration Runtime)$0.25/hour on Azure Integration Runtime)
    • Activité du pipeline externe = 0,116 USD (au prorata de 7 minutes de durée d’exécution,Pipeline Activity = $0.116 (Prorated for 7 minutes of execution time. à 1 USD/h par Azure Integration Runtime)$1/hour on Azure Integration Runtime)

Notes

Ces prix sont fournis uniquement à titre d’exemple.These prices are for example purposes only.

FORUM AUX QUESTIONSFAQ

Q : Si je souhaite exécuter plus de 50 activités de pipeline, est-il possible d’exécuter ces activités simultanément ?Q: If I would like to run more than 50 pipeline activities, can these activities be executed simultaneously?

R : Au maximum 50 activités de pipeline simultanées sont autorisées.A: Max 50 concurrent pipeline activities will be allowed. La 51° activité de pipeline sera mise en file d’attente jusqu’à l’ouverture d’un « emplacement libre ».The 51th pipeline activity will be queued until a “free slot” is opened up. Identique pour une activité externe.Same for external activity. Au maximum 800 activités externes simultanées sont autorisées.Max 800 concurrent external activities will be allowed.

Étapes suivantesNext steps

Maintenant que vous comprenez les tarifs associés à Azure Data Factory, vous pouvez vous lancer !Now that you understand the pricing for Azure Data Factory, you can get started!