Introduction

Effectué

Azure Databricks permet aux ingénieurs Données d’utiliser du code dans des notebooks pour ingérer et traiter des données. Bien que les notebooks soient conçus pour être utilisés de façon interactive, vous pouvez les utiliser pour encapsuler des activités dans un pipeline d’ingestion ou de traitement de données orchestré en utilisant Azure Data Factory.

Dans ce module, vous allez découvrir comment :

  • Décrire comment les notebooks Azure Databricks peuvent être exécutés dans un pipeline.
  • Créer un service lié Azure Data Factory pour Azure Databricks.
  • Utiliser une activité Notebook dans un pipeline.
  • Passer des paramètres à un notebook.

Remarque

Bien que ce module se concentre sur l’utilisation de notebooks Azure Databricks dans un pipeline Azure Data Factory, les mêmes principes et techniques s’appliquent lors de l’utilisation d’un pipeline Azure Synapse Analytics.