Résumé

Effectué

Les notebooks sont une des méthodes les plus courantes des ingénieurs Données et les analystes de données pour implémenter l’ingestion et la logique de traitement des données dans Azure Databricks. L’utilisation d’Azure Data Factory pour exécuter des notebooks dans un pipeline vous permet de créer des solutions de traitement des données qui peuvent être exécutées à la demande, à intervalles planifiés ou en réponse à un événement spécifique.

Nous avons effectué différentes opérations dans ce module :

  • Décrire comment les notebooks Azure Databricks peuvent être exécutés dans un pipeline.
  • Créer un service lié Azure Data Factory pour Azure Databricks.
  • Utiliser une activité Notebook dans un pipeline.
  • Passer des paramètres à un notebook.