Résumé

Effectué

Apache Spark est une technologie phare utilisée dans l’analytique de Big data. La prise en charge de Spark dans Azure Databricks vous permet de combiner traitement de Big data dans Spark avec analytique données à grande échelle.

Nous avons effectué différentes opérations dans ce module :

  • Décrire les éléments clés de l’architecture Apache Spark.
  • Créer et configurer un cluster Spark.
  • Décrire les cas d’usage pour Spark.
  • Utiliser Spark pour traiter et analyser les données stockées dans des fichiers.
  • Utiliser Spark pour visualiser les données.