Azure Cosmos DB

Important

Cette documentation a été mise hors service et peut ne pas être mise à jour. Consultez le référentiel GitHub officiel du connecteur Spark Cosmos DB.

Azure Cosmos DB est le service de base de données multimodèle mondialement distribué de Microsoft. Azure Cosmos DB vous permet de mettre à l’échelle de manière élastique et indépendante le débit et le stockage dans un nombre quelconque de régions géographiques d’Azure. Il offre des garanties en termes de débit, de latence, de disponibilité et de cohérence avec des contrats SLA complets. Azure Cosmos DB fournit des API pour les modèles de données suivants, avec des Kits de développement logiciel (SDK) disponibles dans plusieurs langages :

  • API SQL
  • API MongoDB
  • API Cassandra
  • API graphique (Gremlin)
  • API de table

Cet article explique comment lire et écrire des données dans Azure Cosmos DB à l’aide d’Azure Databricks. Pour obtenir les informations les plus récentes sur Azure Cosmos DB, consultez Accélérer l’analyse du Big Data au moyen du connecteur Apache Spark-Azure Cosmos DB.

Ressources :

Important

Ce connecteur prend en charge l’API de base (SQL) d’Azure Cosmos DB. Pour l’API Cosmos DB pour MongoDB, utilisez le connecteur MongoDB Spark. Pour l’API Cosmos DB pour Cassandra, utilisez le connecteur Cassandra Spark.

Créer et attacher les bibliothèques requises

  1. Téléchargez la dernière bibliothèque azure-cosmosdb-spark pour la version d’Apache Spark que vous exécutez.
  2. Chargez les fichiers JAR téléchargés dans Databricks. Consultez Bibliothèques.
  3. Installez les bibliothèques chargées dans votre cluster Databricks.