Présentation de Delta Lake

Delta Lake est une couche de stockage open source qui apporte des transactions ACID (atomicité, cohérence, isolation et durabilité) à Apache Spark et aux charges de travail Big Data.

La version actuelle de Delta Lake incluse dans Azure Synapse offre une prise en charge des langages Scala, PySpark et .NET. Elle est compatible avec Linux Foundation Delta Lake. Des liens vers pour des exemples et une documentation plus détaillés se trouvent en bas de la page. Pour en savoir plus, consultez la vidéo Présentation de Delta Tables.

Fonctionnalités clés

Fonctionnalité Description
Transactions ACID Les lacs de données sont généralement remplis de plusieurs processus et pipelines, dont certains écrivent des données en même temps que les lectures. Avant Delta Lake et l’ajout de transactions, les ingénieurs de données devaient passer par un processus manuel sujet aux erreurs pour garantir l’intégrité des données. Delta Lake apporte des transactions ACID familières aux lacs de données. Il assure la sérialisation, le niveau d’isolation le plus élevé. Pour plus d’informations, consultez Plongée dans Delta Lake : décompression du journal des transactions.
Gestion des métadonnées évolutive Dans le Big Data, même les métadonnées elles-mêmes peuvent être des « Big Data ». Delta Lake traite les métadonnées comme des données, tirant parti de la puissance de traitement distribuée de Spark pour gérer toutes ses métadonnées. Delta Lake peut donc gérer des tables à l’échelle de plusieurs pétaoctets avec des milliards de partitions et fichiers en toute simplicité.
Temps de voyage (contrôle de version des données) La possibilité d’annuler une modification ou de revenir à une version précédente est l’une des principales fonctionnalités des transactions. Delta Lake fournit des captures instantanées de données vous permettant de revenir à des versions antérieures de données à des fins d’audit, de restauration ou de reproduction d’expériences. Pour plus d’informations, consultez Présentation d’un voyage dans le temps Delta Lake pour les lacs de données à grande échelle.
Format ouvert Apache Parquet est le format de base de Delta Lake, qui vous permet de tirer parti de l’efficacité des schémas de compression et d’encodage natifs du format.
Source et récepteur de lot unifié et de diffusion en continu Une table dans Delta Lake est une table de lots, ainsi qu’une source et un récepteur de diffusion en continu. L’ingestion de données de diffusion en continu, le renvoi d’historique par lot et les requêtes interactives fonctionnent sans nécessiter de configuration.
Application du schéma L’application du schéma permet de s’assurer que les types de données sont corrects et que les colonnes requises sont présentes, évitant ainsi des données incorrectes entraînent une incohérence des données. Pour plus d’informations, consultez Plongée dans Delta Lake : application et évolution du schéma
Évolution du schéma Delta Lake vous permet d’apporter à un schéma de table des modifications qui peuvent être appliquées automatiquement, sans devoir écrire de DDL de migration. Pour plus d’informations, consultez Plongée dans Delta Lake : application et évolution du schéma
Historique des audits Le journal des transactions de Delta Lake enregistre des détails sur chaque modification apportée aux données, en fournissant une piste d’audit complète des modifications.
Mises à jour et suppressions Delta Lake prend en charge les API Scala, Java, Python et SQL pour offrir un vaste éventail de fonctionnalités. La prise en charge des opérations de fusion, de mise à jour et de suppression vous aide à répondre aux exigences de conformité. Pour plus d’informations, consultez les articles Annonce de la mise en production de Delta Lake 0.6.1, Annonce de la mise en production de Delta Lake 0.7 et Upserts et suppressions simples et fiables sur des tables Delta Lake en utilisant les API Python, qui contient des extraits de code pour des commandes DML de fusion, de mise à jour et de suppression.
100 % compatible avec l’API Apache Spark Les développeurs peuvent utiliser Delta Lake avec leurs pipelines de données existants pratiquement sans aucune modification, car il est entièrement compatible avec les implémentations Spark existantes.

Pour obtenir une documentation complète, consultez la page Documentation de Delta Lake.

Pour plus d’informations, consultez Projet Delta Lake.

Étapes suivantes