Datakällor
Det här avsnittet beskriver de Apache Spark-datakällor som du kan använda i Azure Databricks. Många innehåller en notebook-fil som visar hur du använder datakällan för att läsa och skriva data.
Följande datakällor stöds antingen direkt i Databricks Runtime eller kräver enkla gränssnittskommandon för att möjliggöra åtkomst:
- Avro-fil
- Binär fil
- CSV-fil
- Hive-tabell
- Avbildning
- JSON-fil
- Komprimerad LZO-fil
- MLflow-experiment
- Parquet-fil
- XML-fil
- ZIP-filer
Mer information om Apache Spark-datakällor finns i Generic Load/Save Functions (Allmänna Läs in/Spara-funktioner) och Generic File Source Options (Allmänna alternativ för filkälla).
Följande lagringsdatakällor kräver att du konfigurerar anslutningen till lagringen. Vissa kräver även att du skapar ett Azure Databricks-bibliotek och installerar det i ett kluster: