Januar 2018

Releases werden gestaffelt. Ihr Databricks-Konto wird möglicherweise erst eine Woche nach dem Datum der ersten Veröffentlichung aktualisiert.

Bereitstellungspunkte für Azure Blob Storage-Container und Data Lake Stores

16.-23. Januar 2018: Version 2.63

Wir haben Anweisungen zum Einbinden von Azure Blob Storage-Containern und Data Lake Stores über das Databricks File System (DBFS) bereitgestellt. Dadurch haben alle Benutzer im selben Arbeitsbereich die Möglichkeit, über den Bereitstellungspunkt auf den Blob Storage-Container oder Data Lake Store (oder den Ordner innerhalb des Containers oder Speichers) zuzugreifen. Das DBFS verwaltet die Anmeldeinformationen, die für den Zugriff auf einen bereitgestellten Blob Storage-Container oder Data Lake Store verwendet werden, und übernimmt automatisch die Authentifizierung bei Azure Blob Storage oder Data Lake Store im Hintergrund.

Die Einbindung von Blob Storage-Containern und Data Lake Stores erfordert Databricks Runtime 4.0 und höher. Sobald ein Container oder Speicher eingebunden wurde, können Sie Runtime 3.4 oder höher verwenden, um auf den Bereitstellungspunkt zuzugreifen.

Weitere Informationen finden Sie unter Herstellen einer Verbindung mit Azure Data Lake Storage Gen2 und Blob Storage und Zugreifen auf Azure Data Lake Storage Gen1 in Azure Databricks.

Clustertags

4.-11. Januar 2018: Version 2.62

Sie können jetzt Clustertags angeben, die an alle Azure-Ressourcen (VMs, Datenträger, NICs usw.) weitergegeben werden, die einem Cluster zugeordnet sind. Zusätzlich zu den vom Benutzer bereitgestellten Tags werden Ressourcen automatisch mit dem Clusternamen, der Cluster-ID und dem Benutzernamen des Clustererstellers gekennzeichnet.

Weitere Informationen finden Sie unter Tags.

Tabellenzugriffssteuerung für SQL und Python (Public Preview)

4.-11. Januar 2018: Version 2.62

Hinweis

Dieses Feature befindet sich in der privaten Vorschau. Wenden Sie sich an Ihren Kundenbetreuer, um Zugriff anzufordern. Für dieses Feature ist ebenfalls Databricks Runtime 3.5 oder höher erforderlich.

Letztes Jahr haben wir die Zugriffssteuerung für Datenobjekte für SQL-Benutzer eingeführt. Heute freuen wir uns, die private Vorschau von Table Access Control (ACL) sowohl für SQL- als auch für Python-Benutzer ankündigen zu können. Mit Table Access Control können Sie den Zugriff auf sicherungsfähige Objekte wie Tabellen, Datenbanken, Ansichten oder Funktionen einschränken. Sie können auch eine differenzierte Zugriffssteuerung (z. B. auf Zeilen und Spalten, die bestimmten Bedingungen entsprechen) einrichten, indem Sie Berechtigungen für abgeleitete Sichten festlegen, die beliebige Abfragen enthalten.

Weitere Informationen finden Sie unter Hive-Metastore-Berechtigungen und sicherungsfähige Objekte (Legacy).

Exportieren der Ausführungsergebnisse von Notebook-Aufträgen durch die API

4.-11. Januar 2018: Version 2.62

Um die Freigabe und gemeinsame Verwendung der Ergebnisse von Aufträgen zu verbessern, gibt es jetzt einen neuen Auftrags-API-Endpunkt, jobs/runs/export, mit dem Sie die statische HTML-Darstellung der Ausführungsergebnisse eines Notebookauftrags sowohl im Code als auch in der Dashboardansicht abrufen können.

Weitere Informationen finden Sie unter Ausführungsexport.

Apache Airflow 1.9.0 enthält Databricks-Integration

2. Januar 2018

Im letzten Jahr haben wir eine Previewfunktion in Airflow veröffentlicht – eine beliebte Lösung für die Verwaltung der ETL-Planung –, mit der Kunden nativ Aufgaben erstellen können, die Databricks-Ausführungen in einem gerichteten azyklischer Airflow-Graphen auslösen. Wir freuen uns, bekanntgeben zu können, dass diese Integrationen in der Airflow-Version 1.9.0 (öffentlich) veröffentlicht wurden.

Weitere Informationen finden Sie unter Orchestrieren von Azure Databricks-Aufträgen mit Apache Airflow.