Enero de 2018

Las versiones se publican por fases. Es posible que su cuenta de Databricks no se actualice hasta una semana después de la fecha de lanzamiento inicial.

Puntos de montaje para contenedores de Azure Blob Storage y Data Lake Store

Del 16 al 23 de enero de 2018: versión 2.63

Hemos proporcionado instrucciones para montar contenedores de Azure Blob Storage y repositorios de Data Lake Store, a través del Sistema de archivos de Databricks (DBFS). Esto proporciona a todos los usuarios de la misma área de trabajo la capacidad de acceder al contenedor de Blob Storage o a Data Lake Store (o a la carpeta dentro del contenedor o repositorio), a través del punto de montaje. DBFS administra las credenciales usadas para acceder a un contenedor de Blob Storage o a un repositorio de Data Lake Store montado, y controla automáticamente la autenticación con Azure Blob Storage o Data Lake Store en segundo plano.

El montaje de contenedores de Blob Storage y repositorios de Data Lake Store requiere Databricks Runtime 4.0 y posteriores. Una vez montado un contenedor o repositorio, puede usar Runtime 3.4 o posterior para acceder al punto de montaje.

Consulte Conectarse a Azure Data Lake Storage Gen2 y Blob Storage y Acceso a Azure Data Lake Storage Gen1 desde Azure Databricks para obtener más información.

Etiquetas del clúster

Del 4 al 11 de enero de 2018: versión 2.62

Ahora puede especificar etiquetas de clúster, que se propagarán a todos los recursos de Azure (VM, discos, NIC, etc.) asociados a un clúster. Además de las etiquetas proporcionadas por el usuario, los recursos se etiquetarán automáticamente con el nombre del clúster, el Id. del clúster y el nombre de usuario del creador del clúster.

Consulte Etiquetas para obtener más información.

Control de acceso a tablas para SQL y Python (versión preliminar privada)

Del 4 al 11 de enero de 2018: versión 2.62

Nota:

Esta característica se encuentra en versión preliminar privada. Póngase en contacto con el administrador de cuentas para solicitar el acceso. Esta característica también requiere Databricks Runtime 3.5+.

El año pasado, introdujimos el control de acceso a objetos de datos para usuarios de SQL. Hoy nos complace anunciar la versión preliminar privada de Table Access Control (ACL) para usuarios de SQL y de Python. Con Table Access Control, puede restringir el acceso a objetos protegibles. como tablas, bases de datos, vistas o funciones. También puede proporcionar un control de acceso específico (a filas y columnas que coincidan con condiciones específicas, por ejemplo) estableciendo permisos en vistas derivadas que contienen consultas arbitrarias.

Consulta Privilegios y objetos protegibles en el metastore de Hive (heredado) para obtener más información.

Exportación de los resultados de la ejecución de trabajos de cuadernos mediante la API

Del 4 al 11 de enero de 2018: versión 2.62

Para mejorar la capacidad de compartir y colaborar en los resultados de los trabajos, ahora tenemos un nuevo punto de conexión de la API de trabajos, jobs/runs/export, que le permite recuperar la representación HTML estática de los resultados de ejecución de un trabajo de cuaderno, tanto en el código como en la vista del panel.

Consulte Exportación de ejecuciones para más información.

Apache AirFlow 1.9.0 incluye una integración con Databricks

2 de enero de 2018

El año pasado, lanzamos una Característica en vista previa (GB) de Airflow, una solución popular para administrar la programación de ETL, que permite a los clientes crear, de forma nativa, tareas que desencadenan ejecuciones de Databricks en un DAG de Airflow. Nos complace anunciar que estas integraciones se han lanzado públicamente en la versión 1.9.0 de Airflow.

Consulte Orquestación de trabajos de Azure Databricks con Apache Airflow para obtener más información.