2018 年 1 月

發行會暫存。 您的 Databricks 帳戶可能要等到初始發行日期之後的一周才會更新。

Azure Blob 記憶體容器和 Data Lake Store 的裝入點

2018年1月16日至23日:版本2.63

我們已透過 Databricks 檔案系統 (DBFS) 提供掛接 Azure Blob 記憶體容器和 Data Lake Store 的指示。 這可讓相同工作區中的所有用戶能夠透過裝入點存取 Blob 記憶體容器或 Data Lake Store(或容器或存放區內的資料夾)。 DBFS 會管理用來存取掛接的 Blob 記憶體容器或 Data Lake Store 的認證,並在背景中自動處理 Azure Blob 儲存器或 Data Lake Store 的驗證。

掛接 Blob 記憶體容器和 Data Lake Store 需要 Databricks Runtime 4.0 和更新版本。 掛接容器或存放區之後,您可以使用 Runtime 3.4 或更新版本來存取裝入點。

如需詳細資訊,請參閱 連線 azure Data Lake 儲存體 Gen2 和 Blob 儲存體從 Azure Databricks 存取 Azure Data Lake 儲存體 Gen1。

叢集標籤

2018年1月4日至11日:版本2.62

您現在可以指定將傳播至與叢集相關聯的所有 Azure 資源(VM、磁碟、NIC 等)的叢集卷標。 除了使用者提供的標記之外,資源也會自動以叢集名稱、叢集標識碼和叢集建立者使用者名稱標記。

如需詳細資訊,請參閱 標記

SQL 和 Python 的數據表 存取控制 (私人預覽版)

2018年1月4日至11日:版本2.62

注意

這項功能是在私人預覽。 請連絡您的帳戶管理員以要求存取權。 此功能也需要 Databricks Runtime 3.5+。

去年,我們引進了 SQL 使用者的數據物件訪問控制。 今天,我們很高興宣佈 SQL 和 Python 用戶數據表 存取控制 (ACL) 的私人預覽版。 使用數據表 存取控制,您可以限制對數據表、資料庫、檢視表或函式等安全性實體物件的存取。 您也可以藉由設定包含任意查詢的衍生檢視許可權,提供更細緻的訪問控制(例如,針對符合特定條件的數據列和數據行。

如需詳細資訊,請參閱Hive中繼存放區許可權和安全性實體物件(舊版)。

透過 API 匯出筆記本作業執行結果

2018年1月4日至11日:版本2.62

為了改善在作業結果上共用和共同作業的能力,我們現在有新的作業 API 端點, jobs/runs/export 可讓您在程式代碼和儀錶板檢視中擷取筆記本作業執行結果的靜態 HTML 表示法。

如需詳細資訊,請參閱 執行導出

Apache Airflow 1.9.0 包含 Databricks 整合

2018 年 1 月 2 日

去年,我們在 Airflow 中發佈了預覽功能,這是管理 ETL 排程的熱門解決方案,可讓客戶以原生方式建立工作,以觸發 Databricks 在 Airflow DAG 中執行。 我們很高興宣布,這些整合已在 1.9.0 版的 Airflow 中公開發行。

如需詳細資訊,請參閱 使用 Apache Airflow 協調 Azure Databricks 作業。