データ アクセスの構成Data access configuration

重要

この機能はパブリック プレビュー段階にあります。This feature is in Public Preview. アクセスを要求するには、Azure Databricks の担当者にお問い合わせください。Contact your Azure Databricks representative to request access.

この記事では、すべての SQL エンドポイントの UI を使用して Azure Databricks SQL Analytics 管理者によって実行されるデータアクセス構成について説明します。This article describes the data access configurations performed by Azure Databricks SQL Analytics administrators using the UI for all SQL endpoints.

Databricks REST API を使用してすべての SQL エンドポイントを構成するには、「 グローバル SQL エンドポイント API」を参照してください。To configure all SQL endpoints using the Databricks REST API, see Global SQL Endpoints API.

重要

これらの設定を変更すると、実行中のすべての SQL エンドポイントが再起動します。Changing these settings restarts all running SQL endpoints.

サービスプリンシパルを 構成する Configure a service principal

SQL Analytics 管理者 Azure Databricks は、azure サービスプリンシパルを使用して Azure storage にアクセスするようにすべてのエンドポイントを構成できます。An Azure Databricks SQL Analytics administrator can configure all endpoints to use an Azure service principal to access Azure storage.

  1. リソースにアクセスできる Azure AD アプリケーションとサービスプリンシパル を作成します。Create an Azure AD application and service principal that can access resources. 次のプロパティに注意してください。Note the following properties:

    • application-id: アプリケーションを一意に識別する ID。application-id: An ID that uniquely identifies the application.
    • directory-id: Azure AD インスタンスを一意に識別する ID。directory-id: An ID that uniquely identifies the Azure AD instance.
    • storage-account-name: ストレージアカウントの名前。storage-account-name: The name of the storage account.
    • service-credential: アプリケーションが id を証明するために使用する文字列。service-credential: A string that the application uses to prove its identity.
  2. サービスプリンシパルを登録し、ストレージ Blob データ共同作成者などの正しい ロールの割り当てを Azure Data Lake Storage Gen2 アカウントに付与します。Register the service principal, granting the correct role assignment, such as Storage Blob Data Contributor, on the Azure Data Lake Storage Gen2 account.

  3. [ データアクセスプロパティの構成] で、次のプロパティを構成します。Configure the following properties in Configure data access properties:

    spark.hadoop.fs.azure.account.auth.type.<storage-account-name>.dfs.core.windows.net OAuth
    spark.hadoop.fs.azure.account.oauth.provider.type.<storage-account-name>.dfs.core.windows.net org.apache.hadoop.fs.azurebfs.oauth2.ClientCredsTokenProvider
    spark.hadoop.fs.azure.account.oauth2.client.id.<storage-account-name>.dfs.core.windows.net <application-id>
    spark.hadoop.fs.azure.account.oauth2.client.secret.<storage-account-name>.dfs.core.windows.net {{secrets/<scope-name>/<secret-name>}}
    spark.hadoop.fs.azure.account.oauth2.client.endpoint.<storage-account-name>.dfs.core.windows.net https://login.microsoftonline.com/<directory-id>/oauth2/token
    

    <secret-name>は、サービスプリンシパルシークレットを含むシークレットのキーであり、 <scope-name> は秘密キーを含むスコープです。where <secret-name> is a key for the secret containing the service principal secret and <scope-name> is the scope containing the secret key.

データアクセスのプロパティの構成 Configure data access properties

SQL Analytics 管理者 Azure Databricks は、データアクセスプロパティを使用してすべてのエンドポイントを構成できます。An Azure Databricks SQL Analytics administrator can configure all endpoints with data access properties.

  1. サイドバーの下部にある ユーザー設定アイコン アイコンをクリックし、 [設定] を選択します。Click the User Settings Icon icon at the bottom of the sidebar and select Settings.
  2. [ SQL エンドポイントの設定 ] タブをクリックします。Click the SQL Endpoint Settings tab.
  3. [ データアクセス構成 ] ボックスで、 metastore プロパティを含むキーと値のペアを指定します。In the Data Access Configuration textbox, specify key-value pairs containing metastore properties.
  4. [保存] をクリックします。Click Save.

サポートされるプロパティSupported properties

  • spark.sql.hive.metastore.*
  • spark.sql.warehouse.dir
  • spark.hadoop.datanucleus.*
  • spark.hadoop.fs.*
  • spark.hadoop.hive.*
  • spark.hadoop.javax.jdo.option.*
  • spark.hive.*

これらのプロパティを設定する方法の詳細については、「 External Hive metastore」を参照してください。For details on how to set these properties, see External Hive metastore.