Configuration de l’accès aux données

Important

Cette fonctionnalité est disponible en préversion publique. Contactez votre représentant Azure Databricks pour demander un accès.

Cet article décrit les configurations d’accès aux données effectuées par Azure Databricks les administrateurs SQL Analytics à l’aide de l’interface utilisateur pour tous les points de terminaison SQL.

Pour configurer tous les points de terminaison SQL à l’aide de l’API REST Databricks, consultez API des points de terminaison SQL globaux.

Important

La modification de ces paramètres redémarre tous les points de terminaison SQL en cours d’exécution.

Pour obtenir une vue d’ensemble générale de l’activation de l’accès aux données, consultez vue d’ensemble de l’accès aux données.

Configurer un principal de service

Un administrateur Azure Databricks SQL Analytics peut configurer tous les points de terminaison pour utiliser un principal du service Azure pour accéder au stockage Azure.

  1. Créez un Azure ad application et un principal de service pouvant accéder aux ressources. Notez les propriétés suivantes :

    • application-id: ID qui identifie de façon unique l’application.
    • directory-id: ID qui identifie de façon unique l’instance de Azure AD.
    • storage-account-name: Nom du compte de stockage.
    • service-credential: Chaîne utilisée par l’application pour prouver son identité.
  2. Stocker service-credential en tant que secret.

  3. Inscrivez le principal du service, en accordant l' attribution de rôleappropriée, telle que le contributeur de données de l’objet blob de stockage, sur le compte Azure Data Lake Storage Gen2.

  4. Configurez les propriétés suivantes dans configurer les propriétés d’accès aux données:

    spark.hadoop.fs.azure.account.auth.type.<storage-account-name>.dfs.core.windows.net OAuth
    spark.hadoop.fs.azure.account.oauth.provider.type.<storage-account-name>.dfs.core.windows.net org.apache.hadoop.fs.azurebfs.oauth2.ClientCredsTokenProvider
    spark.hadoop.fs.azure.account.oauth2.client.id.<storage-account-name>.dfs.core.windows.net <application-id>
    spark.hadoop.fs.azure.account.oauth2.client.secret.<storage-account-name>.dfs.core.windows.net {{secrets/<scope-name>/<secret-name>}}
    spark.hadoop.fs.azure.account.oauth2.client.endpoint.<storage-account-name>.dfs.core.windows.net https://login.microsoftonline.com/<directory-id>/oauth2/token
    

    <secret-name> est une clé pour le secret contenant <service-credential> et <scope-name> est l’étendue contenant la clé secrète.

Configurer les propriétés d’accès aux données

Un administrateur Azure Databricks SQL Analytics peut configurer tous les points de terminaison avec des propriétés d’accès aux données.

  1. Cliquez sur l’icône Icône Paramètres utilisateur au bas de la barre latérale, puis sélectionnez Paramètres.
  2. Cliquez sur l’onglet paramètres de point de terminaison SQL .
  3. Dans la zone de texte configuration de l' accès aux données , spécifiez des paires clé-valeur contenant des Propriétésde métadonnées.
  4. Cliquez sur Enregistrer.

Propriétés prises en charge

  • spark.sql.hive.metastore.*
  • spark.sql.warehouse.dir
  • spark.hadoop.datanucleus.*
  • spark.hadoop.fs.*
  • spark.hadoop.hive.*
  • spark.hadoop.javax.jdo.option.*
  • spark.hive.*

Pour plus d’informations sur la définition de ces propriétés, consultez External metastore Hive.