BI ツールの接続 Connecting BI Tools

ビジネスインテリジェンス (BI) ツールを Azure Databricks クラスターに接続して、テーブル内のデータを照会することができます。You can connect business intelligence (BI) tools to Azure Databricks clusters to query data in tables. すべての Azure Databricks クラスターは、[ドライバー] ノードで JDBC/ODBC サーバーを実行します。Every Azure Databricks cluster runs a JDBC/ODBC server on the driver node. このトピックでは、ほとんどの BI ツールのインストールと構成に関する一般的な手順について説明します。This topic covers general installation and configuration instructions for most BI tools. ツール固有の接続手順については、「ビジネスインテリジェンスツール」を参照してください。For tool-specific connection instructions, see Business Intelligence Tools.

前提条件Requirements

JDBC/ODBC 経由でクラスターにアクセスするには、権限にアタッチできる必要があります。To access a cluster via JDBC/ODBC you must have Can Attach To permission.

注意

JDBC/ODBC を使用して終了したクラスターに接続し、再起動が許可されている場合、クラスターは再起動されます。If you connect to a terminated cluster using JDBC/ODBC and have Can Restart permission, the cluster will be restarted.

手順 1: JDBC/ODBC ドライバーをダウンロードしてインストールする Step 1: Download and install a JDBC/ODBC driver

ほとんどの BI ツールでは、ツールの仕様に従って、Azure Databricks クラスターに接続するための JDBC または ODBC ドライバーが必要です。For most BI tools, you need a JDBC or ODBC driver, according to the tool’s specification, to make a connection to Azure Databricks clusters.

  1. DATABRICKS JDBC/ODBC ドライバーのダウンロードページにアクセスします。Go to the Databricks JDBC / ODBC Driver Download page.
  2. フォームに入力して送信します。Fill out the form and submit it. 複数のダウンロードオプションを含む電子メールが送信されます。You will receive an email that includes multiple download options.
  3. 電子メールで、必要なドライバーを選択してダウンロードします。In the email, select the driver that you want and download it.
  4. ドライバーをインストールします。Install the driver. JDBC の場合、インストールを必要としない JAR が提供されます。For JDBC, a JAR is provided which does not require installation. ODBC の場合、システムにインストールする必要がある、選択したプラットフォーム用のインストールパッケージが用意されています。For ODBC, an installation package is provided for your chosen platform that needs to be installed on your system.
  5. インストールされているライブラリを使用するように BI ツールを構成します。Configure your BI tool to use the installed library. ツールによっては、JAR またはインストールされているライブラリをポイントします。Depending on the tool, point it to the JAR or installed library.

手順 2: JDBC/ODBC 接続を構成するStep 2: Configure JDBC/ODBC connection

JDBC/ODBC ドライバーに必要なパラメーターのいくつかを次に示します。Here are some of the parameters a JDBC/ODBC driver might require:

ParametersParameters ValueValue
ユーザー名/パスワードUsername/password ユーザー名とパスワード」を参照してください。See Username and password.
ホストHost YOUR_WORKSPACE_URLYOUR_WORKSPACE_URL
PortPort 443443
HTTP パスHTTP Path JDBC URL の構築」を参照してください。See Construct the JDBC URL.

通常、JDBC の場合は "httpPath"、ODBC の場合は DSN conf で次のように指定します。The following are usually specified in the “httpPath” for JDBC and the DSN conf for ODBC:

ParametersParameters ValueValue
Spark サーバーの種類Spark Server Type Spark Thrift サーバーSpark Thrift Server
スキーマ/データベースSchema/Database defaultdefault
認証メカニズム (AuthMech)Authentication Mechanism (AuthMech) ユーザー名とパスワードの認証Username and password authentication
Thrift TransportThrift Transport httphttp
SSLSSL truetrue

パフォーマンスを向上させるには、次のものがあります。The following is for performance. アクセスできない場合は、ベンダーにパラメーターを変更するよう依頼してください。Ask your vendor to change the parameter if you can’t access it:

ParametersParameters ValueValue
バッチフェッチサイズ(Batch) Fetch Size 100000100000

注意

  • SSL を無効にするには、spark.hadoop.hive.server2.use.SSL false を設定します。To turn off SSL, set spark.hadoop.hive.server2.use.SSL false.
  • バイナリトランスポートを使用するには、spark.hadoop.hive.server2.transport.mode binary を設定します。To use binary transport, set spark.hadoop.hive.server2.transport.mode binary.

ユーザー名とパスワード Username and password

接続を確立するには、個人用アクセストークンを使用してクラスターゲートウェイに対して認証を行います。To establish the connection, you use a personal access token to authenticate to the cluster gateway:

  • ユーザー名: tokenUsername: token
  • パスワード: <personal-access-token>Password: <personal-access-token>

JDBC URL を 構築する Construct the JDBC URL

  1. クラスターの詳細 ページで、詳細オプション にアクセスし、JDBC/ODBC タブをクリックします。これには、ホスト名、ポート、プロトコル、および HTTP パスが含まれます。On the cluster detail page, go to Advanced Options and click the JDBC/ODBC tab. It contains the hostname, port, protocol, and HTTP path.

    JDBC/ODBC タブJDBC/ODBC Tab

  2. 次のような JDBC 接続文字列 (URL) を構築します。Construct a JDBC connection string (URL) that looks like:

    jdbc:spark://<server-hostname>:<port>/default;transportMode=http;ssl=1;httpPath=<http-path>;AuthMech=3;UID=token;PWD=<personal-access-token>
    

    <server-hostname><port>、および <http-path> をクラスターの詳細ページの値に置き換え、UID を文字列 tokenに設定し、<personal-access-token>個人用アクセストークンに置き換えます。Replace <server-hostname>, <port>, and <http-path> with the values from the cluster detail page, set UID to the string token, and replace <personal-access-token> with your personal access token.

Simba ODBC ドライバー用の ODBC データソース名 (DSN) の構成ODBC Data Source Name (DSN) configuration for the Simba ODBC driver

データソース名 (DSN) の構成には、特定のデータベースと通信するためのパラメーターが含まれています。The Data Source Name (DSN) configuration contains the parameters for communicating with a specific database. Tableau などの BI ツールは、通常、これらのパラメーターを入力するためのわかりやすいユーザーインターフェイスを提供します。BI tools like Tableau usually provide a friendly user interface for entering these parameters. Simba ODBC ドライバーを自分でインストールして管理する必要がある場合は、構成ファイルを作成し、ドライバーマネージャー (Windows の場合odbc32.dll 、Unix の場合は / unixODBC ) がアクセスできるようにすることが必要になる場合があります。If you have to install and manage the Simba ODBC driver yourself, you might need to create the configuration files and also allow your Driver Manager (odbc32.dll on Windows and unixODBC /iODBC on Unix) to access them.

Simba ODBC ドライバーをダウンロードしてインストールしたら、/etc/odbc.ini/etc/odbcinst.ini の2つのファイルを作成します。After you download and install the Simba ODBC driver, create two files, /etc/odbc.ini and /etc/odbcinst.ini. /etc/odbc.ini のコンテンツは次のようになります。The content in /etc/odbc.ini can be:

[Databricks-Spark-2-x]
Driver=Simba
Server=<server-hostname>
HOST=<server-hostname>
PORT=<port>
SparkServerType=3
Schema=default
ThriftTransport=2
SSL=1
AuthMech=3
UID=token
PWD=<personal-access-token>
HTTPPath=<http-path>

/etc/odbcinst.ini のコンテンツは次のようになります。The content in /etc/odbcinst.ini can be:

[ODBC Drivers]
Simba = Installed
[Simba]
Driver = <driver-path>

手順 1. でドライバーをダウンロードしたときに選択したオペレーティングシステムの種類に応じて <driver-path> を設定します。Set <driver-path> according to the type of operating system you chose when you downloaded the driver in Step 1. 例えば次が挙げられます。For example:

  • MacOs /Library/simba/spark/lib/libsparkodbc_sbu.dylibMacOs /Library/simba/spark/lib/libsparkodbc_sbu.dylib
  • Linux /opt/simba/sparkodbc/lib/universal/libsimbasparkodbc.dylibLinux /opt/simba/sparkodbc/lib/universal/libsimbasparkodbc.dylib

環境変数に2つのファイルのパスを指定して、ドライバーマネージャーで使用できるようにすることができます。You can specify the paths of the two files in your environment variables so that they can be used by the Driver Manager:

export ODBCINI=/etc/odbc.ini
export ODBCSYSINI=/etc/odbcinst.ini
export SIMBASPARKINI=<simba-ini-path>/simba.sparkodbc.ini # (Contains the configuration for debugging the Simba driver)

<simba-ini-path> の場所where <simba-ini-path> is

  • MacOS /Library/simba/spark/libMacOS /Library/simba/spark/lib
  • Linux /opt/simba/sparkodbc/lib/universalLinux /opt/simba/sparkodbc/lib/universal

トラブルシューティングTroubleshooting

このセクションの内容は、新しいナレッジベースに移動しました。The contents of this section have moved to our new Knowledge Base.