Azure portal を使用した Azure Data Lake Analytics の管理Manage Azure Data Lake Analytics using the Azure portal

このアーティクルでは、Azure portal を使用して、Azure Data Lake Analytics アカウント、データ ソース、ユーザー、およびジョブを管理する方法について説明します。This article describes how to manage Azure Data Lake Analytics accounts, data sources, users, and jobs by using the Azure portal.

Data Lake Analytics アカウントの管理Manage Data Lake Analytics accounts

アカウントの作成Create an account

  1. Azure Portal にサインインします。Sign in to the Azure portal.
  2. [リソースの作成] > [インテリジェンス + 分析] > Data Lake Analytics をクリックします。Click Create a resource > Intelligence + analytics > Data Lake Analytics.
  3. 次の項目の値を選択します。Select values for the following items:
    1. [名前]:Data Lake Analytics アカウントの名前。Name: The name of the Data Lake Analytics account.
    2. サブスクリプション:アカウントに使用する Azure サブスクリプション。Subscription: The Azure subscription used for the account.
    3. [リソース グループ]:アカウントの作成先の Azure リソース グループ。Resource Group: The Azure resource group in which to create the account.
    4. [場所]:Data Lake Analytics アカウントの Azure データセンター。Location: The Azure datacenter for the Data Lake Analytics account.
    5. [Data Lake Store]:Data Lake Analytics アカウントのために使用される既定のストア。Data Lake Store: The default store to be used for the Data Lake Analytics account. Azure Data Lake Store アカウントと Data Lake Analytics アカウントは、同じ場所にある必要があります。The Azure Data Lake Store account and the Data Lake Analytics account must be in the same location.
  4. Create をクリックしてください。Click Create.

Data Lake Analytics アカウントの削除Delete a Data Lake Analytics account

Data Lake Analytics アカウントを削除する前に、その既定の Data Lake Store アカウントを削除します。Before you delete a Data Lake Analytics account, delete its default Data Lake Store account.

  1. Azure Portal で Data Lake Analytics アカウントに移動します。In the Azure portal, go to your Data Lake Analytics account.
  2. [削除] をクリックします。Click Delete.
  3. アカウント名を入力します。Type the account name.
  4. [削除] をクリックします。Click Delete.

データ ソースを管理するManage data sources

Data Lake Analytics では、次のデータ ソースがサポートされています。Data Lake Analytics supports the following data sources:

  • Data Lake StoreData Lake Store
  • Azure StorageAzure Storage

データ エクスプローラーを使用して、データ ソースを参照し、基本的なファイル管理操作を実行することができます。You can use Data Explorer to browse data sources and perform basic file management operations.

データ ソースの追加Add a data source

  1. Azure Portal で Data Lake Analytics アカウントに移動します。In the Azure portal, go to your Data Lake Analytics account.

  2. [データ ソース] をクリックします。Click Data Sources.

  3. [データ ソースの追加] をクリックします。Click Add Data Source.

    • Data Lake Store アカウントを追加するには、アカウント名と、クエリを実行できるようにするためのアカウントへのアクセスが必要です。To add a Data Lake Store account, you need the account name and access to the account to be able to query it.
    • Azure Blob Storage を追加するには、ストレージ アカウントとアカウント キーが必要です。To add Azure Blob storage, you need the storage account and the account key. それらを探すには、ポータルでストレージ アカウントに移動します。To find them, go to the storage account in the portal.

ファイアウォール規則の設定Set up firewall rules

Data Lake Analytics を使用すると、ネットワーク レベルで Data Lake Analytics アカウントへのアクセスをさらにロックダウンできます。You can use Data Lake Analytics to further lock down access to your Data Lake Analytics account at the network level. ファイアウォールを有効にして、IP アドレスを指定するか、信頼されているクライアントの IP アドレス範囲を定義することができます。You can enable a firewall, specify an IP address, or define an IP address range for your trusted clients. こうした方法を有効にすると、定義された範囲内の IP アドレスを使用しているクライアントだけがストアに接続できます。After you enable these measures, only clients that have the IP addresses within the defined range can connect to the store.

Azure Data Factory や VM など、他の Azure サービスが Data Lake Analytics アカウントに接続する場合は、[Allow Azure Services](Azure サービスを許可する)[オン] になっていることを確認してください。If other Azure services, like Azure Data Factory or VMs, connect to the Data Lake Analytics account, make sure that Allow Azure Services is turned On.

ファイアウォール規則の設定Set up a firewall rule

  1. Azure Portal で Data Lake Analytics アカウントに移動します。In the Azure portal, go to your Data Lake Analytics account.
  2. 左側のメニューで [ファイアウォール] をクリックします。On the menu on the left, click Firewall.

新しいユーザーの追加Add a new user

ユーザー追加ウィザードを使用すると、新しい Data Lake ユーザーを簡単にプロビジョニングできます。You can use the Add User Wizard to easily provision new Data Lake users.

  1. Azure Portal で Data Lake Analytics アカウントに移動します。In the Azure portal, go to your Data Lake Analytics account.
  2. 左側の [作業の開始] で、[ユーザー追加ウィザード] をクリックします。On the left, under Getting Started, click Add User Wizard.
  3. ユーザーを選択し、[選択] をクリックします。Select a user, and then click Select.
  4. ロールを選択し、[選択] をクリックします。Select a role, and then click Select. Azure Data Lake を使用する新しい開発者を設定するには、Data Lake Analytics の開発者ロールを選択します。To set up a new developer to use Azure Data Lake, select the Data Lake Analytics Developer role.
  5. U-SQL データベースのアクセス制御リスト (ACL) を選択します。Select the access control lists (ACLs) for the U-SQL databases. 正しく選択できたら、[選択] をクリックします。When you're satisfied with your choices, click Select.
  6. ファイルの ACL を選択します。Select the ACLs for files. 既定のストアの場合は、ルート フォルダー "/" と /system フォルダーの ACL を変更しないでください。For the default store, don't change the ACLs for the root folder "/" and for the /system folder. [選択] をクリックします。Click Select.
  7. 選択したすべての変更を確認し、[実行] をクリックします。Review all your selected changes, and then click Run.
  8. ウィザードが終了したら、[完了] をクリックします。When the wizard is finished, click Done.

ロールベースのアクセス制御の管理Manage Role-Based Access Control

他の Azure サービスと同様に、ロールベースのアクセス制御 (RBAC) を使用して、ユーザーがサービスと対話する方法を制御できます。Like other Azure services, you can use Role-Based Access Control (RBAC) to control how users interact with the service.

標準の RBAC ロールには、次のような機能があります。The standard RBAC roles have the following capabilities:

  • 所有者:ジョブの送信、ジョブの監視、任意のユーザーのジョブの取り消し、アカウントの構成を行えます。Owner: Can submit jobs, monitor jobs, cancel jobs from any user, and configure the account.
  • 共同作成者:ジョブの送信、ジョブの監視、任意のユーザーのジョブの取り消し、アカウントの構成を行えます。Contributor: Can submit jobs, monitor jobs, cancel jobs from any user, and configure the account.
  • 閲覧者:ジョブを監視できます。Reader: Can monitor jobs.

U-SQL 開発者が Data Lake Analytics サービスを使用できるようにするには、Data Lake Analytics の開発者ロールを使用します。Use the Data Lake Analytics Developer role to enable U-SQL developers to use the Data Lake Analytics service. Data Lake Analytics の開発者ロールを使用すると、次の操作を行えます。You can use the Data Lake Analytics Developer role to:

  • ジョブを送信する。Submit jobs.
  • ジョブの状態と、任意のユーザーによって送信されたジョブの進行状況を監視する。Monitor job status and the progress of jobs submitted by any user.
  • 任意のユーザーによって送信されたジョブの U-SQL スクリプトを確認する。See the U-SQL scripts from jobs submitted by any user.
  • 自分のジョブだけを取り消す。Cancel only your own jobs.

Data Lake Analytics アカウントへのユーザーまたはセキュリティ グループの追加Add users or security groups to a Data Lake Analytics account

  1. Azure Portal で Data Lake Analytics アカウントに移動します。In the Azure portal, go to your Data Lake Analytics account.
  2. [アクセス制御 (IAM)] > [ロールの割り当ての追加] の順にクリックします。Click Access control (IAM) > Add role assignment.
  3. ロールを選択します。Select a role.
  4. ユーザーを追加します。Add a user.
  5. Click OK.Click OK.

注意

ユーザーまたはセキュリティ グループがジョブを送信する必要がある場合は、ストア アカウントに対するアクセス許可も必要です。If a user or a security group needs to submit jobs, they also need permission on the store account. 詳細については、Data Lake Store に格納されているデータのセキュリティ保護に関する記事を参照してください。For more information, see Secure data stored in Data Lake Store.

ジョブの管理Manage jobs

ジョブの送信Submit a job

  1. Azure Portal で Data Lake Analytics アカウントに移動します。In the Azure portal, go to your Data Lake Analytics account.

  2. [新しいジョブ] をクリックします。Click New Job. 各ジョブで、以下の項目を構成します。For each job, configure:

    1. [ジョブ名]:ジョブの名前。Job Name: The name of the job.
    2. [優先度]:数値が小さいほど優先度が高くなります。Priority: Lower numbers have higher priority. 2 つのジョブがキューに登録されている場合は、優先度の値が小さい方のジョブが先に実行されます。If two jobs are queued, the one with lower priority value runs first.
    3. [並行処理]:このジョブのために予約する計算プロセスの最大数。Parallelism: The maximum number of compute processes to reserve for this job.
  3. [ジョブの送信] をクリックします。Click Submit Job.

ジョブの監視Monitor jobs

  1. Azure Portal で Data Lake Analytics アカウントに移動します。In the Azure portal, go to your Data Lake Analytics account.
  2. [すべてのジョブの表示] をクリックします。Click View All Jobs. アカウントのすべてのアクティブなジョブと最近終了したジョブの一覧が表示されます。A list of all the active and recently finished jobs in the account is shown.
  3. 必要に応じて [フィルター] をクリックして、[時間の範囲][ジョブ名]、および [作成者] の値でジョブを見つけやすくします。Optionally, click Filter to help you find the jobs by Time Range, Job Name, and Author values.

パイプライン ジョブの監視Monitoring pipeline jobs

パイプラインの一部であるジョブは、特定のシナリオを実現するために、通常は順次実行されます。Jobs that are part of a pipeline work together, usually sequentially, to accomplish a specific scenario. たとえば、Customer Insights 用に利用状況をクリーンアップ、抽出、変換、集約するパイプラインがあります。For example, you can have a pipeline that cleans, extracts, transforms, aggregates usage for customer insights. パイプライン ジョブは、ジョブの送信時に "Pipeline" プロパティを使用して識別されます。Pipeline jobs are identified using the "Pipeline" property when the job was submitted. ADF V2 を使用してスケジュールされたジョブには、このプロパティが自動的に設定されます。Jobs scheduled using ADF V2 will automatically have this property populated.

パイプラインの一部である U-SQL ジョブの一覧を表示するには、次の手順を実行します。To view a list of U-SQL jobs that are part of pipelines:

  1. Azure Portal で Data Lake Analytics アカウントに移動します。In the Azure portal, go to your Data Lake Analytics accounts.
  2. [ジョブ洞察] をクリックします。Click Job Insights. 既定では [すべてのジョブ] タブに移動し、実行中のジョブ、キューに登録済みのジョブ、終了したジョブの一覧が表示されます。The "All Jobs" tab will be defaulted, showing a list of running, queued, and ended jobs.
  3. [パイプライン ジョブ] タブをクリックします。パイプライン ジョブの一覧が、各パイプラインの集計された統計と共に表示されます。Click the Pipeline Jobs tab. A list of pipeline jobs will be shown along with aggregated statistics for each pipeline.

定期的なジョブの監視Monitoring recurring jobs

定期的なジョブとは、ビジネス ロジックは同一で、入力データが実行するたびに異なるジョブです。A recurring job is one that has the same business logic but uses different input data every time it runs. 定期的なジョブは、常に成功し、実行時間も比較的安定していることが理想的です。定期的なジョブの動作を監視することは、ジョブの正常性を保つのに役立ちます。Ideally, recurring jobs should always succeed, and have relatively stable execution time; monitoring these behaviors will help ensure the job is healthy. 定期的なジョブは、"Recurrence" プロパティを使用して識別されます。Recurring jobs are identified using the "Recurrence" property. ADF V2 を使用してスケジュールされたジョブには、このプロパティが自動的に設定されます。Jobs scheduled using ADF V2 will automatically have this property populated.

定期的に実行される U-SQL ジョブの一覧を表示するには、次の手順を実行します。To view a list of U-SQL jobs that are recurring:

  1. Azure Portal で Data Lake Analytics アカウントに移動します。In the Azure portal, go to your Data Lake Analytics accounts.
  2. [ジョブ洞察] をクリックします。Click Job Insights. 既定では [すべてのジョブ] タブに移動し、実行中のジョブ、キューに登録済みのジョブ、終了したジョブの一覧が表示されます。The "All Jobs" tab will be defaulted, showing a list of running, queued, and ended jobs.
  3. [定期的なジョブ] タブをクリックします。定期的なジョブの一覧が、それぞれのジョブの集計された統計と共に表示されます。Click the Recurring Jobs tab. A list of recurring jobs will be shown along with aggregated statistics for each recurring job.

次の手順Next steps