Azure CLI(명령줄 인터페이스)를 사용하여 Azure Data Lake Analytics 관리Manage Azure Data Lake Analytics using the Azure Command-line Interface (CLI)

Azure CLI를 사용하여 Azure Data Lake Analytics 계정, 데이터 원본, 사용자 및 작업을 관리하는 방법에 대해 알아봅니다.Learn how to manage Azure Data Lake Analytics accounts, data sources, users, and jobs using the Azure CLI. 다른 도구를 사용하여 관리 항목을 보려면 위의 탭 선택을 클릭합니다.To see management topics using other tools, click the tab select above.

사전 요구 사항Prerequisites

이 자습서를 시작하기 전에 다음 리소스가 있어야 합니다.Before you begin this tutorial, you must have the following resources:

  • Azure 구독An Azure subscription. Azure 평가판을 참조하세요.See Get Azure free trial.

  • Azure CLIAzure CLI. Azure CLI 설치 및 구성을 참조하세요.See Install and configure Azure CLI.

    • 이 데모를 완료하려면 시험판 Azure CLI 도구 를 다운로드하여 설치합니다.Download and install the pre-release Azure CLI tools in order to complete this demo.
  • az login 명령을 사용하여 인증하고, 사용하려는 구독을 선택합니다.Authenticate by using the az login command and select the subscription that you want to use. 회사 또는 학교 계정을 사용하여 인증하는 방법에 대한 자세한 내용은 Azure CLI에서 Azure 구독에 연결을 참조하세요.For more information on authenticating using a work or school account, see Connect to an Azure subscription from the Azure CLI.

    az login
    az account set --subscription <subscription id>
    

    이제 Data Lake Analytics 및 Data Lake Store 명령에 액세스할 수 있습니다.You can now access the Data Lake Analytics and Data Lake Store commands. 다음 명령을 사용하여 Data Lake Store 및 Data Lake Analytics 명령을 나열합니다.Run the following command to list the Data Lake Store and Data Lake Analytics commands:

    az dls -h
    az dla -h
    

계정 관리Manage accounts

데이터 레이크 분석 작업을 실행하려면 데이터 레이크 분석 계정이 있어야 합니다.Before running any Data Lake Analytics jobs, you must have a Data Lake Analytics account. Azure HDInsight와 달리 작업을 실행하지 않는 경우 분석 계정에 대해 비용을 지불하지 않습니다.Unlike Azure HDInsight, you don't pay for an Analytics account when it is not running a job. 작업이 실행되는 시간에 대해서만 비용을 지불합니다.You only pay for the time when it is running a job. 자세한 내용은 Azure 데이터 레이크 분석 개요를 참조하세요.For more information, see Azure Data Lake Analytics Overview.

계정 만들기Create accounts

다음 명령을 실행하여 Data Lake 계정을 만듭니다.Run the following command to create a Data Lake account,

az dla account create --account "<Data Lake Analytics account name>" --location "<Location Name>" --resource-group "<Resource Group Name>" --default-data-lake-store "<Data Lake Store account name>"

계정 업데이트Update accounts

다음 명령은 기존 데이터 레이크 분석 계정의 속성을 업데이트합니다.The following command updates the properties of an existing Data Lake Analytics Account

az dla account update --account "<Data Lake Analytics Account Name>" --firewall-state "Enabled" --query-store-retention 7

계정 나열List accounts

특정 리소스 그룹 내의 데이터 레이크 분석 계정 나열List Data Lake Analytics accounts within a specific resource group

az dla account list "<Resource group name>"

계정에 대한 세부 정보 가져오기Get details of an account

az dla account show --account "<Data Lake Analytics account name>" --resource-group "<Resource group name>"

계정 삭제Delete an account

az dla account delete --account "<Data Lake Analytics account name>" --resource-group "<Resource group name>"

데이터 원본 관리Manage data sources

Data Lake Analytics는 현재 다음 두 데이터 원본을 지원합니다.Data Lake Analytics currently supports the following two data sources:

분석 계정을 만들 때 Azure 데이터 레이크 Storage 계정이 기본 Storage 계정이 되도록 지정해야 합니다.When you create an Analytics account, you must designate an Azure Data Lake Storage account to be the default storage account. 기본 Data Lake 스토리지 계정은 작업 메타데이터 및 작업 감사 로그를 저장하는 데 사용됩니다.The default Data Lake storage account is used to store job metadata and job audit logs. 분석 계정을 만든 후 데이터 레이크 Storage 계정 및/또는 Azure Storage 계정을 더 추가할 수 있습니다.After you have created an Analytics account, you can add additional Data Lake Storage accounts and/or Azure Storage account.

기본 데이터 레이크 저장소 계정 찾기Find the default Data Lake Store account

az dla account show 명령을 실행하여 사용되는 기본 Data Lake Store 계정을 볼 수 있습니다.You can view the default Data Lake Store account used by running the az dla account show command. 기본 계정 이름은 defaultDataLakeStoreAccount 속성에 나열됩니다.Default account name is listed under the defaultDataLakeStoreAccount property.

az dla account show --account "<Data Lake Analytics account name>"

다른 Blob Storage 계정 추가Add additional Blob storage accounts

az dla account blob-storage add --access-key "<Azure Storage Account Key>" --account "<Data Lake Analytics account name>" --storage-account-name "<Storage account name>"

참고

File Storage FAQOnly Blob storage short names are supported. FQDN(예: “myblob.blob.core.windows.net”)을 사용하지 마십시오.Don't use FQDN, for example "myblob.blob.core.windows.net".

데이터 레이크 저장소 계정 추가Add additional Data Lake Store accounts

다음 명령은 지정된 Data Lake Analytics 계정을 추가 Data Lake Store 계정으로 업데이트합니다.The following command updates the specified Data Lake Analytics account with an additional Data Lake Store account:

az dla account data-lake-store add --account "<Data Lake Analytics account name>" --data-lake-store-account-name "<Data Lake Store account name>"

기존 데이터 원본 업데이트Update existing data source

Java에서 File Storage를 사용하는 방법To update an existing Blob storage account key:

az dla account blob-storage update --access-key "<New Blob Storage Account Key>" --account "<Data Lake Analytics account name>" --storage-account-name "<Data Lake Store account name>"

데이터 원본 나열List data sources

Data Lake Store 계정 나열:To list the Data Lake Store accounts:

az dla account data-lake-store list --account "<Data Lake Analytics account name>"

Blob Storage 계정 나열:To list the Blob storage account:

az dla account blob-storage list --account "<Data Lake Analytics account name>"

"DataLakeStoreAccounts:" 정보가 강조 표시 된 Azure C L I를 보여 주는 스크린샷

데이터 원본 삭제Delete data sources

데이터 레이크 저장소 계정을 삭제하려면:To delete a Data Lake Store account:

az dla account data-lake-store delete --account "<Data Lake Analytics account name>" --data-lake-store-account-name "<Azure Data Lake Store account name>"

.NET용 File Storage 시작To delete a Blob storage account:

az dla account blob-storage delete --account "<Data Lake Analytics account name>" --storage-account-name "<Data Lake Store account name>"

작업 관리Manage jobs

작업을 만들려면 데이터 레이크 분석 계정이 있어야 합니다.You must have a Data Lake Analytics account before you can create a job. 자세한 내용은 데이터 레이크 분석 계정 관리를 참조하세요.For more information, see Manage Data Lake Analytics accounts.

작업 나열List jobs

az dla job list --account "<Data Lake Analytics account name>"

데이터 레이크 분석은 데이터 원본을 나열합니다.

작업 세부 정보 가져오기Get job details

az dla job show --account "<Data Lake Analytics account name>" --job-identity "<Job Id>"

작업 제출Submit jobs

참고

작업의 기본 우선 순위는 1000이고 작업에 대한 기본 병렬 처리 수준은 1입니다.The default priority of a job is 1000, and the default degree of parallelism for a job is 1.

az dla job submit --account "<Data Lake Analytics account name>" --job-name "<Name of your job>" --script "<Script to submit>"

작업 취소Cancel jobs

List 명령을 사용 하 여 작업 ID를 찾은 다음, 취소를 사용 하 여 작업을 취소 합니다.Use the list command to find the job ID, and then use cancel to cancel the job.

az dla job cancel --account "<Data Lake Analytics account name>" --job-identity "<Job Id>"

파이프라인 및 되풀이Pipelines and recurrences

파이프라인 및 되풀이에 대한 정보 가져오기Get information about pipelines and recurrences

az dla job pipeline 명령을 사용하여 이전에 제출한 작업의 파이프라인 정보를 확인합니다.Use the az dla job pipeline commands to see the pipeline information previously submitted jobs.

az dla job pipeline list --account "<Data Lake Analytics Account Name>"

az dla job pipeline show --account "<Data Lake Analytics Account Name>" --pipeline-identity "<Pipeline ID>"

az dla job recurrence 명령을 사용하여 이전에 제출한 작업의 되풀이 정보를 확인합니다.Use the az dla job recurrence commands to see the recurrence information for previously submitted jobs.

az dla job recurrence list --account "<Data Lake Analytics Account Name>"

az dla job recurrence show --account "<Data Lake Analytics Account Name>" --recurrence-identity "<Recurrence ID>"

다음 단계Next steps