Azure PowerShell を使用して、Azure Data Lake Storage Gen1 を (追加のストレージとして) 使用する HDInsight クラスターを作成するUse Azure PowerShell to create an HDInsight cluster with Azure Data Lake Storage Gen1 (as additional storage)

Azure PowerShell を使用して、Azure Data Lake Storage Gen1 を追加のストレージとして使用する HDInsight クラスターを構成する方法について説明します。Learn how to use Azure PowerShell to configure an HDInsight cluster with Azure Data Lake Storage Gen1, as additional storage. 既定のストレージとして Data Lake Storage Gen1 を使用する HDInsight クラスターの作成方法については、既定のストレージとして Data Lake Storage Gen1 を使用する HDInsight クラスターの作成に関する記事をご覧ください。For instructions on how to create an HDInsight cluster with Data Lake Storage Gen1 as default storage, see Create an HDInsight cluster with Data Lake Storage Gen1 as default storage.

注意

Data Lake Storage Gen1 を HDInsight クラスターの追加ストレージとして使用する場合は、この記事で説明されているように、クラスターを作成するときにそうすることを強くお勧めします。If you are going to use Data Lake Storage Gen1 as additional storage for HDInsight cluster, we strongly recommend that you do this while you create the cluster as described in this article. Data Lake Storage Gen1 を既存の HDInsight クラスターに追加のストレージとして追加することは、複雑なプロセスであり、エラーも発生しやすくなります。Adding Data Lake Storage Gen1 as additional storage to an existing HDInsight cluster is a complicated process and prone to errors.

サポートされている種類のクラスターでは、Data Lake Storage Gen1 を既定のストレージまたは追加のストレージ アカウントとして使用できます。For supported cluster types, Data Lake Storage Gen1 can be used as a default storage or additional storage account. Data Lake Storage Gen1 を追加のストレージとして使用した場合、クラスターの既定のストレージ アカウントは Azure Storage Blob (WASB) のままであり、クラスター関連のファイル (ログなど) は引き続きその既定のストレージに書き込まれますが、一方で処理対象のデータは Data Lake Storage Gen1 アカウントに格納することができます。When Data Lake Storage Gen1 is used as additional storage, the default storage account for the clusters will still be Azure Storage Blobs (WASB) and the cluster-related files (such as logs, etc.) are still written to the default storage, while the data that you want to process can be stored in a Data Lake Storage Gen1 account. Data Lake Storage Gen1 を追加のストレージ アカウントとして使用しても、クラスターからストレージに対する読み取り/書き込みのパフォーマンスや機能は何も変化しません。Using Data Lake Storage Gen1 as an additional storage account does not impact performance or the ability to read/write to the storage from the cluster.

HDInsight クラスター記憶域で Data Lake Storage Gen1 を使用するUsing Data Lake Storage Gen1 for HDInsight cluster storage

HDInsight で Data Lake Storage Gen1 を使用するための重要な考慮事項を次に示します。Here are some important considerations for using HDInsight with Data Lake Storage Gen1:

  • 追加のストレージとしての Data Lake Storage Gen1 にアクセスできる HDInsight クラスターを作成するオプションは、HDInsight バージョン 3.2、3.4、3.5、および 3.6 で使用できます。Option to create HDInsight clusters with access to Data Lake Storage Gen1 as additional storage is available for HDInsight versions 3.2, 3.4, 3.5, and 3.6.

PowerShell を使用して、Data Lake Storage Gen1 を使用するように HDInsight を構成するには、次の手順が必要です。Configuring HDInsight to work with Data Lake Storage Gen1 using PowerShell involves the following steps:

  • Data Lake Storage Gen1 アカウントを作成するCreate a Data Lake Storage Gen1 account
  • Data Lake Storage Gen1 へのロールベースのアクセスの認証を設定するSet up authentication for role-based access to Data Lake Storage Gen1
  • Data Lake Storage Gen1 への認証を使用して HDInsight クラスターを作成するCreate HDInsight cluster with authentication to Data Lake Storage Gen1
  • クラスター上でテスト ジョブを実行するRun a test job on the cluster

前提条件Prerequisites

注意

この記事は、新しい Azure PowerShell Az モジュールを使用するために更新されました。This article has been updated to use the new Azure PowerShell Az module. AzureRM モジュールはまだ使用でき、少なくとも 2020 年 12 月までは引き続きバグ修正が行われます。You can still use the AzureRM module, which will continue to receive bug fixes until at least December 2020. Az モジュールと AzureRM の互換性の詳細については、「Introducing the new Azure PowerShell Az module (新しい Azure PowerShell Az モジュールの概要)」を参照してください。To learn more about the new Az module and AzureRM compatibility, see Introducing the new Azure PowerShell Az module. Az モジュールのインストール手順については、Azure PowerShell のインストールを参照してください。For Az module installation instructions, see Install Azure PowerShell.

このチュートリアルを読み始める前に、次の項目を用意する必要があります。Before you begin this tutorial, you must have the following:

  • Azure サブスクリプションAn Azure subscription. Azure 無料試用版の取得に関するページを参照してください。See Get Azure free trial.

  • Azure PowerShell 1.0 以上Azure PowerShell 1.0 or greater. Azure PowerShell のインストールと構成の方法」を参照してください。See How to install and configure Azure PowerShell.

  • Windows SDKWindows SDK. こちらからインストールできます。You can install it from here. この機能は、セキュリティ証明書の作成に使用します。You use this to create a security certificate.

  • Azure Active Directory Service のプリンシパルAzure Active Directory Service Principal. このチュートリアルの手順では、Azure AD でサービス プリンシパルを作成する方法を説明します。Steps in this tutorial provide instructions on how to create a service principal in Azure AD. ただし、サービス プリンシパルを作成するには、Azure AD 管理者である必要があります。However, you must be an Azure AD administrator to be able to create a service principal. Azure AD 管理者である場合は、この前提条件をスキップしてチュートリアルを進めることができます。If you are an Azure AD administrator, you can skip this prerequisite and proceed with the tutorial.

    Azure AD 管理者でない場合は、サービス プリンシパルの作成に必要な手順を実行することはできません。If you are not an Azure AD administrator, you will not be able to perform the steps required to create a service principal. その場合は、Data Lake Storage Gen1 で HDInsight クラスターを作成する前に、まず Azure AD 管理者がサービス プリンシパルを作成する必要があります。In such a case, your Azure AD administrator must first create a service principal before you can create an HDInsight cluster with Data Lake Storage Gen1. また、「Create a service principal with certificate」 (証明書でサービス プリンシパルを作成する) で説明しているように、サービス プリンシパルは証明書を使って作成する必要があります。Also, the service principal must be created using a certificate, as described at Create a service principal with certificate.

Data Lake Storage Gen1 アカウントを作成するCreate a Data Lake Storage Gen1 account

Data Lake Storage Gen1 アカウントを作成するには、次の手順に従います。Follow these steps to create a Data Lake Storage Gen1 account.

  1. デスクトップで、新しい Azure PowerShell ウィンドウを開き、次のスニペットを入力します。From your desktop, open a new Azure PowerShell window, and enter the following snippet. ログインを求められたら、必ず、サブスクリプションの管理者または所有者としてログインしてください。When prompted to log in, make sure you log in as one of the subscription administrator/owner:

     # Log in to your Azure account
     Connect-AzAccount
    
     # List all the subscriptions associated to your account
     Get-AzSubscription
    
     # Select a subscription
     Set-AzContext -SubscriptionId <subscription ID>
    
     # Register for Data Lake Storage Gen1
     Register-AzResourceProvider -ProviderNamespace "Microsoft.DataLakeStore"
    

    注意

    Data Lake Storage Gen1 リソース プロバイダーの登録時に Register-AzResourceProvider : InvalidResourceNamespace: The resource namespace 'Microsoft.DataLakeStore' is invalid のようなエラーが発生した場合は、サブスクリプションが Data Lake Storage Gen1 のホワイトリストに登録されていない可能性があります。If you receive an error similar to Register-AzResourceProvider : InvalidResourceNamespace: The resource namespace 'Microsoft.DataLakeStore' is invalid when registering the Data Lake Storage Gen1 resource provider, it is possible that your subscription is not whitelisted for Data Lake Storage Gen1. こちらの手順に従って Data Lake Storage Gen1 で Azure サブスクリプションを有効にしていることを確認してください。Make sure you enable your Azure subscription for Data Lake Storage Gen1 by following these instructions.

  2. Data Lake Storage Gen1 アカウントは、Azure リソース グループに関連付けられます。A Data Lake Storage Gen1 account is associated with an Azure Resource Group. まず、Azure リソース グループを作成します。Start by creating an Azure Resource Group.

     $resourceGroupName = "<your new resource group name>"
     New-AzResourceGroup -Name $resourceGroupName -Location "East US 2"
    

    出力は次のように表示されます。You should see an output like this:

     ResourceGroupName : hdiadlgrp
     Location          : eastus2
     ProvisioningState : Succeeded
     Tags              :
     ResourceId        : /subscriptions/<subscription-id>/resourceGroups/hdiadlgrp
    
  3. Data Lake Storage Gen1 アカウントを作成します。Create a Data Lake Storage Gen1 account. 指定するアカウント名には、小文字と数字のみを含める必要があります。The account name you specify must only contain lowercase letters and numbers.

     $dataLakeStorageGen1Name = "<your new Data Lake Storage Gen1 account name>"
     New-AzDataLakeStoreAccount -ResourceGroupName $resourceGroupName -Name $dataLakeStorageGen1Name -Location "East US 2"
    

    出力は次のように表示されます。You should see an output like the following:

     ...
     ProvisioningState           : Succeeded
     State                       : Active
     CreationTime                : 5/5/2017 10:53:56 PM
     EncryptionState             : Enabled
     ...
     LastModifiedTime            : 5/5/2017 10:53:56 PM
     Endpoint                    : hdiadlstore.azuredatalakestore.net
     DefaultGroup                :
     Id                          : /subscriptions/<subscription-id>/resourceGroups/hdiadlgrp/providers/Microsoft.DataLakeStore/accounts/hdiadlstore
     Name                        : hdiadlstore
     Type                        : Microsoft.DataLakeStore/accounts
     Location                    : East US 2
     Tags                        : {}
    
  4. Data Lake Storage Gen1 にいくつかのサンプル データをアップロードします。Upload some sample data to Data Lake Storage Gen1. このサンプル データは、HDInsight クラスターからデータにアクセスできることを確認するために、この記事の後半で使用します。We'll use this later in this article to verify that the data is accessible from an HDInsight cluster. アップロードするいくつかのサンプル データを探している場合は、 Azure Data Lake Git リポジトリ から Ambulance Dataフォルダーを取得できます。If you are looking for some sample data to upload, you can get the Ambulance Data folder from the Azure Data Lake Git Repository.

     $myrootdir = "/"
     Import-AzDataLakeStoreItem -AccountName $dataLakeStorageGen1Name -Path "C:\<path to data>\vehicle1_09142014.csv" -Destination $myrootdir\vehicle1_09142014.csv
    

Data Lake Storage Gen1 へのロールベースのアクセスの認証を設定するSet up authentication for role-based access to Data Lake Storage Gen1

すべての Azure サブスクリプションは Azure Active Directory と関連付けられます。Every Azure subscription is associated with an Azure Active Directory. Azure Portal か Azure Resource Manager API を使ってサブスクリプションのリソースにアクセスするユーザーやサービスは、最初にその Azure Active Directory での認証を実行する必要があります。Users and services that access resources of the subscription using the Azure portal or Azure Resource Manager API must first authenticate with that Azure Active Directory. Azure のサブスクリプションやサービスにアクセス権を付与するには、Azure リソースに対する該当するロールを割り当てます。Access is granted to Azure subscriptions and services by assigning them the appropriate role on an Azure resource. サービスの場合は、サービス プリンシパルにより、Azure Active Directory (AAD) 内のサービスが識別されます。For services, a service principal identifies the service in the Azure Active Directory (AAD). このセクションでは、Azure PowerShell を使用してアプリケーションのサービス プリンシパルを作成し、作成したサービス プリンシパルにロールを割り当てることで、HDInsight のようなアプリケーション サービスに Azure のリソース (先ほど作成した Data Lake Storage Gen1 アカウント) へのアクセス権を付与する方法を説明します。This section illustrates how to grant an application service, like HDInsight, access to an Azure resource (the Data Lake Storage Gen1 account you created earlier) by creating a service principal for the application and assigning roles to that via Azure PowerShell.

Data Lake Storage Gen1 の Active Directory 認証を設定するには、次のタスクを行う必要があります。To set up Active Directory authentication for Data Lake Storage Gen1, you must perform the following tasks.

  • 自己署名証明書の作成Create a self-signed certificate
  • Azure Active Directory でのアプリケーションの作成、およびサービス プリンシパルの作成Create an application in Azure Active Directory and a Service Principal

自己署名証明書の作成Create a self-signed certificate

このセクションの手順を進める前に、Windows SDK がインストールされていることを確認してください。Make sure you have Windows SDK installed before proceeding with the steps in this section. 証明書の作成先となるディレクトリ (C:\mycertdir など) も作成しておく必要があります。You must have also created a directory, such as C:\mycertdir, where the certificate will be created.

  1. PowerShell ウィンドウで、Windows SDK をインストールした場所 (通常は C:\Program Files (x86)\Windows Kits\10\bin\x86) に移動し、MakeCert ユーティリティを使用して、自己署名証明書と秘密キーを作成します。From the PowerShell window, navigate to the location where you installed Windows SDK (typically, C:\Program Files (x86)\Windows Kits\10\bin\x86 and use the MakeCert utility to create a self-signed certificate and a private key. 次のコマンドを使用します。Use the following commands.

     $certificateFileDir = "<my certificate directory>"
     cd $certificateFileDir
    
     makecert -sv mykey.pvk -n "cn=HDI-ADL-SP" CertFile.cer -r -len 2048
    

    秘密キーのパスワードを入力するよう求められます。You will be prompted to enter the private key password. コマンドが正常に実行されると、指定した証明書ディレクトリに CertFile.cermykey.pvk が表示されます。After the command successfully executes, you should see a CertFile.cer and mykey.pvk in the certificate directory you specified.

  2. Pvk2Pfx ユーティリティを使用して、MakeCert によって作成された .pvk ファイルと .cer ファイルを .pfx ファイルに変換します。Use the Pvk2Pfx utility to convert the .pvk and .cer files that MakeCert created to a .pfx file. 次のコマンドを実行します。Run the following command.

     pvk2pfx -pvk mykey.pvk -spc CertFile.cer -pfx CertFile.pfx -po <password>
    

    メッセージが表示されたら、先ほど指定した秘密キーのパスワードを入力します。When prompted enter the private key password you specified earlier. -po パラメーターに指定する値は、.pfx ファイルに関連付けられているパスワードです。The value you specify for the -po parameter is the password that is associated with the .pfx file. コマンドが正常に完了すると、指定した証明書ディレクトリに CertFile.pfx も表示されます。After the command successfully completes, you should also see a CertFile.pfx in the certificate directory you specified.

Azure Active Directory とサービス プリンシパルの作成Create an Azure Active Directory and a service principal

このセクションでは、Azure Active Directory アプリケーションのサービス プリンシパルを作成し、そのサービス プリンシパルにロールを割り当てて、証明書を指定することでサービス プリンシパルとして認証する手順を実行します。In this section, you perform the steps to create a service principal for an Azure Active Directory application, assign a role to the service principal, and authenticate as the service principal by providing a certificate. Azure Active Directory でアプリケーションを作成するには、次のコマンドを実行します。Run the following commands to create an application in Azure Active Directory.

  1. PowerShell コンソール ウィンドウで、次のコマンドレットを貼り付けます。Paste the following cmdlets in the PowerShell console window. -DisplayName プロパティに指定する値は一意になるようにしてください。Make sure the value you specify for the -DisplayName property is unique. また、 -HomePage-IdentiferUris の値はプレースホルダー値であるため、確認されません。Also, the values for -HomePage and -IdentiferUris are placeholder values and are not verified.

     $certificateFilePath = "$certificateFileDir\CertFile.pfx"
    
     $password = Read-Host -Prompt "Enter the password" # This is the password you specified for the .pfx file
    
     $certificatePFX = New-Object System.Security.Cryptography.X509Certificates.X509Certificate2($certificateFilePath, $password)
    
     $rawCertificateData = $certificatePFX.GetRawCertData()
    
     $credential = [System.Convert]::ToBase64String($rawCertificateData)
    
     $application = New-AzADApplication `
         -DisplayName "HDIADL" `
         -HomePage "https://contoso.com" `
         -IdentifierUris "https://mycontoso.com" `
         -CertValue $credential  `
         -StartDate $certificatePFX.NotBefore  `
         -EndDate $certificatePFX.NotAfter
    
     $applicationId = $application.ApplicationId
    
  2. アプリケーション ID を使用してサービス プリンシパルを作成します。Create a service principal using the application ID.

     $servicePrincipal = New-AzADServicePrincipal -ApplicationId $applicationId
    
     $objectId = $servicePrincipal.Id
    
  3. Data Lake Storage Gen1 フォルダーおよび HDInsight クラスターからアクセスするファイルへのアクセス権をサービス プリンシパルに付与します。Grant the service principal access to the Data Lake Storage Gen1 folder and the file that you will access from the HDInsight cluster. 次のスニペットは、Data Lake Storage Gen1 アカウントのルート (サンプル データ ファイルをコピーした場所) およびファイル自体へのアクセスを提供します。The snippet below provides access to the root of the Data Lake Storage Gen1 account (where you copied the sample data file), and the file itself.

     Set-AzDataLakeStoreItemAclEntry -AccountName $dataLakeStorageGen1Name -Path / -AceType User -Id $objectId -Permissions All
     Set-AzDataLakeStoreItemAclEntry -AccountName $dataLakeStorageGen1Name -Path /vehicle1_09142014.csv -AceType User -Id $objectId -Permissions All
    

Data Lake Storage Gen1 を追加のストレージとして使用する HDInsight Linux クラスターを作成するCreate an HDInsight Linux cluster with Data Lake Storage Gen1 as additional storage

ここでは、Data Lake Storage Gen1 を追加のストレージとして使用する HDInsight Hadoop Linux クラスターを作成します。In this section, we create an HDInsight Hadoop Linux cluster with Data Lake Storage Gen1 as additional storage. このリリースでは、HDInsight クラスターと Data Lake Storage Gen1 アカウントは同じ場所にある必要があります。For this release, the HDInsight cluster and Data Lake Storage Gen1 account must be in the same location.

  1. 最初に、サブスクリプションのテナント ID を取得します。Start with retrieving the subscription tenant ID. この情報は後で必要になります。You will need that later.

     $tenantID = (Get-AzContext).Tenant.TenantId
    
  2. このリリースでは、Hadoop クラスターの場合、Data Lake Storage Gen1 はクラスターの追加のストレージとしてのみ使用できます。For this release, for a Hadoop cluster, Data Lake Storage Gen1 can only be used as an additional storage for the cluster. 既定のストレージは、Azure Storage BLOB (WASB) のままです。The default storage will still be the Azure storage blobs (WASB). そのため、クラスターに必要なストレージ アカウントとストレージ コンテナーを最初に作成します。So, we'll first create the storage account and storage containers required for the cluster.

     # Create an Azure storage account
     $location = "East US 2"
     $storageAccountName = "<StorageAccountName>"   # Provide a Storage account name
    
     New-AzStorageAccount -ResourceGroupName $resourceGroupName -StorageAccountName $storageAccountName -Location $location -Type Standard_GRS
    
     # Create an Azure Blob Storage container
     $containerName = "<ContainerName>"              # Provide a container name
     $storageAccountKey = (Get-AzStorageAccountKey -Name $storageAccountName -ResourceGroupName $resourceGroupName)[0].Value
     $destContext = New-AzStorageContext -StorageAccountName $storageAccountName -StorageAccountKey $storageAccountKey
     New-AzStorageContainer -Name $containerName -Context $destContext
    
  3. HDInsight クラスターを作成します。Create the HDInsight cluster. 次のコマンドレットを使用します。Use the following cmdlets.

     # Set these variables
     $clusterName = $containerName                   # As a best practice, have the same name for the cluster and container
     $clusterNodes = <ClusterSizeInNodes>            # The number of nodes in the HDInsight cluster
     $httpCredentials = Get-Credential
     $sshCredentials = Get-Credential
    
     New-AzHDInsightCluster -ClusterName $clusterName -ResourceGroupName $resourceGroupName -HttpCredential $httpCredentials -Location $location -DefaultStorageAccountName "$storageAccountName.blob.core.windows.net" -DefaultStorageAccountKey $storageAccountKey -DefaultStorageContainer $containerName  -ClusterSizeInNodes $clusterNodes -ClusterType Hadoop -Version "3.4" -OSType Linux -SshCredential $sshCredentials -ObjectID $objectId -AadTenantId $tenantID -CertificateFilePath $certificateFilePath -CertificatePassword $password
    

    コマンドレットが正常に完了すると、クラスターの詳細を一覧表示する出力が表示されます。After the cmdlet successfully completes, you should see an output listing the cluster details.

Data Lake Storage Gen1 アカウントを使用する HDInsight クラスターでテスト ジョブを実行するRun test jobs on the HDInsight cluster to use the Data Lake Storage Gen1 account

HDInsight クラスターを構成した後は、クラスターでテスト ジョブを実行し、HDInsight クラスターが Data Lake Storage Gen1 にアクセス可能であるかどうかをテストできます。After you have configured an HDInsight cluster, you can run test jobs on the cluster to test that the HDInsight cluster can access Data Lake Storage Gen1. これを行うには、前に Data Lake Storage Gen1 アカウントにアップロードしたサンプル データを使用してテーブルを作成するサンプル Hive ジョブを実行します。To do so, we will run a sample Hive job that creates a table using the sample data that you uploaded earlier to your Data Lake Storage Gen1 account.

このセクションでは、作成した HDInsight Linux クラスターに SSH でアクセスし、サンプルの Hive クエリを実行します。In this section you will SSH into the HDInsight Linux cluster you created and run the a sample Hive query.

  1. 接続したら、次のコマンドを使用して Hive CLI を起動します。Once connected, start the Hive CLI by using the following command:

     hive
    
  2. CLI を使用して次のステートメントを入力し、サンプル データを使用して Data Lake Storage Gen1 内に vehicles という名前の新しいテーブルを作成します。Using the CLI, enter the following statements to create a new table named vehicles by using the sample data in Data Lake Storage Gen1:

     DROP TABLE vehicles;
     CREATE EXTERNAL TABLE vehicles (str string) LOCATION 'adl://<mydatalakestoragegen1>.azuredatalakestore.net:443/';
     SELECT * FROM vehicles LIMIT 10;
    

    次のような出力が表示されます。You should see an output similar to the following:

     1,1,2014-09-14 00:00:03,46.81006,-92.08174,51,S,1
     1,2,2014-09-14 00:00:06,46.81006,-92.08174,13,NE,1
     1,3,2014-09-14 00:00:09,46.81006,-92.08174,48,NE,1
     1,4,2014-09-14 00:00:12,46.81006,-92.08174,30,W,1
     1,5,2014-09-14 00:00:15,46.81006,-92.08174,47,S,1
     1,6,2014-09-14 00:00:18,46.81006,-92.08174,9,S,1
     1,7,2014-09-14 00:00:21,46.81006,-92.08174,53,N,1
     1,8,2014-09-14 00:00:24,46.81006,-92.08174,63,SW,1
     1,9,2014-09-14 00:00:27,46.81006,-92.08174,4,NE,1
     1,10,2014-09-14 00:00:30,46.81006,-92.08174,31,N,1
    

HDFS コマンドを使用して Data Lake Storage Gen1 にアクセスするAccess Data Lake Storage Gen1 using HDFS commands

Data Lake Storage Gen1 を使用するように HDInsight クラスターを構成したら、HDFS シェル コマンドを使用してストアにアクセスできます。Once you have configured the HDInsight cluster to use Data Lake Storage Gen1, you can use the HDFS shell commands to access the store.

このセクションでは、作成した HDInsight Linux クラスターに SSH でアクセスし、HDFS コマンドを実行します。In this section you will SSH into the HDInsight Linux cluster you created and run the HDFS commands.

接続されたら、次の HDFS ファイルシステム コマンドを使用して、Data Lake Storage Gen1 アカウント内のファイルを一覧表示します。Once connected, use the following HDFS filesystem command to list the files in the Data Lake Storage Gen1 account.

hdfs dfs -ls adl://<Data Lake Storage Gen1 account name>.azuredatalakestore.net:443/

これにより、以前に Data Lake Storage Gen1 にアップロードしたファイルが一覧表示されます。This should list the file that you uploaded earlier to Data Lake Storage Gen1.

15/09/17 21:41:15 INFO web.CaboWebHdfsFileSystem: Replacing original urlConnectionFactory with org.apache.hadoop.hdfs.web.URLConnectionFactory@21a728d6
Found 1 items
-rwxrwxrwx   0 NotSupportYet NotSupportYet     671388 2015-09-16 22:16 adl://mydatalakestoragegen1.azuredatalakestore.net:443/mynewfolder

hdfs dfs -put コマンドを使用して Data Lake Storage Gen1 にいくつかのファイルをアップロードし、hdfs dfs -ls を使用してファイルが正常にアップロードされたかどうかを確認することもできます。You can also use the hdfs dfs -put command to upload some files to Data Lake Storage Gen1, and then use hdfs dfs -ls to verify whether the files were successfully uploaded.

関連項目See Also