Introduzione ad Azure Data Lake Analytics con l'interfaccia della riga di comando di Azure 2.0Get started with Azure Data Lake Analytics using Azure CLI 2.0

In questa esercitazione verrà sviluppato un processo che legge un file con valori delimitati da tabulazioni (TSV) e lo converte in un file con valori delimitati da virgole (CSV).In this tutorial, you develop a job that reads a tab separated values (TSV) file and converts it into a comma-separated values (CSV) file. Per eseguire la stessa esercitazione usando altri strumenti supportati, usare l'elenco a discesa disponibile nella parte superiore di questa sezione.To go through the same tutorial using other supported tools, use the dropdown list on the top of this section.

PrerequisitiPrerequisites

Prima di iniziare questa esercitazione sono necessari gli elementi seguenti:Before you begin this tutorial, you must have the following items:

Accedere ad AzureLog in to Azure

Per accedere alla sottoscrizione di Azure:To log in to your Azure subscription:

azurecli
az login

Viene richiesto di passare a un URL e immettere un codice di autenticazione.You are requested to browse to a URL, and enter an authentication code. Seguire le istruzioni per immettere le credenziali.And then follow the instructions to enter your credentials.

Dopo aver eseguito l'accesso, il comando di accesso elenca le sottoscrizioni.Once you have logged in, the login command lists your subscriptions.

Per usare una sottoscrizione specifica:To use a specific subscription:

az account set --subscription <subscription id>

Creare un account di Analisi Data LakeCreate Data Lake Analytics account

Per poter eseguire un processo è necessario un account Data Lake Analytics.You need a Data Lake Analytics account before you can run any jobs. Per creare un account Data Lake Analytics, specificare quanto segue:To create a Data Lake Analytics account, you must specify the following items:

  • Gruppo di risorse di Azure.Azure Resource Group. L'account Data Lake Analytics deve essere creato all'interno di un gruppo di risorse di Azure.A Data Lake Analytics account must be created within an Azure Resource group. Azure Resource Manager consente di lavorare con le risorse dell'applicazione come gruppo.Azure Resource Manager enables you to work with the resources in your application as a group. È possibile distribuire, aggiornare o eliminare tutte le risorse per l'applicazione mediante un'unica operazione coordinata.You can deploy, update, or delete all of the resources for your application in a single, coordinated operation.

Per elencare i gruppi di risorse esistenti nella sottoscrizione:To list the existing resource groups under your subscription:

az group list

Per creare un nuovo gruppo di risorse:To create a new resource group:

az group create --name "<Resource Group Name>" --location "<Azure Location>"
  • Nome dell'account Data Lake Analytics.Data Lake Analytics account name. Ogni account Data Lake Analytics ha un nome.Each Data Lake Analytics account has a name.
  • Località.Location. Usare uno dei data center di Azure che supporta Data Lake Analytics.Use one of the Azure data centers that supports Data Lake Analytics.
  • Account Data Lake Store predefinito: ogni account Data Lake Analytics ha un account Data Lake Store predefinito.Default Data Lake Store account: Each Data Lake Analytics account has a default Data Lake Store account.

Per elencare l'account Data Lake Store esistente:To list the existing Data Lake Store account:

az dls account list

Per creare un nuovo account Data Lake Store:To create a new Data Lake Store account:

az dls account create --account "<Data Lake Store Account Name>" --resource-group "<Resource Group Name>"

Per creare un account Data Lake Analytics, usare la sintassi seguente:Use the following syntax to create a Data Lake Analytics account:

az dla account create --account "<Data Lake Analytics Account Name>" --resource-group "<Resource Group Name>" --location "<Azure location>" --default-data-lake-store "<Default Data Lake Store Account Name>"

Dopo aver creato un account, è possibile usare i comandi seguenti per elencare gli account e visualizzarne i dettagli:After creating an account, you can use the following commands to list the accounts and show account details:

az dla account list
az dla account show --account "<Data Lake Analytics Account Name>"            

Caricare dati nell’Archivio Data LakeUpload data to Data Lake Store

In questa esercitazione verrà eseguita l'elaborazione di alcuni log di ricerca.In this tutorial, you process some search logs. Il log di ricerca può essere archiviato in Data Lake Store o in un archivio BLOB di Azure.The search log can be stored in either Data Lake store or Azure Blob storage.

Il portale di Azure offre un’interfaccia utente per copiare alcuni file di dati di esempio nell'account Data Lake Store predefinito, tra cui anche un file di log di ricerca.The Azure portal provides a user interface for copying some sample data files to the default Data Lake Store account, which include a search log file. Vedere Preparare i dati di origine per caricare i dati nell'account Archivio Data Lake predefinito.See Prepare source data to upload the data to the default Data Lake Store account.

Per caricare i file usando l'interfaccia della riga di comando 2.0, usare i comandi seguenti:To upload files using CLI 2.0, use the following commands:

az dls fs upload --account "<Data Lake Store Account Name>" --source-path "<Source File Path>" --destination-path "<Destination File Path>"
az dls fs list --account "<Data Lake Store Account Name>" --path "<Path>"

Data Lake Analytics può inoltre accedere all'archivio BLOB di Azure.Data Lake Analytics can also access Azure Blob storage. Per caricare i dati nell'archiviazione BLOB di Azure, vedere Uso dell’interfaccia della riga di comando di Azure con Archiviazione di Azure.For uploading data to Azure Blob storage, see Using the Azure CLI with Azure Storage.

Inviare processi di Data Lake AnalyticsSubmit Data Lake Analytics jobs

I processi di Data Lake Analtyics vengono scritti nel linguaggio U-SQL.The Data Lake Analytics jobs are written in the U-SQL language. Per altre informazioni su U-SQL, vedere Introduzione a U-SQL e U-SQL Language Reference (Informazioni di riferimento sul linguaggio U-SQL).To learn more about U-SQL, see Get started with U-SQL language and U-SQL language eence.

Per creare uno script per il processo di Data Lake AnalyticsTo create a Data Lake Analytics job script

Creare un file di testo contenente il seguente script U-SQL e salvare il file di testo nella workstation in uso:Create a text file with following U-SQL script, and save the text file to your workstation:

@a  = 
    SELECT * FROM 
        (VALUES
            ("Contoso", 1500.0),
            ("Woodgrove", 2700.0)
        ) AS 
              D( customer, amount );
OUTPUT @a
    TO "/data.csv"
    USING Outputters.Csv();

Questo script U-SQL legge il file di dati di origine con Extractors.Tsv() e quindi crea un file CSV con Outputters.Csv().This U-SQL script reads the source data file using Extractors.Tsv(), and then creates a csv file using Outputters.Csv().

Non modificare i due percorsi, a meno che il file di origine non sia stato copiato in una posizione diversa.Don't modify the two paths unless you copy the source file into a different location. Data Lake Analytics creerà la cartella di output, se non esiste già.Data Lake Analytics creates the output folder if it doesn't exist.

Risulta più semplice usare i percorsi relativi dei file archiviati in account Data Lake Store predefiniti, maIt is simpler to use relative paths for files stored in default Data Lake Store accounts. è possibile usare anche percorsi assoluti.You can also use absolute paths. Ad esempio:For example:

adl://<Data LakeStorageAccountName>.azuredatalakestore.net:443/Samples/Data/SearchLog.tsv

È necessario usare percorsi assoluti per accedere ai file presenti negli account di archiviazione collegati.You must use absolute paths to access files in linked Storage accounts. La sintassi dei file presenti in un account di Archiviazione di Azure collegato è:The syntax for files stored in linked Azure Storage account is:

wasb://<BlobContainerName>@<StorageAccountName>.blob.core.windows.net/Samples/Data/SearchLog.tsv

Nota

Il contenitore BLOB di Azure con BLOB pubblici non è supportato.Azure Blob container with public blobs are not supported.
Il contenitore BLOB di Azure con contenitori pubblici non è supportato.Azure Blob container with public containers are not supported.

Per inviare processiTo submit jobs

Per inviare un processo, usare la sintassi seguente:Use the following syntax to submit a job.

az dla job submit --account "<Data Lake Analytics Account Name>" --job-name "<Job Name>" --script "<Script Path and Name>"

Ad esempio:For example:

az dla job submit --account "myadlaaccount" --job-name "myadlajob" --script @"C:\DLA\myscript.txt"

Per elencare i processi e visualizzarne i dettagliTo list jobs and show job details

azurecli
az dla job list --account "<Data Lake Analytics Account Name>"
az dla job show --account "<Data Lake Analytics Account Name>" --job-identity "<Job Id>"

Per annullare processiTo cancel jobs

az dla job cancel --account "<Data Lake Analytics Account Name>" --job-identity "<Job Id>"

Recuperare i risultati di un processoRetrieve job results

Al termine di un processo, è possibile usare i comandi seguenti per elencare i file di output e scaricare i file:After a job is completed, you can use the following commands to list the output files, and download the files:

az dls fs list --account "<Data Lake Store Account Name>" --source-path "/Output" --destination-path "<Destintion>"
az dls fs preview --account "<Data Lake Store Account Name>" --path "/Output/SearchLog-from-Data-Lake.csv"
az dls fs preview --account "<Data Lake Store Account Name>" --path "/Output/SearchLog-from-Data-Lake.csv" --length 128 --offset 0
az dls fs downlod --account "<Data Lake Store Account Name>" --source-path "/Output/SearchLog-from-Data-Lake.csv" --destintion-path "<Destination Path and File Name>"

ad esempio:For example:

az dls fs downlod --account "myadlsaccount" --source-path "/Output/SearchLog-from-Data-Lake.csv" --destintion-path "C:\DLA\myfile.csv"

Pipeline e ricorrenzePipelines and recurrences

Ottenere informazioni su pipeline e ricorrenzeGet information about pipelines and recurrences

Usare i comandi az dla job pipeline per visualizzare le informazioni relative alle pipeline per i processi inviati in precedenza.Use the az dla job pipeline commands to see the pipeline information previously submitted jobs.

az dla job pipeline list --account "<Data Lake Analytics Account Name>"

az dla job pipeline show --account "<Data Lake Analytics Account Name>" --pipeline-identity "<Pipeline ID>"

Usare i comandi az dla job recurrence per visualizzare le informazioni relative alle ricorrenze per i processi inviati in precedenza.Use the az dla job recurrence commands to see the recurrence information for previously submitted jobs.

az dla job recurrence list --account "<Data Lake Analytics Account Name>"

az dla job recurrence show --account "<Data Lake Analytics Account Name>" --recurrence-identity "<Recurrence ID>"

Passaggi successiviNext steps