Kom igång med Azure Data Lake Analytics med hjälp av Azure CLI

Den här artikeln beskriver hur du använder kommando rads gränssnittet i Azure CLI för att skapa Azure Data Lake Analytics-konton, skicka USQL-jobb och kataloger. Jobbet läser en fil med tabbavgränsade värden (TVS) och konverterar den till en fil med kommaavgränsade värden (CSV).

Förutsättningar

Innan du börjar behöver du följande:

Logga in på Azure

Logga in på din Azure-prenumeration:

az login

Du behöver öppna en webbadress och ange en autentiseringskod. Därefter kan du följa anvisningarna för att ange dina uppgifter.

När du har loggat in visas dina prenumerationer.

Använda en viss prenumeration:

az account set --subscription <subscription id>

Skapa ett Data Lake Analytics-konto

Du måste ha ett Data Lake Analytics-konto innan du kan köra några jobb. Om du vill skapa ett Data Lake Analytics-konto, måste du ange följande objekt:

  • Azure-resursgrupp. Ett Data Lake Analytics-konto måste skapas i en Azure-resursgrupp. Med Azure Resource Manager kan du arbeta med resurserna i ditt program som en grupp. Du kan distribuera, uppdatera eller ta bort alla resurser i programmet i en enda, samordnad åtgärd.

Listar de befintliga resursgrupperna under din prenumeration:

az group list

Om du vill skapa en ny resursgrupp:

az group create --name "<Resource Group Name>" --location "<Azure Location>"
  • Data Lake Analytics konto namn. Varje Data Lake Analytics-konto har ett namn.
  • Plats. Använd ett av de Azure-datacenter som stöder Data Lake Analytics.
  • Standard data Lake Stores konto: varje data Lake Analytics konto har ett standard data Lake Store-konto.

Om du vill skapa en lista över befintliga Data Lake Store-konton:

az dls account list

Skapa ett nytt Data Lake Store-konto:

az dls account create --account "<Data Lake Store Account Name>" --resource-group "<Resource Group Name>"

Om du vill skapa ett Data Lake Analytics-konto, måste du ange följande syntax:

az dla account create --account "<Data Lake Analytics Account Name>" --resource-group "<Resource Group Name>" --location "<Azure location>" --default-data-lake-store "<Default Data Lake Store Account Name>"

När du har skapat ett konto kan du använda följande kommandon för att visa en lista över konton och visa kontoinformation:

az dla account list
az dla account show --account "<Data Lake Analytics Account Name>"

Ladda upp data till Data Lake Store

I den här självstudien bearbetar du vissa sökloggar. Sökloggen kan lagras i Data Lake Store eller Azure Blob-lagring.

Azure Portal innehåller ett användargränssnitt för att kopiera vissa exempeldatafiler till Data Lake Store-standardkontot, bland annat en sökloggfil. Se Förbereda källdata för att ladda upp data till Data Lake Store-standardkontot.

Använd följande kommandon för att ladda upp filer med Azure CLI:

az dls fs upload --account "<Data Lake Store Account Name>" --source-path "<Source File Path>" --destination-path "<Destination File Path>"
az dls fs list --account "<Data Lake Store Account Name>" --path "<Path>"

Data Lake Analytics kan också använda Azure Blob-lagring. Information om att ladda upp data till Azure Blob-lagring finns i Använda Azure CLI med Azure Storage.

Skicka Data Lake Analytics-jobb

Data Lake Analytics-jobb skrivs på U-SQL-språket. Läs mer om U-SQL i Kom igång med U-SQL-språket och Referens för U-SQL-språket.

Skapa ett Data Lake Analytics-jobbskript

Skapa en textfil med följande U-SQL-skript och spara filen på din arbetsstation:

@a  =
    SELECT * FROM
        (VALUES
            ("Contoso", 1500.0),
            ("Woodgrove", 2700.0)
        ) AS
              D( customer, amount );
OUTPUT @a
    TO "/data.csv"
    USING Outputters.Csv();

U-SQL-skriptet läser källdatafilen med hjälp av Extractors.Tsv() och skapar sedan en CSV-fil med hjälp av Outputters.Csv().

Ändra inte de två sökvägarna om du inte har kopierat filen till en annan plats. Data Lake Analytics skapar utdatamappen om den inte finns.

Det är enklare att använda relativa sökvägar för filer lagrade i Data Lake Store-standardkonton. Du kan också använda absoluta sökvägar. Exempel:

adl://<Data LakeStorageAccountName>.azuredatalakestore.net:443/Samples/Data/SearchLog.tsv

Du måste använda absoluta sökvägar för att få åtkomst till filer i länkade Storage-konton. Syntaxen för filer som lagras i ett länkat Azure Storage-konto är:

wasb://<BlobContainerName>@<StorageAccountName>.blob.core.windows.net/Samples/Data/SearchLog.tsv

Anteckning

Azure Blob-container med offentliga blobar stöds inte. Azure Blob-container med offentliga containrar stöds inte.

Skicka jobb

Använd följande syntax för att skicka ett jobb.

az dla job submit --account "<Data Lake Analytics Account Name>" --job-name "<Job Name>" --script "<Script Path and Name>"

Exempel:

az dla job submit --account "myadlaaccount" --job-name "myadlajob" --script @"C:\DLA\myscript.txt"

Visa en lista över jobb och visa jobbinformation

az dla job list --account "<Data Lake Analytics Account Name>"
az dla job show --account "<Data Lake Analytics Account Name>" --job-identity "<Job Id>"

Avbryta jobb

az dla job cancel --account "<Data Lake Analytics Account Name>" --job-identity "<Job Id>"

Hämta jobbresultat

När jobbet har slutförts kan du använda följande kommandon för att visa och ladda ned filer med utdata:

az dls fs list --account "<Data Lake Store Account Name>" --source-path "/Output" --destination-path "<Destination>"
az dls fs preview --account "<Data Lake Store Account Name>" --path "/Output/SearchLog-from-Data-Lake.csv"
az dls fs preview --account "<Data Lake Store Account Name>" --path "/Output/SearchLog-from-Data-Lake.csv" --length 128 --offset 0
az dls fs download --account "<Data Lake Store Account Name>" --source-path "/Output/SearchLog-from-Data-Lake.csv" --destination-path "<Destination Path and File Name>"

Exempel:

az dls fs download --account "myadlsaccount" --source-path "/Output/SearchLog-from-Data-Lake.csv" --destination-path "C:\DLA\myfile.csv"

Nästa steg