Začínáme s Azure Data Lake Analytics s využitím rozhraní Azure CLI

Důležité

Nové účty Azure Data Lake Analytics už není možné vytvářet, pokud vaše předplatné není povolené. Pokud potřebujete povolit předplatné, kontaktujte podporu a poskytněte svůj obchodní scénář.

Pokud už používáte Azure Data Lake Analytics, budete muset do 29. února 2024 vytvořit plán migrace pro Azure Synapse Analytics pro vaši organizaci.

Tento článek popisuje, jak pomocí rozhraní příkazového řádku Azure CLI vytvářet účty Azure Data Lake Analytics, odesílat úlohy USQL a katalogy. Tato úloha načte soubor hodnot oddělených tabulátory (TSV) a převede ho na soubor hodnot oddělených čárkami (CSV).

Požadavky

Než začnete, budete potřebovat tyto položky:

Přihlášení k Azure

Přihlášení k předplatnému Azure:

az login

Budete požádáni o přechod na adresu URL a zadání ověřovacího kódu. Pak postupujte podle pokynů k zadání přihlašovacích údajů.

Po přihlášení zobrazí příkaz login seznam vašich předplatných.

Použití konkrétního předplatného:

az account set --subscription <subscription id>

Vytvoření účtu Data Lake Analytics

Je nutné, abyste před spuštěním jakékoli úlohy měli účet Data Lake Analytics. Pokud chcete vytvořit účet Data Lake Analytics, je nutné zadat následující položky:

  • Skupina prostředků Azure. Účet Data Lake Analytics se musí vytvořit v rámci Skupiny prostředků Azure. Azure Resource Manager umožňuje pracovat s prostředky ve vaší aplikaci jako se skupinou. Všechny prostředky pro aplikaci můžete nasadit, aktualizovat nebo odstranit v rámci jediné koordinované operace.

Výpis seznamu stávajících skupin prostředků v rámci vašeho předplatného:

az group list

Pokud chcete vytvořit novou skupinu prostředků:

az group create --name "<Resource Group Name>" --location "<Azure Location>"
  • Data Lake Analytics název účtu. Každý účtu Data Lake Analytics má název.
  • Umístění: Použijte jedno z datových center Azure, které podporuje Data Lake Analytics.
  • Výchozí účet Data Lake Store: Každý účet Data Lake Analytics má výchozí účet Data Lake Store.

Zobrazení seznamu stávajícího účtu Data Lake Store:

az dls account list

Vytvoření nového účtu Data Lake Store:

az dls account create --account "<Data Lake Store Account Name>" --resource-group "<Resource Group Name>"

Pokud chcete vytvořit účet Data Lake Analytics, použijte následující syntaxi:

az dla account create --account "<Data Lake Analytics Account Name>" --resource-group "<Resource Group Name>" --location "<Azure location>" --default-data-lake-store "<Default Data Lake Store Account Name>"

Po vytvoření účtu můžete použít následující příkazy k vypsání seznamu účtů a zobrazení podrobností o účtu:

az dla account list
az dla account show --account "<Data Lake Analytics Account Name>"

Nahrání dat do Data Lake Store

V tomto kurzu zpracujete několik protokolů hledání. Protokol hledání se dá uložit buď do úložiště Data Lake Store, nebo do úložiště objektů Azure Blob.

Azure Portal poskytuje uživatelské rozhraní pro kopírování některých ukázkových datových souborů (včetně souboru protokolu hledání) do výchozího účtu Data Lake Store. Pokud chcete nahrát data do výchozího účtu Data Lake Store, informace najdete v části Příprava zdrojových dat.

K nahrání souborů pomocí Azure CLI použijte následující příkazy:

az dls fs upload --account "<Data Lake Store Account Name>" --source-path "<Source File Path>" --destination-path "<Destination File Path>"
az dls fs list --account "<Data Lake Store Account Name>" --path "<Path>"

Data Lake Analytics má také přístup k úložišti objektů Azure Blob. Pokud chcete nahrát data do úložiště objektů Azure Blob, informace najdete v tématu Použití rozhraní příkazového řádku Azure s Azure Storage.

Odesílání úloh Data Lake Analytics

Úlohy Data Lake Analytics se píšou v jazyce U-SQL. Další informace o U-SQL najdete v tématu Začínáme s jazykem U-SQL a Referenční informace pro jazyk U-SQL.

Postup vytvoření skriptu úlohy Data Lake Analytics

Vytvořte textový soubor s následujícím skriptem U-SQL a uložte ho do pracovní stanice:

@a  =
    SELECT * FROM
        (VALUES
            ("Contoso", 1500.0),
            ("Woodgrove", 2700.0)
        ) AS
              D( customer, amount );
OUTPUT @a
    TO "/data.csv"
    USING Outputters.Csv();

Tento skript U-SQL přečte zdrojový datový soubor pomocí Extractors.Tsv() a potom pomocí Outputters.Csv() vytvoří soubor .csv.

Pokud zdrojový soubor nekopírujete do jiného umístění, tyto dvě cesty neupravujte. Data Lake Analytics vytvoří výstupní složku, pokud neexistuje.

Pro soubory uložené ve výchozích účtech Data Lake Store je jednodušší používat relativní cesty. Můžete také použít absolutní cesty. Příklad:

adl://<Data LakeStorageAccountName>.azuredatalakestore.net:443/Samples/Data/SearchLog.tsv

Pro přístup k souborům v propojených účtech Storage je nutné použít absolutní cesty. V případě souborů uložených v propojeném účtu Azure Storage je syntaxe následující:

wasb://<BlobContainerName>@<StorageAccountName>.blob.core.windows.net/Samples/Data/SearchLog.tsv

Poznámka

Kontejner Azure Blob s veřejnými objekty blob není podporován. Kontejner Azure Blob s veřejnými kontejnery není podporován.

Odesílání úloh

Při odeslání úlohy použijte následující syntaxi.

az dla job submit --account "<Data Lake Analytics Account Name>" --job-name "<Job Name>" --script "<Script Path and Name>"

Příklad:

az dla job submit --account "myadlaaccount" --job-name "myadlajob" --script @"C:\DLA\myscript.txt"

Seznam úloh a zobrazení podrobností o úloze

az dla job list --account "<Data Lake Analytics Account Name>"
az dla job show --account "<Data Lake Analytics Account Name>" --job-identity "<Job Id>"

Zrušení úloh

az dla job cancel --account "<Data Lake Analytics Account Name>" --job-identity "<Job Id>"

Načtení výsledků úlohy

Po dokončení úlohy můžete pomocí následujících příkazů zobrazit výpis výstupních souborů a soubory stáhnout:

az dls fs list --account "<Data Lake Store Account Name>" --source-path "/Output" --destination-path "<Destination>"
az dls fs preview --account "<Data Lake Store Account Name>" --path "/Output/SearchLog-from-Data-Lake.csv"
az dls fs preview --account "<Data Lake Store Account Name>" --path "/Output/SearchLog-from-Data-Lake.csv" --length 128 --offset 0
az dls fs download --account "<Data Lake Store Account Name>" --source-path "/Output/SearchLog-from-Data-Lake.csv" --destination-path "<Destination Path and File Name>"

Příklad:

az dls fs download --account "myadlsaccount" --source-path "/Output/SearchLog-from-Data-Lake.csv" --destination-path "C:\DLA\myfile.csv"

Další kroky