Gestire Azure Data Lake Analytics tramite il portale di AzureManage Azure Data Lake Analytics by using the Azure portal

Informazioni su come gestire gli account, le origini dati degli account, gli utenti e i processi di Azure Data Lake Analytics usando il portale di Azure.Learn how to manage Azure Data Lake Analytics accounts, account data sources, users, and jobs by using the Azure portal. Per visualizzare gli argomenti di gestione sull'uso di altri strumenti, fare clic su una scheda nella parte superiore della pagina.To see management topics about using other tools, click a tab at the top of the page.

Gestire gli account di Data Lake AnalyticsManage Data Lake Analytics accounts

Creare un accountCreate an account

  1. Accedere al portale di Azure.Sign in to the Azure portal.
  2. Fare clic su Nuovo > Intelligence e analisi > Data Lake Analytics.Click New > Intelligence + analytics > Data Lake Analytics.
  3. Selezionare i valori per gli elementi seguenti:Select values for the following items:
    1. Nome: nome dell'account di Data Lake Analytics.Name: The name of the Data Lake Analytics account.
    2. Sottoscrizione: sottoscrizione di Azure usata per l'account.Subscription: The Azure subscription used for the account.
    3. Gruppo di risorse: gruppo di risorse di Azure in cui creare l'account.Resource Group: The Azure resource group in which to create the account.
    4. Posizione: data center di Azure per l'account di Data Lake Analytics.Location: The Azure datacenter for the Data Lake Analytics account.
    5. Data Lake Store: archivio predefinito da usare per l'account di Data Lake Analytics.Data Lake Store: The default store to be used for the Data Lake Analytics account. L'account di Azure Data Lake Store e quello di Data Lake Analytics devono trovarsi nella stessa posizione.The Azure Data Lake Store account and the Data Lake Analytics account must be in the same location.
  4. Fare clic su Crea.Click Create.

Eliminare un account di Data Lake AnalyticsDelete a Data Lake Analytics account

Prima di eliminare un account di Data Lake Analytics, eliminare il relativo account di Data Lake Store predefinito.Before you delete a Data Lake Analytics account, delete its default Data Lake Store account.

  1. Nel portale di Azure accedere all'account di Data Lake Analytics.In the Azure portal, go to your Data Lake Analytics account.
  2. Fare clic su Elimina.Click Delete.
  3. Digitare il nome dell'account.Type the account name.
  4. Fare clic su Elimina.Click Delete.

Gestire le origini datiManage data sources

Data Lake Analytics supporta le origini dati seguenti:Data Lake Analytics supports the following data sources:

  • Data Lake StoreData Lake Store
  • Archiviazione di AzureAzure Storage

Per esplorare le origini dati ed eseguire operazioni di gestione dei file di base è possibile usare Esplora dati.You can use Data Explorer to browse data sources and perform basic file management operations.

Aggiungere un'origine datiAdd a data source

  1. Nel portale di Azure accedere all'account di Data Lake Analytics.In the Azure portal, go to your Data Lake Analytics account.
  2. Fare clic su Origini dati.Click Data Sources.
  3. Fare clic su Aggiungi origine dati.Click Add Data Source.

    • Per aggiungere un account di Data Lake Store, sono necessari il nome dell'account e i diritti di accesso all'account per poter eseguire una query.To add a Data Lake Store account, you need the account name and access to the account to be able to query it.
    • Per aggiungere una risorsa di archiviazione BLOB di Azure, sono necessari l'account di archiviazione e la chiave dell'account.To add Azure Blob storage, you need the storage account and the account key. Per trovarli, passare all'account di archiviazione nel portale.To find them, go to the storage account in the portal.

Configurare le regole del firewallSet up firewall rules

È possibile usare Data Lake Analytics per bloccare ulteriormente l'accesso all'account di Data Lake Analytics a livello di rete.You can use Data Lake Analytics to further lock down access to your Data Lake Analytics account at the network level. È possibile abilitare un firewall, specificare un indirizzo IP o definire un intervallo di indirizzi IP per i client attendibili.You can enable a firewall, specify an IP address, or define an IP address range for your trusted clients. Dopo aver configurato queste regole, solo i client con indirizzo IP compreso nell'intervallo definito potranno connettersi all'archivio.After you enable these measures, only clients that have the IP addresses within the defined range can connect to the store.

Se altri servizi di Azure, come Azure Data Factory o Macchine virtuali, si connettono all'account di Data Lake Analytics, verificare che l'opzione Consenti ai servizi di Azure di accedere al server sia attivata.If other Azure services, like Azure Data Factory or VMs, connect to the Data Lake Analytics account, make sure that Allow Azure Services is turned On.

Configurare una regola del firewallSet up a firewall rule

  1. Nel portale di Azure accedere all'account di Data Lake Analytics.In the Azure portal, go to your Data Lake Analytics account.
  2. Nel menu a sinistra fare clic su Firewall.On the menu on the left, click Firewall.

Aggiungere un nuovo utenteAdd a new user

È possibile usare l'Aggiunta guidata utente per effettuare facilmente il provisioning di nuovi utenti di Data Lake.You can use the Add User Wizard to easily provision new Data Lake users.

  1. Nel portale di Azure accedere all'account di Data Lake Analytics.In the Azure portal, go to your Data Lake Analytics account.
  2. A sinistra, sotto Attività iniziali, fare clic su Aggiunta guidata utente.On the left, under Getting Started, click Add User Wizard.
  3. Selezionare un utente e quindi fare clic su Seleziona.Select a user, and then click Select.
  4. Selezionare un ruolo e quindi fare clic su Seleziona.Select a role, and then click Select. Per configurare un nuovo sviluppatore per Azure Data Lake, selezionare il ruolo Sviluppatore di Data Lake Analytics.To set up a new developer to use Azure Data Lake, select the Data Lake Analytics Developer role.
  5. Selezionare gli elenchi di controllo di accesso (ACL) per i database U-SQL.Select the access control lists (ACLs) for the U-SQL databases. Dopo aver completato le selezioni, fare clic su Seleziona.When you're satisfied with your choices, click Select.
  6. Selezionare gli elenchi ACL per i file.Select the ACLs for files. Per l'archivio predefinito, non modificare gli elenchi ACL per la cartella radice "/" e per la cartella /system.For the default store, don't change the ACLs for the root folder "/" and for the /system folder. Fare clic su Seleziona.Click Select.
  7. Esaminare tutte le modifiche selezionate e quindi fare clic su Esegui.Review all your selected changes, and then click Run.
  8. Al termine della procedura guidata, fare clic su Fine.When the wizard is finished, click Done.

Gestire il controllo degli accessi in base al ruoloManage Role-Based Access Control

Come per altri servizi di Azure, è possibile usare il controllo degli accessi in base al ruolo (RBAC, Role-Based Access Control) per controllare il modo con cui gli utenti interagiscono con il servizio.Like other Azure services, you can use Role-Based Access Control (RBAC) to control how users interact with the service.

I ruoli RBAC standard offrono le funzionalità seguenti:The standard RBAC roles have the following capabilities:

  • Proprietario: può inviare e monitorare i processi, annullarli da qualsiasi utente e configurare l'account.Owner: Can submit jobs, monitor jobs, cancel jobs from any user, and configure the account.
  • Collaboratore: può inviare e monitorare i processi, annullarli da qualsiasi utente e configurare l'account.Contributor: Can submit jobs, monitor jobs, cancel jobs from any user, and configure the account.
  • Lettore: può monitorare i processi.Reader: Can monitor jobs.

Usare il ruolo Sviluppatore di Data Lake Analytics per consentire agli sviluppatori di U-SQL di usare il servizio Data Lake Analytics.Use the Data Lake Analytics Developer role to enable U-SQL developers to use the Data Lake Analytics service. È possibile usare il ruolo Sviluppatore di Data Lake Analytics per eseguire queste operazioni:You can use the Data Lake Analytics Developer role to:

  • Inviare processi.Submit jobs.
  • Monitorare lo stato e l'avanzamento dei processi inviati da qualsiasi utente.Monitor job status and the progress of jobs submitted by any user.
  • Vedere gli script U-SQL relativi ai processi inviati da qualsiasi utente.See the U-SQL scripts from jobs submitted by any user.
  • Annullare solo i processi creati personalmente.Cancel only your own jobs.

Aggiungere utenti o gruppi di sicurezza a un account di Data Lake AnalyticsAdd users or security groups to a Data Lake Analytics account

  1. Nel portale di Azure accedere all'account di Data Lake Analytics.In the Azure portal, go to your Data Lake Analytics account.
  2. Fare clic su Controllo di accesso (IAM) > Aggiungi.Click Access control (IAM) > Add.
  3. Selezionare un ruolo.Select a role.
  4. Aggiungere un utente.Add a user.
  5. Fare clic su OK.Click OK.

Nota

Se un utente o un gruppo di sicurezza vuole inviare processi, deve disporre anche dell'autorizzazione sull'account di archiviazione.If a user or a security group needs to submit jobs, they also need permission on the store account. Per altre informazioni, vedere Protezione dei dati presenti in Data Lake Store.For more information, see Secure data stored in Data Lake Store.

Gestire i processiManage jobs

Inviare un processoSubmit a job

  1. Nel portale di Azure accedere all'account di Data Lake Analytics.In the Azure portal, go to your Data Lake Analytics account.

  2. Fare clic su Nuovo processo.Click New Job. Per ogni processo, configurare quanto segue:For each job, configure:

    1. Nome processo: nome del processo.Job Name: The name of the job.
    2. Priorità: i numeri più bassi hanno maggiore priorità.Priority: Lower numbers have higher priority. Se due processi sono in coda, verrà eseguito per primo quello con la priorità più bassa.If two jobs are queued, the one with lower priority value runs first.
    3. Parallelismo: numero massimo di processi di calcolo da riservare per il processo.Parallelism: The maximum number of compute processes to reserve for this job.
  3. Fare clic su Invia processo.Click Submit Job.

Monitorare i processiMonitor jobs

  1. Nel portale di Azure accedere all'account di Data Lake Analytics.In the Azure portal, go to your Data Lake Analytics account.
  2. Fare clic su Visualizza tutti i processi.Click View All Jobs. Viene visualizzato un elenco di tutti i processi attivi e completati di recente nell'account.A list of all the active and recently finished jobs in the account is shown.
  3. Facoltativamente, fare clic su Filtra per trovare i processi in base ai valori di Intervallo di tempo, Nome processo e Autore.Optionally, click Filter to help you find the jobs by Time Range, Job Name, and Author values.

Monitoraggio dei processi della pipelineMonitoring pipeline jobs

I processi che fanno parte di una pipeline funzionano insieme, in genere in sequenza, per realizzare uno scenario specifico.Jobs that are part of a pipeline work together, usually sequentially, to accomplish a specific scenario. È ad esempio possibile avere una pipeline che esegue la pulizia, estrae, trasforma, e aggrega l'utilizzo per Customer Insights.For example, you can have a pipeline that cleans, extracts, transforms, aggregates usage for customer insights. I processi della pipeline vengono identificati mediante la proprietà "Pipeline" al momento dell'invio del processo.Pipeline jobs are identified using the "Pipeline" property when the job was submitted. Per i processi pianificati usando ADF V2 questa proprietà viene popolata automaticamente.Jobs scheduled using ADF V2 will automatically have this property populated.

Per visualizzare un elenco di processi U-SQL che fanno parte delle pipeline:To view a list of U-SQL jobs that are part of pipelines:

  1. Nel portale di Azure accedere agli account di Data Lake Analytics.In the Azure portal, go to your Data Lake Analytics accounts.
  2. Fare clic su Informazioni dettagliate sul processo.Click Job Insights. Verrà aperta per impostazione predefinita la scheda "Tutti i processi", che mostra un elenco di processi in esecuzione, in coda e terminati.The "All Jobs" tab will be defaulted, showing a list of running, queued, and ended jobs.
  3. Fare clic sulla scheda Processi della pipeline. Verrà visualizzato un elenco di processi della pipeline, con statistiche aggregate per ogni pipeline.Click the Pipeline Jobs tab. A list of pipeline jobs will be shown along with aggregated statistics for each pipeline.

Monitoraggio dei processi ricorrentiMonitoring recurring jobs

Un processo ricorrente è un processo che ha la stessa logica di business, ma usa dati di input diversi ogni volta che viene eseguito.A recurring job is one that has the same business logic but uses different input data every time it runs. Idealmente, i processi ricorrenti devono avere sempre esito positivo e un tempo di esecuzione relativamente stabile. Il monitoraggio di questi comportamenti aiuta ad assicurarsi che il processo sia integro.Ideally, recurring jobs should always succeed, and have relatively stable execution time; monitoring these behaviors will help ensure the job is healthy. I processi ricorrenti vengono identificati mediante la proprietà "Recurrence".Recurring jobs are identified using the "Recurrence" property. Per i processi pianificati usando ADF V2 questa proprietà viene popolata automaticamente.Jobs scheduled using ADF V2 will automatically have this property populated.

Per visualizzare un elenco di processi U-SQL ricorrenti:To view a list of U-SQL jobs that are recurring:

  1. Nel portale di Azure accedere agli account di Data Lake Analytics.In the Azure portal, go to your Data Lake Analytics accounts.
  2. Fare clic su Informazioni dettagliate sul processo.Click Job Insights. Verrà aperta per impostazione predefinita la scheda "Tutti i processi", che mostra un elenco di processi in esecuzione, in coda e terminati.The "All Jobs" tab will be defaulted, showing a list of running, queued, and ended jobs.
  3. Fare clic sulla scheda Processi ricorrenti. Verrà visualizzato un elenco di processi ricorrenti, con statistiche aggregate per ogni processo.Click the Recurring Jobs tab. A list of recurring jobs will be shown along with aggregated statistics for each recurring job.

Gestire i criteriManage policies

Criteri a livello di accountAccount-level policies

Questi criteri si applicano a tutti i processi in un account di Data Lake Analytics.These policies apply to all jobs in a Data Lake Analytics account.

Numero massimo di unità di analisi in un account di Data Lake AnalyticsMaximum number of AUs in a Data Lake Analytics account

Un criterio controlla il numero totale di unità di analisi (AU, Analytics Unit) che possono essere usate dall'account di Data Lake Analytics.A policy controls the total number of Analytics Units (AUs) your Data Lake Analytics account can use. Per impostazione predefinita, il valore è impostato su 250.By default, the value is set to 250. Se ad esempio sono impostate 250 AU, è possibile eseguire un processo a cui sono assegnate 250 AU oppure 10 processi con 25 AU ciascuno.For example, if this value is set to 250 AUs, you can have one job running with 250 AUs assigned to it, or 10 jobs running with 25 AUs each. Gli altri processi inviati vengono inseriti in coda finché i processi in esecuzione non vengono completati.Additional jobs that are submitted are queued until the running jobs are finished. Al termine di questi processi, le AU vengono rese disponibili per consentire l'esecuzione dei processi in coda.When running jobs are finished, AUs are freed up for the queued jobs to run.

Per modificare il numero di AU per l'account di Data Lake Analytics:To change the number of AUs for your Data Lake Analytics account:

  1. Nel portale di Azure accedere all'account di Data Lake Analytics.In the Azure portal, go to your Data Lake Analytics account.
  2. Fare clic su Proprietà.Click Properties.
  3. In Numero massimo di AU spostare il dispositivo di scorrimento per selezionare un valore o immettere il valore nella casella di testo.Under Maximum AUs, move the slider to select a value, or enter the value in the text box.
  4. Fare clic su Salva.Click Save.

Nota

Se è necessario impostare un numero di AU superiore al valore predefinito (250), nel portale fare clic su Guida e supporto per inviare una richiesta di supporto.If you need more than the default (250) AUs, in the portal, click Help+Support to submit a support request. Il numero di AU disponibili nell'account di Data Lake Analytics può essere incrementato.The number of AUs available in your Data Lake Analytics account can be increased.

Numero massimo di processi che possono essere eseguiti contemporaneamenteMaximum number of jobs that can run simultaneously

Un criterio controlla il numero di processi che possono essere eseguiti contemporaneamente.A policy controls how many jobs can run at the same time. Per impostazione predefinita, questo valore è impostato su 20.By default, this value is set to 20. Se in Data Lake Analytics sono presenti AU disponibili, viene pianificata l'esecuzione di nuovi processi finché il numero totale dei processi in esecuzione non raggiunge il valore di questo criterio.If your Data Lake Analytics has AUs available, new jobs are scheduled to run immediately until the total number of running jobs reaches the value of this policy. Quando si raggiunge il numero massimo di processi che possono essere eseguiti contemporaneamente, i processi successivi vengono inseriti in coda, in ordine di priorità, finché uno o più processi non vengono completati (a seconda della disponibilità di AU).When you reach the maximum number of jobs that can run simultaneously, subsequent jobs are queued in priority order until one or more running jobs complete (depending on AU availability).

Per modificare il numero di processi che possono essere eseguiti contemporaneamente:To change the number of jobs that can run simultaneously:

  1. Nel portale di Azure accedere all'account di Data Lake Analytics.In the Azure portal, go to your Data Lake Analytics account.
  2. Fare clic su Proprietà.Click Properties.
  3. In Numero massimo di processi in esecuzione spostare il dispositivo di scorrimento per selezionare un valore o immettere il valore nella casella di testo.Under Maximum Number of Running Jobs, move the slider to select a value, or enter the value in the text box.
  4. Fare clic su Salva.Click Save.

Nota

Se è necessario eseguire un numero di processi superiore al valore predefinito (20), nel portale fare clic su Guida e supporto per inviare una richiesta di supporto.If you need to run more than the default (20) number of jobs, in the portal, click Help+Support to submit a support request. Il numero di processi che possono essere eseguiti contemporaneamente nell'account di Data Lake Analytics può essere incrementato.The number of jobs that can run simultaneously in your Data Lake Analytics account can be increased.

Per quanto tempo mantenere le risorse e i metadati dei processiHow long to keep job metadata and resources

Quando gli utenti eseguono processi U-SQL, il servizio Data Lake Analytics mantiene tutti i file correlati,When your users run U-SQL jobs, the Data Lake Analytics service retains all related files. ovvero lo script U-SQL, i file DLL a cui viene fatto riferimento nello script U-SQL, le risorse compilate e le statistiche.Related files include the U-SQL script, the DLL files referenced in the U-SQL script, compiled resources, and statistics. I file si trovano nella cartella /system/ dell'account di Azure Data Lake Store.The files are in the /system/ folder of the default Azure Data Lake Storage account. Questo criterio controlla per quanto tempo le risorse rimangono archiviate prima di essere eliminate automaticamente. Il valore predefinito è 30 giorni.This policy controls how long these resources are stored before they are automatically deleted (the default is 30 days). È possibile usare questi file per il debug e per ottimizzare le prestazioni dei processi che si eseguiranno nuovamente in futuro.You can use these files for debugging, and for performance-tuning of jobs that you'll rerun in the future.

Per modificare il tempo di archiviazione delle risorse e dei metadati dei processi:To change how long to keep job metadata and resources:

  1. Nel portale di Azure accedere all'account di Data Lake Analytics.In the Azure portal, go to your Data Lake Analytics account.
  2. Fare clic su Proprietà.Click Properties.
  3. In Giorni di conservazione delle query del processo spostare il dispositivo di scorrimento per selezionare un valore o immettere il valore nella casella di testo.Under Days to Retain Job Queries, move the slider to select a value, or enter the value in the text box.
  4. Fare clic su Salva.Click Save.

Criteri a livello di processoJob-level policies

Con i criteri a livello di processo è possibile controllare il numero massimo di AU e la massima priorità che i singoli utenti (o i membri di specifici gruppi di sicurezza) possono impostare per i processi che inviano.With job-level policies, you can control the maximum AUs and the maximum priority that individual users (or members of specific security groups) can set on jobs that they submit. Ciò consente di controllare i costi sostenuti dagli utentiThis lets you control the costs incurred by users. e l'effetto che i processi pianificati possono avere sui processi di produzione ad alta priorità in esecuzione nello stesso account di Data Lake Analytics.It also lets you control the effect that scheduled jobs might have on high-priority production jobs that are running in the same Data Lake Analytics account.

In Data Lake Analytics è possibile impostare due criteri a livello di processo:Data Lake Analytics has two policies that you can set at the job level:

  • AU limit per job (Limite AU per processo): gli utenti possono inviare solo processi che hanno al massimo il numero di AU specificato.AU limit per job: Users can only submit jobs that have up to this number of AUs. Per impostazione predefinita, questo limite corrisponde a quello definito per l'account.By default, this limit is the same as the maximum AU limit for the account.
  • Priorità: gli utenti possono inviare solo processi che hanno una priorità inferiore o uguale a questo valore.Priority: Users can only submit jobs that have a priority lower than or equal to this value. Si noti che un numero più alto indica una priorità più bassa.Note that a higher number means a lower priority. Per impostazione predefinita, questo valore è impostato su 1, che corrisponde alla massima priorità possibile.By default, this is set to 1, which is the highest possible priority.

Per ogni account è impostato un criterio predefinitoThere is a default policy set on every account. che si applica a tutti gli utenti dell'account.The default policy applies to all users of the account. È possibile impostare altri criteri per utenti e gruppi specifici.You can set additional policies for specific users and groups.

Nota

I criteri a livello di account e quelli a livello di processo vengono applicati contemporaneamente.Account-level policies and job-level policies apply simultaneously.

Aggiungere un criterio per un utente o un gruppo specificoAdd a policy for a specific user or group

  1. Nel portale di Azure accedere all'account di Data Lake Analytics.In the Azure portal, go to your Data Lake Analytics account.
  2. Fare clic su Proprietà.Click Properties.
  3. In Limiti di invio del processo fare clic sul pulsante Aggiungi criterio.Under Job Submission Limits, click the Add Policy button. Selezionare o immettere le impostazioni seguenti:Then, select or enter the following settings:

    1. Nome criteri di calcolo: immettere un nome di criterio in modo da identificarne la finalità.Compute Policy Name: Enter a policy name, to remind you of the purpose of the policy.
    2. Selezionare l'utente o il gruppo: selezionare l'utente o il gruppo a cui si applica questo criterio.Select User or Group: Select the user or group this policy applies to.
    3. Impostare il limite AU del processo: impostare il limite di AU che si applica all'utente o al gruppo selezionato.Set the Job AU Limit: Set the AU limit that applies to the selected user or group.
    4. Impostare il limite di priorità del processo: impostare il limite di priorità che si applica all'utente o al gruppo selezionato.Set the Priority Limit: Set the priority limit that applies to the selected user or group.
  4. Fare clic su OK.Click Ok.

  5. Il nuovo criterio viene elencato nella tabella dei criteri Impostazioni predefinite in Limiti di invio del processo.The new policy is listed in the Default policy table, under Job Submission Limits.

Eliminare o modificare un criterio esistenteDelete or edit an existing policy

  1. Nel portale di Azure accedere all'account di Data Lake Analytics.In the Azure portal, go to your Data Lake Analytics account.
  2. Fare clic su Proprietà.Click Properties.
  3. In Limiti di invio del processo trovare il criterio da modificare.Under Job Submission Limits, find the policy you want to edit.
  4. Per visualizzare le opzioni Elimina e Modifica, nella colonna all'estremità destra della tabella fare clic su ....To see the Delete and Edit options, in the rightmost column of the table, click ....

Risorse aggiuntive per i criteri dei processiAdditional resources for job policies

Passaggi successiviNext steps