Output di Archivio Data Lake per Analisi di flusso

I processi di Analisi di flusso supportano numerosi metodi di output, tra cui Archivio Data Lake di Azure. Azure Data Lake Store è un repository su vasta scala a livello aziendale per carichi di lavoro di analisi di Big Data. Archivio Data Lake consente di archiviare dati di qualsiasi dimensione, tipo e velocità di inserimento per le analisi esplorative e operative.

Autorizzare un account Archivio Data Lake

  1. Quando si seleziona Data Lake Store come output nel portale di Azure, verrà richiesto di autorizzare l'uso del Data Lake Store esistente o di richiedere l'accesso a Data Lake Store tramite il portale di Azure classico.

  2. Se si ha già accesso a Data Lake Store, fare clic su "Autorizza ora". Per un breve tempo viene visualizzata una pagina con il messaggio "Reindirizzamento all'autorizzazione in corso". La pagina si chiude automaticamente e verrà visualizzata la pagina che consente di configurare l'output di Archivio Data Lake.

Se non si è iscritti a Data Lake Store, è possibile selezionare il collegamento "Iscriversi adesso" per avviare la richiesta, oppure seguire le istruzioni introduttive.

Configurare le proprietà dell'output di Archivio Data Lake

Dopo aver autenticato l'account, è possibile configurare le proprietà per l'output di Archivio Data Lake. La tabella seguente elenca i nomi di proprietà e le relative descrizioni per configurare l'output di Archivio Data Lake.

NOME PROPRIETÀ DESCRIZIONE
Alias di output È un nome descrittivo usato nelle query per indirizzare l'output delle query ad Archivio Data Lake in uso.
Account di Archivio Data Lake Nome dell'account di archiviazione a cui si sta inviando l'output. Verrà visualizzato un elenco di account Data Lake Store a cui l'utente connesso può accedere.
Schema prefisso percorso [facoltativo] Percorso del file usato per scrivere i file nell'account di Archivio Data Lake specificato.
{date}, {time}
Esempio 1: folder1/logs/{date}/{time}
Esempio 2: folder1/logs/{date}
Formato data [facoltativo] Se nel percorso di prefisso viene usato il token di data, è possibile selezionare il formato della data in cui sono organizzati i file. Esempio: AAAA/MM/GG
Formato ora [facoltativo] Se nel percorso di prefisso viene usato il token dell'ora, specificare il formato dell'ora in cui sono organizzati i file. Al momento, l'unico valore supportato è HH.
Formato di serializzazione eventi Formato di serializzazione per i dati di output. Sono supportati i formati JSON, CSV e Avro.
Codifica Se il formato è CSV o JSON, è necessario specificare un formato di codifica. Al momento UTF-8 è l'unico formato di codifica supportato.
Delimitatore Applicabile solo per la serializzazione CSV. Analisi di flusso supporta una serie di delimitatori comuni per la serializzazione dei dati CSV. I valori supportati sono virgola, punto e virgola, spazio, tabulazione e barra verticale.
Format Applicabile solo per la serializzazione JSON. Separato da righe specifica che l'output verrà formattato separando ciascun oggetto JSON con una nuova riga. Array specifica che l'output verrà formattato come array di oggetti JSON.

Rinnovare l'autorizzazione per Archivio Data Lake

Attualmente esiste una limitazione secondo cui il token di autenticazione deve essere aggiornato manualmente ogni 90 giorni per tutti i processi con output di Archivio Data Lake. È necessario anche autenticare nuovamente l'account di Archivio Data Lake se la password è stata modificata dopo la creazione del processo o dopo l'ultima autenticazione. Un sintomo di questo problema è la mancanza di output del processo e un errore nei log delle operazioni che indicano la necessità di una nuova autorizzazione.

Per risolvere questo problema, arrestare il processo in esecuzione e passare all'output di Archivio Data Lake. Fare clic sul collegamento "Rinnova autorizzazione" e per un istante viene visualizzata una pagina che indica "Reindirizzamento all'autorizzazione..." La pagina verrà chiusa automaticamente e, in caso di esito positivo, verrà indicato "Autorizzazione rinnovata". È quindi necessario fare clic su "Salva" nella parte inferiore della pagina e, per continuare, riavviare il processo dall'ora dell'ultimo arresto per evitare la perdita di dati.