Output di Analisi di flusso: opzioni per archiviazione, analisiStream Analytics outputs: Options for storage, analysis

Quando si crea un processo di Analisi di flusso, una considerazione da fare riguarda l'uso dei dati risultanti.When authoring a Stream Analytics job, consider how the resulting data will be consumed. Come si visualizzeranno i risultati del processo di Analisi di flusso e dove saranno archiviati?How will you view the results of the Stream Analytics job and where will you store it?

Per poter abilitare un'ampia gamma di modelli dell'applicazione, Analisi di flusso di Azure offre metodi diversi per archiviare l'output e visualizzare i risultati dell'analisi.In order to enable a variety of application patterns, Azure Stream Analytics has different options for storing output and viewing analysis results. In questo modo è possibile sia visualizzare facilmente l'output del processo che ottenere flessibilità nell'uso e nell'archiviazione dell'output del processo per il data warehouse e altri scopi.This makes it easy to view job output and gives you flexibility in the consumption and storage of the job output for data warehousing and other purposes. Qualsiasi elemento output configurato nel processo deve esistere prima che il processo venga avviato e gli eventi avviino il flusso.Any output configured in the job must exist before the job is started and events start flowing. Ad esempio, se si utilizza l'archiviazione Blob come output, il processo non creerà un account di archiviazione automaticamente.For example, if you use Blob storage as an output, the job will not create a storage account automatically. Deve essere creato dall'utente prima che venga avviato il processo ASA.It needs to be created by the user before the ASA job is started.

Archivio Azure Data LakeAzure Data Lake Store

Analisi di flusso supporta Archivio Data Lake di Azure.Stream Analytics supports Azure Data Lake Store. Questa archiviazione consente di archiviare dati di qualsiasi dimensione, tipo e velocità di inserimento per le analisi esplorative e operative.This storage enables you to store data of any size, type and ingestion speed for operational and exploratory analytics. Inoltre, Analisi di flusso deve essere autorizzato ad accedere ad Archivio Data Lake.Further, Stream Analytics needs to be authorized to access the Data Lake Store. I dettagli sull'autorizzazione e su come iscriversi per Data Lake Store (se necessario) sono forniti nell'articolo relativo agli output di Data Lake.Details on authorization and how to sign up for the Data Lake Store (if needed) are discussed in the Data Lake output article.

Autorizzare un Archivio Azure Data LakeAuthorize an Azure Data Lake Store

Se nel portale di Azure è selezionato Data Lake Store come output, viene richiesto di autorizzare una connessione a un Data Lake Store esistente.When Data Lake Storage is selected as an output in the Azure portal, you will be prompted to authorize a connection to an existing Data Lake Store.

Autorizzare Archivio Data Lake

Compilare quindi le proprietà per l'output di Archivio Data Lake come illustrato di seguito:Then fill out the properties for the Data Lake Store output as seen below:

Autorizzare Archivio Data Lake

La tabella seguente elenca i nomi delle proprietà e la relativa descrizione necessari per la creazione di un output di Archivio Data Lake.The table below lists the property names and their description needed for creating a Data Lake Store output.

NOME PROPRIETÀPROPERTY NAME DESCRIZIONEDESCRIPTION
Alias di outputOutput Alias È un nome descrittivo usato nelle query per indirizzare l'output delle query ad Archivio Data Lake in uso.This is a friendly name used in queries to direct the query output to this Data Lake Store.
Nome accountAccount Name Nome dell'account di archiviazione Data Lake a cui si sta inviando l'output.The name of the Data Lake Storage account where you are sending your output. Verrà visualizzato un elenco a discesa degli account di Archivio Data Lake ai quali ha accesso l'utente connesso al portale.You will be presented with a drop down list of Data Lake Store accounts to which the user logged in to the portal has access to.
Schema prefisso percorsoPath Prefix Pattern La denominazione dei file seguirà questa convenzione:File naming will follow the following convention:
{Schema prefisso percorso}/schemaHashcode_Guid_Number.extension{Path Prefix Pattern}/schemaHashcode_Guid_Number.extension

File di output di esempio:Example output files:
Myoutput/20170901/00/45434_gguid_1.csvMyoutput/20170901/00/45434_gguid_1.csv
Myoutput/20170901/01/45434_gguid_1.csvMyoutput/20170901/01/45434_gguid_1.csv

Inoltre, in queste situazioni viene creato un nuovo file:Also, here are the situations, where a new file is created:
1. Modifica allo schema di output1. Change in output schema
2. Riavvio interno o esterno di un processo2. External or Internal restart of a job

Inoltre, se il modello di percorso del file non contiene un "/" finale, l'ultimo modello nel percorso del file verrà considerato come un prefisso del nome file.Additionally, if the file path pattern does not contain a trailing “/”, the last pattern in the file path will be treated as a filename prefix.

Esempio:Example:
Per il modello di percorso folder1/logs/HH, il file generato sarà simile a questo: folder1/logs/02_134343_gguid_1.csvFor the path pattern: folder1/logs/HH, the generated file may look like: folder1/logs/02_134343_gguid_1.csv
Formato data [facoltativo]Date Format [optional] Se nel percorso di prefisso viene usato il token di data, è possibile selezionare il formato della data in cui sono organizzati i file.If the date token is used in the prefix path, you can select the date format in which your files are organized. Esempio: AAAA/MM/GGExample: YYYY/MM/DD
Formato ora [facoltativo]Time Format [optional] Se nel percorso di prefisso viene usato il token dell'ora, specificare il formato dell'ora in cui sono organizzati i file.If the time token is used in the prefix path, specify the time format in which your files are organized. Al momento, l'unico valore supportato è HH.Currently the only supported value is HH.
Formato di serializzazione eventiEvent Serialization Format Formato di serializzazione per i dati di output.Serialization format for output data. Sono supportati i formati JSON, CSV e Avro.JSON, CSV, and Avro are supported.
CodificaEncoding Se il formato è CSV o JSON, è necessario specificare un formato di codifica.If CSV or JSON format, an encoding must be specified. Al momento UTF-8 è l'unico formato di codifica supportato.UTF-8 is the only supported encoding format at this time.
DelimitatoreDelimiter Applicabile solo per la serializzazione CSV.Only applicable for CSV serialization. Analisi di flusso supporta una serie di delimitatori comuni per la serializzazione dei dati CSV.Stream Analytics supports a number of common delimiters for serializing CSV data. I valori supportati sono virgola, punto e virgola, spazio, tabulazione e barra verticale.Supported values are comma, semicolon, space, tab and vertical bar.
FormatFormat Applicabile solo per la serializzazione JSON.Only applicable for JSON serialization. Separato da righe specifica che l'output verrà formattato separando ciascun oggetto JSON con una nuova riga.Line separated specifies that the output will be formatted by having each JSON object separated by a new line. Array specifica che l'output verrà formattato come array di oggetti JSON.Array specifies that the output will be formatted as an array of JSON objects. Questa matrice verrà chiusa solo quando il processo viene arrestato o Analisi di flusso di Azure passa all'intervallo di tempo successivo.This array will be closed only when the job stops or Stream Analytics has moved on to the next time window. In generale, è preferibile usare JSON separato da righe, perché non richiede alcuna gestione speciale durante la scrittura del file di output.In general, it is preferable to use line separated JSON, since it doesn't require any special handling while the output file is still being written to.

Rinnovare l'autorizzazione per Archivio Data LakeRenew Data Lake Store Authorization

Se la password dell'account di Archivio Data Lake è stata modificata dopo la creazione o l'ultima autenticazione del processo, sarà necessario autenticare nuovamente l'account.You will need to re-authenticate your Data Lake Store account if its password has changed since your job was created or last authenticated.

Autorizzare Archivio Data Lake

Database SQLSQL Database

database SQL di Azure può essere usato come output per i dati di natura relazionale o per applicazioni che dipendono dal contesto ospitato in un database relazionale.Azure SQL Database can be used as an output for data that is relational in nature or for applications that depend on content being hosted in a relational database. I processi di Analisi di flusso eseguiranno la scrittura in una tabella esistente di un database SQL di Azure.Stream Analytics jobs will write to an existing table in an Azure SQL Database. Si noti che lo schema della tabella deve corrispondere esattamente ai campi e ai relativi tipi generati dal processo.Note that the table schema must exactly match the fields and their types being output from your job. Un Azure SQL Data Warehouse può anche essere specificato come output tramite l'opzione di output del database SQL (si tratta di una funzionalità di anteprima).An Azure SQL Data Warehouse can also be specified as an output via the SQL Database output option as well (this is a preview feature). La tabella seguente elenca i nomi delle proprietà e la relativa descrizione per la creazione di un database SQL di output.The table below lists the property names and their description for creating a SQL Database output.

Nome proprietàProperty Name DescrizioneDescription
Alias di outputOutput Alias È un nome descrittivo usato nelle query per indirizzare l'output delle query a questo database.This is a friendly name used in queries to direct the query output to this database.
DatabaseDatabase Nome del database a cui si sta inviando l'outputThe name of the database where you are sending your output
Server NameServer Name Nome server del database SQL di AzureThe SQL Database server name
Nome utenteUsername Nome utente che ha accesso in scrittura al databaseThe Username which has access to write to the database
PasswordPassword Password per connettersi al databaseThe password to connect to the database
TableTable Nome della tabella in cui verrà scritto l'output.The table name where the output will be written. Il nome della tabella fa distinzione tra maiuscole e minuscole e lo schema della tabella deve corrispondere esattamente al numero di campi e ai relativi tipi generati dall'output del processo.The table name is case sensitive and the schema of this table should match exactly to the number of fields and their types being generated by your job output.

Nota

Attualmente l'offerta relativa al database SQL di Azure è supportata per un output di processi in Analisi di flusso.Currently the Azure SQL Database offering is supported for a job output in Stream Analytics. Non è tuttavia supportata una macchina virtuale di Azure che esegue SQL Server con un database collegato.However, an Azure Virtual Machine running SQL Server with a database attached is not supported. Questo comportamento sarà soggetto a modifiche nelle versioni future.This is subject to change in future releases.

Archiviazione BLOBBlob storage

L'archiviazione BLOB offre una soluzione conveniente e scalabile per archiviare grandi quantità di dati non strutturati nel cloud.Blob storage offers a cost-effective and scalable solution for storing large amounts of unstructured data in the cloud. Per un'introduzione all'archivio BLOB di Azure e al relativo utilizzo, vedere la documentazione in Come usare i BLOB.For an introduction on Azure Blob storage and its usage, see the documentation at How to use Blobs.

La tabella seguente elenca i nomi delle proprietà e la relativa descrizione per la creazione di un output del BLOB.The table below lists the property names and their description for creating a blob output.

Nome proprietàPROPERTY NAME DescrizioneDESCRIPTION
Alias di outputOutput Alias È un nome descrittivo usato nelle query per indirizzare l'output delle query a questa archiviazione BLOB.This is a friendly name used in queries to direct the query output to this blob storage.
Account di archiviazioneStorage Account Nome dell'account di archiviazione a cui si sta inviando l'output.The name of the storage account where you are sending your output.
Chiave dell'account di archiviazioneStorage Account Key Chiave privata associata all'account di archiviazione.The secret key associated with the storage account.
Contenitore di archiviazioneStorage Container I contenitori forniscono un raggruppamento logico per gli oggetti BLOB archiviati nel servizio BLOB di Microsoft Azure.Containers provide a logical grouping for blobs stored in the Microsoft Azure Blob service. Quando si carica un oggetto BLOB nel servizio BLOB, è necessario specificare un contenitore per il BLOB.When you upload a blob to the Blob service, you must specify a container for that blob.
Schema prefisso percorso [facoltativo]Path Prefix Pattern [optional] Il modello di percorso del file usato per scrivere i BLOB nel contenitore specificato.The file path pattern used to write your blobs within the specified container.
Nel modello del percorso è possibile scegliere di usare una o più istanze delle 2 variabili seguenti per specificare la frequenza di scrittura dei BLOB:In the path pattern, you may choose to use one or more instances of the following 2 variables to specify the frequency that blobs are written:
{date}, {time}{date}, {time}
Esempio 1: cluster1/logs/{date}/{time}Example 1: cluster1/logs/{date}/{time}
Esempio 2: cluster1/logs/{date}Example 2: cluster1/logs/{date}

La denominazione dei file seguirà questa convenzione:File naming will follow the following convention:
{Schema prefisso percorso}/schemaHashcode_Guid_Number.extension{Path Prefix Pattern}/schemaHashcode_Guid_Number.extension

File di output di esempio:Example output files:
Myoutput/20170901/00/45434_gguid_1.csvMyoutput/20170901/00/45434_gguid_1.csv
Myoutput/20170901/01/45434_gguid_1.csvMyoutput/20170901/01/45434_gguid_1.csv

Inoltre, in queste situazioni viene creato un nuovo file:Also, here are the situations, where a new file is created:
1. Il file corrente supera il numero massimo consentito di blocchi (attualmente 50.000)1. Current file exceeds the maximum permissible number of blocks (currently 50,000)
2. Modifica allo schema di output2. Change in output schema
3. Riavvio interno o esterno di un processo3. External or internal restart of a job
Formato data [facoltativo]Date Format [optional] Se nel percorso di prefisso viene usato il token di data, è possibile selezionare il formato della data in cui sono organizzati i file.If the date token is used in the prefix path, you can select the date format in which your files are organized. Esempio: AAAA/MM/GGExample: YYYY/MM/DD
Formato ora [facoltativo]Time Format [optional] Se nel percorso di prefisso viene usato il token dell'ora, specificare il formato dell'ora in cui sono organizzati i file.If the time token is used in the prefix path, specify the time format in which your files are organized. Al momento, l'unico valore supportato è HH.Currently the only supported value is HH.
Formato di serializzazione eventiEvent Serialization Format Formato di serializzazione per i dati di output.Serialization format for output data. Sono supportati i formati JSON, CSV e Avro.JSON, CSV, and Avro are supported.
CodificaEncoding Se il formato è CSV o JSON, è necessario specificare un formato di codifica.If CSV or JSON format, an encoding must be specified. Al momento UTF-8 è l'unico formato di codifica supportato.UTF-8 is the only supported encoding format at this time.
DelimitatoreDelimiter Applicabile solo per la serializzazione CSV.Only applicable for CSV serialization. Analisi di flusso supporta una serie di delimitatori comuni per la serializzazione dei dati CSV.Stream Analytics supports a number of common delimiters for serializing CSV data. I valori supportati sono virgola, punto e virgola, spazio, tabulazione e barra verticale.Supported values are comma, semicolon, space, tab and vertical bar.
FormatFormat Applicabile solo per la serializzazione JSON.Only applicable for JSON serialization. Separato da righe specifica che l'output verrà formattato separando ciascun oggetto JSON con una nuova riga.Line separated specifies that the output will be formatted by having each JSON object separated by a new line. Array specifica che l'output verrà formattato come array di oggetti JSON.Array specifies that the output will be formatted as an array of JSON objects. Questa matrice verrà chiusa solo quando il processo viene arrestato o Analisi di flusso di Azure passa all'intervallo di tempo successivo.This array will be closed only when the job stops or Stream Analytics has moved on to the next time window. In generale, è preferibile usare JSON separato da righe, perché non richiede alcuna gestione speciale durante la scrittura del file di output.In general, it is preferable to use line separated JSON, since it doesn't require any special handling while the output file is still being written to.

Hub eventiEvent Hub

Hub eventi è un ingestor di eventi di pubblicazione-sottoscrizione altamente scalabile.Event Hubs is a highly scalable publish-subscribe event ingestor. Può raccogliere milioni di eventi al secondo.It can collect millions of events per second. Un uso di un hub eventi come output si verifica quando l'output di un processo di analisi di flusso rappresenta l'input di un altro processo di flusso.One use of an Event Hub as output is when the output of a Stream Analytics job will be the input of another streaming job.

Per configurare i flussi dei dati dell'hub eventi, sono necessari alcuni parametri come output.There are a few parameters that are needed to configure Event Hub data streams as an output.

Nome proprietàProperty Name DescrizioneDescription
Alias di outputOutput Alias È un nome descrittivo usato nelle query per indirizzare l'output delle query a questo hub eventi.This is a friendly name used in queries to direct the query output to this Event Hub.
Spazio dei nomi del bus di servizioService Bus Namespace Uno spazio dei nomi Service Bus è un contenitore per un set di entità di messaggistica.A Service Bus namespace is a container for a set of messaging entities. Quando si crea un nuovo hub eventi, viene anche creato uno spazio dei nomi del bus di servizioWhen you created a new Event Hub, you also created a Service Bus namespace
Hub eventiEvent Hub Nome dell'output dell'hub eventiThe name of your Event Hub output
Nome criterio hub eventiEvent Hub Policy Name Criteri di accesso condiviso che possono essere creati nella scheda Configura dell'hub eventi. Ogni criterio di accesso condiviso ha un nome, autorizzazioni impostate e tasti di sceltaThe shared access policy, which can be created on the Event Hub Configure tab. Each shared access policy will have a name, permissions that you set, and access keys
Chiave criterio hub eventiEvent Hub Policy Key Chiave di accesso condivisa usata per autenticare l'accesso allo spazio dei nomi del bus di servizioThe Shared Access key used to authenticate access to the Service Bus namespace
Colonna chiave di partizione [facoltativo]Partition Key Column [optional] Questa colonna contiene la chiave di partizione per l'output dell'Hub eventi.This column contains the partition key for Event Hub output.
Formato di serializzazione eventiEvent Serialization Format Formato di serializzazione per i dati di output.Serialization format for output data. Sono supportati i formati JSON, CSV e Avro.JSON, CSV, and Avro are supported.
CodificaEncoding Al momento UTF-8 è l'unico formato di codifica supportato per i formati CSV e JSONFor CSV and JSON, UTF-8 is the only supported encoding format at this time
DelimitatoreDelimiter Applicabile solo per la serializzazione CSV.Only applicable for CSV serialization. Analisi di flusso supporta una serie di delimitatori comuni per la serializzazione dei dati in formato CSV.Stream Analytics supports a number of common delimiters for serializing data in CSV format. I valori supportati sono virgola, punto e virgola, spazio, tabulazione e barra verticale.Supported values are comma, semicolon, space, tab and vertical bar.
FormatFormat Applicabile solo per la serializzazione JSON.Only applicable for JSON serialization. Separato da righe specifica che l'output verrà formattato separando ciascun oggetto JSON con una nuova riga.Line separated specifies that the output will be formatted by having each JSON object separated by a new line. Array specifica che l'output verrà formattato come array di oggetti JSON.Array specifies that the output will be formatted as an array of JSON objects. Questa matrice verrà chiusa solo quando il processo viene arrestato o Analisi di flusso di Azure passa all'intervallo di tempo successivo.This array will be closed only when the job stops or Stream Analytics has moved on to the next time window. In generale, è preferibile usare JSON separato da righe, perché non richiede alcuna gestione speciale durante la scrittura del file di output.In general, it is preferable to use line separated JSON, since it doesn't require any special handling while the output file is still being written to.

Power BIPower BI

Power BI può essere usato come output per un processo di Analisi di flusso per offrire un'esperienza di visualizzazione avanzata dei risultati di analisi.Power BI can be used as an output for a Stream Analytics job to provide for a rich visualization experience of analysis results. Questa funzionalità può essere usata per i dashboard operativi, la generazione di report e la creazione di report basati sulle metriche.This capability can be used for operational dashboards, report generation and metric driven reporting.

Autorizzare un account Power BIAuthorize a Power BI account

  1. Se nel portale di Azure è selezionato Power BI come output, verrà richiesto di autorizzare un utente Power BI esistente oppure di creare un nuovo account Power BI.When Power BI is selected as an output in the Azure portal, you will be prompted to authorize an existing Power BI User or to create a new Power BI account.

    Autorizzare l'utente di Power BI

  2. Creare un nuovo account se non è ancora presente, quindi scegliere Autorizza ora.Create a new account if you don’t yet have one, then click Authorize Now. Viene presentata una schermata simile a quella seguente:A screen like the following is presented.

    Power BI account Azure

  3. In questo passaggio immettere l'account aziendale o dell'istituto di istruzione per autorizzare l'output di Power BI.In this step, provide the work or school account for authorizing the Power BI output. Se non si è già iscritti a Power BI, scegliere Iscriviti ora.If you are not already signed up for Power BI, choose Sign up now. L'account aziendale o dell'istituto di istruzione usato per Power BI potrebbe differire dall'account della sottoscrizione di Azure con cui si è attualmente connessi.The work or school account you use for Power BI could be different from the Azure subscription account which you are currently logged in with.

Configurare le proprietà di output di Power BIConfigure the Power BI output properties

Dopo aver autenticato l'account Power BI, è possibile configurare le proprietà per l'output di Power BI.Once you have the Power BI account authenticated, you can configure the properties for your Power BI output. La tabella seguente elenca i nomi di proprietà e le relative descrizioni per configurare l'output di Power BI.The table below is the list of property names and their description to configure your Power BI output.

Nome proprietàProperty Name DescrizioneDescription
Alias di outputOutput Alias È un nome descrittivo usato nelle query per indirizzare l'output delle query a questo output di Power BI.This is a friendly name used in queries to direct the query output to this PowerBI output.
Area di lavoro del gruppoGroup Workspace Per abilitare la condivisione dei dati con altri utenti Power BI, è possibile selezionare i gruppi all'interno dell'account Power BI o scegliere "Area di lavoro personale" se non si vuole eseguire la scrittura in un gruppo.To enable sharing data with other Power BI users you can select groups inside your Power BI account or choose “My Workspace” if you do not want to write to a group. L'aggiornamento di un gruppo esistente richiede il rinnovo dell'autenticazione di Power BI.Updating an existing group requires renewing the Power BI authentication.
Nome del set di datiDataset Name Immettere un nome per il set di dati che dovrà essere usato dall'output di Power BIProvide a dataset name that it is desired for the Power BI output to use
Nome tabellaTable Name Immettere un nome per la tabella nel set di dati dell'output di Power BI.Provide a table name under the dataset of the Power BI output. Attualmente, l’output di Power BI da processi di Analisi di flusso può avere solo una tabella in un set di datiCurrently, Power BI output from Stream Analytics jobs can only have one table in a dataset

Per una procedura dettagliata di configurazione di un output di Power BI e del dashboard, vedere l'articolo Analisi dei flussi di Azure e Power BI.For a walk-through of configuring a Power BI output and dashboard, please see the Azure Stream Analytics & Power BI article.

Nota

Non creare in modo esplicito il set di dati e la tabella nel dashboard di Power BI.Do not explicitly create the dataset and table in the Power BI dashboard. Il set di dati e la tabella verranno compilati automaticamente quando il processo viene avviato e il processo inizia a generare output in Power BI.The dataset and table will be automatically populated when the job is started and the job starts pumping output into Power BI. Si noti che se la query di processo non genera alcun risultato, il set di dati e la tabella non verranno creati.Note that if the job query doesn’t generate any results, the dataset and table will not be created. Tenere anche presente che se Power BI ha già un set di dati e una tabella con lo stesso nome fornito dall'utente nel processo di analisi di flusso, i dati esistenti verranno sovrascritti.Also be aware that if Power BI already had a dataset and table with the same name as the one provided in this Stream Analytics job, the existing data will be overwritten.

Creazione dello schemaSchema Creation

Analisi di flusso di Azure crea un set di dati e una tabella di Power BI per conto dell'utente, se non esiste già.Azure Stream Analytics creates a Power BI dataset and table on behalf of the user if one does not already exist. In tutti gli altri casi la tabella viene aggiornata con nuovi valori. Attualmente è presente una limitazione che prevede l'esistenza di una sola tabella in un set di dati.In all other cases, the table is updated with new values.Currently, there is a the limitation that only one table can exist within a dataset.

Conversione di tipi di dati da Analisi di flusso di Azure a Power BIData type conversion from ASA to Power BI

Analisi di flusso di Azure consente di aggiornare il modello di dati in modo dinamico in fase di esecuzione se viene modificato lo schema di output.Azure Stream Analytics updates the data model dynamically at runtime if the output schema changes. Vengono rilevate tutte le modifiche al nome e al tipo di colonna e l'aggiunta o la rimozione di colonne.Column name changes, column type changes, and the addition or removal of columns are all tracked.

Questa tabella contiene le conversioni dei tipi di dati dai tipi di dati di analisi di flusso ai tipi Entity Data Model (EDM) di Power BI se non esistono né un set di dati né una tabella di Power BI.This table covers the data type conversions from Stream Analytics data types to Power BIs Entity Data Model (EDM) types if a POWER BI dataset and table do not exist.

Dall'analisi di flussoFrom Stream Analytics A Power BITo Power BI
bigintbigint Int64Int64
nvarchar(max)nvarchar(max) StringString
datetimedatetime DateTimeDatetime
floatfloat DoubleDouble
Matrice di recordRecord array Tipo String, valore di tipo Constant "IRecord" o "IArray"String type, Constant value “IRecord” or “IArray”

Aggiornamento dello schemaSchema Update

L'analisi di flusso deduce lo schema del modello di dati in base al primo set di eventi dell'output.Stream Analytics infers the data model schema based on the first set of events in the output. In un secondo momento, se necessario, lo schema del modello di dati viene aggiornato per gestire gli eventi in ingresso che potrebbero non rientrare nello schema originale.Later, if necessary, the data model schema is updated to accommodate incoming events that may not fit into the original schema.

È consigliabile non usare la query SELECT * per evitare l'aggiornamento dinamico dello schema nelle righe.The SELECT * query should be avoided to prevent dynamic schema update across rows. Oltre a implicazioni potenziali sulle prestazioni, potrebbe anche verificarsi un problema di indeterminazione del tempo necessario per ottenere i risultati.In addition to potential performance implications, it could also result in indeterminacy of the time taken for the results. È necessario selezionare i campi esatti che devono essere visualizzati nel dashboard di Power BI.The exact fields that need to be shown on Power BI dashboard should be selected. È anche necessario che i valori dei dati siano conformi al tipo di dati scelto.Additionally, the data values should be compliant with the chosen data type.

Precedente/CorrentePrevious/Current Int64Int64 stringString DateTimeDatetime DoubleDouble
Int64Int64 Int64Int64 StringString StringString DoubleDouble
DoubleDouble DoubleDouble stringString StringString DoubleDouble
stringString StringString StringString StringString
DateTimeDatetime stringString stringString DateTimeDatetime StringString

Rinnovare l'autorizzazione di Power BIRenew Power BI Authorization

Se la password dell'account Power BI è stata modificata dopo la creazione o l'ultima autenticazione del processo, sarà necessario autenticare nuovamente l'account.You will need to re-authenticate your Power BI account if its password has changed since your job was created or last authenticated. Se Multi-Factor Authentication (MFA) è configurata nel tenant Azure Active Directory (AAD), sarà necessario rinnovare anche l'autorizzazione Power BI ogni due settimane.If Multi-Factor Authentication (MFA) is configured on your Azure Active Directory (AAD) tenant you will also need to renew Power BI authorization every 2 weeks. Un sintomo di questo problema è che non ci sono output del processo e un "Errore nell’autenticazione dell’utente" nei log delle operazioni:A symptom of this issue is no job output and an "Authenticate user error" in the Operation Logs:

Errore token di aggiornamento di Power BI

Per risolvere questo problema, arrestare il processo in esecuzione e passare all'output di Power BI.To resolve this issue, stop your running job and go to your Power BI output. Fare clic sul collegamento "Rinnovare autorizzazione" e riavviare il processo dall'ultima volta che è stato arrestato per evitare la perdita di dati.Click the “Renew authorization” link, and restart your job from the Last Stopped Time to avoid data loss.

Rinnovo di autorizzazione di Power BI

Archiviazione tabelleTable Storage

Archiviazione tabelle di Azure offre un archivio a disponibilità elevata e altamente scalabile, per consentire la scalabilità automatica di un'applicazione in base alle richieste degli utenti.Azure Table storage offers highly available, massively scalable storage, so that an application can automatically scale to meet user demand. L'archivio tabelle è l'archivio di chiavi/attributi NoSQL di Microsoft che è possibile sfruttare per i dati strutturati con meno vincoli allo schema.Table storage is Microsoft’s NoSQL key/attribute store which one can leverage for structured data with less constraints on the schema. Archivio tabelle di Azure consente di archiviare i dati per il salvataggio permanente e il recupero efficiente.Azure Table storage can be used to store data for persistence and efficient retrieval.

La tabella seguente elenca i nomi delle proprietà e la relativa descrizione per la creazione di un output di tabelle.The table below lists the property names and their description for creating a table output.

Nome proprietàProperty Name DescrizioneDescription
Alias di outputOutput Alias È un nome descrittivo usato nelle query per indirizzare l'output delle query a questa archiviazione tabelle.This is a friendly name used in queries to direct the query output to this table storage.
Account di archiviazioneStorage Account Nome dell'account di archiviazione a cui si sta inviando l'output.The name of the storage account where you are sending your output.
Chiave dell'account di archiviazioneStorage Account Key Chiave di accesso associata all'account di archiviazione.The access key associated with the storage account.
Nome tabellaTable Name Nome della tabella.The name of the table. Se non esiste, la tabella verrà creata.The table will get created if it does not exist.
Chiave di partizionePartition Key Nome della colonna di output contenente la chiave di partizione.The name of the output column containing the partition key. La chiave di partizione è un identificatore univoco per la partizione di una determinata tabella che costituisce la prima parte della chiave primaria di un'entità.The partition key is a unique identifier for the partition within a given table that forms the first part of an entity's primary key. Si tratta di un valore stringa le cui dimensioni massime sono di 1 KB.It is a string value that may be up to 1 KB in size.
Chiave di rigaRow Key Nome della colonna di output contenente la chiave di riga.The name of the output column containing the row key. La chiave di riga è un identificatore univoco per un’entità all'interno di una determinata partizione.The row key is a unique identifier for an entity within a given partition. Costituisce la seconda parte della chiave primaria di un'entità.It forms the second part of an entity’s primary key. La chiave di riga è un valore stringa le cui dimensioni massime sono di 1 KB.The row key is a string value that may be up to 1 KB in size.
Dimensioni batchBatch Size Numero di record per un'operazione batch.The number of records for a batch operation. Il valore predefinito in genere è sufficiente per la maggior parte dei processi. Per altri dettagli sulla modifica di questa impostazione, vedere la specifica relativa alle operazioni batch su tabella.Typically the default is sufficient for most jobs, refer to the Table Batch Operation spec for more details on modifying this setting.

Code del bus di servizioService Bus Queues

Code del bus di servizio consentono un recapito dei messaggi di tipo FIFO (First In, First Out) a uno o più consumer concorrenti.Service Bus Queues offer a First In, First Out (FIFO) message delivery to one or more competing consumers. Si prevede in genere che i messaggi vengano ricevuti ed elaborati nell'ordine temporale in cui sono stati aggiunti alla coda e ogni messaggio viene ricevuto ed elaborato da un solo consumer.Typically, messages are expected to be received and processed by the receivers in the temporal order in which they were added to the queue, and each message is received and processed by only one message consumer.

La tabella seguente elenca i nomi delle proprietà e la relativa descrizione per la creazione di un output di coda.The table below lists the property names and their description for creating a Queue output.

Nome proprietàProperty Name DescrizioneDescription
Alias di outputOutput Alias È un nome descrittivo usato nelle query per indirizzare l'output delle query a questa coda del bus di servizio.This is a friendly name used in queries to direct the query output to this Service Bus Queue.
Spazio dei nomi del bus di servizioService Bus Namespace Uno spazio dei nomi Service Bus è un contenitore per un set di entità di messaggistica.A Service Bus namespace is a container for a set of messaging entities.
Nome codaQueue Name Nome della coda del bus di servizio.The name of the Service Bus Queue.
Nome criteri codaQueue Policy Name Durante la creazione di una coda, nella scheda Configura coda è anche possibile creare criteri di accesso condiviso. Ogni criterio di accesso condiviso dispone di un nome, delle autorizzazioni impostate, e di tasti di scelta.When you create a Queue, you can also create shared access policies on the Queue Configure tab. Each shared access policy will have a name, permissions that you set, and access keys.
Chiave criteri codaQueue Policy Key Chiave di accesso condivisa usata per autenticare l'accesso allo spazio dei nomi del bus di servizioThe Shared Access key used to authenticate access to the Service Bus namespace
Formato di serializzazione eventiEvent Serialization Format Formato di serializzazione per i dati di output.Serialization format for output data. Sono supportati i formati JSON, CSV e Avro.JSON, CSV, and Avro are supported.
CodificaEncoding Al momento UTF-8 è l'unico formato di codifica supportato per i formati CSV e JSONFor CSV and JSON, UTF-8 is the only supported encoding format at this time
DelimitatoreDelimiter Applicabile solo per la serializzazione CSV.Only applicable for CSV serialization. Analisi di flusso supporta una serie di delimitatori comuni per la serializzazione dei dati in formato CSV.Stream Analytics supports a number of common delimiters for serializing data in CSV format. I valori supportati sono virgola, punto e virgola, spazio, tabulazione e barra verticale.Supported values are comma, semicolon, space, tab and vertical bar.
FormatFormat Applicabile solo per il tipo JSON.Only applicable for JSON type. Separato da righe specifica che l'output verrà formattato separando ciascun oggetto JSON con una nuova riga.Line separated specifies that the output will be formatted by having each JSON object separated by a new line. Array specifica che l'output verrà formattato come array di oggetti JSON.Array specifies that the output will be formatted as an array of JSON objects.

Argomenti del bus di servizioService Bus Topics

Le code del bus di servizio forniscono un metodo di comunicazione uno-a-uno dal mittente al destinatario, invece gli argomenti del bus di servizio offrono una forma di comunicazione uno-a-molti.While Service Bus Queues provide a one to one communication method from sender to receiver, Service Bus Topics provide a one-to-many form of communication.

La tabella seguente elenca i nomi delle proprietà e la relativa descrizione per la creazione di un output di tabelle.The table below lists the property names and their description for creating a table output.

Nome proprietàProperty Name DescrizioneDescription
Alias di outputOutput Alias È un nome descrittivo usato nelle query per indirizzare l'output delle query a questo argomento del bus di servizio.This is a friendly name used in queries to direct the query output to this Service Bus Topic.
Spazio dei nomi del bus di servizioService Bus Namespace Uno spazio dei nomi Service Bus è un contenitore per un set di entità di messaggistica.A Service Bus namespace is a container for a set of messaging entities. Quando si crea un nuovo hub eventi, viene anche creato uno spazio dei nomi del bus di servizioWhen you created a new Event Hub, you also created a Service Bus namespace
Nome argomentoTopic Name Gli argomenti sono entità di messaggistica, simili agli Hub eventi e alle code.Topics are messaging entities, similar to event hubs and queues. Sono progettati per raccogliere i flussi di eventi da diversi dispositivi e servizi.They're designed to collect event streams from a number of different devices and services. Quando un argomento viene creato, gli viene assegnato un nome specifico.When a topic is created, it is also given a specific name. Dal momento che i messaggi inviati a un argomento non saranno disponibili se non viene creata una sottoscrizione, assicurarsi che esistano una o più sottoscrizioni per l'argomentoThe messages sent to a Topic will not be available unless a subscription is created, so ensure there are one or more subscriptions under the topic
Nome criteri argomentoTopic Policy Name Durante la creazione di un argomento, nella scheda Configura argomento è anche possibile creare criteri di accesso condiviso. Ogni criterio di accesso condiviso ha un nome, autorizzazioni impostate e tasti di sceltaWhen you create a Topic, you can also create shared access policies on the Topic Configure tab. Each shared access policy will have a name, permissions that you set, and access keys
Chiave criteri argomentoTopic Policy Key Chiave di accesso condivisa usata per autenticare l'accesso allo spazio dei nomi del bus di servizioThe Shared Access key used to authenticate access to the Service Bus namespace
Formato di serializzazione eventiEvent Serialization Format Formato di serializzazione per i dati di output.Serialization format for output data. Sono supportati i formati JSON, CSV e Avro.JSON, CSV, and Avro are supported.
CodificaEncoding Se il formato è CSV o JSON, è necessario specificare un formato di codifica.If CSV or JSON format, an encoding must be specified. Al momento UTF-8 è l'unico formato di codifica supportatoUTF-8 is the only supported encoding format at this time
DelimitatoreDelimiter Applicabile solo per la serializzazione CSV.Only applicable for CSV serialization. Analisi di flusso supporta una serie di delimitatori comuni per la serializzazione dei dati in formato CSV.Stream Analytics supports a number of common delimiters for serializing data in CSV format. I valori supportati sono virgola, punto e virgola, spazio, tabulazione e barra verticale.Supported values are comma, semicolon, space, tab and vertical bar.

Azure Cosmos DBAzure Cosmos DB

Azure Cosmos DB è un servizio database a più modelli distribuito in modo globale che offre scalabilità elastica illimitata in tutto il mondo, query avanzate e indicizzazione automatica su modelli di dati indipendenti dallo schema, è garantito a bassa latenza ed è leader del settore per i contratti di servizio completi.Azure Cosmos DB is a globally distributed, multi-model database service that offers limitless elastic scale around the globe, rich query and automatic indexing over schema-agnostic data models, guaranteed low latency, and industry-leading comprehensive SLAs.

L'elenco seguente illustra i nomi delle proprietà e la relativa descrizione per la creazione di un output Azure Cosmos DB.The below list details the property names and their description for creating an Azure Cosmos DB output.

  • Alias di output : alias per fare riferimento a questo output nella query ASA.Output Alias – An alias to refer this output in your ASA query
  • Nome account: nome o URI endpoint dell'account Cosmos DB.Account Name – The name or endpoint URI of the Cosmos DB account.
  • Chiave account : chiave di accesso condiviso per l'account Cosmos DB.Account Key – The shared access key for the Cosmos DB account.
  • Database: nome del database Cosmos DB.Database – The Cosmos DB database name.
  • Modello del nome di raccolta: nome della raccolta o modello per le raccolte da usare.Collection Name Pattern – The collection name or their pattern for the collections to be used. Il formato del nome di raccolta può essere costruito utilizzando il token {partizione} facoltativo, dove le partizioni iniziano da 0.The collection name format can be constructed using the optional {partition} token, where partitions start from 0. Di seguito sono riportati input di esempio validi:Following are sample valid inputs:
    1) MyCollection: deve essere presente una raccolta denominata "MyCollection".1) MyCollection – One collection named “MyCollection” must exist.
    2) MyCollection{partizione}: devono essere presenti le raccolte "MyCollection0", "MyCollection1", "MyCollection2" e così via.2) MyCollection{partition} – Such collections must exist– "MyCollection0”, “MyCollection1”, “MyCollection2” and so on.
  • Chiave di partizione: valore facoltativo.Partition Key – Optional. È necessario solo se si usa un token {partition} nel modello del nome di raccolta.This is only needed if you are using a {parition} token in your collection name pattern. Il nome del campo negli eventi di output utilizzato per specificare la chiave per il partizionamento di output nelle raccolte.The name of the field in output events used to specify the key for partitioning output across collections. Per l'output di una singola raccolta si può usare qualsiasi colonna di output arbitraria, ad esempio PartitionId.For single collection output, any arbitrary output column can be used e.g. PartitionId.
  • ID documento : valore facoltativo.Document ID – Optional. Il nome del campo negli eventi di output usato per specificare la chiave primaria su cui si basano le operazioni di inserimento o aggiornamento.The name of the field in output events used to specify the primary key on which insert or update operations are based.

Funzioni di Azure (in anteprima)Azure Functions (In Preview)

Funzioni di Azure è un servizio di calcolo senza server che consente di eseguire codice su richiesta senza dover gestire l'infrastruttura o effettuare il provisioning in modo esplicito.Azure Functions is a serverless compute service that enables you to run code on-demand without having to explicitly provision or manage infrastructure. Consente di implementare il codice attivato da eventi generati nei servizi di Azure o in servizi di terze parti.It lets you implement code that is triggered by events occurring in Azure or third-party services. La possibilità offerta da Funzioni di Azure di rispondere ai trigger la rende l'output naturale per Analisi di flusso di Azure.This ability of Azure Functions to respond to triggers makes it a natural output for a Azure Stream Analytics. Questo adattatore di output consente agli utenti di collegare Analisi di flusso a Funzioni di Azure ed eseguire uno script o una porzione di codice in risposta a diversi eventi.This output adapter allows users to connect Stream Analytics to Azure Functions, and run a script or piece of code in response to a variety of events.

Analisi di flusso di Azure richiama Funzioni di Azure tramite trigger HTTP.Azure Stream Analytics invokes Azure Functions via HTTP triggers. Il nuovo adattatore di input di Funzioni di Azure è disponibile con le seguenti proprietà configurabili:The new Azure Function Output adapter is available with the following configurable properties:

Nome proprietàProperty Name DescrizioneDescription
App per le funzioniFunction App Nome dell'app Funzioni di AzureName of your Azure Functions App
FunzioneFunction Nome della funzione nell'app Funzioni di AzureName of the function in your Azure Functions App
Dimensioni massime batchMax Batch Size Questa proprietà può essere usata per impostare le dimensioni massime per ogni batch di output che verrà inviato a Funzioni di Azure.This property can be used to set the maximum size for each output batch that will be sent to your Azure Function. Per impostazione predefinita questo valore è 256 KB.By default, this value is 256 KB
Numero massimo di batchMax Batch Count Come indica il nome, questa proprietà consente di specificare il numero massimo di eventi in ogni batch che vengono inviati a Funzioni di Azure.As the name indicates, this property lets you specify the maximum number of events in each batch that gets sent to Azure Functions. Il valore di conteggio massimo di batch predefinito è 100The default max batch count value is 100
ChiaveKey Per usare una funzione di Azure di un'altra sottoscrizione, è necessario fornire la chiave per accedere alla funzioneIf you want to use an Azure Function from another subscription, you can do so by providing the key to access your function

Si noti che quando Analisi di flusso di Azure riceve l'eccezione 413 (Entità richiesta troppo grande) dalla funzione di Azure, riduce la dimensione dei batch che invia a Funzioni di Azure.Note that when Azure Stream Analytics receives 413 (http Request Entity Too Large) exception from Azure function, it reduces the size of the batches it sends to Azure Functions. Usare questa eccezione nel codice della funzione di Azure per fare in modo che Analisi di flusso di Azure non invii batch troppo grandi.In your Azure function code, use this exception to make sure that Azure Stream Analytics doesn’t send oversized batches. Assicurarsi inoltre che i valori relativi al numero massimo di batch e alle dimensioni massime usati nella funzione corrispondano ai valori inseriti nel portale di Analisi di flusso.Also, please make sure that the max batch count and size values used in the function are consistent with the values entered in the Stream Analytics portal.

Quando non avviene alcun evento in un intervallo di tempo, non viene generato alcun output.Also, in a situation where there is no event landing in a time window, no output is generated. Di conseguenza, non viene chiamata la funzione computeResult.As a result, computeResult function will not be called. Questo comportamento è coerente con le funzioni di aggregazione finestra predefinite.This behavior is consistent with the built-in windowed aggregate functions.

Ottenere aiutoGet help

Per assistenza, provare il Forum di Analisi di flusso di AzureFor further assistance, try our Azure Stream Analytics forum

Passaggi successiviNext steps

È stato presentato Analisi di flusso, un servizio gestito per l'analisi di flusso su dati provenienti da Internet delle cose.You've been introduced to Stream Analytics, a managed service for streaming analytics on data from the Internet of Things. Per altre informazioni su questo servizio, vedere:To learn more about this service, see: