Informazioni sugli output di Analisi di flusso di AzureUnderstand outputs from Azure Stream Analytics

Questo articolo descrive i diversi tipi di output disponibili per un processo di Analisi di flusso di Azure.This article describes the different types of outputs available for an Azure Stream Analytics job. Gli output consentono di archiviare e salvare i risultati del processo di Analisi di flusso di Azure.Outputs let you store and save the results of the Stream Analytics job. Usando i dati di output, è possibile eseguire altre analisi di business e il data warehousing dei dati.Using the output data, you can do further business analytics and data warehousing of your data.

Quando si progetta la query di Analisi di flusso, fare riferimento al nome dell'output usando la clausola INTO.When you design your Stream Analytics query, refer to the name of the output using the INTO clause. È possibile usare un singolo output per ogni processo o più output per ogni processo di streaming se occorre, specificando più clausole INTO nella query.You can use a single output per job, or multiple outputs per streaming job if you need by providing multiple INTO clauses in the query.

Per creare, modificare e testare gli output dei processi di Analisi di flusso, è possibile usare il portale di Azure, Azure PowerShell, l'API .NET, l'API REST e Visual Studio.To create, edit, and test Stream Analytics job outputs, you can use the Azure portal, Azure PowerShell, .Net API, REST API, and Visual Studio.

Alcuni tipi di output supportano il partizionamento e le dimensioni batch dell'output variano per ottimizzare la velocità effettiva.Some outputs types support partitioning, and output batch sizes vary to optimize throughput.

Archivio Azure Data LakeAzure Data Lake Store

Analisi di flusso supporta Archivio Data Lake di Azure.Stream Analytics supports Azure Data Lake Store. Azure Data Lake Store è un repository su vasta scala a livello aziendale per carichi di lavoro di analisi di Big Data.Azure Data Lake Store is an enterprise-wide hyper-scale repository for big data analytic workloads. Archivio Data Lake consente di archiviare dati di qualsiasi dimensione, tipo e velocità di inserimento per le analisi esplorative e operative.Data Lake Store enables you to store data of any size, type and ingestion speed for operational and exploratory analytics. Analisi di flusso deve essere autorizzato ad accedere a Data Lake Store.Stream Analytics has to be authorized to access the Data Lake Store.

L'output di Azure Data Lake Store da Stream Analytics non è attualmente disponibile nelle aree di Azure Cina (21Vianet) e Germania (T-Systems International).Azure Data Lake Store output from Stream Analytics is currently not available in the Azure China (21Vianet) and Azure Germany (T-Systems International) regions.

Autorizzare un account Azure Data Lake StoreAuthorize an Azure Data Lake Store account

  1. Se nel portale di Azure è selezionato Data Lake Store come output, viene richiesto di autorizzare una connessione a un Data Lake Store esistente.When Data Lake Storage is selected as an output in the Azure portal, you are prompted to authorize a connection to an existing Data Lake Store.

    Autorizzare Archivio Data Lake

  2. Se si ha già accesso a Data Lake Store, selezionare Autorizza ora. Verrà visualizzata una pagina con il messaggio Reindirizzamento all'autorizzazione in corso.If you already have access to Data Lake Store, select Authorize Now and a page pops up indicating Redirecting to authorization. Dopo che l'autorizzazione ha esito positivo, viene visualizzata la pagina che consente di configurare l'output di Data Lake Store.After authorization succeeds, you are presented with the page that allows you to configure the Data Lake Store output.

  3. Dopo aver autenticato l'account, è possibile configurare le proprietà per l'output di Archivio Data Lake.Once you have the Data Lake Store account authenticated, you can configure the properties for your Data Lake Store output. La tabella seguente elenca i nomi di proprietà e le relative descrizioni per configurare l'output di Archivio Data Lake.The table below is the list of property names and their description to configure your Data Lake Store output.

    Autorizzare Archivio Data Lake

Nome proprietàProperty name DESCRIZIONEDescription
Alias di outputOutput alias Nome descrittivo usato nelle query per indirizzare l'output delle query a questo Data Lake Store.A friendly name used in queries to direct the query output to this Data Lake Store.
Nome accountAccount name Nome dell'account di archiviazione Data Lake a cui si sta inviando l'output.The name of the Data Lake Storage account where you are sending your output. Viene visualizzato un elenco a discesa degli account di Data Lake Store disponibili nella sottoscrizione.You are presented with a drop-down list of Data Lake Store accounts that are available in your subscription.
Schema prefisso percorsoPath prefix pattern Percorso del file usato per scrivere i file nell'account di Archivio Data Lake specificato.The file path used to write your files within the specified Data Lake Store Account. È possibile specificare una o più istanze delle variabili {date} e {time}.You can specify one or more instances of the {date} and {time} variables.
  • Esempio 1: folder1/logs/{date}/{time}Example 1: folder1/logs/{date}/{time}
  • Esempio 2: folder1/logs/{date}Example 2: folder1/logs/{date}

Il timestamp della struttura di cartelle creata segue l'ora UTC e non l'ora locale.The timestamp of the folder structure created follows UTC and not local time.

Se il modello di percorso del file non contiene un "/" finale, l'ultimo modello nel percorso del file viene considerato come prefisso del nome file.If the file path pattern does not contain a trailing "/", the last pattern in the file path is treated as a filename prefix.

Vengono creati nuovi file nei casi seguenti:New files are created in these circumstances:
  • Modifica dello schema di outputChange in output schema
  • Riavvio interno o esterno di un processo.External or Internal restart of a job.
Formato dataDate format facoltativo.Optional. Se nel percorso di prefisso viene usato il token di data, è possibile selezionare il formato della data in cui sono organizzati i file.If the date token is used in the prefix path, you can select the date format in which your files are organized. Esempio: AAAA/MM/GGExample: YYYY/MM/DD
Formato oraTime format facoltativo.Optional. Se nel percorso di prefisso viene usato il token dell'ora, specificare il formato dell'ora in cui sono organizzati i file.If the time token is used in the prefix path, specify the time format in which your files are organized. Al momento, l'unico valore supportato è HH.Currently the only supported value is HH.
Formato di serializzazione eventiEvent serialization format Formato di serializzazione per i dati di output.Serialization format for output data. Sono supportati i formati JSON, CSV e Avro.JSON, CSV, and Avro are supported.
CodificaEncoding Se il formato è CSV o JSON, è necessario specificare un formato di codifica.If using CSV or JSON format, an encoding must be specified. Al momento UTF-8 è l'unico formato di codifica supportato.UTF-8 is the only supported encoding format at this time.
DelimitatoreDelimiter Applicabile solo per la serializzazione CSV.Only applicable for CSV serialization. Analisi di flusso supporta una serie di delimitatori comuni per la serializzazione dei dati CSV.Stream Analytics supports a number of common delimiters for serializing CSV data. I valori supportati sono virgola, punto e virgola, spazio, tabulazione e barra verticale.Supported values are comma, semicolon, space, tab and, vertical bar.
FormatFormat Applicabile solo per la serializzazione JSON.Only applicable for JSON serialization. Separato da righe specifica che l'output viene formattato separando ciascun oggetto JSON con una nuova riga.Line separated specifies that the output is formatted by having each JSON object separated by a new line. Array specifica che l'output viene formattato come matrice di oggetti JSON.Array specifies that the output is formatted as an array of JSON objects. Questa matrice viene chiusa solo quando il processo viene arrestato o Analisi di flusso di Azure passa all'intervallo di tempo successivo.This array is closed only when the job stops or Stream Analytics has moved on to the next time window. In generale, è preferibile usare JSON separato da righe, perché non richiede alcuna gestione speciale durante la scrittura del file di output.In general, it is preferable to use line separated JSON, since it doesn't require any special handling while the output file is still being written to.

Rinnovare l'autorizzazione per Data Lake StoreRenew Data Lake Store authorization

Se la password dell'account Data Lake Store è stata modificata dopo la creazione o l'ultima autenticazione del processo, è necessario autenticare nuovamente l'account.You need to reauthenticate your Data Lake Store account if its password has changed since your job was created or last authenticated. Se non si ripete l'autenticazione, il processo non restituisce risultati di output e nei log delle operazioni viene visualizzato un errore che indica che è necessario ripetere l'autorizzazione.If you don't reauthenticate, your job does not produce output results and shows an error indicating the need for reauthorization in the Operation Logs. Attualmente esiste una limitazione secondo cui il token di autenticazione deve essere aggiornato manualmente ogni 90 giorni per tutti i processi con output di Archivio Data Lake.Currently, there is a limitation where the authentication token needs to be manually refreshed every 90 days for all jobs with Data Lake Store output.

Per rinnovare l'autorizzazione, arrestare il processo, passare all'output di Data Lake Store, quindi fare clic sul collegamento Rinnova autorizzazione. Verrà brevemente visualizzata una pagina che indica Reindirizzamento all'autorizzazione in corso. La pagina verrà chiusa automaticamente e, in caso di esito positivo, verrà visualizzato il messaggio L'autorizzazione è stata rinnovata.To renew authorization, Stop your job > go to your Data Lake Store output > click the Renew authorization link, and for a brief time a page will pop up indicating Redirecting to authorization.... The page automatically closes and if successful, indicates Authorization has been successfully renewed. È quindi necessario fare clic su Salva nella parte inferiore della pagina e, per continuare, riavviare il processo dall'ora dell'ultimo arresto per evitare la perdita di dati.You then need to click Save at the bottom of the page, and can proceed by restarting your job from the Last Stopped Time to avoid data loss.

Autorizzare Archivio Data Lake

Database SQLSQL Database

database SQL di Azure può essere usato come output per i dati di natura relazionale o per applicazioni che dipendono dal contesto ospitato in un database relazionale.Azure SQL Database can be used as an output for data that is relational in nature or for applications that depend on content being hosted in a relational database. I processi di Analisi di flusso di Azure eseguono la scrittura in una tabella esistente di un database SQL di Azure.Stream Analytics jobs write to an existing table in an Azure SQL Database. Lo schema della tabella deve corrispondere esattamente ai campi e ai relativi tipi generati dal processo.The table schema must exactly match the fields and their types being output from your job. Un Azure SQL Data Warehouse può anche essere specificato come output tramite l'opzione di output del database SQL.An Azure SQL Data Warehouse can also be specified as an output via the SQL Database output option as well. La tabella seguente elenca i nomi delle proprietà e la relativa descrizione per la creazione di un database SQL di output.The table below lists the property names and their description for creating a SQL Database output.

Nome proprietàProperty name DESCRIZIONEDescription
Alias di outputOutput alias Nome descrittivo usato nelle query per indirizzare l'output delle query a questo database.A friendly name used in queries to direct the query output to this database.
DatabaseDatabase Nome del database a cui si sta inviando l'output.The name of the database where you are sending your output.
Nome serverServer name Nome server del database SQL di Azure.The SQL Database server name.
UsernameUsername Nome utente che ha accesso in scrittura al database.The Username, which has access to write to the database.
PasswordPassword Password per connettersi al database.The password to connect to the databas.e
TabellaTable Nome della tabella in cui viene scritto l'output.The table name where the output is written. Il nome della tabella fa distinzione tra maiuscole e minuscole e lo schema della tabella deve corrispondere esattamente al numero di campi e ai relativi tipi generati dall'output del processo.The table name is case-sensitive and the schema of this table should match exactly to the number of fields and their types being generated by your job output.

Nota

Attualmente l'offerta relativa al database SQL di Azure è supportata per un output di processi in Analisi di flusso.Currently the Azure SQL Database offering is supported for a job output in Stream Analytics. Non è tuttavia supportata una macchina virtuale di Azure che esegue SQL Server con un database collegato.However, an Azure Virtual Machine running SQL Server with a database attached is not supported. Questo comportamento sarà soggetto a modifiche nelle versioni future.This is subject to change in future releases.

Archiviazione BLOBBlob storage

L'archiviazione BLOB offre una soluzione conveniente e scalabile per archiviare grandi quantità di dati non strutturati nel cloud.Blob storage offers a cost-effective and scalable solution for storing large amounts of unstructured data in the cloud. Per un'introduzione all'archivio BLOB di Azure e al relativo utilizzo, vedere la documentazione in Come usare i BLOB.For an introduction on Azure Blob storage and its usage, see the documentation at How to use Blobs.

La tabella seguente elenca i nomi delle proprietà e la relativa descrizione per la creazione di un output del BLOB.The table below lists the property names and their description for creating a blob output.

Nome proprietàProperty name DESCRIZIONEDescription
Alias di outputOutput Alias Nome descrittivo usato nelle query per indirizzare l'output delle query a questa archiviazione BLOB.A friendly name used in queries to direct the query output to this blob storage.
Account di archiviazioneStorage Account Nome dell'account di archiviazione a cui si sta inviando l'output.The name of the storage account where you are sending your output.
Chiave dell'account di archiviazioneStorage Account Key Chiave privata associata all'account di archiviazione.The secret key associated with the storage account.
Contenitore di archiviazioneStorage Container I contenitori forniscono un raggruppamento logico per gli oggetti BLOB archiviati nel servizio BLOB di Microsoft Azure.Containers provide a logical grouping for blobs stored in the Microsoft Azure Blob service. Quando si carica un oggetto BLOB nel servizio BLOB, è necessario specificare un contenitore per il BLOB.When you upload a blob to the Blob service, you must specify a container for that blob.
Modello di percorsoPath pattern facoltativo.Optional. Il modello di percorso del file usato per scrivere i BLOB nel contenitore specificato.The file path pattern used to write your blobs within the specified container.
Nel modello del percorso è possibile scegliere di usare una o più istanze delle variabili di data e ora per specificare la frequenza di scrittura dei BLOB:In the path pattern, you may choose to use one or more instances of the date time variables to specify the frequency that blobs are written:
{date}, {time}{date}, {time}

Se si è già registrati per l'anteprima, è anche possibile specificare un nome {field} personalizzato dai dati dell'evento in base al quale eseguire il partizionamento dei BLOB, dove il nome del campo è un valore alfanumerico e può includere spazi, trattini e caratteri di sottolineatura.If you are signed up for the preview, you may also specify one custom {field} name from your event data to partition blobs by, where the field name is alphanumeric and can include spaces, hyphens, and underscores. Le restrizioni sui campi personalizzati includono le seguenti:Restrictions on custom fields include the following:
  • Nessuna distinzione tra maiuscole e minuscole (impossibilità di distinguere tra le colonne "ID" e "id")Case insensitivity (cannot differentiate between column "ID" and column "id")
  • I campi annidati non sono consentiti. Usare in alternativa un alias della query di processo per rendere flat il campo.Nested fields are not permitted (instead use an alias in the job query to "flatten" the field)
  • Le espressioni non possono essere usate come nome di campoExpressions cannot be used as a field name
Esempi:Examples:
  • Esempio 1: cluster1/logs/{date}/{time}Example 1: cluster1/logs/{date}/{time}
  • Esempio 2: cluster1/logs/{date}Example 2: cluster1/logs/{date}
  • Esempio 3 (anteprima): cluster1/{client_id}/{date}/{time}Example 3 (preview): cluster1/{client_id}/{date}/{time}
  • Esempio 4 (anteprima): cluster1/{myField} dove la query è: SELECT data.myField AS myField FROM Input;Example 4 (preview): cluster1/{myField} where the query is: SELECT data.myField AS myField FROM Input;

Il timestamp della struttura di cartelle creata segue l'ora UTC e non l'ora locale.The timestamp of the folder structure created follows UTC and not local time.

La denominazione dei file segue questa convenzione:File naming follows the following convention:
{Schema prefisso percorso}/schemaHashcode_Guid_Number.extension{Path Prefix Pattern}/schemaHashcode_Guid_Number.extension
File di output di esempio:Example output files:
  • Myoutput/20170901/00/45434_gguid_1.csvMyoutput/20170901/00/45434_gguid_1.csv
  • Myoutput/20170901/01/45434_gguid_1.csvMyoutput/20170901/01/45434_gguid_1.csv

Formato dataDate format facoltativo.Optional. Se nel percorso di prefisso viene usato il token di data, è possibile selezionare il formato della data in cui sono organizzati i file.If the date token is used in the prefix path, you can select the date format in which your files are organized. Esempio: AAAA/MM/GGExample: YYYY/MM/DD
Formato oraTime format facoltativo.Optional. Se nel percorso di prefisso viene usato il token dell'ora, specificare il formato dell'ora in cui sono organizzati i file.If the time token is used in the prefix path, specify the time format in which your files are organized. Al momento, l'unico valore supportato è HH.Currently the only supported value is HH.
Formato di serializzazione eventiEvent serialization format Formato di serializzazione per i dati di output.Serialization format for output data. Sono supportati i formati JSON, CSV e Avro.JSON, CSV, and Avro are supported.
CodificaEncoding Se il formato è CSV o JSON, è necessario specificare un formato di codifica.If using CSV or JSON format, an encoding must be specified. Al momento UTF-8 è l'unico formato di codifica supportato.UTF-8 is the only supported encoding format at this time.
DelimitatoreDelimiter Applicabile solo per la serializzazione CSV.Only applicable for CSV serialization. Analisi di flusso supporta una serie di delimitatori comuni per la serializzazione dei dati CSV.Stream Analytics supports a number of common delimiters for serializing CSV data. I valori supportati sono virgola, punto e virgola, spazio, tabulazione e barra verticale.Supported values are comma, semicolon, space, tab, and vertical bar.
FormatFormat Applicabile solo per la serializzazione JSON.Only applicable for JSON serialization. Separato da righe specifica che l'output viene formattato separando ciascun oggetto JSON con una nuova riga.Line separated specifies that the output is formatted by having each JSON object separated by a new line. Array specifica che l'output viene formattato come matrice di oggetti JSON.Array specifies that the output is formatted as an array of JSON objects. Questa matrice viene chiusa solo quando il processo viene arrestato o Analisi di flusso di Azure passa all'intervallo di tempo successivo.This array is closed only when the job stops or Stream Analytics has moved on to the next time window. In generale, è preferibile usare JSON separato da righe, perché non richiede alcuna gestione speciale durante la scrittura del file di output.In general, it is preferable to use line separated JSON, since it doesn't require any special handling while the output file is still being written to.

Quando si usa come output l'archiviazione BLOB, viene creato un nuovo file nel BLOB nei casi seguenti:When using blob storage as output, a new file is created in the blob in the following cases:

  • Se il file supera il numero massimo di blocchi consentiti (attualmente 50.000).If the file exceeds the maximum number of allowed blocks (currently 50,000). Il numero massimo di blocchi consentiti può essere raggiunto senza raggiungere le dimensioni massime consentite per il BLOB.The maximum allowed number of blocks may be reached without reaching the maximum allowed blob size. Ad esempio, se la frequenza di output è elevata, ogni blocco può contenere più byte e le dimensioni del file sono superiori.For example, if the output rate is high, you can see more bytes per block, and the file size is larger. Se la frequenza di output è bassa, ogni blocco contiene meno dati e le dimensioni del file sono inferiori.If the output rate is low, each block has less data, and the file size is smaller.
  • Se l'output contiene una modifica dello schema e il formato di output richiede uno schema fisso (CSV e Avro).If there is a schema change in the output, and the output format requires fixed schema (CSV and Avro).
  • Se un processo viene riavviato, esternamente con l'arresto e l'avvio da parte di un utente oppure internamente per la manutenzione del sistema o il recupero da errori.If a job is restarted, either externally by a user stopping it and starting it, or internally for system maintenance or error recovery.
  • Se la query è completamente partizionata, per ogni partizione di output viene creato un nuovo file.If the query is fully partitioned, new file is created for each output partition.
  • Se un file o un contenitore dell'account di archiviazione viene eliminato dall'utente.If a file or a container of the storage account is deleted by the user.
  • Se l'output è partizionato in base al tempo usando lo schema prefisso percorso, quando la query passa all'ora successiva viene usato un nuovo BLOB.If the output is time partitioned by using the path prefix pattern, a new blob is used when the query moves to the next hour.
  • Se l'output è partizionato da un campo personalizzato, viene creato un nuovo BLOB per ogni chiave di partizione, se inesistente.If the output is partitioned by a custom field, a new blob is created per partition key if it does not exist.
  • Se l'output è partizionato da un campo personalizzato in cui la cardinalità della chiave di partizione supera 8000, può essere creato un nuovo BLOB per ogni chiave di partizione.If the output is partitioned by a custom field where the partition key cardinality exceeds 8000, a new blob may be created per partition key.

Hub eventiEvent Hub

Il servizio Hub eventi di Azure è un inseritore eventi di pubblicazione-sottoscrizione altamente scalabile.The Azure Event Hubs service is a highly scalable publish-subscribe event ingestor. Può raccogliere milioni di eventi al secondo.It can collect millions of events per second. Un uso di un hub eventi come output si verifica quando l'output di un processo di Analisi di flusso di Azure diventa l'input di un altro processo di streaming.One use of an Event Hub as output is when the output of a Stream Analytics job becomes the input of another streaming job.

Per configurare i flussi dei dati dell'hub eventi, sono necessari alcuni parametri come output.There are a few parameters that are needed to configure Event Hub data streams as an output.

Nome proprietàProperty name DESCRIZIONEDescription
Alias di outputOutput alias Nome descrittivo usato nelle query per indirizzare l'output delle query a questo hub eventi.A friendly name used in queries to direct the query output to this Event Hub.
Spazio dei nomi dell'hub eventiEvent Hub namespace Uno spazio dei nomi dell'hub eventi è un contenitore per un set di entità di messaggistica.An Event Hub namespace is a container for a set of messaging entities. Quando si crea un nuovo hub eventi, viene anche creato uno spazio dei nomi dell'hub eventi.When you created a new Event Hub, you also created an Event Hub namespace.
Nome dell'hub eventiEvent Hub name Nome dell'output dell'hub eventi.The name of your Event Hub output.
Nome criteri hub eventiEvent Hub policy name Criteri di accesso condiviso che possono essere creati nella scheda Configura dell'hub eventi. Tutti i criteri di accesso condiviso dispongono di un nome e di autorizzazioni impostati, nonché di chiavi di accesso.The shared access policy, which can be created on the Event Hub Configure tab. Each shared access policy has a name, permissions that you set, and access keys.
Chiave criteri hub eventiEvent Hub policy key Chiave di accesso condivisa usata per autenticare l'accesso allo spazio dei nomi dell'hub eventi.The Shared Access key used to authenticate access to the Event Hub namespace.
Colonna chiave di partizione [facoltativo]Partition key column [optional] Questa colonna contiene la chiave di partizione per l'output dell'Hub eventi.This column contains the partition key for Event Hub output.
Formato di serializzazione eventiEvent serialization format Formato di serializzazione per i dati di output.Serialization format for output data. Sono supportati i formati JSON, CSV e Avro.JSON, CSV, and Avro are supported.
CodificaEncoding Al momento UTF-8 è l'unico formato di codifica supportato per i formati CSV e JSON.For CSV and JSON, UTF-8 is the only supported encoding format at this time.
DelimitatoreDelimiter Applicabile solo per la serializzazione CSV.Only applicable for CSV serialization. Analisi di flusso supporta una serie di delimitatori comuni per la serializzazione dei dati in formato CSV.Stream Analytics supports a number of common delimiters for serializing data in CSV format. I valori supportati sono virgola, punto e virgola, spazio, tabulazione e barra verticale.Supported values are comma, semicolon, space, tab, and vertical bar.
FormatFormat Applicabile solo per la serializzazione JSON.Only applicable for JSON serialization. Separato da righe specifica che l'output viene formattato separando ciascun oggetto JSON con una nuova riga.Line separated specifies that the output is formatted by having each JSON object separated by a new line. Array specifica che l'output viene formattato come matrice di oggetti JSON.Array specifies that the output is formatted as an array of JSON objects. Questa matrice viene chiusa solo quando il processo viene arrestato o Analisi di flusso di Azure passa all'intervallo di tempo successivo.This array is closed only when the job stops or Stream Analytics has moved on to the next time window. In generale, è preferibile usare JSON separato da righe, perché non richiede alcuna gestione speciale durante la scrittura del file di output.In general, it is preferable to use line separated JSON, since it doesn't require any special handling while the output file is still being written to.

Power BIPower BI

Power BI può essere usato come output per un processo di Analisi di flusso per offrire un'esperienza di visualizzazione avanzata dei risultati di analisi.Power BI can be used as an output for a Stream Analytics job to provide for a rich visualization experience of analysis results. Questa funzionalità può essere usata per i dashboard operativi, la generazione di report e la creazione di report basati sulle metriche.This capability can be used for operational dashboards, report generation, and metric driven reporting.

L'output di Power BI da Stream Analytics non è attualmente disponibile nelle aree di Azure Cina (21Vianet) e Germania (T-Systems International).Power BI output from Stream Analytics is currently not available in the Azure China (21Vianet) and Azure Germany (T-Systems International) regions.

Autorizzare un account Power BIAuthorize a Power BI account

  1. Se nel portale di Azure è selezionato Power BI come output, viene richiesto di autorizzare un utente Power BI esistente oppure di creare un nuovo account Power BI.When Power BI is selected as an output in the Azure portal, you are prompted to authorize an existing Power BI User or to create a new Power BI account.

    Autorizzare l'utente di Power BI

  2. Creare un nuovo account se non è ancora presente, quindi scegliere Autorizza ora.Create a new account if you don’t yet have one, then click Authorize Now. Viene visualizzata la pagina seguente:The following page is shown:

    Power BI account Azure

  3. In questo passaggio immettere l'account aziendale o dell'istituto di istruzione per autorizzare l'output di Power BI.In this step, provide the work or school account for authorizing the Power BI output. Se non si è già iscritti a Power BI, scegliere Iscriviti ora.If you are not already signed up for Power BI, choose Sign up now. L'account aziendale o dell'istituto di istruzione usato per Power BI potrebbe differire dall'account della sottoscrizione di Azure con cui si è attualmente connessi.The work or school account you use for Power BI could be different from the Azure subscription account, which you are currently logged in with.

Configurare le proprietà di output di Power BIConfigure the Power BI output properties

Dopo aver autenticato l'account Power BI, è possibile configurare le proprietà per l'output di Power BI.Once you have the Power BI account authenticated, you can configure the properties for your Power BI output. La tabella seguente elenca i nomi di proprietà e le relative descrizioni per configurare l'output di Power BI.The table below is the list of property names and their description to configure your Power BI output.

Nome proprietàProperty name descriptiondescription
Alias di outputOutput alias Nome descrittivo usato nelle query per indirizzare l'output delle query a questo output di Power BI.A friendly name used in queries to direct the query output to this PowerBI output.
Area di lavoro del gruppoGroup workspace Per abilitare la condivisione dei dati con altri utenti Power BI, è possibile selezionare i gruppi all'interno dell'account Power BI o scegliere "Area di lavoro personale" se non si vuole eseguire la scrittura in un gruppo.To enable sharing data with other Power BI users you can select groups inside your Power BI account or choose “My Workspace” if you do not want to write to a group. L'aggiornamento di un gruppo esistente richiede il rinnovo dell'autenticazione di Power BI.Updating an existing group requires renewing the Power BI authentication.
Nome del set di datiDataset name Immettere un nome per il set di dati che dovrà essere usato dall'output di Power BIProvide a dataset name that it is desired for the Power BI output to use
Nome tabellaTable name Immettere un nome per la tabella nel set di dati dell'output di Power BI.Provide a table name under the dataset of the Power BI output. Attualmente, l’output di Power BI da processi di Analisi di flusso può avere solo una tabella in un set di datiCurrently, Power BI output from Stream Analytics jobs can only have one table in a dataset

Per una procedura dettagliata della configurazione di un output di Power BI e del dashboard, vedere l'articolo Analisi di flusso di Azure e Power BI.For a walk-through of configuring a Power BI output and dashboard, see the Azure Stream Analytics & Power BI article.

Nota

Non creare in modo esplicito il set di dati e la tabella nel dashboard di Power BI.Do not explicitly create the dataset and table in the Power BI dashboard. Il set di dati e la tabella vengono compilati automaticamente quando il processo viene avviato e il processo inizia a generare output in Power BI.The dataset and table is automatically populated when the job is started and the job starts pumping output into Power BI. Si noti che se la query di processo non genera alcun risultato, il set di dati e la tabella non vengono creati.Note that if the job query doesn’t generate any results, the dataset, and table isn't created. Si noti che se Power BI ha già un set di dati e una tabella con lo stesso nome fornito dall'utente nel processo di analisi di flusso, i dati esistenti vengono sovrascritti.Note that if Power BI already had a dataset and table with the same name as the one provided in this Stream Analytics job, the existing data is overwritten.

Creazione dello schemaSchema Creation

Analisi di flusso di Azure crea un set di dati e una tabella di Power BI per conto dell'utente, se non esiste già.Azure Stream Analytics creates a Power BI dataset and table on behalf of the user if one does not already exist. In tutti gli altri casi, la tabella viene aggiornata con nuovi valori.In all other cases, the table is updated with new values. Attualmente è presente una limitazione che prevede l'esistenza di una sola tabella in un set di dati.Currently, there is a limitation that only one table can exist within a dataset.

Conversione di tipi di dati da Analisi di flusso di Azure a Power BIData type conversion from Stream Analytics to Power BI

Analisi di flusso di Azure consente di aggiornare il modello di dati in modo dinamico in fase di esecuzione se viene modificato lo schema di output.Azure Stream Analytics updates the data model dynamically at runtime if the output schema changes. Vengono rilevate tutte le modifiche al nome e al tipo di colonna e l'aggiunta o la rimozione di colonne.Column name changes, column type changes, and the addition or removal of columns are all tracked.

Questa tabella contiene le conversioni dei tipi di dati dai tipi di dati di analisi di flusso ai tipi Entity Data Model (EDM) di Power BI se non esistono né un set di dati né una tabella di Power BI.This table covers the data type conversions from Stream Analytics data types to Power BIs Entity Data Model (EDM) types if a POWER BI dataset and table do not exist.

Dall'analisi di flussoFrom Stream Analytics A Power BITo Power BI
bigintbigint Int64Int64
nvarchar(max)nvarchar(max) stringString
Datetimedatetime DateTimeDatetime
floatfloat DoubleDouble
Matrice di recordRecord array Tipo String, valore di tipo Constant "IRecord" o "IArray"String type, Constant value “IRecord” or “IArray”

Aggiornamento dello schemaSchema Update

L'analisi di flusso deduce lo schema del modello di dati in base al primo set di eventi dell'output.Stream Analytics infers the data model schema based on the first set of events in the output. In un secondo momento, se necessario, lo schema del modello di dati viene aggiornato per gestire gli eventi in ingresso che potrebbero non rientrare nello schema originale.Later, if necessary, the data model schema is updated to accommodate incoming events that may not fit into the original schema.

È consigliabile non usare la query SELECT * per evitare l'aggiornamento dinamico dello schema nelle righe.The SELECT * query should be avoided to prevent dynamic schema update across rows. Oltre a implicazioni potenziali sulle prestazioni, potrebbe anche verificarsi un problema di incertezza rispetto al tempo necessario per ottenere i risultati.In addition to potential performance implications, it could also result in uncertainty of the time taken for the results. È necessario selezionare i campi esatti che devono essere visualizzati nel dashboard di Power BI.The exact fields that need to be shown on Power BI dashboard should be selected. È anche necessario che i valori dei dati siano conformi al tipo di dati scelto.Additionally, the data values should be compliant with the chosen data type.

Precedente/CorrentePrevious/Current Int64Int64 stringString DateTimeDatetime DoubleDouble
Int64Int64 Int64Int64 stringString stringString DoubleDouble
DoubleDouble DoubleDouble stringString stringString DoubleDouble
stringString stringString stringString stringString
DateTimeDatetime stringString stringString DateTimeDatetime stringString

Rinnovare l'autorizzazione di Power BIRenew Power BI Authorization

Se la password dell'account Power BI viene modificata dopo la creazione o l'ultima autenticazione del processo di Analisi di flusso, è necessario ripetere l'autenticazione di Analisi di flusso.If your Power BI account password changes after your Stream Analytics job was created or last authenticated, you need to reauthenticate the Stream Analytics. Se nel tenant di Azure Active Directory (AAD) è configurata la Multi-Factor Authentication (MFA), sarà necessario rinnovare anche l'autorizzazione di Power BI ogni due settimane.If Multi-Factor Authentication (MFA) is configured on your Azure Active Directory (AAD) tenant, you also need to renew Power BI authorization every two weeks. Un sintomo di questo problema è che non ci sono output del processo e un "Errore nell’autenticazione dell’utente" nei log delle operazioni:A symptom of this issue is no job output and an "Authenticate user error" in the Operation Logs:

Errore token di aggiornamento di Power BI

Per risolvere questo problema, arrestare il processo in esecuzione e passare all'output di Power BI.To resolve this issue, stop your running job and go to your Power BI output. Fare clic sul collegamento Rinnova autorizzazione e riavviare il processo dall'ora dell'ultimo arresto per evitare la perdita di dati.Select the Renew authorization link, and restart your job from the Last Stopped Time to avoid data loss.

Rinnovo autorizzazione di Power BI

Archiviazione tabelleTable Storage

Archiviazione tabelle di Azure offre un archivio a disponibilità elevata e altamente scalabile, per consentire la scalabilità automatica di un'applicazione in base alle richieste degli utenti.Azure Table storage offers highly available, massively scalable storage, so that an application can automatically scale to meet user demand. Archiviazione tabelle è l'archivio di chiavi/attributi NoSQL di Microsoft che è possibile sfruttare per i dati strutturati con meno vincoli allo schema.Table storage is Microsoft’s NoSQL key/attribute store, which one can leverage for structured data with fewer constraints on the schema. Archivio tabelle di Azure consente di archiviare i dati per il salvataggio permanente e il recupero efficiente.Azure Table storage can be used to store data for persistence and efficient retrieval.

La tabella seguente elenca i nomi delle proprietà e la relativa descrizione per la creazione di un output di tabelle.The table below lists the property names and their description for creating a table output.

Nome proprietàProperty Name descriptiondescription
Alias di outputOutput alias Nome descrittivo usato nelle query per indirizzare l'output delle query a questa archiviazione tabelle.A friendly name used in queries to direct the query output to this table storage.
Account di archiviazioneStorage account Nome dell'account di archiviazione a cui si sta inviando l'output.The name of the storage account where you are sending your output.
Chiave dell'account di archiviazioneStorage account key Chiave di accesso associata all'account di archiviazione.The access key associated with the storage account.
Nome tabellaTable Name Nome della tabella.The name of the table. Se non esiste, viene creata una nuova tabella.The table gets created if it does not exist.
Chiave di partizionePartition key Nome della colonna di output contenente la chiave di partizione.The name of the output column containing the partition key. La chiave di partizione è un identificatore univoco per la partizione di una determinata tabella che costituisce la prima parte della chiave primaria di un'entità.The partition key is a unique identifier for the partition within a given table that forms the first part of an entity's primary key. Si tratta di un valore stringa le cui dimensioni massime sono di 1 KB.It is a string value that may be up to 1 KB in size.
Chiave di rigaRow key Nome della colonna di output contenente la chiave di riga.The name of the output column containing the row key. La chiave di riga è un identificatore univoco per un’entità all'interno di una determinata partizione.The row key is a unique identifier for an entity within a given partition. Costituisce la seconda parte della chiave primaria di un'entità.It forms the second part of an entity’s primary key. La chiave di riga è un valore stringa le cui dimensioni massime sono di 1 KB.The row key is a string value that may be up to 1 KB in size.
Dimensioni dei batchBatch size Numero di record per un'operazione batch.The number of records for a batch operation. Il valore predefinito (100) è sufficiente per la maggior parte dei processi.The default (100) is sufficient for most jobs. Vedere la specifica relativa alle operazioni batch su tabella per altre informazioni sulla modifica di questa impostazione.Refer to the Table Batch Operation spec for more details on modifying this setting.

Code del bus di servizioService Bus Queues

Code del bus di servizio consentono un recapito dei messaggi di tipo FIFO (First In, First Out) a uno o più consumer concorrenti.Service Bus Queues offer a First In, First Out (FIFO) message delivery to one or more competing consumers. Si prevede in genere che i messaggi vengano ricevuti ed elaborati nell'ordine temporale in cui sono stati aggiunti alla coda e ogni messaggio viene ricevuto ed elaborato da un solo consumer.Typically, messages are expected to be received and processed by the receivers in the temporal order in which they were added to the queue, and each message is received and processed by only one message consumer.

La tabella seguente elenca i nomi delle proprietà e la relativa descrizione per la creazione di un output di coda.The table below lists the property names and their description for creating a Queue output.

Nome proprietàProperty name descriptiondescription
Alias di outputOutput alias Nome descrittivo usato nelle query per indirizzare l'output delle query a questa coda del bus di servizio.A friendly name used in queries to direct the query output to this Service Bus Queue.
Spazio dei nomi del bus di servizioService Bus namespace Uno spazio dei nomi Service Bus è un contenitore per un set di entità di messaggistica.A Service Bus namespace is a container for a set of messaging entities.
Nome della codaQueue name Nome della coda del bus di servizio.The name of the Service Bus Queue.
Nome criteri codaQueue policy name Durante la creazione di una coda, nella scheda Configura coda è anche possibile creare criteri di accesso condiviso. Tutti i criteri di accesso condiviso dispongono di un nome e di autorizzazioni impostati, nonché di chiavi di accesso.When you create a Queue, you can also create shared access policies on the Queue Configure tab. Each shared access policy has a name, permissions that you set, and access keys.
Chiave criteri codaQueue policy key Chiave di accesso condivisa usata per autenticare l'accesso allo spazio dei nomi del bus di servizioThe Shared Access key used to authenticate access to the Service Bus namespace
Formato di serializzazione eventiEvent serialization format Formato di serializzazione per i dati di output.Serialization format for output data. Sono supportati i formati JSON, CSV e Avro.JSON, CSV, and Avro are supported.
CodificaEncoding Al momento UTF-8 è l'unico formato di codifica supportato per i formati CSV e JSONFor CSV and JSON, UTF-8 is the only supported encoding format at this time
DelimitatoreDelimiter Applicabile solo per la serializzazione CSV.Only applicable for CSV serialization. Analisi di flusso supporta una serie di delimitatori comuni per la serializzazione dei dati in formato CSV.Stream Analytics supports a number of common delimiters for serializing data in CSV format. I valori supportati sono virgola, punto e virgola, spazio, tabulazione e barra verticale.Supported values are comma, semicolon, space, tab, and vertical bar.
FormatFormat Applicabile solo per il tipo JSON.Only applicable for JSON type. Separato da righe specifica che l'output viene formattato separando ciascun oggetto JSON con una nuova riga.Line separated specifies that the output is formatted by having each JSON object separated by a new line. Array specifica che l'output viene formattato come matrice di oggetti JSON.Array specifies that the output is formatted as an array of JSON objects.

Il numero di partizioni è basato sullo SKU e sulle dimensioni del bus di servizio.The number of partitions is based on the Service Bus SKU and size. La chiave di partizione è un valore intero univoco per ogni partizione.Partition key is a unique integer value for each partition.

Argomenti del bus di servizioService Bus Topics

Le code del bus di servizio forniscono un metodo di comunicazione uno-a-uno dal mittente al destinatario, invece gli argomenti del bus di servizio offrono una forma di comunicazione uno-a-molti.While Service Bus Queues provide a one to one communication method from sender to receiver, Service Bus Topics provide a one-to-many form of communication.

La tabella seguente elenca i nomi delle proprietà e la relativa descrizione per la creazione di un output di tabelle.The table below lists the property names and their description for creating a table output.

Nome proprietàProperty name DESCRIZIONEDescription
Alias di outputOutput alias Nome descrittivo usato nelle query per indirizzare l'output delle query a questo argomento del bus di servizio.A friendly name used in queries to direct the query output to this Service Bus Topic.
Spazio dei nomi del bus di servizioService Bus namespace Uno spazio dei nomi Service Bus è un contenitore per un set di entità di messaggistica.A Service Bus namespace is a container for a set of messaging entities. Quando si crea un nuovo hub eventi, viene anche creato uno spazio dei nomi del bus di servizioWhen you created a new Event Hub, you also created a Service Bus namespace
Nome argomentoTopic name Gli argomenti sono entità di messaggistica, simili agli Hub eventi e alle code.Topics are messaging entities, similar to event hubs and queues. Sono progettati per raccogliere i flussi di eventi da diversi dispositivi e servizi.They're designed to collect event streams from a number of different devices and services. Quando un argomento viene creato, gli viene assegnato un nome specifico.When a topic is created, it is also given a specific name. Dal momento che i messaggi inviati a un argomento non sono disponibili se non viene creata una sottoscrizione, assicurarsi che esistano una o più sottoscrizioni per l'argomentoThe messages sent to a Topic isn't available unless a subscription is created, so ensure there are one or more subscriptions under the topic
Nome criteri argomentoTopic policy name Durante la creazione di un argomento, nella scheda Configura argomento è anche possibile creare criteri di accesso condiviso. Tutti i criteri di accesso condiviso dispongono di un nome e di autorizzazioni impostati, nonché di chiavi di accessoWhen you create a Topic, you can also create shared access policies on the Topic Configure tab. Each shared access policy has name, permissions that you set, and access keys
Chiave criteri argomentoTopic policy key Chiave di accesso condivisa usata per autenticare l'accesso allo spazio dei nomi del bus di servizioThe Shared Access key used to authenticate access to the Service Bus namespace
Formato di serializzazione eventiEvent serialization format Formato di serializzazione per i dati di output.Serialization format for output data. Sono supportati i formati JSON, CSV e Avro.JSON, CSV, and Avro are supported.
CodificaEncoding Se il formato è CSV o JSON, è necessario specificare un formato di codifica.If using CSV or JSON format, an encoding must be specified. Al momento UTF-8 è l'unico formato di codifica supportatoUTF-8 is the only supported encoding format at this time
DelimitatoreDelimiter Applicabile solo per la serializzazione CSV.Only applicable for CSV serialization. Analisi di flusso supporta una serie di delimitatori comuni per la serializzazione dei dati in formato CSV.Stream Analytics supports a number of common delimiters for serializing data in CSV format. I valori supportati sono virgola, punto e virgola, spazio, tabulazione e barra verticale.Supported values are comma, semicolon, space, tab, and vertical bar.

Il numero di partizioni è basato sullo SKU e sulle dimensioni del bus di servizio.The number of partitions is based on the Service Bus SKU and size. La chiave di partizione è un valore intero univoco per ogni partizione.Partition key is a unique integer value for each partition.

Azure Cosmos DBAzure Cosmos DB

Azure Cosmos DB è un servizio di database multimodello distribuito a livello globale che offre scalabilità elastica illimitata in tutto il mondo, query avanzate e indicizzazione automatica su modelli di dati indipendenti dallo schema, è garantito a bassa latenza ed è leader del settore per i contratti di servizio completi.Azure Cosmos DB is a globally distributed, multi-model database service that offers limitless elastic scale around the globe, rich query, and automatic indexing over schema-agnostic data models, guaranteed low latency, and industry-leading comprehensive SLAs. Per informazioni sulle opzioni di raccolta di Cosmos DB per Analisi di flusso, consultare l'articolo Analisi di flusso con Cosmos DB come output.To learn about Cosmos DB collection options for Stream Analytics, refer to the Stream Analytics with Cosmos DB as output article.

L'output di Azure Cosmos DB da Stream Analytics non è attualmente disponibile nelle aree di Azure Cina (21Vianet) e Germania (T-Systems International).Azure Cosmos DB output from Stream Analytics is currently not available in the Azure China (21Vianet) and Azure Germany (T-Systems International) regions.

Nota

Ad oggi, Analisi di flusso di Azure supporta la connessione a CosmosDB solo tramite l'API SQL.At this time, Azure Stream Analytics only supports connection to CosmosDB using SQL API. Altre API di Azure Cosmos DB non sono ancora supportate.Other Azure Cosmos DB APIs are not yet supported. Se Analisi di flusso di Azure punta agli account Azure Cosmos DB creati con altre API, i dati potrebbero non essere archiviati correttamente.If you point Azure Stream Analytics to the Azure Cosmos DB accounts created with other APIs, the data might not be properly stored.

Nella tabella seguente sono descritte le proprietà per la creazione di un output di Azure Cosmos DB.The following table describes the properties for creating an Azure Cosmos DB output.

Nome proprietàProperty name descriptiondescription
Alias di outputOutput alias Alias per fare riferimento a questo output nella query di Analisi di flusso di Azure.An alias to refer this output in your Stream Analytics query.
SinkSink Cosmos DBCosmos DB
Opzione di importazioneImport option Scegliere "Selezionare Cosmos DB dalle sottoscrizioni correnti" o "Specificare le impostazioni di Cosmos DB manualmente".Choose either to "Select Cosmos DB from your subscription", or to "Provide Cosmos DB settings manually".
ID accountAccount id Nome o URI endpoint dell'account Cosmos DB.The name or endpoint URI of the Cosmos DB account.
Chiave accountAccount key Chiave di accesso condiviso per l'account Cosmos DB.The shared access key for the Cosmos DB account.
DatabaseDatabase Nome del database Cosmos DB.The Cosmos DB database name.
Modello nome raccoltaCollection name pattern Nome di raccolta o relativo modello per le raccolte da usare.The collection name or their pattern for the collections to be used.
Il formato del nome di raccolta può essere costruito utilizzando il token {partizione} facoltativo, dove le partizioni iniziano da 0.The collection name format can be constructed using the optional {partition} token, where partitions start from 0. Due esempi:Two examples:
1. MyCollection: deve essere presente una raccolta denominata "MyCollection".1. MyCollection – One collection named "MyCollection" must exist.
2. MyCollection{partition}: basata sulla colonna di partizionamento.2. MyCollection{partition} – Based on the partitioning column.
Devono essere presenti le raccolte della colonna di partizionamento "MyCollection0", "MyCollection1", "MyCollection2" e così via.The partitioning column collections must exist– "MyCollection0", "MyCollection1", "MyCollection2" and so on.
Chiave di partizionePartition Key facoltativo.Optional. È necessario solo se si usa un token {partition} nel modello del nome di raccolta.This is only needed if you are using a {partition} token in your collection name pattern.
La chiave di partizione è il nome del campo negli eventi di output usato per specificare la chiave per il partizionamento dell'output tra le raccolte.The partition key is the name of the field in output events used to specify the key for partitioning output across collections.
Per l'output di una singola raccolta si può usare qualsiasi colonna di output,For single collection output, any arbitrary output column can be used. ad esempio PartitionId.For example, PartitionId.
Document IDDocument ID facoltativo.Optional. Il nome del campo negli eventi di output usato per specificare la chiave primaria su cui si basano le operazioni di inserimento o aggiornamento.The name of the field in output events used to specify the primary key on which insert or update operations are based.

Funzioni di AzureAzure Functions

Funzioni di Azure è un servizio di calcolo senza server che consente di eseguire codice su richiesta senza dover gestire l'infrastruttura o effettuare il provisioning in modo esplicito.Azure Functions is a serverless compute service that enables you to run code on-demand without having to explicitly provision or manage infrastructure. Consente di implementare il codice attivato da eventi generati nei servizi di Azure o in servizi di terze parti.It lets you implement code that is triggered by events occurring in Azure or third-party services. La possibilità offerta da Funzioni di Azure di rispondere ai trigger la rende l'output naturale per Analisi di flusso di Azure.This ability of Azure Functions to respond to triggers makes it a natural output for an Azure Stream Analytics. Questo adattatore di output consente agli utenti di collegare Analisi di flusso a Funzioni di Azure ed eseguire uno script o una porzione di codice in risposta a diversi eventi.This output adapter allows users to connect Stream Analytics to Azure Functions, and run a script or piece of code in response to a variety of events.

L'output di Funzioni di Azure da Stream Analytics non è attualmente disponibile nelle aree di Azure Cina (21Vianet) e Germania (T-Systems International).Azure Functions output from Stream Analytics is currently not available in the Azure China (21Vianet) and Azure Germany (T-Systems International) regions.

Analisi di flusso di Azure richiama Funzioni di Azure tramite trigger HTTP.Azure Stream Analytics invokes Azure Functions via HTTP triggers. Il nuovo adattatore di input di Funzioni di Azure è disponibile con le seguenti proprietà configurabili:The new Azure Function Output adapter is available with the following configurable properties:

Nome proprietàProperty name descriptiondescription
App per le funzioniFunction app Nome dell'app Funzioni di AzureName of your Azure Functions App
FunzioneFunction Nome della funzione nell'app Funzioni di AzureName of the function in your Azure Functions App
ChiaveKey Per usare una funzione di Azure di un'altra sottoscrizione, è necessario fornire la chiave per accedere alla funzioneIf you want to use an Azure Function from another subscription, you can do so by providing the key to access your function
Dimensioni massime batchMax batch size Questa proprietà può essere usata per impostare le dimensioni massime per ogni batch di output inviato a Funzioni di Azure.This property can be used to set the maximum size for each output batch that is sent to your Azure Function. Per impostazione predefinita questo valore è 256 KB.By default, this value is 256 KB
Numero massimo di batchMax batch count Come indica il nome, questa proprietà consente di specificare il numero massimo di eventi in ogni batch che vengono inviati a Funzioni di Azure.As the name indicates, this property lets you specify the maximum number of events in each batch that gets sent to Azure Functions. Il valore di conteggio massimo di batch predefinito è 100The default max batch count value is 100

Quando Analisi di flusso di Azure riceve l'eccezione 413 (Entità richiesta HTTP troppo grande) dalla funzione di Azure, riduce la dimensione dei batch che invia a Funzioni di Azure.When Azure Stream Analytics receives 413 (http Request Entity Too Large) exception from Azure function, it reduces the size of the batches it sends to Azure Functions. Usare questa eccezione nel codice della funzione di Azure per fare in modo che Analisi di flusso di Azure non invii batch troppo grandi.In your Azure function code, use this exception to make sure that Azure Stream Analytics doesn’t send oversized batches. Assicurarsi anche che i valori relativi alle dimensioni massime e al numero massimo di batch usati nella funzione siano conformi ai valori inseriti nel portale di Analisi di flusso di Azure.Also, make sure that the max batch count and size values used in the function are consistent with the values entered in the Stream Analytics portal.

Quando non avviene alcun evento in un intervallo di tempo, non viene generato alcun output.Also, in a situation where there is no event landing in a time window, no output is generated. Di conseguenza, non viene chiamata la funzione computeResult.As a result, computeResult function is not called. Questo comportamento è coerente con le funzioni di aggregazione finestra predefinite.This behavior is consistent with the built-in windowed aggregate functions.

PartizionamentoPartitioning

Nella tabella seguente viene riepilogato il supporto della partizione e il numero di writer di output per ogni tipo di output:The following table summarizes the partition support and the number of output writers for each output type:

Tipo di outputOutput type Supporto del partizionamentoPartitioning support Chiave di partizionePartition key Numero di writer di outputNumber of output writers
Archivio Azure Data LakeAzure Data Lake Store Yes Use i token {date} e {time} nello schema prefisso percorso.Use {date} and {time} tokens in the Path prefix pattern. Scegliere il formato della data, ad esempio YYYY/MM/DD, DD/MM/YYYY, MM-DD-YYYY.Choose the Date format, such as YYYY/MM/DD, DD/MM/YYYY, MM-DD-YYYY. HH viene usato per il formato dell'ora.HH is used for the Time format. Segue il partizionamento dell'input per le query completamente eseguibili in parallelo.Follows the input partitioning for fully parallelizable queries.
database SQL di AzureAzure SQL Database No No NessunaNone Non applicabileNot applicable.
Archivio BLOB di AzureAzure Blob storage Yes Usare i token {date} e {time} dai campi dell'evento nel modello di percorso.Use {date} and {time} tokens from your event fields in the Path pattern. Scegliere il formato della data, ad esempio YYYY/MM/DD, DD/MM/YYYY, MM-DD-YYYY.Choose the Date format, such as YYYY/MM/DD, DD/MM/YYYY, MM-DD-YYYY. HH viene usato per il formato dell'ora.HH is used for the Time format. Nell'ambito dell'anteprima, l'output del BLOB può essere partizionato in base a un singolo attributo dell'evento personalizzato {fieldname}.As part of the preview, blob output can be partitioned by a single custom event attribute {fieldname}. Segue il partizionamento dell'input per le query completamente eseguibili in parallelo.Follows the input partitioning for fully parallelizable queries.
Hub eventi di AzureAzure Event Hub Yes Yes Varia a seconda dell'allineamento della partizione.Varies depending on partition alignment.
Quando la chiave di partizione di output di Hub eventi è ugualmente allineata al passo di query upstream (precedente), il numero di writer è uguale al numero di partizioni di Hub eventi.When the output Event Hub partition key is equally aligned with upstream (previous) query step, the number of writers is the same the number of output Event Hub partitions. Ogni writer usa la classe EventHubSender di EventHub per inviare eventi alla partizione specifica.Each writer uses EventHub’s EventHubSender class to send events to the specific partition.
Quando la chiave di partizione di output di Hub eventi non è allineata al passo di query upstream (precedente), il numero di writer è uguale al numero di partizioni in tale passo precedente.When the output Event Hub partition key is not aligned with upstream (previous) query step, the number of writers is the same as the number of partitions in that prior step. Ogni writer usa la classe SendBatchAsync di EventHubClient per inviare eventi a tutte le partizioni di output.Each writer uses EventHubClient SendBatchAsync class to send events to all the output partitions.
Power BIPower BI No No NessunaNone Non applicabileNot applicable.
Archiviazione tabelle di AzureAzure Table storage Yes Qualsiasi colonna di output.Any output column. Segue il partizionamento dell'input per le query completamente eseguibili in parallelo.Follows the input partitioning for fully parallelized queries.
Argomento del bus di servizio di AzureAzure Service Bus Topic Yes Scelto automaticamente.Automatically chosen. Il numero di partizioni è basato sullo SKU e sulle dimensioni del bus di servizio.The number of partitions is based on the Service Bus SKU and size. La chiave di partizione è un valore intero univoco per ogni partizione.Partition key is a unique integer value for each partition. Corrisponde al numero di partizioni nell'argomento di output.Same as the number of partitions in the output topic.
Coda del bus di servizio di AzureAzure Service Bus Queue Yes Scelto automaticamente.Automatically chosen. Il numero di partizioni è basato sullo SKU e sulle dimensioni del bus di servizio.The number of partitions is based on the Service Bus SKU and size. La chiave di partizione è un valore intero univoco per ogni partizione.Partition key is a unique integer value for each partition. Corrisponde al numero di partizioni nella coda di output.Same as the number of partitions in the output queue.
Azure Cosmos DBAzure Cosmos DB Yes Usare il token {partition} nel modello del nome della raccolta.Use {partition} token in the Collection name pattern. Il valore di {partition} è basato sulla clausola PARTITION BY nella query.{partition} value is based on the PARTITION BY clause in the query. Segue il partizionamento dell'input per le query completamente eseguibili in parallelo.Follows the input partitioning for fully parallelized queries.
Funzioni di AzureAzure Functions No No NessunaNone Non applicabileNot applicable.

Dimensione del batch di outputOutput batch size

Analisi di flusso di Azure usa batch di dimensioni variabili per l'elaborazione degli eventi e la scrittura negli output.Azure Stream Analytics uses variable size batches to process events and write to outputs. Il motore di Analisi di flusso non scrive generalmente un messaggio alla volta e usa i batch per migliorare l'efficienza.Typically the Stream Analytics engine does not write one message at a time, and uses batches for efficiency. Quando la frequenza di eventi in ingresso e in uscita è elevata, usa batch di dimensioni maggiori.When both the incoming and the outgoing events rate is high, it uses larger batches. Quando la frequenza in uscita è bassa, usa batch di dimensioni minori per mantenere bassa la latenza.When the egress rate is low, it uses smaller batches to keep latency low.

La tabella seguente spiega alcune considerazioni per l'invio in batch dell'output:The following table explains some of the considerations to output batching:

Tipo di outputOutput type Dimensioni massime messaggioMax message size Ottimizzazione delle dimensioni batchBatch size optimization
Archivio Azure Data LakeAzure Data Lake Store Vedere Limiti di Data Lake StoreSee Data Lake Storage limits Fino a 4 MB per ogni operazione di scritturaUp to 4 MB per write operation
database SQL di AzureAzure SQL Database Numero massimo di 10.000 righe per ogni singolo inserimento bulk10,000 Max rows per single bulk insert
Numero minimo di 100 righe per ogni singolo inserimento bulk100 Min rows per single bulk insert
Vedere anche Limiti di Azure SQLSee also Azure SQL limits
Per ogni batch viene inizialmente eseguito l'inserimento bulk con le dimensioni batch massime. Il batch può essere diviso a metà (fino alla dimensione batch minima) in base a errori SQL non irreversibili.Every batch is initially bulk inserted with Max batch size and may split batch into half (until Min batch size) based on retryable errors from SQL.
Archivio BLOB di AzureAzure Blob storage Vedere Limiti di Archiviazione di AzureSee Azure Storage limits Le dimensioni massime dei blocchi di BLOB sono pari a 4 MBMaximum Blob block size is 4 MB
Il numero massimo di blocchi di BLOB è 50000Maximum Blob bock count is 50000
Hub eventi di AzureAzure Event Hub 256 kB per ogni messaggio256 KB per message
Vedere anche Limiti relativi all'hub eventiSee also Event Hubs limits
Quando il partizionamento di input/output non è allineato, ogni evento viene inserito individualmente in un elemento EventData e inviato in un batch che può raggiungere le dimensioni massime del messaggio (1 MB per SKU Premium).When Input Output partitioning doesn’t align, each event is packed individually in an EventData and sent in a batch of up to the max message size (1 MB for Premium SKU).
Quando il partizionamento di input/output è allineato, più eventi vengono inseriti in un singolo elemento EventData fino alle dimensioni massime del messaggio e inviati.When Input-Output partitioning is aligned, multiple events are packed into a single EventData up to max message size and sent.
Power BIPower BI Vedere Limitazioni dell'API REST di Power BISee Power BI Rest API limits
Archiviazione tabelle di AzureAzure Table storage Vedere Limiti di Archiviazione di AzureSee Azure Storage limits Il valore predefinito è 100 entità per ogni singola transazione e può essere configurato su un valore inferiore in base alle esigenze.Default is 100 entities per single transaction, and can be configured to a smaller value as needed.
Coda del bus di servizio di AzureAzure Service Bus queue 256 kB per ogni messaggio256 KB per message
Vedere anche Limiti del bus di servizioSee also Service Bus limits
Singolo evento per ogni messaggioSingle event per message
Argomento del bus di servizio di AzureAzure Service Bus topic 256 kB per ogni messaggio256 KB per message
Vedere anche Limiti del bus di servizioSee also Service Bus limits
Singolo evento per ogni messaggioSingle event per message
Azure Cosmos DBAzure Cosmos DB Vedere Limiti relativi ad Azure Cosmos DBSee Azure Cosmos DB limits Le dimensioni batch e la frequenza di scrittura vengono modificate in modo dinamico in base alle risposte di CosmosDB.Batch size and Write frequency is adjusted dynamically based CosmosDB responses.
Nessuna limitazione predeterminata di Analisi di flusso.No predetermined limitations from Stream Analytics.
Funzioni di AzureAzure Functions Le dimensioni batch predefinite sono pari a 246 kB.Default batch size is 246 KB.
Il numero di eventi predefinito per ogni batch è 100.Default event count per batch is 100.
Le dimensioni batch sono configurabili e possono essere aumentate o ridotte nelle opzioni di output di Analisi di flusso.The batch size is configurable and can be increased or decreased in the Stream Analytics output options.

Passaggi successiviNext steps