Analisi end-to-end con Azure Synapse

Azure Synapse Analytics
Azure Cosmos DB
Azure Data Factory
Azure Databricks
Hub eventi di Azure

La soluzione descritta in questo articolo combina una gamma di servizi di Azure che inseriscono, archiviano, elaborano, arricchiscono e gestiscono dati e informazioni dettagliate da diverse origini (strutturate, semistrutturate, non strutturate e streaming).

Architettura

Diagramma dell'architettura per una piattaforma dati moderna che usa i servizi dati di Azure.

Scaricare un file di Visio di questa architettura.

Nota

  • I servizi coperti da questa architettura sono solo un subset di una famiglia molto più ampia di servizi di Azure. Risultati simili possono essere ottenuti usando altri servizi o funzionalità non coperti da questa progettazione.
  • Requisiti aziendali specifici per il proprio caso d'uso di analisi potrebbero richiedere l'uso di servizi o funzionalità diversi che non vengono considerati in questa progettazione.

Flusso di dati

I casi d'uso di analisi coperti dall'architettura sono illustrati dalle diverse origini dati sul lato sinistro del diagramma. I flusso dei dati attraverso la soluzione avviene dal basso verso l'alto come indicato di seguito:

Nota

Nelle sezioni seguenti Azure Data Lake viene usato come home per i dati in tutte le varie fasi del ciclo di vita dei dati. Azure Data Lake è organizzato in base a livelli e contenitori diversi, come indicato di seguito:

  • Il livello raw è l'area di destinazione per i dati provenienti dai sistemi di origine. Come suggerisce il nome, i dati in questo livello sono in forma non elaborata, non filtrata e non recuperata.
  • Nella fase successiva del ciclo di vita i dati vengono spostati nel livello arricchito in cui i dati vengono puliti, filtrati ed eventualmente trasformati.
  • I dati vengono quindi spostati nel livello Curato, in cui vengono mantenuti i dati pronti per l'utente.

Per una revisione completa dei livelli e dei contenitori di Azure Data Lake e dei relativi usi, vedere la documentazione relativa alle zone e ai contenitori di Data Lake.

Servizi dati di Azure, HTAP nativo del cloud con Azure Cosmos DB e Dataverse

Processo
  1. Collegamento ad Azure Synapse per Azure Cosmos DB e Collegamento ad Azure Synapse per Dataverse consentono di eseguire analisi near real-time sui dati operativi e delle applicazioni aziendali usando i motori di analisi disponibili nell'area di lavoro di Azure Synapse: pool di SQL Serverless e pool di Spark.

  2. Quando si usa Azure Collegamento a Synapse per Azure Cosmos DB, usare una query SQL Serverless o un notebook del pool spark. È possibile accedere all'archivio analitico di Azure Cosmos DB e quindi combinare i set di dati dai dati operativi quasi in tempo reale con i dati del data lake o dal data warehouse.

  3. Quando si usa Collegamento ad Azure Synapse per Dataverse, usare una query SQL Serverless o un notebook del pool di Spark. È possibile accedere alle tabelle Dataverse selezionate e quindi combinare i set di dati provenienti dai dati delle applicazioni aziendali near real-time con i dati del data lake o del data warehouse.

Punto vendita
  1. I set di dati risultanti dalle query SQL Serverless possono essere resi persistenti nel data lake. Se si usano notebook Spark, i set di dati risultanti possono essere resi persistenti nel data lake o nel data warehouse (SQL pool).
Server
  1. Caricare i dati rilevanti dal pool Azure Synapse SQL o dal data lake nei set di dati di Power BI per la visualizzazione e l'esplorazione dei dati. I modelli di Power BI implementano un modello semantico per semplificare l'analisi dei dati e delle relazioni aziendali. Gli analisti aziendali usano i report e i dashboard di Power BI per analizzare i dati ed estrarre informazioni dettagliate aziendali.

  2. I dati possono anche essere condivisi in modo sicuro con altre business unit o partner attendibili esterni tramite Condivisione dati di Azure. I consumer di dati hanno la libertà di scegliere il formato di dati che vogliono usare e anche il motore di calcolo più adatto per elaborare i set di dati condivisi.

  3. I dati strutturati e non strutturati archiviati nell'area di lavoro Synapse possono anche essere usati per creare soluzioni di knowledge mining e usare l'intelligenza artificiale per scoprire informazioni dettagliate aziendali preziose su diversi tipi di documenti e formati, tra cui documenti di Office, PDF, immagini, audio, moduli e pagine Web.

Database relazionali

Inserimento
  1. Usare le pipeline di Azure Synapse per eseguire il pull dei dati da un'ampia gamma di database, sia in locale che nel cloud. Le pipeline possono essere attivate in base a una pianificazione predefinita in risposta a un evento o possono essere chiamate in modo esplicito tramite le API REST.
Punto vendita
  1. All'interno del livello Data Lake non elaborato, organizzare il data lake seguendo le procedure consigliate relative ai livelli da creare, alle strutture di cartelle da usare in ogni livello e al formato dei file da usare per ogni scenario di analisi.

  2. Dalla pipeline di Azure Synapse usare un'attività Copia dati per preparare i dati copiati dai database relazionali nel livello non elaborato del data lake di Azure Data Lake Store Gen 2. È possibile salvare i dati in formato testo delimitato o compressi come file Parquet.

Processo
  1. Usare flussi di dati, query sql serverless o notebook Spark per convalidare, trasformare e spostare i set di dati dal livello non elaborato, attraverso il livello arricchito e nel livello curato nel data lake.

    1. Come parte delle trasformazioni dei dati, è possibile richiamare modelli di training automatico dai pool SQL usando notebook T-SQL o Spark standard. Questi modelli di ML possono essere usati per arricchire i set di dati e generare altre informazioni dettagliate aziendali. Questi modelli di Machine Learning possono essere utilizzati da Servizi cognitivi di Azure o da modelli di ML personalizzati in Azure ML.
Server
  1. È possibile gestire il set di dati finale direttamente dal livello Curato di Data Lake oppure è possibile usare l'attività Copia dati per inserire il set di dati finale nelle tabelle del pool SQL usando il comando COPY per l'inserimento rapido.

  2. Caricare i dati rilevanti dal pool Azure Synapse SQL o dal data lake nei set di dati di Power BI per la visualizzazione dei dati. I modelli di Power BI implementano un modello semantico per semplificare l'analisi dei dati e delle relazioni aziendali. Gli analisti aziendali usano i report e i dashboard di Power BI per analizzare i dati ed estrarre informazioni dettagliate aziendali.

  3. I dati possono anche essere condivisi in modo sicuro con altre business unit o partner attendibili esterni tramite Condivisione dati di Azure. I consumer di dati hanno la libertà di scegliere il formato di dati che vogliono usare e anche il motore di calcolo più adatto per elaborare i set di dati condivisi.

  4. I dati strutturati e non strutturati archiviati nell'area di lavoro Synapse possono anche essere usati per creare soluzioni di knowledge mining e usare l'intelligenza artificiale per scoprire informazioni dettagliate aziendali preziose su diversi tipi di documenti e formati, tra cui documenti di Office, PDF, immagini, audio, moduli e pagine Web.

Origini dati semistrutturate

Inserimento
  1. Usare le pipeline di Azure Synapse per eseguire il pull dei dati da un'ampia gamma di origini dati semistrutturate, sia in locale che nel cloud. Ad esempio:

    • Inserire dati da origini basate su file contenenti file CSV o JSON.
    • Connessione a database No-SQL, ad esempio Azure Cosmos DB o MongoDB.
    • Chiamare API REST fornite dalle applicazioni SaaS che funzioneranno come origine dati per la pipeline.
Punto vendita
  1. All'interno del livello Data Lake non elaborato, organizzare il data lake seguendo le procedure consigliate relative ai livelli da creare, alle strutture di cartelle da usare in ogni livello e al formato dei file da usare per ogni scenario di analisi.

  2. Dalla pipeline di Azure Synapse usare un'attività Copia dati per eseguire il staging dei dati copiati dalle origini dati semistrutturate nel livello non elaborato del data lake di Azure Data Lake Store Gen 2. Salvare i dati mantenendo il formato originale, come acquisito dalle origini dati.

Processo
  1. Per le pipeline batch/micro batch, usare flussi di dati, query sql serverless o notebook Spark per convalidare, trasformare e spostare i set di dati nel livello curato nel data lake. Le query SQL Serverless espongono i file CSV, Parquet o JSON sottostanti come tabelle esterne, in modo che sia possibile eseguirvi query usando T-SQL.

    1. Come parte delle trasformazioni dei dati, è possibile richiamare modelli di Machine Learning da pool SQL con T-SQL standard o notebook Spark. Questi modelli di ML possono essere usati per arricchire i set di dati e generare altre informazioni dettagliate aziendali. Questi modelli di Machine Learning possono essere utilizzati da Servizi cognitivi di Azure o da modelli di ML personalizzati in Azure ML.
  2. Per scenari di telemetria near real-time e di analisi delle serie temporali, usare i pool di Esplora dati per inserire, consolidare e correlare facilmente i log e i dati degli eventi IoT tra più origini dati. Con i pool di Esplora dati è possibile usare le query Kusto (KQL) per eseguire analisi di serie temporali, clustering geospaziale e arricchimento di Machine Learning.

Server
  1. È possibile gestire il set di dati finale direttamente dal livello Curato di Data Lake oppure è possibile usare l'attività Copia dati per inserire il set di dati finale nelle tabelle del pool SQL usando il comando COPY per l'inserimento rapido.

  2. Caricare i dati rilevanti dai pool Azure Synapse SQL, dai pool di Esplora dati o da un data lake nei set di dati di Power BI per la visualizzazione dei dati. I modelli di Power BI implementano un modello semantico per semplificare l'analisi dei dati e delle relazioni aziendali. Gli analisti aziendali usano i report e i dashboard di Power BI per analizzare i dati ed estrarre informazioni dettagliate aziendali.

  3. I dati possono anche essere condivisi in modo sicuro con altre business unit o partner attendibili esterni tramite Condivisione dati di Azure. I consumer di dati hanno la libertà di scegliere il formato di dati che vogliono usare e anche il motore di calcolo più adatto per elaborare i set di dati condivisi.

  4. I dati strutturati e non strutturati archiviati nell'area di lavoro Synapse possono anche essere usati per creare soluzioni di knowledge mining e usare l'intelligenza artificiale per scoprire informazioni dettagliate aziendali preziose su diversi tipi di documenti e formati, tra cui documenti di Office, PDF, immagini, audio, moduli e pagine Web.

Origini dati non strutturate

Inserimento
  1. Usare le pipeline di Azure Synapse per eseguire il pull dei dati da un'ampia gamma di origini dati non strutturate, sia in locale che nel cloud. Ad esempio:

    • Inserire video, immagini, audio o testo libero da origini basate su file che contengono i file di origine.
    • Chiamare API REST fornite dalle applicazioni SaaS che funzioneranno come origine dati per la pipeline.
Punto vendita
  1. All'interno del livello Data Lake non elaborato, organizzare il data lake seguendo le procedure consigliate relative ai livelli da creare, alle strutture di cartelle da usare in ogni livello e al formato dei file da usare per ogni scenario di analisi.

  2. Dalla pipeline di Azure Synapse usare un'attività Copia dati per preparare i dati copiati dalle origini dati non strutturate nel livello non elaborato del data lake di Azure Data Lake Store Gen 2. Salvare i dati mantenendo il formato originale, come acquisito dalle origini dati.

Processo
  1. Usare i notebook Spark per convalidare, trasformare, arricchire e spostare i set di dati dal livello raw, attraverso il livello arricchito e nel livello curato nel data lake.

    1. Come parte delle trasformazioni dei dati, è possibile richiamare modelli di Machine Learning da pool SQL con T-SQL standard o notebook Spark. Questi modelli di ML possono essere usati per arricchire i set di dati e generare altre informazioni dettagliate aziendali. Questi modelli di Machine Learning possono essere utilizzati da Servizi cognitivi di Azure o da modelli di ML personalizzati in Azure ML.
Server
  1. È possibile gestire il set di dati finale direttamente dal livello Curato data lake oppure usare l'attività Copia dati per inserire il set di dati finale nelle tabelle del data warehouse usando il comando COPY per l'inserimento rapido.

  2. Caricare i dati rilevanti dal pool Azure Synapse SQL o dal data lake nei set di dati di Power BI per la visualizzazione dei dati. I modelli di Power BI implementano un modello semantico per semplificare l'analisi dei dati e delle relazioni aziendali.

  3. Gli analisti aziendali usano i report e i dashboard di Power BI per analizzare i dati ed estrarre informazioni dettagliate aziendali.

  4. I dati possono anche essere condivisi in modo sicuro con altre business unit o partner attendibili esterni tramite Condivisione dati di Azure. I consumer di dati hanno la libertà di scegliere il formato di dati che vogliono usare e anche il motore di calcolo più adatto per elaborare i set di dati condivisi.

  5. I dati strutturati e non strutturati archiviati nell'area di lavoro Synapse possono anche essere usati per creare soluzioni di knowledge mining e usare l'intelligenza artificiale per scoprire informazioni dettagliate aziendali preziose su diversi tipi di documenti e formati, tra cui documenti di Office, PDF, immagini, audio, moduli e pagine Web.

Streaming

Inserimento
  1. Usare Hub eventi di Azure o Hub IoT di Azure per inserire flussi di dati generati da applicazioni client o dispositivi IoT. Hub eventi o Hub IoT inserisce e archivia i dati di streaming mantenendo la sequenza di eventi ricevuti. I consumer possono quindi connettersi agli endpoint di Hub eventi o Hub IoT e recuperare i messaggi per l'elaborazione.
Punto vendita
  1. All'interno del livello Data Lake non elaborato, organizzare il data lake seguendo le procedure consigliate relative ai livelli da creare, alle strutture di cartelle da usare in ogni livello e al formato dei file da usare per ogni scenario di analisi.

  2. Configurare l'acquisizione di Hub eventi o gli endpoint hub IoT Archiviazione per salvare una copia degli eventi nel livello non elaborato del data lake di Azure Data Lake Store Gen 2. Questa funzionalità implementa il "percorso non critico" del modello di architettura Lambda e consente di eseguire analisi cronologiche e delle tendenze sui dati di flusso salvati nel data lake usando query di SQL Serverless o notebook Spark seguendo il modello per le origini dati semistrutturate descritto in precedenza.

Processo
  1. Per informazioni dettagliate in tempo reale, usare un processo di Analisi di flusso per implementare il "percorso critico" del modello di architettura Lambda ed estrarre informazioni dettagliate dai dati del flusso in transito. Definire almeno un input per il flusso di dati proveniente dall'Hub eventi o dall'Hub IoT, una query per elaborare il flusso di dati di input e un output di Power BI a cui verranno inviati i risultati della query.

    1. Come parte dell'elaborazione dati con Analisi di flusso, è possibile richiamare modelli di Machine Learning per arricchire i set di dati di flusso e prendere le decisioni aziendali in base alle stime generate. Questi modelli di Machine Learning possono essere utilizzati da Servizi cognitivi di Azure o da modelli di ML personalizzati in Azure Machine Learning.
  2. Usare altri output dei processi di Analisi di flusso per inviare eventi elaborati ai pool Azure Synapse SQL o ai pool di Esplora dati per altri casi d'uso di analisi.

  3. Per scenari di telemetria near real-time e di analisi delle serie temporali, usare i pool di Esplora dati per inserire facilmente eventi IoT direttamente da Hub eventi o Hub IoT. Con i pool di Esplora dati è possibile usare le query Kusto (KQL) per eseguire analisi di serie temporali, clustering geospaziale e arricchimento di Machine Learning.

Server
  1. Gli analisti aziendali usano quindi i set di dati n tempo reale e le funzionalità del dashboard di Power BI per visualizzare le informazioni dettagliate in rapida evoluzione generate dalla query di Analisi di flusso.

  2. I dati possono anche essere condivisi in modo sicuro con altre business unit o partner attendibili esterni tramite Condivisione dati di Azure. I consumer di dati hanno la libertà di scegliere il formato di dati che vogliono usare e anche il motore di calcolo più adatto per elaborare i set di dati condivisi.

  3. I dati strutturati e non strutturati archiviati nell'area di lavoro Synapse possono anche essere usati per creare soluzioni di knowledge mining e usare l'intelligenza artificiale per scoprire informazioni dettagliate aziendali preziose su diversi tipi di documenti e formati, tra cui documenti di Office, PDF, immagini, audio, moduli e pagine Web.

Componenti

Nell'architettura sono stati usati i servizi di Azure seguenti:

Alternative

Dettagli dello scenario

Questo scenario di esempio illustra come usare Azure Synapse Analytics con l'ampia famiglia di Servizi dati di Azure per creare una piattaforma dati moderna in grado di gestire le sfide più comuni per i dati in un'organizzazione.

Potenziali casi d'uso

Questo approccio può essere usato anche per:

  • Stabilire un'architettura del prodotto dati, costituita da un data warehouse per i dati strutturati e un data lake per i dati semistrutturati e non strutturati. È possibile scegliere di distribuire un singolo prodotto dati per ambienti centralizzati o più prodotti dati per ambienti distribuiti come Data Mesh. Vedere altre informazioni sulla zona di destinazione di gestione dati e la zona di destinazione dati.
  • Integrare origini dati relazionali con altri set di dati non strutturati, con l'uso di tecnologie di elaborazione dei Big Data.
  • Usare la modellazione semantica e strumenti di visualizzazione avanzati per semplificare l'analisi dei dati.
  • Condividere set di dati all'interno dell'organizzazione o con partner esterni attendibili.
  • Implementare soluzioni di knowledge mining per estrarre informazioni aziendali preziose nascoste in immagini, PDF, documenti e così via.

Consigli

Individuazione e governance

La governance dei dati è una sfida comune negli ambienti aziendali di grandi dimensioni. Da un lato, gli analisti aziendali devono essere in grado di individuare e comprendere gli asset di dati che possono aiutare a risolvere i problemi aziendali. Dall'altro lato, i Chief Data Officer vogliono informazioni dettagliate sulla privacy e sulla sicurezza dei dati aziendali.

Microsoft Purview

  1. Usare Microsoft Purview per l'individuazione dei dati e le informazioni dettagliate sugli asset di dati, la classificazione dei dati e la riservatezza, che copre l'intero panorama dei dati dell'organizzazione.

  2. Microsoft Purview consente di gestire un glossario aziendale con la terminologia aziendale specifica necessaria agli utenti per comprendere la semantica dei set di dati e il modo in cui devono essere usati nell'organizzazione.

  3. È possibile registrare tutte le origini dati e organizzarle in raccolte, approccio che serve anche come limite di sicurezza per i metadati.

  4. Configurare analisi regolari per catalogare e aggiornare automaticamente i metadati rilevanti sugli asset di dati nell'organizzazione. Microsoft Purview può anche aggiungere automaticamente informazioni sulla derivazione dei dati in base alle informazioni provenienti da azure Data Factory o dalle pipeline di Azure Synapse.

  5. Le etichette di classificazione dei dati e riservatezza dei dati possono essere aggiunte automaticamente agli asset di dati in base a regole preconfigurate o personalizzate applicate durante le analisi regolari.

  6. I professionisti della governance dei dati possono usare i report e le informazioni dettagliate generate da Microsoft Purview per mantenere il controllo sull'intero panorama dei dati e proteggere l'organizzazione da eventuali problemi di sicurezza e privacy.

Servizi della piattaforma

Per migliorare la qualità delle soluzioni di Azure, seguire le raccomandazioni e le linee guida definite nei cinque pilastri di eccellenza dell'architettura di Well-Architected Framework di Azure: ottimizzazione dei costi, eccellenza operativa, efficienza delle prestazioni, affidabilità e sicurezza.

Seguendo queste raccomandazioni, i servizi seguenti devono essere considerati come parte della progettazione:

  1. Microsoft Entra ID: servizi di identità, single sign-on e autenticazione a più fattori tra carichi di lavoro di Azure.
  2. Gestione costi di Azure: governance finanziaria sui carichi di lavoro di Azure.
  3. Azure Key Vault: gestione sicura di credenziali e certificati. Ad esempio, le pipeline di Azure Synapse, i pool di Spark di Azure Synapse e Azure ML possono recuperare credenziali e certificati da Azure Key Vault usato per accedere in modo sicuro agli archivi dati.
  4. Monitoraggio di Azure: consente di raccogliere, analizzare e agire sulle informazioni di telemetria delle risorse di Azure per identificare in modo proattivo i problemi e massimizzare le prestazioni e l'affidabilità.
  5. Microsoft Defender for Cloud: consente di rafforzare e monitorare il comportamento di sicurezza dei carichi di lavoro di Azure.
  6. Azure DevOps e GitHub: implementare procedure DevOps per applicare l'automazione e la conformità alle pipeline di sviluppo e distribuzione del carico di lavoro per Azure Synapse e Azure ML.
  7. Criteri di Azure: consente di implementare gli standard aziendali e la governance per la coerenza delle risorse, la conformità alle normative, la sicurezza, i costi e la gestione.

Considerazioni

Queste considerazioni implementano i pilastri di Azure Well-Architected Framework, che è un set di set di principi guida che possono essere usati per migliorare la qualità di un carico di lavoro. Per altre informazioni, vedere Framework ben progettato di Microsoft Azure.

Le tecnologie in questa architettura sono state scelte perché ognuna di esse fornisce le funzionalità necessarie per gestire le sfide più comuni per i dati in un'organizzazione. Questi servizi soddisfano i requisiti di scalabilità e disponibilità, consentendo al tempo stesso di controllare i costi. I servizi coperti da questa architettura sono solo un subset di una famiglia molto più ampia di servizi di Azure. Risultati simili possono essere ottenuti usando altri servizi o funzionalità non coperti da questa progettazione.

Requisiti aziendali specifici per il proprio caso d'uso di analisi possono anche richiedere l'uso di servizi o funzionalità diversi non considerati in questa progettazione.

Un'architettura simile può essere implementata anche per ambienti di pre-produzione in cui è possibile sviluppare e testare i carichi di lavoro. Considerare i requisiti specifici per i carichi di lavoro e le funzionalità di ogni servizio per un ambiente di pre-produzione conveniente.

Ottimizzazione dei costi

L'ottimizzazione dei costi riguarda l'analisi dei modi per ridurre le spese non necessarie e migliorare l'efficienza operativa. Per altre informazioni, vedere Panoramica del pilastro di ottimizzazione dei costi.

In linea generale, usare il calcolatore dei prezzi di Azure per stimare i costi. Il singolo piano tariffario ideale e il costo complessivo totale di ogni servizio incluso nell'architettura dipendono dalla quantità di dati da elaborare e archiviare e dal livello di prestazioni accettabile previsto. Usare la guida seguente per altre informazioni sul prezzo di ogni servizio:

  • L'architettura serverless di Azure Synapse Analytics consente di dimensionare i livelli di calcolo e archiviazione in modo indipendente. Le risorse di calcolo vengono addebitate in base all'utilizzo ed è possibile dimensionare o sospendere queste risorse su richiesta. Le risorse di archiviazione vengono addebitate per terabyte, pertanto i costi aumenteranno man mano che si inseriscono altri dati.

  • Azure Data Lake Gen 2 viene addebitato in base alla quantità di dati archiviati e in base al numero di transazioni per leggere e scrivere i dati.

  • Hub eventi di Azure e Hub IoT di Azure vengono addebitati in base alla quantità di risorse di calcolo necessarie per elaborare i flussi di messaggi.

  • Gli addebiti di Azure Machine Learning derivano dalla quantità di risorse di calcolo usate per eseguire il training dei modelli di Machine Learning e distribuirli.

  • I Servizi cognitivi vengono addebitati in base al numero di chiamate effettuate alle API del servizio.

  • Il prezzo di Microsoft Purview è basato sul numero di asset di dati nel catalogo e sulla quantità di potenza di calcolo necessaria per analizzarle.

  • Analisi di flusso di Azure viene addebitato in base alla quantità di potenza di calcolo necessaria per elaborare le query di flusso.

  • Power BI offre diverse opzioni di prodotto per i differenti requisiti. Power BI Embedded fornisce un'opzione basata su Azure per incorporare le funzionalità di Power BI all'interno delle applicazioni. Un'istanza di Power BI Embedded è inclusa nell'esempio di costi riportato in precedenza.

  • Azure Cosmos DB viene calcolato in base alla quantità di risorse di archiviazione e calcolo richieste dai database.

Distribuire lo scenario

Questo acceleratore di distribuzione offre la possibilità di implementare l'intera architettura di riferimento o di scegliere i carichi di lavoro necessari per il proprio caso d'uso di analisi. È anche possibile scegliere se i servizi sono accessibili tramite endpoint pubblici o se devono essere accessibili solo tramite endpoint privati.

Usare il pulsante seguente per distribuire il riferimento usando il portale di Azure.

Distribuisci in Azure

Per informazioni dettagliate e opzioni di distribuzione aggiuntive, vedere il repository GitHub dell'acceleratore di distribuzione con la documentazione e il codice usati per definire questa soluzione.

Collaboratori

Questo articolo viene aggiornato e gestito da Microsoft. Originariamente è stato scritto dai seguenti contributori.

Autore principale:

Per visualizzare i profili LinkedIn non pubblici, accedere a LinkedIn.

Passaggi successivi