Esercitazione: Creare la prima data factory di Azure usando l'API REST di Data Factory

In questo articolo viene usata l'API REST di Data Factory per creare la prima data factory di Azure. Per eseguire l'esercitazione usando altri strumenti/SDK, selezionare una delle opzioni dall'elenco a discesa.

La pipeline in questa esercitazione include un'attività, l'attività Hive di HDInsight, che esegue uno script Hive in un cluster Azure HDInsight per trasformare i dati di input e generare i dati di output. L'esecuzione della pipeline è pianificata una volta al mese tra le ore di inizio e di fine specificate.

Nota

Questo articolo non illustra tutte le API REST. Per una documentazione completa sull'API REST, vedere Data Factory REST API Reference (Informazioni di riferimento sull'API REST di Data Factory).

Una pipeline può includere più attività ed è possibile concatenarne due, ovvero eseguire un'attività dopo l'altra, impostando il set di dati di output di un'attività come set di dati di input dell'altra. Per altre informazioni, vedere Pianificazione ed esecuzione in Data Factory.

Prerequisiti

  • Vedere la panoramica dell'esercitazione ed eseguire i passaggi relativi ai prerequisiti .
  • Installare Curl nel computer. Lo strumento CURL viene usato insieme ai comandi REST per creare una data factory.
  • Seguire le istruzioni disponibili in questo articolo per:
    1. Creare un'applicazione Web denominata ADFGetStartedApp in Azure Active Directory.
    2. Ottenere i valori per l'ID client e la chiave privata.
    3. Ottenere l' ID tenant.
    4. Assegnare l'applicazione ADFGetStartedApp al ruolo Collaboratore Data Factory.
  • Installare Azure PowerShell.
  • Avviare Azure PowerShell ed eseguire il comando seguente. Mantenere aperto Azure PowerShell fino alla fine dell'esercitazione. Se si chiude e si riapre, sarà necessario eseguire di nuovo questi comandi.
    1. Eseguire Login-AzureRmAccount e immettere il nome utente e la password usati per accedere al portale di Azure.
    2. Eseguire Get-AzureRmSubscription per visualizzare tutte le sottoscrizioni per l'account.
    3. Eseguire Get-AzureRmSubscription -SubscriptionName NameOfAzureSubscription | Set-AzureRmContext per selezionare la sottoscrizione che si vuole usare. Sostituire NameOfAzureSubscription con il nome della sottoscrizione di Azure.
  • Creare un gruppo di risorse di Azure denominato ADFTutorialResourceGroup eseguendo questo comando in PowerShell:

    New-AzureRmResourceGroup -Name ADFTutorialResourceGroup  -Location "West US"
    

    Per alcuni dei passaggi in questa esercitazione si presuppone l'uso del gruppo di risorse denominato ADFTutorialResourceGroup. Se si usa un gruppo di risorse diverso, è necessario usare il nome del gruppo di risorse invece di ADFTutorialResourceGroup in questa esercitazione.

Creare le definizioni JSON

Creare i file JSON seguenti nella cartella che include curl.exe.

datafactory.json

Importante

Il nome deve essere univoco a livello globale, quindi è consigliabile aggiungere un prefisso/suffisso ad ADFCopyTutorialDF per renderlo univoco.

{
    "name": "FirstDataFactoryREST",
    "location": "WestUS"
}

azurestoragelinkedservice.json

Importante

Sostituire accountname e accountkey con il nome e la chiave dell'account di archiviazione di Azure. Per informazioni su come ottenere la chiave di accesso alle risorse di archiviazione, vedere le informazioni su come visualizzare, copiare e rigenerare le chiavi di accesso alle risorse di archiviazione in Gestire l'account di archiviazione.

{
    "name": "AzureStorageLinkedService",
    "properties": {
        "type": "AzureStorage",
        "typeProperties": {
            "connectionString": "DefaultEndpointsProtocol=https;AccountName=<accountname>;AccountKey=<accountkey>"
        }
    }
}

hdinsightondemandlinkedservice.json

{
    "name": "HDInsightOnDemandLinkedService",
    "properties": {
        "type": "HDInsightOnDemand",
        "typeProperties": {
            "version": "3.5",
            "clusterSize": 1,
            "timeToLive": "00:05:00",
            "osType": "Linux",
            "linkedServiceName": "AzureStorageLinkedService"
        }
    }
}

La tabella seguente fornisce le descrizioni delle proprietà JSON usate nel frammento di codice:

Proprietà Descrizione
ClusterSize Dimensioni del cluster HDInsight.
TimeToLive Specifica il tempo di inattività del cluster HDInsight, prima che sia eliminato.
linkedServiceName Specifica l'account di archiviazione che viene usato per archiviare i log generati da HDInsight.

Tenere presente quanto segue:

  • Data Factory crea automaticamente un cluster HDInsight basato su Linux con il codice JSON precedente. Per i dettagli, vedere Servizio collegato Azure HDInsight su richiesta .
  • È possibile usare il proprio cluster HDInsight anziché un cluster HDInsight su richiesta. Per i dettagli, vedere Servizio collegato Azure HDInsight .
  • Il cluster HDInsight crea un contenitore predefinito nell'archivio BLOB specificato nel file JSON (linkedServiceName). HDInsight non elimina il contenitore quando viene eliminato il cluster. Questo comportamento dipende dalla progettazione. Con il servizio collegato HDInsight su richiesta, viene creato un cluster HDInsight ogni volta che viene elaborata una sezione, a meno che non esista un cluster attivo (timeToLive) che viene eliminato al termine dell'elaborazione.

    Man mano che vengono elaborate più sezioni, vengono visualizzati numerosi contenitori nell'archivio BLOB di Azure. Se non sono necessari per risolvere i problemi relativi ai processi, è possibile eliminarli per ridurre i costi di archiviazione. I nomi dei contenitori seguono questo schema: "adfyourdatafactoryname-linkedservicename-datetimestamp". Per eliminare i contenitori nell'archivio BLOB di Azure, usare strumenti come Microsoft Azure Storage Explorer .

Per i dettagli, vedere Servizio collegato Azure HDInsight su richiesta .

inputdataset.json

{
    "name": "AzureBlobInput",
    "properties": {
        "type": "AzureBlob",
        "linkedServiceName": "AzureStorageLinkedService",
        "typeProperties": {
            "fileName": "input.log",
            "folderPath": "adfgetstarted/inputdata",
            "format": {
                "type": "TextFormat",
                "columnDelimiter": ","
            }
        },
        "availability": {
            "frequency": "Month",
            "interval": 1
        },
        "external": true,
        "policy": {}
    }
}

Il codice JSON definisce un set di dati denominato AzureBlobInput, che rappresenta dati di input per un'attività nella pipeline. Specifica anche che i dati di input si trovano nel contenitore BLOB denominato adfgetstarted e nella cartella denominata inputdata.

La tabella seguente fornisce le descrizioni delle proprietà JSON usate nel frammento di codice:

Proprietà Descrizione
type La proprietà type è impostata su AzureBlob perché i dati si trovano nell'archiviazione BLOB di Azure.
linkedServiceName Fa riferimento all'oggetto StorageLinkedService creato in precedenza.
fileName Questa proprietà è facoltativa. Se si omette questa proprietà, vengono prelevati tutti i file da folderPath. In tal caso viene elaborato solo il file input.log.
type I file di log sono in formato testo, quindi viene usato TextFormat.
columnDelimiter Le colonne nei file di log sono delimitate da virgola (,).
frequenza/intervallo La frequenza è impostata su Month e l'intervallo è 1, ciò significa che le sezioni di input sono disponibili con cadenza mensile.
external Questa proprietà è impostata su true se i dati di input non vengono generati dal servizio Data factory.

outputdataset.json

{
    "name": "AzureBlobOutput",
    "properties": {
        "type": "AzureBlob",
        "linkedServiceName": "AzureStorageLinkedService",
        "typeProperties": {
            "folderPath": "adfgetstarted/partitioneddata",
            "format": {
                "type": "TextFormat",
                "columnDelimiter": ","
            }
        },
        "availability": {
            "frequency": "Month",
            "interval": 1
        }
    }
}

Il codice JSON definisce un set di dati denominato AzureBlobOutput, che rappresenta dati di output per un'attività nella pipeline. Specifica anche che i risultati vengono archiviati nel contenitore BLOB denominato adfgetstarted e nella cartella denominata partitioneddata. La sezione availability specifica che il set di dati di output viene generato su base mensile.

pipeline.json

Importante

Sostituire storageaccountname con il nome del proprio account di archiviazione di Azure.

{
    "name": "MyFirstPipeline",
    "properties": {
        "description": "My first Azure Data Factory pipeline",
        "activities": [{
            "type": "HDInsightHive",
            "typeProperties": {
                "scriptPath": "adfgetstarted/script/partitionweblogs.hql",
                "scriptLinkedService": "AzureStorageLinkedService",
                "defines": {
                    "inputtable": "wasb://adfgetstarted@<stroageaccountname>.blob.core.windows.net/inputdata",
                    "partitionedtable": "wasb://adfgetstarted@<stroageaccountname>t.blob.core.windows.net/partitioneddata"
                }
            },
            "inputs": [{
                "name": "AzureBlobInput"
            }],
            "outputs": [{
                "name": "AzureBlobOutput"
            }],
            "policy": {
                "concurrency": 1,
                "retry": 3
            },
            "scheduler": {
                "frequency": "Month",
                "interval": 1
            },
            "name": "RunSampleHiveActivity",
            "linkedServiceName": "HDInsightOnDemandLinkedService"
        }],
        "start": "2017-07-10T00:00:00Z",
        "end": "2017-07-11T00:00:00Z",
        "isPaused": false
    }
}

Nel frammento di codice JSON si crea una pipeline costituita da una singola attività che usa Hive per elaborare i dati in un cluster HDInsight.

Il file di script Hive, partitionweblogs.hql, è archiviato nell'account di archiviazione di Azure (specificato da scriptLinkedService, denominato StorageLinkedService) e nella cartella script nel contenitore adfgetstarted.

La sezione defines specifica le impostazioni di runtime che vengono passate allo script Hive come valori di configurazione Hive, ad esempio, ${hiveconf:inputtable}, ${hiveconf:partitionedtable}.

Le proprietà start ed end della pipeline ne specificano il periodo attivo.

Nel codice JSON dell'attività si specifica che lo script Hive viene eseguito sulla risorsa di calcolo specificata da linkedServiceName - HDInsightOnDemandLinkedService.

Nota

Per informazioni dettagliate sulle proprietà JSON usate nell'esempio precedente, vedere la sezione "Pipeline JSON" dell'articolo Pipeline e attività in Azure Data Factory.

Configurare le variabili globali

In Azure PowerShell eseguire i comandi seguenti dopo avere sostituito i valori con quelli personalizzati:

Importante

Per istruzioni su come ottenere i valori per ID client, segreto client, ID tenant e ID sottoscrizione, vedere la sezione Prerequisiti .

$client_id = "<client ID of application in AAD>"
$client_secret = "<client key of application in AAD>"
$tenant = "<Azure tenant ID>";
$subscription_id="<Azure subscription ID>";

$rg = "ADFTutorialResourceGroup"
$adf = "FirstDataFactoryREST"

Eseguire l'autenticazione con AAD

$cmd = { .\curl.exe -X POST https://login.microsoftonline.com/$tenant/oauth2/token  -F grant_type=client_credentials  -F resource=https://management.core.windows.net/ -F client_id=$client_id -F client_secret=$client_secret };
$responseToken = Invoke-Command -scriptblock $cmd;
$accessToken = (ConvertFrom-Json $responseToken).access_token;

(ConvertFrom-Json $responseToken)

Creare un'istanza di Data Factory

In questo passaggio viene creata un'istanza di Azure Data Factory denominata FirstDataFactoryREST. Una data factory può comprendere una o più pipeline. Una pipeline può comprendere una o più attività. Ad esempio, un'attività di copia per copiare dati da un archivio dati di origine a uno di destinazione e un'attività Hive HDInsight per eseguire uno script Hive e trasformare i dati. Eseguire i comandi seguenti per creare la data factory:

  1. Assegnare il comando alla variabile denominata cmd.

    Verificare che il nome della data factory specificato qui (ADFCopyTutorialDF) corrisponda al nome specificato in datafactory.json.

    $cmd = {.\curl.exe -X PUT -H "Authorization: Bearer $accessToken" -H "Content-Type: application/json" --data “@datafactory.json” https://management.azure.com/subscriptions/$subscription_id/resourcegroups/$rg/providers/Microsoft.DataFactory/datafactories/FirstDataFactoryREST?api-version=2015-10-01};
    
  2. Eseguire il comando usando Invoke-Command.

    $results = Invoke-Command -scriptblock $cmd;
    
  3. Visualizzare i risultati. Se la data factory è stata creata correttamente, in results viene visualizzato il codice JSON per la data factory. In caso contrario, viene visualizzato un messaggio di errore.

    Write-Host $results
    

Tenere presente quanto segue:

  • È necessario specificare un nome univoco globale per la Data factory di Azure. Se nei risultati viene visualizzato l'errore Il nome "FirstDataFactoryREST" per la data factory non è disponibile, seguire questa procedura:
    1. Modificare il nome, ad esempio nomeutenteFirstDataFactoryREST, nel file datafactory.json . Per informazioni sulle regole di denominazione per gli elementi di Data Factory, vedere l'argomento Azure Data Factory - Regole di denominazione .
    2. Nel primo comando in cui viene assegnato un valore alla variabile $cmd sostituire FirstDataFactoryREST con il nuovo nome ed eseguire il comando.
    3. Eseguire i due comandi seguenti per richiamare l'API REST per creare la data factory e stampare i risultati dell'operazione.
  • Per creare istanze di data factory, è necessario essere un collaboratore/amministratore della sottoscrizione di Azure.
  • Il nome della data factory può essere registrato come nome DNS in futuro e quindi divenire visibile pubblicamente.
  • Se viene visualizzato l'errore "La sottoscrizione non è registrata per l'uso dello spazio dei nomi Microsoft.DataFactory", eseguire una di queste operazioni e provare a ripetere la pubblicazione:

    • In Azure PowerShell eseguire questo comando per registrare il provider di Data Factory:

      Register-AzureRmResourceProvider -ProviderNamespace Microsoft.DataFactory
      

      Per verificare che il provider di Data Factory sia registrato è possibile eseguire questo comando:

      Get-AzureRmResourceProvider
      
    • Accedere usando la sottoscrizione di Azure nel portale di Azure e passare al pannello Data Factory oppure creare un'istanza di Data Factory nel portale di Azure. Questa azione registra automaticamente il provider.

Prima di creare una pipeline è necessario creare alcune entità di Data factory. Creare prima di tutto i servizi collegati per collegare archivi dati/servizi di calcolo all'archivio dati, definire i set di dati di input e di output per rappresentare i dati negli archivi dati collegati.

Creazione di servizi collegati

In questo passaggio l'account di archiviazione di Azure e un cluster HDInsight su richiesta di Azure vengono collegati alla data factory. In questo esempio l'account di archiviazione di Azure contiene i dati di input e di output per la pipeline. Il servizio HDInsight collegato viene usato per eseguire uno script Hive specificato nell'attività della pipeline in questo esempio.

Creare il servizio collegato Archiviazione di Azure

In questo passaggio l'account di archiviazione di Azure viene collegato alla data factory. In questa esercitazione viene usato lo stesso account di archiviazione di Azure per archiviare i dati di input/output e il file di script HQL.

  1. Assegnare il comando alla variabile denominata cmd.

    $cmd = {.\curl.exe -X PUT -H "Authorization: Bearer $accessToken" -H "Content-Type: application/json" --data “@azurestoragelinkedservice.json” https://management.azure.com/subscriptions/$subscription_id/resourcegroups/$rg/providers/Microsoft.DataFactory/datafactories/$adf/linkedservices/AzureStorageLinkedService?api-version=2015-10-01};
    
  2. Eseguire il comando usando Invoke-Command.

    $results = Invoke-Command -scriptblock $cmd;
    
  3. Visualizzare i risultati. Se il servizio collegato è stato creato correttamente, in results viene visualizzato il codice JSON per il servizio collegato. In caso contrario, viene visualizzato un messaggio di errore.

    Write-Host $results
    

Creare un servizio collegato Azure HDInsight

In questo passaggio viene collegato un cluster HDInsight su richiesta alla data factory. Il cluster HDInsight viene creato automaticamente in fase di esecuzione ed eliminato al termine dell'elaborazione, se rimane inattivo per il periodo di tempo specificato. È possibile usare il proprio cluster HDInsight anziché un cluster HDInsight su richiesta. Per informazioni dettagliate, vedere Servizi collegati di calcolo .

  1. Assegnare il comando alla variabile denominata cmd.

    $cmd = {.\curl.exe -X PUT -H "Authorization: Bearer $accessToken" -H "Content-Type: application/json" --data "@hdinsightondemandlinkedservice.json" https://management.azure.com/subscriptions/$subscription_id/resourcegroups/$rg/providers/Microsoft.DataFactory/datafactories/$adf/linkedservices/hdinsightondemandlinkedservice?api-version=2015-10-01};
    
  2. Eseguire il comando usando Invoke-Command.

    $results = Invoke-Command -scriptblock $cmd;
    
  3. Visualizzare i risultati. Se il servizio collegato è stato creato correttamente, in results viene visualizzato il codice JSON per il servizio collegato. In caso contrario, viene visualizzato un messaggio di errore.

    Write-Host $results
    

Creare set di dati

In questo passaggio vengono creati set di dati per rappresentare i dati di input e di output per l'elaborazione Hive. I set di dati fanno riferimento all'oggetto StorageLinkedService creato in precedenza in questa esercitazione. Il servizio collegato punta a un account di archiviazione di Azure e i set di dati specificano il contenitore, la cartella e il nome del file nella risorsa di archiviazione che contiene i dati di input e di output.

Creare set di dati di input

In questo passaggio viene creato il set di dati di input per rappresentare i dati di input archiviati nell'archivio BLOB di Azure.

  1. Assegnare il comando alla variabile denominata cmd.

    $cmd = {.\curl.exe -X PUT -H "Authorization: Bearer $accessToken" -H "Content-Type: application/json" --data "@inputdataset.json" https://management.azure.com/subscriptions/$subscription_id/resourcegroups/$rg/providers/Microsoft.DataFactory/datafactories/$adf/datasets/AzureBlobInput?api-version=2015-10-01};
    
  2. Eseguire il comando usando Invoke-Command.

    $results = Invoke-Command -scriptblock $cmd;
    
  3. Visualizzare i risultati. Se il set di dati è stato creato correttamente, in results viene visualizzato il codice JSON per il set di dati. In caso contrario, viene visualizzato un messaggio di errore.

    Write-Host $results
    

Creare il set di dati di output

In questo passaggio viene creato il set di dati di output per rappresentare i dati di output archiviati nell'archivio BLOB di Azure.

  1. Assegnare il comando alla variabile denominata cmd.

    $cmd = {.\curl.exe -X PUT -H "Authorization: Bearer $accessToken" -H "Content-Type: application/json" --data "@outputdataset.json" https://management.azure.com/subscriptions/$subscription_id/resourcegroups/$rg/providers/Microsoft.DataFactory/datafactories/$adf/datasets/AzureBlobOutput?api-version=2015-10-01};
    
  2. Eseguire il comando usando Invoke-Command.

    $results = Invoke-Command -scriptblock $cmd;
    
  3. Visualizzare i risultati. Se il set di dati è stato creato correttamente, in results viene visualizzato il codice JSON per il set di dati. In caso contrario, viene visualizzato un messaggio di errore.

    Write-Host $results
    

Creare una pipeline

In questo passaggio viene creata la prima pipeline con un'attività HDInsightHive . La sezione di input è disponibile ogni mese (frequency: Month, interval: 1), la sezione di output viene generata ogni mese e anche la proprietà dell'utilità di pianificazione dell'attività è impostata su una frequenza mensile. Le impostazioni per il set di dati di output e l'utilità di pianificazione dell'attività devono corrispondere. In questo momento la pianificazione è basata sul set di dati di output, quindi è necessario creare un set di dati di output anche se l'attività non genera alcun output. Se l'attività non richiede input, è possibile ignorare la creazione del set di dati di input.

Verificare che il file input.log si trovi nella cartella adfgetstarted/inputdata nell'archivio BLOB di Azure ed eseguire il comando seguente per distribuire la pipeline. Dal momento che gli orari di inizio e fine sono impostati nel passato e isPaused è impostato su false, la pipeline (l'attività nella pipeline) viene eseguita immediatamente dopo la distribuzione.

  1. Assegnare il comando alla variabile denominata cmd.

    $cmd = {.\curl.exe -X PUT -H "Authorization: Bearer $accessToken" -H "Content-Type: application/json" --data "@pipeline.json" https://management.azure.com/subscriptions/$subscription_id/resourcegroups/$rg/providers/Microsoft.DataFactory/datafactories/$adf/datapipelines/MyFirstPipeline?api-version=2015-10-01};
    
  2. Eseguire il comando usando Invoke-Command.

    $results = Invoke-Command -scriptblock $cmd;
    
  3. Visualizzare i risultati. Se il set di dati è stato creato correttamente, in results viene visualizzato il codice JSON per il set di dati. In caso contrario, viene visualizzato un messaggio di errore.

    Write-Host $results
    
  4. La creazione della prima pipeline tramite Azure PowerShell è così completata.

Monitorare la pipeline

In questo passaggio viene usata l'API REST di Azure Data Factory per monitorare le sezioni prodotte dalla pipeline.

$ds ="AzureBlobOutput"

$cmd = {.\curl.exe -X GET -H "Authorization: Bearer $accessToken" https://management.azure.com/subscriptions/$subscription_id/resourcegroups/$rg/providers/Microsoft.DataFactory/datafactories/$adf/datasets/$ds/slices?start=1970-01-01T00%3a00%3a00.0000000Z"&"end=2016-08-12T00%3a00%3a00.0000000Z"&"api-version=2015-10-01};

$results2 = Invoke-Command -scriptblock $cmd;

IF ((ConvertFrom-Json $results2).value -ne $NULL) {
    ConvertFrom-Json $results2 | Select-Object -Expand value | Format-Table
} else {
        (convertFrom-Json $results2).RemoteException
}
Importante

La creazione di un cluster HDInsight su richiesta di solito richiede tempo (circa 20 minuti). Di conseguenza, prevedere circa 30 minuti per l'elaborazione della sezione nella pipeline.

Eseguire il comando Invoke e il comando successivo fino a quando la sezione non avrà stato Pronto o Non riuscito. Quando lo stato della sezione è Pronto, cercare i dati di output nella cartella partitioneddata del contenitore adfgetstarted nell'archivio BLOB. La creazione di un cluster HDInsight su richiesta di solito richiede tempo.

Dati di output

Importante

Il file di input viene eliminato quando la sezione viene elaborata correttamente. Per eseguire di nuovo la sezione o ripetere l'esercitazione, caricare quindi il file di input (input.log) nella cartella inputdata del contenitore adfgetstarted.

È anche possibile usare il portale di Azure per monitorare le sezioni e risolvere eventuali problemi. Per i dettagli, vedere Creare la prima data factory di Azure usando il portale di Azure/l'editor di Data Factory .

Riepilogo

In questa esercitazione è stata creata un'istanza di Azure Data Factory per elaborare i dati eseguendo lo script Hive in un cluster Hadoop di HDInsight. È stato usato l'editor di Data Factory nel portale di Azure per eseguire questa procedura:

  1. Creare un'istanza di Azure Data Factory.
  2. Creare due servizi collegati:
    1. Archiviazione di Azure per collegare l'archivio BLOB di Azure che contiene i file di input/output alla data factory.
    2. Azure HDInsight per collegare un cluster Hadoop di HDInsight alla data factory. Azure Data Factory crea un cluster Hadoop di HDInsight JIT per elaborare i dati di input e generare i dati di output.
  3. Creare due set di datiche descrivono i dati di input e di output per l'attività Hive di HDInsight nella pipeline.
  4. Creare una pipeline con un'attività Hive di HDInsight.

Passaggi successivi

In questo articolo è stata creata una pipeline con un'attività di trasformazione (attività HDInsight) che esegue uno script Hive in un cluster HDInsight su richiesta di Azure. Per informazioni su come usare un'attività di copia per copiare i dati da un BLOB di Azure ad Azure SQL, vedere Esercitazione: Copiare i dati di un BLOB di Azure in Azure SQL.

Vedere anche

Argomento Descrizione
Informazioni di riferimento sull'API REST di Data Factory Vedere la documentazione completa sui cmdlet di Data factory
Pipeline Questo articolo fornisce informazioni sulle pipeline e sulle attività in Azure Data Factory e su come usarle per costruire flussi di lavoro end-to-end basati sui dati per lo scenario o l'azienda.
Set di dati Questo articolo fornisce informazioni sui set di dati in Azure Data Factory.
Pianificazione ed esecuzione Questo articolo descrive gli aspetti di pianificazione ed esecuzione del modello applicativo di Data factory di Azure.
Monitorare e gestire le pipeline con l'app di monitoraggio Questo articolo descrive come monitorare, gestire ed eseguire il debug delle pipeline usando l'app di monitoraggio e gestione.