Condividi tramite


Scenario di determinazione dei prezzi con Dataflow Gen2 per caricare 2 GB di dati CSV locali in una tabella Lakehouse

In questo scenario, Dataflow Gen2 è stato usato per caricare 2 GB di dati CSV locali in una tabella Lakehouse in Microsoft Fabric.

I prezzi utilizzati nell'esempio seguente sono ipotetici e non intendono implicare prezzi effettivi esatti. Questi sono solo per dimostrare come è possibile stimare, pianificare e gestire i costi per i progetti di Data Factory in Microsoft Fabric. Inoltre, dal momento che le capacità di Fabric sono costose in modo univoco tra le aree, vengono usati i prezzi con pagamento in base al consumo per una capacità infrastruttura negli Stati Uniti occidentali 2 (una tipica area di Azure), a $0,18 per CU all'ora. Fare riferimento qui a Microsoft Fabric - Prezzi per esplorare altre opzioni di determinazione dei prezzi della capacità dell'infrastruttura.

Impostazione

Per eseguire questo scenario, è necessario creare un flusso di dati con la procedura seguente:

  1. Inizializza flusso di dati: iniziare caricando 2 GB di file CSV dall'ambiente locale nel flusso di dati.
  2. Configurare Power Query:
    1. Passare a Power Query.
    2. Disabilitare l'opzione per la gestione temporanea della query.
    3. Procedere con la combinazione dei file CSV.
  3. Trasformazione dati:
    1. Alzare di livello le intestazioni per maggiore chiarezza.
    2. Rimuovere colonne non necessarie.
    3. Modificare i tipi di dati della colonna in base alle esigenze.
  4. Definire la destinazione dei dati di output:
    1. Configurare Lakehouse come destinazione di output dei dati.
    2. In questo esempio è stato creato e utilizzato un Lakehouse all'interno di Fabric.

Stima dei costi con l'app per le metriche di infrastruttura

Screenshot showing the duration and CU consumption of the job in the Fabric Metrics App.

Screenshot showing details of the Dataflow Gen2 Refresh cost

Screenshot showing details of a Dataflow Gen2 High Scale Dataflow Compute consumption used in the run.

Screenshot showing details of a second Dataflow Gen2 High Scale Dataflow Compute consumption used in the run.

L'operazione di aggiornamento di Dataflow Gen2 ha utilizzato 4749,42 SECONDI CU e due operazioni di calcolo dei flussi di dati su larga scala hanno utilizzato 7,78 SECONDI CU + 7,85 CU secondi ciascuno.

Nota

Anche se segnalata come metrica, la durata effettiva dell'esecuzione non è rilevante quando si calcolano le ore di cu effettive con l'app per le metriche delle metriche delle metriche cu poiché la metrica dei secondi cu segnala già la durata.

Metric Utilizzo di calcolo
Dataflow Gen2 Refresh CU seconds 4749,42 SECONDI CU
Secondi cu di calcolo dei flussi di dati su larga scala (7,78 + 7,85) 15,63 SECONDI CU
Ore cu effettive fatturate (4749,42 + 15,63) / (60*60) = 1,32 ORE CU

Costo totale esecuzione a $0,18/CU ora = (1,32 CU-hours) * ($0,18/CU hour) ~= $0,24