Cenário de preços usando um pipeline de dados para carregar 1 TB de dados do Parquet em uma tabela Lakehouse
Nesse cenário, uma atividade de cópia foi usada em um pipeline de dados para carregar 1 TB de dados do Parquet armazenados no Azure Data Lake Storage (ADLS) Gen2 em uma tabela Lakehouse no Microsoft Fabric.
Os preços usados no exemplo a seguir são hipotéticos e não pretendem implicar preços reais exatos. Estes são apenas para demonstrar como você pode estimar, planejar e gerenciar o custo para projetos do Data Factory no Microsoft Fabric. Além disso, como as capacidades de malha têm preços exclusivos entre regiões, usamos o preço pré-pago para uma capacidade de malha no Oeste dos EUA 2 (uma região típica do Azure), a US$ 0,18 por por hora. Consulte aqui Microsoft Fabric - Pricing para explorar outras opções de preços de capacidade de malha.
Configuração
Para realizar esse cenário, você precisa criar um pipeline com a seguinte configuração:
Estimativa de custos usando o aplicativo Fabric Metrics
A operação de movimentação de dados utilizou 291.960 segundos com uma duração de 810,16 segundos (13,5 minutos) enquanto a operação de execução de atividade era nula, uma vez que não havia nenhuma atividade sem cópia na execução do pipeline.
Nota
Embora relatada como uma métrica, a duração real da execução não é relevante ao calcular as horas efetivas com o Fabric Metrics App, uma vez que a métrica segundos que ela também relata já contabiliza sua duração.
Metric | Operação de movimentação de dados |
---|---|
segundos | 291.960 segundos |
-horas efetivas | (291.960) / (60*60)-horas = 81,1-horas |
Custo total de execução em $0.18/hora = (81.1-horas) * ($0.18/hora ) ~= $14.60
Conteúdos relacionados
Comentários
https://aka.ms/ContentUserFeedback.
Brevemente: Ao longo de 2024, vamos descontinuar progressivamente o GitHub Issues como mecanismo de feedback para conteúdos e substituí-lo por um novo sistema de feedback. Para obter mais informações, veja:Submeter e ver comentários