Wyjaśnienie procesu fabryki danych

Ukończone

Przepływy pracy oparte na danych

Potoki (oparte na danych przepływy pracy) w usłudze Azure Data Factory zwykle wykonują następujące cztery kroki:

Data Factory procesu

Łączenie i zbieranie

Pierwszym krokiem tworzenia systemu orkiestracji jest zdefiniowanie i połączenie wszystkich wymaganych źródeł danych, takich jak bazy danych, udziały plików i usługi sieci Web FTP. Następnym krokiem jest pozysowanie danych w razie potrzeby do scentralizowanej lokalizacji w celu ich późniejszego przetworzenia.

Przekształcanie i wzbogacanie

Usługi obliczeniowe, takie jak Databricks i Machine Learning, mogą służyć do przygotowywania lub tworzenia przekształconych danych zgodnie z owalnym i kontrolowanym harmonogramem, aby zapewnić oczyszczone i przekształcone dane w środowiskach produkcyjnych. W niektórych przypadkach możesz nawet rozszerzyć dane źródłowe o dodatkowe dane, aby pomóc w analizie, lub skonsolidować je za pomocą procesu normalizacji, który będzie używany jako przykład w eksperymencie Machine Learning danych.

Publikowanie

Po przekształceniu danych pierwotnych w gotowy do użycia w firmie formularz z fazy transformacji i wzbogacania można załadować dane do usług Azure Data Warehouse, Azure SQL Database, Azure Cosmos DB lub w zależności od aparatu analitycznego, na który użytkownicy biznesowi mogą wskazać swoje narzędzia do analizy biznesowej

Monitor

Azure Data Factory ma wbudowaną obsługę monitorowania potoku za pośrednictwem interfejsu Azure Monitor, interfejsu API, programu PowerShell, dzienników programu Azure Monitor i paneli kondycji na platformie Azure Portal w celu monitorowania zaplanowanych działań i potoków pod względu na wskaźniki powodzenia i niepowodzeń.