Een pijplijnuitvoering publiceren in Azure Data Factory

Voltooid

Nadat u hebt gecontroleerd of een Azure Data Factory-pijplijn wordt uitgevoerd via de functie voor foutopsporing in Azure Data Factory, kunt u deze publiceren in de Azure Data Factory-service. Als u alles publiceert, publiceert u alle wijzigingen en updates die u in de pijplijn zelf hebt aangebracht.

Azure Data Factory voert eerst een validatiecontrole uit om te controleren of alle resources (de toewijzing van de gegevensstroom, de opslaginstellingen enzovoort) voldoen aan de vereisten. Als niet aan de vereisten wordt voldaan, ziet u een zijpaneel waarin wordt uitgelegd wat de fout is en hoe u deze kunt oplossen.

Als de validatiecontrole slaagt, kunt u de pijplijn activeren. Trigger start nu één handmatige pijplijnuitvoering, maar het is ook mogelijk om een plannings- of gebeurtenistrigger te maken om de pijplijn in Azure Data Factory operationeel te maken.

Trigger now option in Azure Data Factory

Als u de gegevensstroom hebt geactiveerd, start de gegevensstroom een Just-In-Time Apache Spark-cluster, dat wordt beëindigd zodra de pijplijn is voltooid en de taak wordt afgesloten. Omdat het echter een Just-In-Time Apache Spark-cluster is, kan het 5-7 minuten duren voordat het Apache Spark-cluster is geactiveerd.

Zodra u meer pijplijnen gaat ontwikkelen, is het belangrijk om de pijplijnen bij te houden die u hebt gemaakt. Hiervoor is er een tabblad Monitor in Azure Data Factory, waarmee standaard alle uitvoeringsinformatie gedurende 45 dagen wordt opgeslagen. Als u de metrische gegevens langer wilt houden dan de standaardtijd, kunt u Azure Data Factory configureren met Azure Monitor.

In de weergave uitvoeringen van activiteit kunt u de details van de pijplijnuitvoering controleren, net zoals de foutopsporingsuitvoering.

Nu u hebt geleerd om een pijplijn te publiceren en te bewaken in Azure Data Factory, gaat u in de volgende les de pijplijn bewaken.