Schedule Klas
Definieert een schema voor het verzenden van een pijplijn.
Zodra een pijplijn is gepubliceerd, kan een planning worden gebruikt om de pijplijn met een opgegeven interval te verzenden of wanneer wijzigingen in een Blob-opslaglocatie worden gedetecteerd.
Planning initialiseren.
- Overname
-
builtins.objectSchedule
Constructor
Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)
Parameters
- datastore_name
- str
De naam van het gegevensarchief dat moet worden gecontroleerd op gewijzigde/toegevoegde blobs. Opmerking: 1) VNET-gegevensarchieven worden niet ondersteund. 2) Het verificatietype voor het gegevensarchief moet worden ingesteld op 'Accountsleutel'.
- polling_interval
- int
Hoe lang, in minuten, tussen polling voor gewijzigde/toegevoegde blobs.
- data_path_parameter_name
- str
De naam van de pijplijnparameter van het gegevenspad die moet worden ingesteld met het gewijzigde blobpad.
- continue_on_step_failure
- bool
Of u wilt doorgaan met de uitvoering van andere stappen in de verzonden pijplijnUitvoeren als een stap mislukt. Indien opgegeven, overschrijft dit de continue_on_step_failure-instelling voor de pijplijn.
- path_on_datastore
- str
Optioneel. Het pad in het gegevensarchief dat moet worden gecontroleerd op gewijzigde/toegevoegde blobs. Opmerking: de path_on_datastore bevindt zich onder de container voor het gegevensarchief, dus het werkelijke pad dat door de planning wordt bewaakt, is container/path_on_datastore. Als er geen gegevens zijn, wordt de gegevensarchiefcontainer bewaakt. Toevoegingen/wijzigingen die zijn aangebracht in een submap van de path_on_datastore worden niet bewaakt. Alleen ondersteund voor DataStore-schema's.
- _schedule_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
De planningsprovider.
- datastore_name
- str
De naam van het gegevensarchief dat moet worden gecontroleerd op gewijzigde/toegevoegde blobs. Opmerking: VNET-gegevensarchieven worden niet ondersteund.
- polling_interval
- int
Hoe lang, in minuten, tussen polling voor gewijzigde/toegevoegde blobs.
- data_path_parameter_name
- str
De naam van de pijplijnparameter van het gegevenspad die moet worden ingesteld met het gewijzigde blobpad.
- continue_on_step_failure
- bool
Of u wilt doorgaan met de uitvoering van andere stappen in de verzonden pijplijnUitvoeren als een stap mislukt. Indien opgegeven, overschrijft dit de continue_on_step_failure-instelling voor de pijplijn.
- path_on_datastore
- str
Optioneel. Het pad in het gegevensarchief dat moet worden gecontroleerd op gewijzigde/toegevoegde blobs. Opmerking: de path_on_datastore bevindt zich onder de container voor het gegevensarchief, dus het werkelijke pad dat door de planning wordt bewaakt, is container/path_on_datastore. Als er geen gegevens zijn, wordt de gegevensarchiefcontainer bewaakt. Toevoegingen/wijzigingen die zijn aangebracht in een submap van de path_on_datastore worden niet bewaakt. Alleen ondersteund voor DataStore-schema's.
- _schedule_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
De planningsprovider.
- pipeline_endpoint_id
- str
De id van het pijplijneindpunt dat door de planning wordt verzonden.
Opmerkingen
Er worden twee typen planningen ondersteund. De eerste gebruikt tijd terugkeerpatroon om een pijplijn volgens een bepaald schema te verzenden. De tweede controleert een AzureBlobDatastore op toegevoegde of gewijzigde blobs en verzendt een pijplijn wanneer er wijzigingen worden gedetecteerd.
Als u een planning wilt maken waarmee een pijplijn volgens een terugkerend schema wordt verzonden, gebruikt u de ScheduleRecurrence bij het maken van de planning.
Een ScheduleRecurrence wordt als volgt gebruikt bij het maken van een planning voor een pijplijn:
from azureml.pipeline.core import Schedule, ScheduleRecurrence
recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=recurrence)
Met deze planning wordt de opgegeven PublishedPipeline elke 12 uur verzonden. De verzonden pijplijn wordt gemaakt onder het experiment met de naam 'helloworld'.
Als u een planning wilt maken waarmee PipelineRuns worden geactiveerd bij wijzigingen in een blobopslaglocatie, geeft u een gegevensarchief en gerelateerde gegevens op bij het maken van de planning.
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
experiment_name="helloworld", datastore=datastore,
polling_interval=5, path_on_datastore="file/path")
Houd er rekening mee dat de parameters polling_interval en path_on_datastore optioneel zijn. De polling_interval geeft aan hoe vaak moet worden gecontroleerd op wijzigingen in het gegevensarchief. Dit is standaard 5 minuten. path_on_datastore kunt u gebruiken om op te geven welke map in het gegevensarchief moet worden gecontroleerd op wijzigingen. Indien Geen, wordt de Datastore-container bewaakt. Opmerking: blob-toevoegingen/wijzigingen in submappen van de path_on_datastore of de datastorecontainer (als er geen path_on_datastore is opgegeven) worden niet gedetecteerd.
Als de pijplijn is gemaakt om een DataPathPipelineParameter te gebruiken voor het beschrijven van een stapinvoer, gebruikt u de parameter data_path_parameter_name bij het maken van een schema dat door datastore wordt geactiveerd om de invoer in te stellen voor het gewijzigde bestand wanneer een PipelineRun wordt verzonden door de Planning.
Wanneer in het volgende voorbeeld de PipelineRun wordt geactiveerd met de planning, wordt de waarde van de pijplijnparameter 'input_data' ingesteld als het bestand dat is gewijzigd/toegevoegd:
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", datastore=datastore,
data_path_parameter_name="input_data")
Zie voor meer informatie over Planningen: https://aka.ms/pl-schedule.
Methoden
create |
Maak een planning voor een pijplijn. Geef een terugkeerpatroon op voor een schema op basis van tijd of geef een gegevensarchief, (optioneel) polling_interval en (optioneel) data_path_parameter_name op om een planning te maken waarmee de locatie van het gegevensarchief wordt gecontroleerd op wijzigingen/toevoegingen. |
create_for_pipeline_endpoint |
Maak een planning voor een pijplijneindpunt. Geef een terugkeerpatroon op voor een schema op basis van tijd of geef een gegevensarchief, (optioneel) polling_interval en (optioneel) data_path_parameter_name op om een planning te maken waarmee de locatie van het gegevensarchief wordt gecontroleerd op wijzigingen/toevoegingen. |
disable |
Stel de planning in op Uitgeschakeld en niet beschikbaar om uit te voeren. |
enable |
Stel de planning in op 'Actief' en is beschikbaar om uit te voeren. |
get |
Haal het schema op met de opgegeven id. |
get_all |
Alle planningen in de huidige werkruimte ophalen. AFGESCHAFT: deze methode wordt afgeschaft ten gunste van de list methode. |
get_last_pipeline_run |
Haal de laatste pijplijnuitvoering op die volgens de planning is verzonden. Retourneert Geen als er geen uitvoeringen zijn verzonden. |
get_pipeline_runs |
Haal de pijplijnuitvoeringen op die zijn gegenereerd op basis van de planning. |
get_schedules_for_pipeline_endpoint_id |
Haal alle planningen op voor de opgegeven eindpunt-id van de pijplijn. |
get_schedules_for_pipeline_id |
Haal alle planningen op voor de opgegeven pijplijn-id. |
list |
Alle planningen in de huidige werkruimte ophalen. |
load_yaml |
Laad en lees het YAML-bestand om planningsparameters op te halen. YAML-bestand is nog een manier om planningsparameters door te geven om een planning te maken. |
update |
Werk de planning bij. |
create
Maak een planning voor een pijplijn.
Geef een terugkeerpatroon op voor een schema op basis van tijd of geef een gegevensarchief, (optioneel) polling_interval en (optioneel) data_path_parameter_name op om een planning te maken waarmee de locatie van het gegevensarchief wordt gecontroleerd op wijzigingen/toevoegingen.
static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parameters
- experiment_name
- str
De naam van het experiment waarop het schema wordt verzonden, wordt uitgevoerd.
- pipeline_parameters
- dict
Een woordenlijst met parameters voor het toewijzen van nieuwe waarden {param name, param value}
- wait_for_provisioning
- bool
Of moet worden gewacht tot het inrichten van de planning is voltooid.
- wait_timeout
- int
Het aantal seconden dat moet worden gewacht voordat er een time-out optreedt.
- datastore
- AzureBlobDatastore
Het gegevensarchief dat moet worden gecontroleerd op gewijzigde/toegevoegde blobs. Opmerking: VNET-gegevensarchieven worden niet ondersteund. Kan niet worden gebruikt met een terugkeerpatroon.
- polling_interval
- int
Hoe lang, in minuten, tussen polling voor gewijzigde/toegevoegde blobs. Standaard is dit 5 minuten. Alleen ondersteund voor DataStore-schema's.
- data_path_parameter_name
- str
De naam van de pijplijnparameter van het gegevenspad die moet worden ingesteld met het gewijzigde blobpad. Alleen ondersteund voor DataStore-schema's.
- continue_on_step_failure
- bool
Of u wilt doorgaan met de uitvoering van andere stappen in de verzonden pijplijnUitvoeren als een stap mislukt. Indien opgegeven, overschrijft dit de continue_on_step_failure-instelling voor de pijplijn.
- path_on_datastore
- str
Optioneel. Het pad in het gegevensarchief dat moet worden gecontroleerd op gewijzigde/toegevoegde blobs. Opmerking: de path_on_datastore bevindt zich onder de container voor het gegevensarchief, dus het werkelijke pad dat door de planning wordt bewaakt, is container/path_on_datastore. Als er geen gegevens zijn, wordt de gegevensarchiefcontainer bewaakt. Toevoegingen/wijzigingen die zijn aangebracht in een submap van de path_on_datastore worden niet bewaakt. Alleen ondersteund voor DataStore-schema's.
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
De werkstroomprovider.
Retouren
De gemaakte planning.
Retourtype
create_for_pipeline_endpoint
Maak een planning voor een pijplijneindpunt.
Geef een terugkeerpatroon op voor een schema op basis van tijd of geef een gegevensarchief, (optioneel) polling_interval en (optioneel) data_path_parameter_name op om een planning te maken waarmee de locatie van het gegevensarchief wordt gecontroleerd op wijzigingen/toevoegingen.
static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parameters
- pipeline_endpoint_id
- str
De id van het pijplijneindpunt dat door de planning wordt verzonden.
- experiment_name
- str
De naam van het experiment waarop het schema wordt verzonden, wordt uitgevoerd.
- pipeline_parameters
- dict
Een woordenlijst met parameters voor het toewijzen van nieuwe waarden {param name, param value}
- wait_for_provisioning
- bool
Of moet worden gewacht tot het inrichten van de planning is voltooid.
- wait_timeout
- int
Het aantal seconden dat moet worden gewacht voordat er een time-out optreedt.
- datastore
- AzureBlobDatastore
Het gegevensarchief dat moet worden gecontroleerd op gewijzigde/toegevoegde blobs. Opmerking: VNET-gegevensarchieven worden niet ondersteund. Kan niet worden gebruikt met een terugkeerpatroon.
- polling_interval
- int
Hoe lang, in minuten, tussen polling voor gewijzigde/toegevoegde blobs. Standaard is dit 5 minuten. Alleen ondersteund voor DataStore-schema's.
- data_path_parameter_name
- str
De naam van de pijplijnparameter van het gegevenspad die moet worden ingesteld met het gewijzigde blobpad. Alleen ondersteund voor DataStore-schema's.
- continue_on_step_failure
- bool
Of u wilt doorgaan met de uitvoering van andere stappen in de verzonden pijplijnUitvoeren als een stap mislukt. Indien opgegeven, overschrijft dit de continue_on_step_failure-instelling voor de pijplijn.
- path_on_datastore
- str
Optioneel. Het pad in het gegevensarchief dat moet worden gecontroleerd op gewijzigde/toegevoegde blobs. Opmerking: de path_on_datastore bevindt zich onder de container voor het gegevensarchief, dus het werkelijke pad dat door de planning wordt bewaakt, is container/path_on_datastore. Als er geen gegevens zijn, wordt de gegevensarchiefcontainer bewaakt. Toevoegingen/wijzigingen die zijn aangebracht in een submap van de path_on_datastore worden niet bewaakt. Alleen ondersteund voor DataStore-schema's.
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
De werkstroomprovider.
Retouren
De gemaakte planning.
Retourtype
disable
Stel de planning in op Uitgeschakeld en niet beschikbaar om uit te voeren.
disable(wait_for_provisioning=False, wait_timeout=3600)
Parameters
- wait_for_provisioning
- bool
Of moet worden gewacht tot het inrichten van de planning is voltooid.
- wait_timeout
- int
Het aantal seconden dat moet worden gewacht voordat er een time-out optreedt.
enable
Stel de planning in op 'Actief' en is beschikbaar om uit te voeren.
enable(wait_for_provisioning=False, wait_timeout=3600)
Parameters
- wait_for_provisioning
- bool
Of moet worden gewacht tot het inrichten van de planning is voltooid.
- wait_timeout
- int
Het aantal seconden dat moet worden gewacht voordat er een time-out optreedt.
get
Haal het schema op met de opgegeven id.
static get(workspace, id, _workflow_provider=None, _service_endpoint=None)
Parameters
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
De werkstroomprovider.
Retouren
Schedule-object
Retourtype
get_all
Alle planningen in de huidige werkruimte ophalen.
AFGESCHAFT: deze methode wordt afgeschaft ten gunste van de list methode.
static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parameters
- active_only
- bool
Als dit waar is, retourneert u alleen schema's die momenteel actief zijn. Alleen van toepassing als er geen pijplijn-id is opgegeven.
- pipeline_id
- str
Als dit is opgegeven, retourneert u alleen schema's voor de pijplijn met de opgegeven id.
- pipeline_endpoint_id
- str
Indien opgegeven, retourneer alleen schema's voor het pijplijneindpunt met de opgegeven id.
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
De werkstroomprovider.
Retouren
Een lijst met Schedule.
Retourtype
get_last_pipeline_run
Haal de laatste pijplijnuitvoering op die volgens de planning is verzonden. Retourneert Geen als er geen uitvoeringen zijn verzonden.
get_last_pipeline_run()
Retouren
De laatste pijplijnuitvoering.
Retourtype
get_pipeline_runs
Haal de pijplijnuitvoeringen op die zijn gegenereerd op basis van de planning.
get_pipeline_runs()
Retouren
Een lijst met PipelineRun.
Retourtype
get_schedules_for_pipeline_endpoint_id
Haal alle planningen op voor de opgegeven eindpunt-id van de pijplijn.
static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)
Parameters
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
De werkstroomprovider.
Retouren
Een lijst met Schedule.
Retourtype
get_schedules_for_pipeline_id
Haal alle planningen op voor de opgegeven pijplijn-id.
static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)
Parameters
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
De werkstroomprovider.
Retouren
Een lijst met Schedule.
Retourtype
list
Alle planningen in de huidige werkruimte ophalen.
static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parameters
- active_only
- bool
Als dit waar is, retourneert u alleen schema's die momenteel actief zijn. Alleen van toepassing als er geen pijplijn-id is opgegeven.
- pipeline_id
- str
Als dit is opgegeven, retourneert u alleen schema's voor de pijplijn met de opgegeven id.
- pipeline_endpoint_id
- str
Indien opgegeven, retourneer alleen schema's voor het pijplijneindpunt met de opgegeven id.
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
De werkstroomprovider.
Retouren
Een lijst met Schedule.
Retourtype
load_yaml
Laad en lees het YAML-bestand om planningsparameters op te halen.
YAML-bestand is nog een manier om planningsparameters door te geven om een planning te maken.
static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)
Parameters
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
De werkstroomprovider.
Retouren
Een woordenlijst met Schedule parameters en waarden.
Retourtype
Opmerkingen
Er worden twee typen YAML ondersteund voor Planningen. De eerste leest en laadt terugkeerpatroongegevens voor het maken van een planning om de pijplijn te activeren. De tweede leest en laadt gegevensarchiefgegevens voor het maken van een planning om de pijplijn te activeren.
Voorbeeld van het maken van een planning waarmee een pijplijn bij een terugkeerpatroon wordt verzonden, als volgt:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_recurrence.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
description=schedule_info.get("description"))
Voorbeeld van YAML-bestand test_schedule_with_recurrence.yaml:
Schedule:
description: "Test create with recurrence"
recurrence:
frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
interval: 1 # how often fires
start_time: 2019-06-07T10:50:00
time_zone: UTC
hours:
- 1
minutes:
- 0
time_of_day: null
week_days:
- Friday
pipeline_parameters: {'a':1}
wait_for_provisioning: True
wait_timeout: 3600
datastore_name: ~
polling_interval: ~
data_path_parameter_name: ~
continue_on_step_failure: None
path_on_datastore: ~
Voorbeeld om een planning te maken waarmee een pijplijn in een gegevensarchief wordt verzonden, als volgt:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_datastore.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
polling_interval=schedule_info.get("polling_interval"),
data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
path_on_datastore=schedule_info.get("path_on_datastore"))
update
Werk de planning bij.
update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)
Parameters
- recurrence
- ScheduleRecurrence
Het nieuwe schema-terugkeerpatroon van de pijplijn.
- pipeline_parameters
- dict
Een woordenlijst met parameters voor het toewijzen van nieuwe waarden {param name, param value}.
- wait_for_provisioning
- bool
Of moet worden gewacht tot het inrichten van de planning is voltooid.
- wait_timeout
- int
Het aantal seconden dat moet worden gewacht voordat er een time-out optreedt.
- datastore
- AzureBlobDatastore
Het gegevensarchief dat moet worden bewaakt op gewijzigde/toegevoegde blobs. Opmerking: VNET-gegevensarchieven worden niet ondersteund.
- polling_interval
- int
Hoe lang, in minuten, tussen polling voor gewijzigde/toegevoegde blobs. Standaard is dit 5 minuten.
- data_path_parameter_name
- str
De naam van de pijplijnparameter van het gegevenspad die moet worden ingesteld met het gewijzigde blobpad.
- continue_on_step_failure
- bool
Of u wilt doorgaan met de uitvoering van andere stappen in de verzonden PipelineRun als een stap mislukt. Indien opgegeven, overschrijft dit de continue_on_step_failure-instelling voor de pijplijn.
- path_on_datastore
- str
Optioneel. Het pad in het gegevensarchief dat moet worden bewaakt op gewijzigde/toegevoegde blobs. Opmerking: de path_on_datastore bevindt zich onder de container voor het gegevensarchief, dus het werkelijke pad dat door de planning wordt bewaakt, is container/path_on_datastore. Als er geen is, wordt de gegevensarchiefcontainer bewaakt. Toevoegingen/wijzigingen in een submap van de path_on_datastore worden niet bewaakt. Alleen ondersteund voor DataStore-schema's.
Kenmerken
continue_on_step_failure
Haal de waarde van de instelling op continue_on_step_failure
.
Retouren
De waarde van de continue_on_step_failure
instelling
Retourtype
data_path_parameter_name
Haal de naam op van de pijplijnparameter van het gegevenspad die moet worden ingesteld met het gewijzigde blobpad.
Retouren
De naam van de gegevenspadparameter.
Retourtype
datastore_name
Haal de naam op van het gegevensarchief dat voor de planning wordt gebruikt.
Retouren
De naam van het gegevensarchief.
Retourtype
description
id
name
path_on_datastore
Haal het pad op in het gegevensarchief dat door de planning wordt bewaakt.
Retouren
Het pad naar het gegevensarchief.
Retourtype
pipeline_endpoint_id
Haal de id op van het pijplijneindpunt dat door de planning wordt verzonden.
Retouren
De id.
Retourtype
pipeline_id
polling_interval
Bekijk hoe lang, in minuten, tussen polling voor gewijzigde/toegevoegde blobs.
Retouren
Het polling-interval.
Retourtype
recurrence
Haal het schema-terugkeerpatroon op.
Retouren
Het schema-terugkeerpatroon.
Retourtype
status
Feedback
https://aka.ms/ContentUserFeedback.
Binnenkort beschikbaar: In de loop van 2024 zullen we GitHub-problemen geleidelijk uitfaseren als het feedbackmechanisme voor inhoud en deze vervangen door een nieuw feedbacksysteem. Zie voor meer informatie:Feedback verzenden en weergeven voor