Schedule Klass
Definierar ett schema som en pipeline ska skickas till.
När en pipeline har publicerats kan ett schema användas för att skicka pipelinen med ett angivet intervall eller när ändringar till en Blob Storage-plats identifieras.
Initiera schema.
- Arv
-
builtins.objectSchedule
Konstruktor
Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)
Parametrar
- datastore_name
- str
Namnet på det datalager som ska övervakas för ändrade/tillagda blobar. Obs! 1) VNET-datalager stöds inte. 2) Autentiseringstypen för datalagringen ska vara inställd på "Kontonyckel".
- polling_interval
- int
Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar.
- data_path_parameter_name
- str
Namnet på pipelineparametern för datasökvägen som ska anges med den ändrade blobsökvägen.
- continue_on_step_failure
- bool
Om du vill fortsätta att köra andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen.
- path_on_datastore
- str
Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore finns under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om det inte finns någon övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman.
- _schedule_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Schemaleverantören.
- datastore_name
- str
Namnet på det datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte.
- polling_interval
- int
Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar.
- data_path_parameter_name
- str
Namnet på pipelineparametern för datasökvägen som ska anges med den ändrade blobsökvägen.
- continue_on_step_failure
- bool
Om du vill fortsätta att köra andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen.
- path_on_datastore
- str
Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore finns under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om det inte finns någon övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman.
- _schedule_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Schemaleverantören.
Kommentarer
Två typer av scheman stöds. Den första använder upprepningstid för att skicka en pipeline enligt ett visst schema. Den andra övervakar en AzureBlobDatastore för tillagda eller ändrade blobar och skickar en pipeline när ändringar identifieras.
Om du vill skapa ett schema som skickar en pipeline enligt ett återkommande schema använder du ScheduleRecurrence när du skapar schemat.
En ScheduleRecurrence används när du skapar ett schema för en pipeline på följande sätt:
from azureml.pipeline.core import Schedule, ScheduleRecurrence
recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=recurrence)
Det här schemat skickar den angivna PublishedPipeline var 12:e timme. Den skickade pipelinen skapas under experimentet med namnet "helloworld".
Om du vill skapa ett schema som utlöser PipelineRuns vid ändringar av en Blob Storage-plats anger du ett datalager och relaterad datainformation när du skapar schemat.
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
experiment_name="helloworld", datastore=datastore,
polling_interval=5, path_on_datastore="file/path")
Observera att parametrarna polling_interval och path_on_datastore är valfria. Polling_interval anger hur ofta datalagringen ska avsökas och är som standard 5 minuter. path_on_datastore kan användas för att ange vilken mapp i dataarkivet som ska övervakas för ändringar. Om ingen, övervakas Datastore-containern. Obs! Blobtillägg/ändringar i undermappar i path_on_datastore eller datalagercontainern (om inga path_on_datastore anges) identifieras inte.
Om pipelinen har konstruerats för att använda en DataPathPipelineParameter för att beskriva indata för ett steg använder du dessutom parametern data_path_parameter_name när du skapar ett datalagerutlöst schema för att ange indata till den ändrade filen när en PipelineRun skickas av schemat.
När Schemat utlöser PipelineRun i följande exempel anges värdet för pipelineparametern "input_data" som den fil som ändrades/lades till:
from azureml.pipeline.core import Schedule
from azureml.core.datastore import Datastore
datastore = Datastore(workspace=ws, name="workspaceblobstore")
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", datastore=datastore,
data_path_parameter_name="input_data")
Mer information om scheman finns i: https://aka.ms/pl-schedule.
Metoder
create |
Skapa ett schema för en pipeline. Ange upprepning för ett tidsbaserat schema eller ange ett datalager( valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg. |
create_for_pipeline_endpoint |
Skapa ett schema för en pipelineslutpunkt. Ange upprepning för ett tidsbaserat schema eller ange ett datalager( valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg. |
disable |
Ställ in schemat på "Disabled" (Inaktiverad) och unavailable to run (Inte tillgängligt att köra). |
enable |
Ställ in schemat på "Aktiv" och tillgängligt att köra. |
get |
Hämta schemat med det angivna ID:t. |
get_all |
Hämta alla scheman på den aktuella arbetsytan. INAKTUELL: Den här metoden blir inaktuell till förmån för list metoden . |
get_last_pipeline_run |
Hämta den senaste pipelinekörningen som skickades enligt schemat. Returnerar Ingen om inga körningar har skickats. |
get_pipeline_runs |
Hämta pipelinekörningarna som genererades från schemat. |
get_schedules_for_pipeline_endpoint_id |
Hämta alla scheman för det angivna pipelineslutpunkts-ID:t. |
get_schedules_for_pipeline_id |
Hämta alla scheman för det angivna pipeline-ID:t. |
list |
Hämta alla scheman på den aktuella arbetsytan. |
load_yaml |
Läs in och läs YAML-filen för att hämta schemaparametrar. YAML-filen är ytterligare ett sätt att skicka schemaparametrar för att skapa ett schema. |
update |
Uppdatera schemat. |
create
Skapa ett schema för en pipeline.
Ange upprepning för ett tidsbaserat schema eller ange ett datalager( valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg.
static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parametrar
- pipeline_parameters
- dict
En ordlista med parametrar för att tilldela nya värden {param name, param value}
- datastore
- AzureBlobDatastore
Det datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte. Det går inte att använda med upprepning.
- polling_interval
- int
Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar. Standardvärdet är 5 minuter. Stöds endast för DataStore-scheman.
- data_path_parameter_name
- str
Namnet på pipelineparametern för datasökvägen som ska anges med den ändrade blobsökvägen. Stöds endast för DataStore-scheman.
- continue_on_step_failure
- bool
Om du vill fortsätta att köra andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen.
- path_on_datastore
- str
Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore finns under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om det inte finns någon övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman.
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Arbetsflödesprovidern.
Returer
Det skapade schemat.
Returtyp
create_for_pipeline_endpoint
Skapa ett schema för en pipelineslutpunkt.
Ange upprepning för ett tidsbaserat schema eller ange ett datalager( valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg.
static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)
Parametrar
- pipeline_parameters
- dict
En ordlista med parametrar för att tilldela nya värden {param name, param value}
- datastore
- AzureBlobDatastore
Det datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte. Det går inte att använda med upprepning.
- polling_interval
- int
Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar. Standardvärdet är 5 minuter. Stöds endast för DataStore-scheman.
- data_path_parameter_name
- str
Namnet på pipelineparametern för datasökvägen som ska anges med den ändrade blobsökvägen. Stöds endast för DataStore-scheman.
- continue_on_step_failure
- bool
Om du vill fortsätta att köra andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen.
- path_on_datastore
- str
Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore finns under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om det inte finns någon övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman.
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Arbetsflödesprovidern.
Returer
Det skapade schemat.
Returtyp
disable
Ställ in schemat på "Disabled" (Inaktiverad) och unavailable to run (Inte tillgängligt att köra).
disable(wait_for_provisioning=False, wait_timeout=3600)
Parametrar
enable
Ställ in schemat på "Aktiv" och tillgängligt att köra.
enable(wait_for_provisioning=False, wait_timeout=3600)
Parametrar
get
Hämta schemat med det angivna ID:t.
static get(workspace, id, _workflow_provider=None, _service_endpoint=None)
Parametrar
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Arbetsflödesprovidern.
Returer
Schemaobjekt
Returtyp
get_all
Hämta alla scheman på den aktuella arbetsytan.
INAKTUELL: Den här metoden blir inaktuell till förmån för list metoden .
static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parametrar
- active_only
- bool
Om det är sant returnerar du endast scheman som för närvarande är aktiva. Gäller endast om inget pipeline-ID har angetts.
- pipeline_id
- str
Om detta anges returnerar du endast scheman för pipelinen med det angivna ID:t.
- pipeline_endpoint_id
- str
Om detta anges returnerar du endast scheman för pipelineslutpunkten med det angivna ID:t.
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Arbetsflödesprovidern.
Returer
En lista över Schedule.
Returtyp
get_last_pipeline_run
Hämta den senaste pipelinekörningen som skickades enligt schemat. Returnerar Ingen om inga körningar har skickats.
get_last_pipeline_run()
Returer
Den senaste pipelinekörningen.
Returtyp
get_pipeline_runs
Hämta pipelinekörningarna som genererades från schemat.
get_pipeline_runs()
Returer
En lista över PipelineRun.
Returtyp
get_schedules_for_pipeline_endpoint_id
Hämta alla scheman för det angivna pipelineslutpunkts-ID:t.
static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)
Parametrar
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Arbetsflödesprovidern.
Returer
En lista över Schedule.
Returtyp
get_schedules_for_pipeline_id
Hämta alla scheman för det angivna pipeline-ID:t.
static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)
Parametrar
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Arbetsflödesprovidern.
Returer
En lista över Schedule.
Returtyp
list
Hämta alla scheman på den aktuella arbetsytan.
static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)
Parametrar
- active_only
- bool
Om det är sant returnerar du endast scheman som för närvarande är aktiva. Gäller endast om inget pipeline-ID har angetts.
- pipeline_id
- str
Om detta anges returnerar du endast scheman för pipelinen med det angivna ID:t.
- pipeline_endpoint_id
- str
Om detta anges returnerar du endast scheman för pipelineslutpunkten med det angivna ID:t.
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Arbetsflödesprovidern.
Returer
En lista över Schedule.
Returtyp
load_yaml
Läs in och läs YAML-filen för att hämta schemaparametrar.
YAML-filen är ytterligare ett sätt att skicka schemaparametrar för att skapa ett schema.
static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)
Parametrar
- _workflow_provider
- <xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Arbetsflödesprovidern.
Returer
En ordlista med Schedule parametrar och värden.
Returtyp
Kommentarer
Två typer av YAML stöds för Scheman. Den första läser in och läser in information om upprepning för schemaskapande för att utlösa pipeline. Den andra läser och läser in information om datalager för schemaskapande för att utlösa pipeline.
Exempel för att skapa ett schema som skickar en pipeline vid återkommande, enligt följande:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_recurrence.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
description=schedule_info.get("description"))
Yaml-exempelfil test_schedule_with_recurrence.yaml:
Schedule:
description: "Test create with recurrence"
recurrence:
frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
interval: 1 # how often fires
start_time: 2019-06-07T10:50:00
time_zone: UTC
hours:
- 1
minutes:
- 0
time_of_day: null
week_days:
- Friday
pipeline_parameters: {'a':1}
wait_for_provisioning: True
wait_timeout: 3600
datastore_name: ~
polling_interval: ~
data_path_parameter_name: ~
continue_on_step_failure: None
path_on_datastore: ~
Exempel för att skapa ett schema som skickar en pipeline i ett datalager enligt följande:
from azureml.pipeline.core import Schedule
schedule_info = Schedule.load_yaml(workspace=workspace,
filename='./yaml/test_schedule_with_datastore.yaml')
schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
polling_interval=schedule_info.get("polling_interval"),
data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
path_on_datastore=schedule_info.get("path_on_datastore"))
update
Uppdatera schemat.
update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)
Parametrar
- pipeline_parameters
- dict
En ordlista med parametrar för att tilldela nya värden {param name, param value}.
- datastore
- AzureBlobDatastore
Det datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte.
- polling_interval
- int
Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar. Standardvärdet är 5 minuter.
- data_path_parameter_name
- str
Namnet på pipelineparametern för datasökvägen som ska anges med den ändrade blobsökvägen.
- continue_on_step_failure
- bool
Om du vill fortsätta körningen av andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen.
- path_on_datastore
- str
Valfritt. Sökvägen i dataarkivet som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore kommer att finnas under containern för datalagringen, så den faktiska sökvägen som schemat övervakar blir container/path_on_datastore. Om ingen sådan finns övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman.
Attribut
continue_on_step_failure
Hämta värdet för inställningen continue_on_step_failure
.
Returer
Värdet för inställningen continue_on_step_failure
Returtyp
data_path_parameter_name
Hämta namnet på pipelineparametern för datasökvägen som ska anges med den ändrade blobsökvägen.
Returer
Parameternamnet för datasökvägen.
Returtyp
datastore_name
description
id
name
path_on_datastore
Hämta sökvägen till det datalager som schemat övervakar.
Returer
Sökvägen till datalager.
Returtyp
pipeline_endpoint_id
pipeline_id
polling_interval
Hämta hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar.
Returer
Avsökningsintervallet.
Returtyp
recurrence
status
Feedback
https://aka.ms/ContentUserFeedback.
Kommer snart: Under hela 2024 kommer vi att fasa ut GitHub-problem som feedbackmekanism för innehåll och ersätta det med ett nytt feedbacksystem. Mer information finns i:Skicka och visa feedback för