Schedule Klass

Definierar ett schema som en pipeline ska skickas till.

När en pipeline har publicerats kan ett schema användas för att skicka pipelinen med ett angivet intervall eller när ändringar till en Blob Storage-plats identifieras.

Initiera schema.

Arv
builtins.object
Schedule

Konstruktor

Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)

Parametrar

workspace
Workspace
Obligatorisk

Arbetsyteobjektet som schemalägget ska tillhöra.

id
str
Obligatorisk

ID för schemat.

name
str
Obligatorisk

Namnet på schemat.

description
str
Obligatorisk

Beskrivningen av schemat.

pipeline_id
str
Obligatorisk

ID:t för pipelinen som schemat ska skicka.

status
str
Obligatorisk

Status för schemat, antingen "Aktiv" eller "Inaktiverad".

recurrence
ScheduleRecurrence
Obligatorisk

Upprepning av schemat för pipelinen.

datastore_name
str
Obligatorisk

Namnet på det datalager som ska övervakas för ändrade/tillagda blobar. Obs! 1) VNET-datalager stöds inte. 2) Autentiseringstypen för datalagringen ska vara inställd på "Kontonyckel".

polling_interval
int
Obligatorisk

Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar.

data_path_parameter_name
str
Obligatorisk

Namnet på pipelineparametern för datasökvägen som ska anges med den ändrade blobsökvägen.

continue_on_step_failure
bool
Obligatorisk

Om du vill fortsätta att köra andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen.

path_on_datastore
str
Obligatorisk

Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore finns under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om det inte finns någon övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman.

_schedule_provider
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
standardvärde: None

Schemaleverantören.

workspace
Workspace
Obligatorisk

Arbetsyteobjektet som schemalägget ska tillhöra.

id
str
Obligatorisk

ID för schemat.

name
str
Obligatorisk

Namnet på schemat.

description
str
Obligatorisk

Beskrivningen av schemat.

pipeline_id
str
Obligatorisk

ID:t för pipelinen som schemat ska skicka.

status
str
Obligatorisk

Status för schemat, antingen "Aktiv" eller "Inaktiverad".

recurrence
ScheduleRecurrence
Obligatorisk

Schemat för upprepning av pipelinen.

datastore_name
str
Obligatorisk

Namnet på det datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte.

polling_interval
int
Obligatorisk

Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar.

data_path_parameter_name
str
Obligatorisk

Namnet på pipelineparametern för datasökvägen som ska anges med den ändrade blobsökvägen.

continue_on_step_failure
bool
Obligatorisk

Om du vill fortsätta att köra andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen.

path_on_datastore
str
Obligatorisk

Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore finns under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om det inte finns någon övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman.

_schedule_provider
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Obligatorisk

Schemaleverantören.

pipeline_endpoint_id
str
standardvärde: None

ID:t för pipelineslutpunkten som schemat ska skicka.

Kommentarer

Två typer av scheman stöds. Den första använder upprepningstid för att skicka en pipeline enligt ett visst schema. Den andra övervakar en AzureBlobDatastore för tillagda eller ändrade blobar och skickar en pipeline när ändringar identifieras.

Om du vill skapa ett schema som skickar en pipeline enligt ett återkommande schema använder du ScheduleRecurrence när du skapar schemat.

En ScheduleRecurrence används när du skapar ett schema för en pipeline på följande sätt:


   from azureml.pipeline.core import Schedule, ScheduleRecurrence

   recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=recurrence)

Det här schemat skickar den angivna PublishedPipeline var 12:e timme. Den skickade pipelinen skapas under experimentet med namnet "helloworld".

Om du vill skapa ett schema som utlöser PipelineRuns vid ändringar av en Blob Storage-plats anger du ett datalager och relaterad datainformation när du skapar schemat.


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
                              experiment_name="helloworld", datastore=datastore,
                              polling_interval=5, path_on_datastore="file/path")

Observera att parametrarna polling_interval och path_on_datastore är valfria. Polling_interval anger hur ofta datalagringen ska avsökas och är som standard 5 minuter. path_on_datastore kan användas för att ange vilken mapp i dataarkivet som ska övervakas för ändringar. Om ingen, övervakas Datastore-containern. Obs! Blobtillägg/ändringar i undermappar i path_on_datastore eller datalagercontainern (om inga path_on_datastore anges) identifieras inte.

Om pipelinen har konstruerats för att använda en DataPathPipelineParameter för att beskriva indata för ett steg använder du dessutom parametern data_path_parameter_name när du skapar ett datalagerutlöst schema för att ange indata till den ändrade filen när en PipelineRun skickas av schemat.

När Schemat utlöser PipelineRun i följande exempel anges värdet för pipelineparametern "input_data" som den fil som ändrades/lades till:


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", datastore=datastore,
                              data_path_parameter_name="input_data")

Mer information om scheman finns i: https://aka.ms/pl-schedule.

Metoder

create

Skapa ett schema för en pipeline.

Ange upprepning för ett tidsbaserat schema eller ange ett datalager( valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg.

create_for_pipeline_endpoint

Skapa ett schema för en pipelineslutpunkt.

Ange upprepning för ett tidsbaserat schema eller ange ett datalager( valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg.

disable

Ställ in schemat på "Disabled" (Inaktiverad) och unavailable to run (Inte tillgängligt att köra).

enable

Ställ in schemat på "Aktiv" och tillgängligt att köra.

get

Hämta schemat med det angivna ID:t.

get_all

Hämta alla scheman på den aktuella arbetsytan.

INAKTUELL: Den här metoden blir inaktuell till förmån för list metoden .

get_last_pipeline_run

Hämta den senaste pipelinekörningen som skickades enligt schemat. Returnerar Ingen om inga körningar har skickats.

get_pipeline_runs

Hämta pipelinekörningarna som genererades från schemat.

get_schedules_for_pipeline_endpoint_id

Hämta alla scheman för det angivna pipelineslutpunkts-ID:t.

get_schedules_for_pipeline_id

Hämta alla scheman för det angivna pipeline-ID:t.

list

Hämta alla scheman på den aktuella arbetsytan.

load_yaml

Läs in och läs YAML-filen för att hämta schemaparametrar.

YAML-filen är ytterligare ett sätt att skicka schemaparametrar för att skapa ett schema.

update

Uppdatera schemat.

create

Skapa ett schema för en pipeline.

Ange upprepning för ett tidsbaserat schema eller ange ett datalager( valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg.

static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Parametrar

workspace
Workspace
Obligatorisk

Arbetsyteobjektet som schemalägget ska tillhöra.

name
str
Obligatorisk

Namnet på schemat.

pipeline_id
str
Obligatorisk

ID:t för pipelinen som schemat ska skicka.

experiment_name
str
Obligatorisk

Namnet på experimentet som schemat skickar körs på.

recurrence
ScheduleRecurrence
standardvärde: None

Schemat för upprepning av pipelinen.

description
str
standardvärde: None

Beskrivningen av schemat.

pipeline_parameters
dict
standardvärde: None

En ordlista med parametrar för att tilldela nya värden {param name, param value}

wait_for_provisioning
bool
standardvärde: False

Om du vill vänta tills schemat har etablerats.

wait_timeout
int
standardvärde: 3600

Antal sekunder som ska vänta innan tidsgränsen nås.

datastore
AzureBlobDatastore
standardvärde: None

Det datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte. Det går inte att använda med upprepning.

polling_interval
int
standardvärde: 5

Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar. Standardvärdet är 5 minuter. Stöds endast för DataStore-scheman.

data_path_parameter_name
str
standardvärde: None

Namnet på pipelineparametern för datasökvägen som ska anges med den ändrade blobsökvägen. Stöds endast för DataStore-scheman.

continue_on_step_failure
bool
standardvärde: None

Om du vill fortsätta att köra andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen.

path_on_datastore
str
standardvärde: None

Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore finns under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om det inte finns någon övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
standardvärde: None

Arbetsflödesprovidern.

_service_endpoint
str
standardvärde: None

Tjänstslutpunkten.

Returer

Det skapade schemat.

Returtyp

create_for_pipeline_endpoint

Skapa ett schema för en pipelineslutpunkt.

Ange upprepning för ett tidsbaserat schema eller ange ett datalager( valfritt) polling_interval och (valfritt) data_path_parameter_name för att skapa ett schema som övervakar datalagringsplatsen för ändringar/tillägg.

static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Parametrar

workspace
Workspace
Obligatorisk

Arbetsyteobjektet som schemalägget ska tillhöra.

name
str
Obligatorisk

Namnet på schemat.

pipeline_endpoint_id
str
Obligatorisk

ID:t för pipelineslutpunkten som schemat ska skicka.

experiment_name
str
Obligatorisk

Namnet på experimentet som schemat skickar körs på.

recurrence
ScheduleRecurrence
standardvärde: None

Schemat för upprepning av pipelinen.

description
str
standardvärde: None

Beskrivningen av schemat.

pipeline_parameters
dict
standardvärde: None

En ordlista med parametrar för att tilldela nya värden {param name, param value}

wait_for_provisioning
bool
standardvärde: False

Om du vill vänta tills schemat har etablerats.

wait_timeout
int
standardvärde: 3600

Antal sekunder som ska vänta innan tidsgränsen nås.

datastore
AzureBlobDatastore
standardvärde: None

Det datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte. Det går inte att använda med upprepning.

polling_interval
int
standardvärde: 5

Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar. Standardvärdet är 5 minuter. Stöds endast för DataStore-scheman.

data_path_parameter_name
str
standardvärde: None

Namnet på pipelineparametern för datasökvägen som ska anges med den ändrade blobsökvägen. Stöds endast för DataStore-scheman.

continue_on_step_failure
bool
standardvärde: None

Om du vill fortsätta att köra andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen.

path_on_datastore
str
standardvärde: None

Valfritt. Sökvägen till det datalager som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore finns under containern för datalagringen, så den faktiska sökvägen som schemat övervakar är container/path_on_datastore. Om det inte finns någon övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
standardvärde: None

Arbetsflödesprovidern.

_service_endpoint
str
standardvärde: None

Tjänstslutpunkten.

Returer

Det skapade schemat.

Returtyp

disable

Ställ in schemat på "Disabled" (Inaktiverad) och unavailable to run (Inte tillgängligt att köra).

disable(wait_for_provisioning=False, wait_timeout=3600)

Parametrar

wait_for_provisioning
bool
standardvärde: False

Om du vill vänta tills schemat har etablerats.

wait_timeout
int
standardvärde: 3600

Antal sekunder att vänta innan tidsgränsen nås.

enable

Ställ in schemat på "Aktiv" och tillgängligt att köra.

enable(wait_for_provisioning=False, wait_timeout=3600)

Parametrar

wait_for_provisioning
bool
standardvärde: False

Om du vill vänta tills schemat har etablerats.

wait_timeout
int
standardvärde: 3600

Antal sekunder att vänta innan tidsgränsen nås.

get

Hämta schemat med det angivna ID:t.

static get(workspace, id, _workflow_provider=None, _service_endpoint=None)

Parametrar

workspace
Workspace
Obligatorisk

Arbetsytan som schemat skapades på.

id
str
Obligatorisk

ID för schemat.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
standardvärde: None

Arbetsflödesprovidern.

_service_endpoint
str
standardvärde: None

Tjänstslutpunkten.

Returer

Schemaobjekt

Returtyp

get_all

Hämta alla scheman på den aktuella arbetsytan.

INAKTUELL: Den här metoden blir inaktuell till förmån för list metoden .

static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Parametrar

workspace
Workspace
Obligatorisk

Arbetsytan.

active_only
bool
standardvärde: True

Om det är sant returnerar du endast scheman som för närvarande är aktiva. Gäller endast om inget pipeline-ID har angetts.

pipeline_id
str
standardvärde: None

Om detta anges returnerar du endast scheman för pipelinen med det angivna ID:t.

pipeline_endpoint_id
str
standardvärde: None

Om detta anges returnerar du endast scheman för pipelineslutpunkten med det angivna ID:t.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
standardvärde: None

Arbetsflödesprovidern.

_service_endpoint
str
standardvärde: None

Tjänstslutpunkten.

Returer

En lista över Schedule.

Returtyp

get_last_pipeline_run

Hämta den senaste pipelinekörningen som skickades enligt schemat. Returnerar Ingen om inga körningar har skickats.

get_last_pipeline_run()

Returer

Den senaste pipelinekörningen.

Returtyp

get_pipeline_runs

Hämta pipelinekörningarna som genererades från schemat.

get_pipeline_runs()

Returer

En lista över PipelineRun.

Returtyp

get_schedules_for_pipeline_endpoint_id

Hämta alla scheman för det angivna pipelineslutpunkts-ID:t.

static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)

Parametrar

workspace
Workspace
Obligatorisk

Arbetsytan.

pipeline_endpoint_id
str
Obligatorisk

Pipelinens slutpunkts-ID.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
standardvärde: None

Arbetsflödesprovidern.

_service_endpoint
str
standardvärde: None

Tjänstslutpunkten.

Returer

En lista över Schedule.

Returtyp

get_schedules_for_pipeline_id

Hämta alla scheman för det angivna pipeline-ID:t.

static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)

Parametrar

workspace
Workspace
Obligatorisk

Arbetsytan.

pipeline_id
str
Obligatorisk

Pipeline-ID:t.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
standardvärde: None

Arbetsflödesprovidern.

_service_endpoint
str
standardvärde: None

Tjänstslutpunkten.

Returer

En lista över Schedule.

Returtyp

list

Hämta alla scheman på den aktuella arbetsytan.

static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Parametrar

workspace
Workspace
Obligatorisk

Arbetsytan.

active_only
bool
standardvärde: True

Om det är sant returnerar du endast scheman som för närvarande är aktiva. Gäller endast om inget pipeline-ID har angetts.

pipeline_id
str
standardvärde: None

Om detta anges returnerar du endast scheman för pipelinen med det angivna ID:t.

pipeline_endpoint_id
str
standardvärde: None

Om detta anges returnerar du endast scheman för pipelineslutpunkten med det angivna ID:t.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
standardvärde: None

Arbetsflödesprovidern.

_service_endpoint
str
standardvärde: None

Tjänstslutpunkten.

Returer

En lista över Schedule.

Returtyp

load_yaml

Läs in och läs YAML-filen för att hämta schemaparametrar.

YAML-filen är ytterligare ett sätt att skicka schemaparametrar för att skapa ett schema.

static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)

Parametrar

workspace
Workspace
Obligatorisk

Arbetsytan.

filename
str
Obligatorisk

YAML-filnamnet med plats.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
standardvärde: None

Arbetsflödesprovidern.

_service_endpoint
str
standardvärde: None

Tjänstslutpunkten.

Returer

En ordlista med Schedule parametrar och värden.

Returtyp

Kommentarer

Två typer av YAML stöds för Scheman. Den första läser in och läser in information om upprepning för schemaskapande för att utlösa pipeline. Den andra läser och läser in information om datalager för schemaskapande för att utlösa pipeline.

Exempel för att skapa ett schema som skickar en pipeline vid återkommande, enligt följande:


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_recurrence.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
                              description=schedule_info.get("description"))

Yaml-exempelfil test_schedule_with_recurrence.yaml:


   Schedule:
       description: "Test create with recurrence"
       recurrence:
           frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
           interval: 1 # how often fires
           start_time: 2019-06-07T10:50:00
           time_zone: UTC
           hours:
           - 1
           minutes:
           - 0
           time_of_day: null
           week_days:
           - Friday
       pipeline_parameters: {'a':1}
       wait_for_provisioning: True
       wait_timeout: 3600
       datastore_name: ~
       polling_interval: ~
       data_path_parameter_name: ~
       continue_on_step_failure: None
       path_on_datastore: ~

Exempel för att skapa ett schema som skickar en pipeline i ett datalager enligt följande:


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_datastore.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
                              polling_interval=schedule_info.get("polling_interval"),
                              data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
                              continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
                              path_on_datastore=schedule_info.get("path_on_datastore"))

update

Uppdatera schemat.

update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)

Parametrar

name
str
standardvärde: None

Det nya namnet på schemat.

recurrence
ScheduleRecurrence
standardvärde: None

Det nya schemat återkommer för pipelinen.

description
str
standardvärde: None

Den nya beskrivningen av schemat.

pipeline_parameters
dict
standardvärde: None

En ordlista med parametrar för att tilldela nya värden {param name, param value}.

status
str
standardvärde: None

Schemats nya status: "Aktiv" eller "Inaktiverad".

wait_for_provisioning
bool
standardvärde: False

Om du vill vänta tills schemat har etablerats.

wait_timeout
int
standardvärde: 3600

Antal sekunder att vänta innan tidsgränsen är slut.

datastore
AzureBlobDatastore
standardvärde: None

Det datalager som ska övervakas för ändrade/tillagda blobar. Obs! VNET-datalager stöds inte.

polling_interval
int
standardvärde: None

Hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar. Standardvärdet är 5 minuter.

data_path_parameter_name
str
standardvärde: None

Namnet på pipelineparametern för datasökvägen som ska anges med den ändrade blobsökvägen.

continue_on_step_failure
bool
standardvärde: None

Om du vill fortsätta körningen av andra steg i den skickade PipelineRun om ett steg misslyckas. Om detta anges åsidosätter detta inställningen continue_on_step_failure för pipelinen.

path_on_datastore
str
standardvärde: None

Valfritt. Sökvägen i dataarkivet som ska övervakas för ändrade/tillagda blobar. Obs! path_on_datastore kommer att finnas under containern för datalagringen, så den faktiska sökvägen som schemat övervakar blir container/path_on_datastore. Om ingen sådan finns övervakas datalagercontainern. Tillägg/ändringar som görs i en undermapp i path_on_datastore övervakas inte. Stöds endast för DataStore-scheman.

Attribut

continue_on_step_failure

Hämta värdet för inställningen continue_on_step_failure .

Returer

Värdet för inställningen continue_on_step_failure

Returtyp

data_path_parameter_name

Hämta namnet på pipelineparametern för datasökvägen som ska anges med den ändrade blobsökvägen.

Returer

Parameternamnet för datasökvägen.

Returtyp

str

datastore_name

Hämta namnet på det datalager som används för schemat.

Returer

Namnet på datalager.

Returtyp

str

description

Hämta beskrivningen av schemat.

Returer

Beskrivningen av schemat.

Returtyp

str

id

Hämta ID:t för schemat.

Returer

ID:t.

Returtyp

str

name

Hämta namnet på schemat.

Returer

Namnet.

Returtyp

str

path_on_datastore

Hämta sökvägen till det datalager som schemat övervakar.

Returer

Sökvägen till datalager.

Returtyp

str

pipeline_endpoint_id

Hämta ID:t för pipelineslutpunkten som schemat skickar.

Returer

ID:t.

Returtyp

str

pipeline_id

Hämta ID:t för pipelinen som schemat skickar.

Returer

ID:t.

Returtyp

str

polling_interval

Hämta hur länge, i minuter, mellan avsökning för ändrade/tillagda blobar.

Returer

Avsökningsintervallet.

Returtyp

int

recurrence

Hämta schemats upprepning.

Returer

Schemats upprepning.

Returtyp

status

Hämta schemats status.

Returer

Schemats status.

Returtyp

str