Freigeben über


Schedule Klasse

Definiert einen Zeitplan, nach dem eine Pipeline übermittelt werden soll.

Nachdem eine Pipeline veröffentlicht wurde, kann ein Zeitplan verwendet werden, um die Pipeline in einem angegebenen Intervall oder wenn Änderungen an einem Blobspeicherort erkannt werden zu übermitteln.

Initialisieren Sie Zeitplan.

Vererbung
builtins.object
Schedule

Konstruktor

Schedule(workspace, id, name, description, pipeline_id, status, recurrence, datastore_name, polling_interval, data_path_parameter_name, continue_on_step_failure, path_on_datastore, _schedule_provider=None, pipeline_endpoint_id=None)

Parameter

workspace
Workspace
Erforderlich

Das Arbeitsbereichsobjekt, zu dem dieser Zeitplan gehört.

id
str
Erforderlich

Die ID des Zeitplans.

name
str
Erforderlich

Der Name des Zeitplans.

description
str
Erforderlich

Die Beschreibung des Zeitplans.

pipeline_id
str
Erforderlich

Die ID der Pipeline, die vom Zeitplan übermittelt wird.

status
str
Erforderlich

Der Status des Zeitplans, entweder „Active“ oder „Disabled“.

recurrence
ScheduleRecurrence
Erforderlich

Die Zeitplanserie für die Pipeline.

datastore_name
str
Erforderlich

Der Name des Datenspeichers, der auf geänderte/hinzugefügte Blobs überwacht werden soll. Hinweis: 1) VNET-Datenspeicher werden nicht unterstützt. 2) Der Authentifizierungstyp für den Datenspeicher sollte auf "Kontoschlüssel" festgelegt werden.

polling_interval
int
Erforderlich

Gibt an, wie viel Zeit (in Minuten) zwischen dem Abruf von geänderten/hinzugefügten Blobdaten liegen soll.

data_path_parameter_name
str
Erforderlich

Der Name des Pipelineparameters des Datenpfads, der mit dem geänderten Blobpfad festgelegt werden soll.

continue_on_step_failure
bool
Erforderlich

Gibt an, ob die Ausführung weiterer Schritte im übermittelten PipelineRun fortgesetzt werden soll, wenn ein Schritt nicht erfolgreich war. Falls angegeben, wird die Einstellung continue_on_step_failure für die Pipeline überschrieben.

path_on_datastore
str
Erforderlich

Optional. Der Pfad im Datenspeicher, der hinsichtlich geänderter/hinzugefügter Blobdaten überwacht werden soll. Hinweis: Der path_on_datastore befindet sich unter dem Container für den Datenspeicher. Der tatsächliche Pfad, den der Zeitplan überwacht, lautet also container/path_on_datastore. Wenn nichts angegeben ist, wird der Datenspeichercontainer überwacht. Ergänzungen/Änderungen, die in einem Unterordner von path_on_datastore vorgenommen werden, werden nicht überwacht. Wird nur für Datenspeicherzeitpläne unterstützt.

_schedule_provider
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Standardwert: None

Der Zeitplananbieter.

workspace
Workspace
Erforderlich

Das Arbeitsbereichsobjekt, zu dem dieser Zeitplan gehört.

id
str
Erforderlich

Die ID des Zeitplans.

name
str
Erforderlich

Der Name des Zeitplans.

description
str
Erforderlich

Die Beschreibung des Zeitplans.

pipeline_id
str
Erforderlich

Die ID der Pipeline, die vom Zeitplan übermittelt wird.

status
str
Erforderlich

Der Status des Zeitplans, entweder „Active“ oder „Disabled“.

recurrence
ScheduleRecurrence
Erforderlich

Die Zeitplanwiederholung der Pipeline.

datastore_name
str
Erforderlich

Der Name des Datenspeichers, der auf geänderte/hinzugefügte Blobs überwacht werden soll. Hinweis: VNet-Datenspeicher werden nicht unterstützt.

polling_interval
int
Erforderlich

Gibt an, wie viel Zeit (in Minuten) zwischen dem Abruf von geänderten/hinzugefügten Blobdaten liegen soll.

data_path_parameter_name
str
Erforderlich

Der Name des Pipelineparameters des Datenpfads, der mit dem geänderten Blobpfad festgelegt werden soll.

continue_on_step_failure
bool
Erforderlich

Gibt an, ob die Ausführung weiterer Schritte im übermittelten PipelineRun fortgesetzt werden soll, wenn ein Schritt nicht erfolgreich war. Falls angegeben, wird die Einstellung continue_on_step_failure für die Pipeline überschrieben.

path_on_datastore
str
Erforderlich

Optional. Der Pfad im Datenspeicher, der hinsichtlich geänderter/hinzugefügter Blobdaten überwacht werden soll. Hinweis: Der path_on_datastore befindet sich unter dem Container für den Datenspeicher. Der tatsächliche Pfad, den der Zeitplan überwacht, lautet also container/path_on_datastore. Wenn nichts angegeben ist, wird der Datenspeichercontainer überwacht. Ergänzungen/Änderungen, die in einem Unterordner von path_on_datastore vorgenommen werden, werden nicht überwacht. Wird nur für Datenspeicherzeitpläne unterstützt.

_schedule_provider
<xref:azureml.pipeline.core._aeva_provider._AevaScheduleProvider>
Erforderlich

Der Zeitplananbieter.

pipeline_endpoint_id
str
Standardwert: None

Die ID des Pipelineendpunkts, der vom Zeitplan übermittelt wird.

Hinweise

Es werden zwei Arten von Zeitplänen unterstützt. Die erste verwendet die Zeitserie, um eine Pipeline nach einem bestimmten Zeitplan zu übermitteln. Der zweite überwacht einen AzureBlobDatastore auf hinzugefügte oder geänderte Blobs und übermittelt eine Pipeline, wenn Änderungen erkannt werden.

Um einen Zeitplan zu erstellen, der eine Pipeline nach einem wiederkehrenden Zeitplan übermittelt, verwenden Sie ScheduleRecurrence beim Erstellen des Zeitplans.

Beim Erstellen eines Zeitplans für eine Pipeline wird ScheduleRecurrence wie folgt verwendet:


   from azureml.pipeline.core import Schedule, ScheduleRecurrence

   recurrence = ScheduleRecurrence(frequency="Hour", interval=12)
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=recurrence)

Dieser Zeitplan übermittelt die bereitgestellte PublishedPipeline alle 12 Stunden. Die übermittelte Pipeline wird unter dem Experiment mit dem Namen „helloworld“ erstellt.

Um einen Zeitplan zu erstellen, der PipelineRuns bei Änderungen an einem Blobspeicherort auslöst, geben Sie bei der Erstellung des Zeitplans einen Datenspeicher und die zugehörigen Dateninformationen an.


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id"
                              experiment_name="helloworld", datastore=datastore,
                              polling_interval=5, path_on_datastore="file/path")

Beachten Sie, dass die Parameter polling_interval und path_on_datastore optional sind. Das polling_interval gibt an, wie oft der Datenspeicher auf Änderungen abgefragt werden soll, und beträgt standardmäßig 5 Minuten. path_on_datastore kann verwendet werden, um anzugeben, welcher Ordner im Datenspeicher auf Änderungen überwacht werden soll. Bei „None“ wird der Datenspeichercontainer überwacht. Hinweis: Ergänzungen/Änderungen an Blobs in Unterordnern von path_on_datastore oder im Datenspeichercontainer (wenn path_on_datastore nicht angegeben ist) werden nicht erkannt.

Wenn die Pipeline so konstruiert wurde, dass sie einen DataPathPipelineParameter verwendet, um Schritteingaben zu beschreiben, verwenden Sie außerdem den Parameter data_path_parameter_name, wenn Sie einen von einem Datenspeicher ausgelösten Zeitplan erstellen, um die Eingabe auf die geänderte Datei festzulegen, wenn vom Zeitplan eine PipelineRun übermittelt wird.

Wenn im folgenden Beispiel der Zeitplan die PipelineRun auslöst, wird der Wert des Pipelineparameters input_data auf die Datei festgelegt, die geändert/hinzugefügt wurde:


   from azureml.pipeline.core import Schedule
   from azureml.core.datastore import Datastore

   datastore = Datastore(workspace=ws, name="workspaceblobstore")

   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", datastore=datastore,
                              data_path_parameter_name="input_data")

Weitere Informationen zu Zeitplänen finden Sie unter https://aka.ms/pl-schedule.

Methoden

create

Erstellt einen Zeitplan für eine Pipeline.

Geben Sie eine Wiederholung für einen zeitbasierten Zeitplan an, oder geben Sie einen Datenspeicher, ein polling_interval (optional) und einen data_path_parameter_name (optional) an, um einen Zeitplan zu erstellen, der den Speicherort des Datenspeichers auf Änderungen/Ergänzungen überwacht.

create_for_pipeline_endpoint

Erstellt einen Zeitplan für einen Pipelineendpunkt.

Geben Sie eine Wiederholung für einen zeitbasierten Zeitplan an, oder geben Sie einen Datenspeicher, ein polling_interval (optional) und einen data_path_parameter_name (optional) an, um einen Zeitplan zu erstellen, der den Speicherort des Datenspeichers auf Änderungen/Ergänzungen überwacht.

disable

Festlegen des Zeitplans auf „Deaktiviert“, sodass er nicht zur Ausführung verfügbar ist.

enable

Festlegen des Zeitplans auf „Aktiv“, sodass er zur Ausführung verfügbar ist.

get

Ruft den Zeitplan mit der angegebenen ID ab.

get_all

Ruft alle Zeitpläne im aktuellen Arbeitsbereich ab.

VERALTET: Diese Methode ist veraltet und wurde durch die list-Methode ersetzt.

get_last_pipeline_run

Ruft die letzte Pipelineausführung ab, die vom Zeitplan übermittelt wurde. Gibt „None“ zurück, wenn keine Ausführungen übermittelt wurden.

get_pipeline_runs

Ruft die Pipelineausführungen ab, die vom Zeitplan generiert wurden.

get_schedules_for_pipeline_endpoint_id

Ruft alle Zeitpläne für die angegebene Pipelineendpunkt-ID ab.

get_schedules_for_pipeline_id

Ruft alle Zeitpläne für die angegebene Pipeline-ID ab.

list

Ruft alle Zeitpläne im aktuellen Arbeitsbereich ab.

load_yaml

Lädt und liest die YAML-Datei, um Zeitplanparameter abzurufen.

Die YAML-Datei bietet eine weitere Möglichkeit, Zeitplanparameter zum Erstellen eines Zeitplans zu übergeben.

update

Aktualisieren des Zeitplans.

create

Erstellt einen Zeitplan für eine Pipeline.

Geben Sie eine Wiederholung für einen zeitbasierten Zeitplan an, oder geben Sie einen Datenspeicher, ein polling_interval (optional) und einen data_path_parameter_name (optional) an, um einen Zeitplan zu erstellen, der den Speicherort des Datenspeichers auf Änderungen/Ergänzungen überwacht.

static create(workspace, name, pipeline_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Parameter

workspace
Workspace
Erforderlich

Das Arbeitsbereichsobjekt, zu dem dieser Zeitplan gehört.

name
str
Erforderlich

Der Name des Zeitplans.

pipeline_id
str
Erforderlich

Die ID der Pipeline, die vom Zeitplan übermittelt wird.

experiment_name
str
Erforderlich

Der Name des Experiments, an das der Zeitplan Ausführungen übermittelt.

recurrence
ScheduleRecurrence
Standardwert: None

Die Zeitplanwiederholung der Pipeline.

description
str
Standardwert: None

Die Beschreibung des Zeitplans.

pipeline_parameters
dict
Standardwert: None

Ein Wörterbuch mit Parametern zum Zuweisen neuer Werte {Parametername, Parameterwert}

wait_for_provisioning
bool
Standardwert: False

Gibt an, ob auf die Bereitstellung des Zeitplans gewartet werden soll.

wait_timeout
int
Standardwert: 3600

Die Anzahl der Sekunden, die gewartet werden soll, bevor ein Timeout eintritt.

datastore
AzureBlobDatastore
Standardwert: None

Der Datenspeicher, der auf geänderte/hinzugefügte Blobs überwacht werden soll. Hinweis: VNet-Datenspeicher werden nicht unterstützt. Kann nicht mit einer Serie verwendet werden.

polling_interval
int
Standardwert: 5

Gibt an, wie viel Zeit (in Minuten) zwischen dem Abruf von geänderten/hinzugefügten Blobdaten liegen soll. Die Standardeinstellung ist 5 Minuten. Wird nur für Datenspeicherzeitpläne unterstützt.

data_path_parameter_name
str
Standardwert: None

Der Name des Pipelineparameters des Datenpfads, der mit dem geänderten Blobpfad festgelegt werden soll. Wird nur für Datenspeicherzeitpläne unterstützt.

continue_on_step_failure
bool
Standardwert: None

Gibt an, ob die Ausführung weiterer Schritte im übermittelten PipelineRun fortgesetzt werden soll, wenn ein Schritt nicht erfolgreich war. Falls angegeben, wird die Einstellung continue_on_step_failure für die Pipeline überschrieben.

path_on_datastore
str
Standardwert: None

Optional. Der Pfad im Datenspeicher, der hinsichtlich geänderter/hinzugefügter Blobdaten überwacht werden soll. Hinweis: Der path_on_datastore befindet sich unter dem Container für den Datenspeicher. Der tatsächliche Pfad, den der Zeitplan überwacht, lautet also container/path_on_datastore. Wenn nichts angegeben ist, wird der Datenspeichercontainer überwacht. Ergänzungen/Änderungen, die in einem Unterordner von path_on_datastore vorgenommen werden, werden nicht überwacht. Wird nur für Datenspeicherzeitpläne unterstützt.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Standardwert: None

Der Workflowanbieter.

_service_endpoint
str
Standardwert: None

Der Dienstendpunkt.

Gibt zurück

Der erstellte Zeitplan.

Rückgabetyp

create_for_pipeline_endpoint

Erstellt einen Zeitplan für einen Pipelineendpunkt.

Geben Sie eine Wiederholung für einen zeitbasierten Zeitplan an, oder geben Sie einen Datenspeicher, ein polling_interval (optional) und einen data_path_parameter_name (optional) an, um einen Zeitplan zu erstellen, der den Speicherort des Datenspeichers auf Änderungen/Ergänzungen überwacht.

static create_for_pipeline_endpoint(workspace, name, pipeline_endpoint_id, experiment_name, recurrence=None, description=None, pipeline_parameters=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=5, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None, _workflow_provider=None, _service_endpoint=None)

Parameter

workspace
Workspace
Erforderlich

Das Arbeitsbereichsobjekt, zu dem dieser Zeitplan gehört.

name
str
Erforderlich

Der Name des Zeitplans.

pipeline_endpoint_id
str
Erforderlich

Die ID des Pipelineendpunkts, der vom Zeitplan übermittelt wird.

experiment_name
str
Erforderlich

Der Name des Experiments, an das der Zeitplan Ausführungen übermittelt.

recurrence
ScheduleRecurrence
Standardwert: None

Die Zeitplanwiederholung der Pipeline.

description
str
Standardwert: None

Die Beschreibung des Zeitplans.

pipeline_parameters
dict
Standardwert: None

Ein Wörterbuch mit Parametern zum Zuweisen neuer Werte {Parametername, Parameterwert}

wait_for_provisioning
bool
Standardwert: False

Gibt an, ob auf die Bereitstellung des Zeitplans gewartet werden soll.

wait_timeout
int
Standardwert: 3600

Die Anzahl der Sekunden, die gewartet werden soll, bevor ein Timeout eintritt.

datastore
AzureBlobDatastore
Standardwert: None

Der Datenspeicher, der auf geänderte/hinzugefügte Blobs überwacht werden soll. Hinweis: VNet-Datenspeicher werden nicht unterstützt. Kann nicht mit einer Serie verwendet werden.

polling_interval
int
Standardwert: 5

Gibt an, wie viel Zeit (in Minuten) zwischen dem Abruf von geänderten/hinzugefügten Blobdaten liegen soll. Die Standardeinstellung ist 5 Minuten. Wird nur für Datenspeicherzeitpläne unterstützt.

data_path_parameter_name
str
Standardwert: None

Der Name des Pipelineparameters des Datenpfads, der mit dem geänderten Blobpfad festgelegt werden soll. Wird nur für Datenspeicherzeitpläne unterstützt.

continue_on_step_failure
bool
Standardwert: None

Gibt an, ob die Ausführung weiterer Schritte im übermittelten PipelineRun fortgesetzt werden soll, wenn ein Schritt nicht erfolgreich war. Falls angegeben, wird die Einstellung continue_on_step_failure für die Pipeline überschrieben.

path_on_datastore
str
Standardwert: None

Optional. Der Pfad im Datenspeicher, der hinsichtlich geänderter/hinzugefügter Blobdaten überwacht werden soll. Hinweis: Der path_on_datastore befindet sich unter dem Container für den Datenspeicher. Der tatsächliche Pfad, den der Zeitplan überwacht, lautet also container/path_on_datastore. Wenn nichts angegeben ist, wird der Datenspeichercontainer überwacht. Ergänzungen/Änderungen, die in einem Unterordner von path_on_datastore vorgenommen werden, werden nicht überwacht. Wird nur für Datenspeicherzeitpläne unterstützt.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Standardwert: None

Der Workflowanbieter.

_service_endpoint
str
Standardwert: None

Der Dienstendpunkt.

Gibt zurück

Der erstellte Zeitplan.

Rückgabetyp

disable

Festlegen des Zeitplans auf „Deaktiviert“, sodass er nicht zur Ausführung verfügbar ist.

disable(wait_for_provisioning=False, wait_timeout=3600)

Parameter

wait_for_provisioning
bool
Standardwert: False

Gibt an, ob auf die Bereitstellung des Zeitplans gewartet werden soll.

wait_timeout
int
Standardwert: 3600

Die Anzahl der Sekunden, die gewartet werden soll, bevor ein Timeout eintritt.

enable

Festlegen des Zeitplans auf „Aktiv“, sodass er zur Ausführung verfügbar ist.

enable(wait_for_provisioning=False, wait_timeout=3600)

Parameter

wait_for_provisioning
bool
Standardwert: False

Gibt an, ob auf die Bereitstellung des Zeitplans gewartet werden soll.

wait_timeout
int
Standardwert: 3600

Die Anzahl der Sekunden, die gewartet werden soll, bevor ein Timeout eintritt.

get

Ruft den Zeitplan mit der angegebenen ID ab.

static get(workspace, id, _workflow_provider=None, _service_endpoint=None)

Parameter

workspace
Workspace
Erforderlich

Der Arbeitsbereich, in dem der Zeitplan erstellt wurde.

id
str
Erforderlich

ID des Zeitplans.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Standardwert: None

Der Workflowanbieter.

_service_endpoint
str
Standardwert: None

Der Dienstendpunkt.

Gibt zurück

Zeitplanobjekt

Rückgabetyp

get_all

Ruft alle Zeitpläne im aktuellen Arbeitsbereich ab.

VERALTET: Diese Methode ist veraltet und wurde durch die list-Methode ersetzt.

static get_all(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Parameter

workspace
Workspace
Erforderlich

Der Arbeitsbereich.

active_only
bool
Standardwert: True

Bei „True“ werden nur Zeitpläne zurückgegeben, die derzeit aktiv sind. Gilt nur, wenn keine Pipeline-ID angegeben wird.

pipeline_id
str
Standardwert: None

Bei einer Angabe werden nur Zeitpläne für die Pipeline mit der angegebenen ID zurückgegeben.

pipeline_endpoint_id
str
Standardwert: None

Bei einer Angabe werden nur Zeitpläne für den Pipelineendpunkt mit der angegebenen ID zurückgegeben.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Standardwert: None

Der Workflowanbieter.

_service_endpoint
str
Standardwert: None

Der Dienstendpunkt.

Gibt zurück

Eine Schedule-Liste.

Rückgabetyp

get_last_pipeline_run

Ruft die letzte Pipelineausführung ab, die vom Zeitplan übermittelt wurde. Gibt „None“ zurück, wenn keine Ausführungen übermittelt wurden.

get_last_pipeline_run()

Gibt zurück

Die letzte Pipelineausführung.

Rückgabetyp

get_pipeline_runs

Ruft die Pipelineausführungen ab, die vom Zeitplan generiert wurden.

get_pipeline_runs()

Gibt zurück

Eine PipelineRun-Liste.

Rückgabetyp

get_schedules_for_pipeline_endpoint_id

Ruft alle Zeitpläne für die angegebene Pipelineendpunkt-ID ab.

static get_schedules_for_pipeline_endpoint_id(workspace, pipeline_endpoint_id, _workflow_provider=None, _service_endpoint=None)

Parameter

workspace
Workspace
Erforderlich

Der Arbeitsbereich.

pipeline_endpoint_id
str
Erforderlich

Die ID des Pipelineendpunkts.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Standardwert: None

Der Workflowanbieter.

_service_endpoint
str
Standardwert: None

Der Dienstendpunkt.

Gibt zurück

Eine Liste von Schedule.

Rückgabetyp

get_schedules_for_pipeline_id

Ruft alle Zeitpläne für die angegebene Pipeline-ID ab.

static get_schedules_for_pipeline_id(workspace, pipeline_id, _workflow_provider=None, _service_endpoint=None)

Parameter

workspace
Workspace
Erforderlich

Der Arbeitsbereich.

pipeline_id
str
Erforderlich

Die Pipeline-ID.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Standardwert: None

Der Workflowanbieter.

_service_endpoint
str
Standardwert: None

Der Dienstendpunkt.

Gibt zurück

Eine Schedule-Liste.

Rückgabetyp

list

Ruft alle Zeitpläne im aktuellen Arbeitsbereich ab.

static list(workspace, active_only=True, pipeline_id=None, pipeline_endpoint_id=None, _workflow_provider=None, _service_endpoint=None)

Parameter

workspace
Workspace
Erforderlich

Der Arbeitsbereich.

active_only
bool
Standardwert: True

Bei „True“ werden nur Zeitpläne zurückgegeben, die derzeit aktiv sind. Gilt nur, wenn keine Pipeline-ID angegeben wird.

pipeline_id
str
Standardwert: None

Bei einer Angabe werden nur Zeitpläne für die Pipeline mit der angegebenen ID zurückgegeben.

pipeline_endpoint_id
str
Standardwert: None

Bei einer Angabe werden nur Zeitpläne für den Pipelineendpunkt mit der angegebenen ID zurückgegeben.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Standardwert: None

Der Workflowanbieter.

_service_endpoint
str
Standardwert: None

Der Dienstendpunkt.

Gibt zurück

Eine Schedule-Liste.

Rückgabetyp

load_yaml

Lädt und liest die YAML-Datei, um Zeitplanparameter abzurufen.

Die YAML-Datei bietet eine weitere Möglichkeit, Zeitplanparameter zum Erstellen eines Zeitplans zu übergeben.

static load_yaml(workspace, filename, _workflow_provider=None, _service_endpoint=None)

Parameter

workspace
Workspace
Erforderlich

Der Arbeitsbereich.

filename
str
Erforderlich

Der YAML-Dateiname mit Speicherort.

_workflow_provider
<xref:azureml.pipeline.core._aeva_provider._AevaWorkflowProvider>
Standardwert: None

Der Workflowanbieter.

_service_endpoint
str
Standardwert: None

Der Dienstendpunkt.

Gibt zurück

Ein Wörterbuch mit Schedule-Parametern und Werten.

Rückgabetyp

Hinweise

Für Zeitpläne werden zwei YAML-Typen unterstützt. Der erste liest und lädt Serieninformationen für die Zeitplanerstellung, um die Pipeline auszulösen. Der zweite liest und lädt Datenspeicherinformationen für die Zeitplanerstellung, um die Pipeline auszulösen.

Das folgende Beispiel zeigt das Erstellen eines Zeitplans, der eine Pipeline an eine Serie übermittelt:


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_recurrence.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld", recurrence=schedule_info.get("recurrence"),
                              description=schedule_info.get("description"))

YAML-Beispieldatei „test_schedule_with_recurrence.yaml“:


   Schedule:
       description: "Test create with recurrence"
       recurrence:
           frequency: Week # Can be "Minute", "Hour", "Day", "Week", or "Month".
           interval: 1 # how often fires
           start_time: 2019-06-07T10:50:00
           time_zone: UTC
           hours:
           - 1
           minutes:
           - 0
           time_of_day: null
           week_days:
           - Friday
       pipeline_parameters: {'a':1}
       wait_for_provisioning: True
       wait_timeout: 3600
       datastore_name: ~
       polling_interval: ~
       data_path_parameter_name: ~
       continue_on_step_failure: None
       path_on_datastore: ~

Das folgende Beispiel zeigt das Erstellen eines Zeitplans, der eine Pipeline an einen Datenspeicher übermittelt:


   from azureml.pipeline.core import Schedule

   schedule_info = Schedule.load_yaml(workspace=workspace,
                                      filename='./yaml/test_schedule_with_datastore.yaml')
   schedule = Schedule.create(workspace, name="TestSchedule", pipeline_id="pipeline_id",
                              experiment_name="helloworld",datastore=schedule_info.get("datastore_name"),
                              polling_interval=schedule_info.get("polling_interval"),
                              data_path_parameter_name=schedule_info.get("data_path_parameter_name"),
                              continue_on_step_failure=schedule_info.get("continue_on_step_failure"),
                              path_on_datastore=schedule_info.get("path_on_datastore"))

update

Aktualisieren des Zeitplans.

update(name=None, description=None, recurrence=None, pipeline_parameters=None, status=None, wait_for_provisioning=False, wait_timeout=3600, datastore=None, polling_interval=None, data_path_parameter_name=None, continue_on_step_failure=None, path_on_datastore=None)

Parameter

name
str
Standardwert: None

Der neue Name des Zeitplans.

recurrence
ScheduleRecurrence
Standardwert: None

Die neue Zeitplanserie der Pipeline.

description
str
Standardwert: None

Die neue Beschreibung des Zeitplans.

pipeline_parameters
dict
Standardwert: None

Ein Wörterbuch mit Parametern zum Zuweisen neuer Werte {Parametername, Parameterwert}.

status
str
Standardwert: None

Der neue Status des Zeitplans: „Aktiv“ oder „Deaktiviert“.

wait_for_provisioning
bool
Standardwert: False

Gibt an, ob auf die Bereitstellung des Zeitplans gewartet werden soll.

wait_timeout
int
Standardwert: 3600

Die Anzahl der Sekunden, die gewartet werden soll, bevor ein Timeout eintritt.

datastore
AzureBlobDatastore
Standardwert: None

Der Datenspeicher, der auf geänderte/hinzugefügte Blobs überwacht werden soll. Hinweis: VNet-Datenspeicher werden nicht unterstützt.

polling_interval
int
Standardwert: None

Gibt an, wie viel Zeit (in Minuten) zwischen dem Abruf von geänderten/hinzugefügten Blobdaten liegen soll. Die Standardeinstellung ist 5 Minuten.

data_path_parameter_name
str
Standardwert: None

Der Name des Pipelineparameters des Datenpfads, der mit dem geänderten Blobpfad festgelegt werden soll.

continue_on_step_failure
bool
Standardwert: None

Gibt an, ob die Ausführung weiterer Schritte im übermittelten PipelineRun fortgesetzt werden soll, wenn ein Schritt nicht erfolgreich war. Falls angegeben, wird die Einstellung continue_on_step_failure für die Pipeline überschrieben.

path_on_datastore
str
Standardwert: None

Optional. Der Pfad im Datenspeicher, der hinsichtlich geänderter/hinzugefügter Blobdaten überwacht werden soll. Hinweis: Der path_on_datastore befindet sich unter dem Container für den Datenspeicher. Der tatsächliche Pfad, den der Zeitplan überwacht, lautet also container/path_on_datastore. Wenn nichts angegeben ist, wird der Datenspeichercontainer überwacht. Ergänzungen/Änderungen, die in einem Unterordner von path_on_datastore vorgenommen werden, werden nicht überwacht. Wird nur für Datenspeicherzeitpläne unterstützt.

Attribute

continue_on_step_failure

Abrufen des Werts der continue_on_step_failure-Einstellung.

Gibt zurück

Der Wert der continue_on_step_failure-Einstellung

Rückgabetyp

data_path_parameter_name

Ruft den Namen des Pipelineparameters des Datenpfads ab, der mit dem geänderten Blobpfad festgelegt werden soll.

Gibt zurück

Der Name des Datenpfadparameters.

Rückgabetyp

str

datastore_name

Ruft den Namen des für den Zeitplan verwendeten Datenspeichers.

Gibt zurück

Der Datenspeichername.

Rückgabetyp

str

description

Ruft die Beschreibung des Zeitplans ab.

Gibt zurück

Die Beschreibung des Zeitplans.

Rückgabetyp

str

id

Ruft die ID für den Zeitplan ab.

Gibt zurück

Die ID.

Rückgabetyp

str

name

Ruft den Namen des Zeitplans ab.

Gibt zurück

Der Name.

Rückgabetyp

str

path_on_datastore

Ruft den Pfad für den Datenspeicher ab, der vom Zeitplan überwacht wird.

Gibt zurück

Der Pfad zum Datenspeicher.

Rückgabetyp

str

pipeline_endpoint_id

Ruft die ID des Pipelineendpunkts ab, der vom Zeitplan übermittelt wird.

Gibt zurück

Die ID.

Rückgabetyp

str

pipeline_id

Ruft die ID der Pipeline ab, die vom Zeitplan übermittelt wird.

Gibt zurück

Die ID.

Rückgabetyp

str

polling_interval

Ruft ab, wie viel Zeit (in Minuten) zwischen dem Abruf von geänderten/hinzugefügten Blobs liegen soll.

Gibt zurück

Das Abrufintervall.

Rückgabetyp

int

recurrence

Ruft die Zeitplanserie ab.

Gibt zurück

Die Zeitplanserie.

Rückgabetyp

status

Ruft den Status des Zeitplans ab.

Gibt zurück

Der Status des Zeitplans.

Rückgabetyp

str