data_transfer Paket
Klassen
DataTransferCopy |
Hinweis Dies ist eine experimentelle Klasse, die jederzeit geändert werden kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen. Basisklasse für den Kopierknoten für die Datenübertragung. Sie sollten diese Klasse nicht direkt instanziieren. Stattdessen sollten Sie über die Generatorfunktion erstellen: copy_data. |
DataTransferCopyComponent |
Hinweis Dies ist eine experimentelle Klasse, die jederzeit geändert werden kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen. Version der DataTransfer-Kopierkomponente, die zum Definieren einer Datenübertragungskopierkomponente verwendet wird. |
DataTransferExport |
Hinweis Dies ist eine experimentelle Klasse, die jederzeit geändert werden kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen. Basisklasse für den Datenübertragungsexportknoten. Sie sollten diese Klasse nicht direkt instanziieren. Stattdessen sollten Sie über die Generatorfunktion erstellen: export_data. |
DataTransferExportComponent |
Hinweis Dies ist eine experimentelle Klasse, die jederzeit geändert werden kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen. DataTransfer-Exportkomponentenversion, die zum Definieren einer Exportkomponente für die Datenübertragung verwendet wird. |
DataTransferImport |
Hinweis Dies ist eine experimentelle Klasse, die jederzeit geändert werden kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen. Basisklasse für den Datenübertragungsimportknoten. Sie sollten diese Klasse nicht direkt instanziieren. Stattdessen sollten Sie eine Generatorfunktion erstellen: import_data. |
DataTransferImportComponent |
Hinweis Dies ist eine experimentelle Klasse, die jederzeit geändert werden kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen. Version der DataTransfer-Importkomponente, die zum Definieren einer Importkomponente für die Datenübertragung verwendet wird. |
Database |
Definieren Sie eine Datenbankklasse für eine DataTransfer-Komponente oder einen Auftrag. |
FileSystem |
Definieren Sie eine Dateisystemklasse einer DataTransfer-Komponente oder eines Auftrags. z. B. source_s3 = FileSystem(path='s3://my_bucket/my_folder', connection='azureml:my_s3_connection') |
Functions
copy_data
Hinweis
Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.
Erstellen Sie ein DataTransferCopy-Objekt, das in dsl.pipeline als Funktion verwendet werden kann.
copy_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, inputs: Dict | None = None, outputs: Dict | None = None, is_deterministic: bool = True, data_copy_mode: str | None = None, **kwargs: Any) -> DataTransferCopy
Keyword-Only Parameter
Name | Beschreibung |
---|---|
name
|
Der Name des Auftrags. |
description
|
Die Beschreibung des Auftrags |
tags
|
Tagwörterbuch. Tags können hinzugefügt, entfernt und aktualisiert werden. |
display_name
|
Anzeigename des Auftrags. |
experiment_name
|
Name des Experiments, unter dem der Auftrag erstellt wird. |
compute
|
Die Computeressource, auf der der Auftrag ausgeführt wird. |
inputs
|
Zuordnung von Eingabedatenbindungen, die im Auftrag verwendet werden. |
outputs
|
Zuordnung von Ausgabedatenbindungen, die im Auftrag verwendet werden. |
is_deterministic
|
Geben Sie an, ob der Befehl dieselbe Ausgabe bei gleicher Eingabe zurückgibt. Wenn ein Befehl (eine Komponente) deterministisch ist, werden die Ergebnisse eines zuvor übermittelten Auftrags im aktuellen Arbeitsbereich wiederverwendet, wenn er als Knoten/Schritt in einer Pipeline verwendet wird. In diesem Fall verwendet dieser Schritt keine Computeressource. Geben Sie standardmäßig true an, is_deterministic=False an, wenn Sie ein solches Wiederverwendungsverhalten vermeiden möchten. |
data_copy_mode
|
Datenkopiermodus im Kopiervorgang, möglicher Wert ist "merge_with_overwrite", "fail_if_conflict". |
Gibt zurück
Typ | Beschreibung |
---|---|
Ein DataTransferCopy-Objekt. |
export_data
Hinweis
Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.
Erstellen Sie ein DataTransferExport-Objekt, das in dsl.pipeline verwendet werden kann.
export_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, sink: Dict | Database | FileSystem | None = None, inputs: Dict | None = None, **kwargs: Any) -> DataTransferExport
Keyword-Only Parameter
Name | Beschreibung |
---|---|
name
|
Der Name des Auftrags. |
description
|
Die Beschreibung des Auftrags |
tags
|
Tagwörterbuch. Tags können hinzugefügt, entfernt und aktualisiert werden. |
display_name
|
Anzeigename des Auftrags. |
experiment_name
|
Name des Experiments, unter dem der Auftrag erstellt wird. |
compute
|
Die Computeressource, auf der der Auftrag ausgeführt wird. |
sink
|
Die Senke externer Daten und Datenbanken. |
inputs
|
Zuordnung von Eingabedatenbindungen, die im Auftrag verwendet werden. |
Gibt zurück
Typ | Beschreibung |
---|---|
<xref:azure.ai.ml.entities._job.pipeline._component_translatable.DataTransferExport>
|
Ein DataTransferExport-Objekt. |
Ausnahmen
Typ | Beschreibung |
---|---|
Wenn die Senke nicht bereitgestellt wird oder das Exportieren des Dateisystems nicht unterstützt wird. |
import_data
Hinweis
Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.
Erstellen Sie ein DataTransferImport-Objekt, das in dsl.pipeline verwendet werden kann.
import_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, source: Dict | Database | FileSystem | None = None, outputs: Dict | None = None, **kwargs: Any) -> DataTransferImport
Keyword-Only Parameter
Name | Beschreibung |
---|---|
name
|
Der Name des Auftrags. |
description
|
Die Beschreibung des Auftrags |
tags
|
Tagwörterbuch. Tags können hinzugefügt, entfernt und aktualisiert werden. |
display_name
|
Anzeigename des Auftrags. |
experiment_name
|
Name des Experiments, unter dem der Auftrag erstellt wird. |
compute
|
Die Computeressource, auf der der Auftrag ausgeführt wird. |
source
|
Die Datenquelle des Dateisystems oder der Datenbank. |
outputs
|
Zuordnung von Ausgabedatenbindungen, die im Auftrag verwendet werden. Der Standardwert ist ein Ausgabeport mit dem Schlüssel "sink" und dem Typ "mltable". |
Gibt zurück
Typ | Beschreibung |
---|---|
<xref:azure.ai.ml.entities._job.pipeline._component_translatable.DataTransferImport>
|
Ein DataTransferImport-Objekt. |
Azure SDK for Python
Feedback
https://aka.ms/ContentUserFeedback.
Bald verfügbar: Im Laufe des Jahres 2024 werden wir GitHub-Issues stufenweise als Feedbackmechanismus für Inhalte abbauen und durch ein neues Feedbacksystem ersetzen. Weitere Informationen finden Sie unterFeedback senden und anzeigen für