Share via


data_transfer Paket

Klassen

DataTransferCopy

Hinweis

Dies ist eine experimentelle Klasse, die jederzeit geändert werden kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.

Basisklasse für den Kopierknoten für die Datenübertragung.

Sie sollten diese Klasse nicht direkt instanziieren. Stattdessen sollten Sie über die Generatorfunktion erstellen: copy_data.

DataTransferCopyComponent

Hinweis

Dies ist eine experimentelle Klasse, die jederzeit geändert werden kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.

Version der DataTransfer-Kopierkomponente, die zum Definieren einer Datenübertragungskopierkomponente verwendet wird.

DataTransferExport

Hinweis

Dies ist eine experimentelle Klasse, die jederzeit geändert werden kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.

Basisklasse für den Datenübertragungsexportknoten.

Sie sollten diese Klasse nicht direkt instanziieren. Stattdessen sollten Sie über die Generatorfunktion erstellen: export_data.

DataTransferExportComponent

Hinweis

Dies ist eine experimentelle Klasse, die jederzeit geändert werden kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.

DataTransfer-Exportkomponentenversion, die zum Definieren einer Exportkomponente für die Datenübertragung verwendet wird.

DataTransferImport

Hinweis

Dies ist eine experimentelle Klasse, die jederzeit geändert werden kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.

Basisklasse für den Datenübertragungsimportknoten.

Sie sollten diese Klasse nicht direkt instanziieren. Stattdessen sollten Sie eine Generatorfunktion erstellen: import_data.

DataTransferImportComponent

Hinweis

Dies ist eine experimentelle Klasse, die jederzeit geändert werden kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.

Version der DataTransfer-Importkomponente, die zum Definieren einer Importkomponente für die Datenübertragung verwendet wird.

Database

Definieren Sie eine Datenbankklasse für eine DataTransfer-Komponente oder einen Auftrag.

FileSystem

Definieren Sie eine Dateisystemklasse einer DataTransfer-Komponente oder eines Auftrags.

z. B. source_s3 = FileSystem(path='s3://my_bucket/my_folder', connection='azureml:my_s3_connection')

Functions

copy_data

Hinweis

Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.

Erstellen Sie ein DataTransferCopy-Objekt, das in dsl.pipeline als Funktion verwendet werden kann.

copy_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, inputs: Dict | None = None, outputs: Dict | None = None, is_deterministic: bool = True, data_copy_mode: str | None = None, **kwargs: Any) -> DataTransferCopy

Keyword-Only Parameter

Name Beschreibung
name
str

Der Name des Auftrags.

description
str

Die Beschreibung des Auftrags

tags

Tagwörterbuch. Tags können hinzugefügt, entfernt und aktualisiert werden.

display_name
str

Anzeigename des Auftrags.

experiment_name
str

Name des Experiments, unter dem der Auftrag erstellt wird.

compute
str

Die Computeressource, auf der der Auftrag ausgeführt wird.

inputs

Zuordnung von Eingabedatenbindungen, die im Auftrag verwendet werden.

outputs

Zuordnung von Ausgabedatenbindungen, die im Auftrag verwendet werden.

is_deterministic

Geben Sie an, ob der Befehl dieselbe Ausgabe bei gleicher Eingabe zurückgibt. Wenn ein Befehl (eine Komponente) deterministisch ist, werden die Ergebnisse eines zuvor übermittelten Auftrags im aktuellen Arbeitsbereich wiederverwendet, wenn er als Knoten/Schritt in einer Pipeline verwendet wird. In diesem Fall verwendet dieser Schritt keine Computeressource. Geben Sie standardmäßig true an, is_deterministic=False an, wenn Sie ein solches Wiederverwendungsverhalten vermeiden möchten.

data_copy_mode
str

Datenkopiermodus im Kopiervorgang, möglicher Wert ist "merge_with_overwrite", "fail_if_conflict".

Gibt zurück

Typ Beschreibung

Ein DataTransferCopy-Objekt.

export_data

Hinweis

Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.

Erstellen Sie ein DataTransferExport-Objekt, das in dsl.pipeline verwendet werden kann.

export_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, sink: Dict | Database | FileSystem | None = None, inputs: Dict | None = None, **kwargs: Any) -> DataTransferExport

Keyword-Only Parameter

Name Beschreibung
name
str

Der Name des Auftrags.

description
str

Die Beschreibung des Auftrags

tags

Tagwörterbuch. Tags können hinzugefügt, entfernt und aktualisiert werden.

display_name
str

Anzeigename des Auftrags.

experiment_name
str

Name des Experiments, unter dem der Auftrag erstellt wird.

compute
str

Die Computeressource, auf der der Auftrag ausgeführt wird.

sink

Die Senke externer Daten und Datenbanken.

inputs

Zuordnung von Eingabedatenbindungen, die im Auftrag verwendet werden.

Gibt zurück

Typ Beschreibung
<xref:azure.ai.ml.entities._job.pipeline._component_translatable.DataTransferExport>

Ein DataTransferExport-Objekt.

Ausnahmen

Typ Beschreibung

Wenn die Senke nicht bereitgestellt wird oder das Exportieren des Dateisystems nicht unterstützt wird.

import_data

Hinweis

Dies ist eine experimentelle Methode, die sich jederzeit ändern kann. Unter https://aka.ms/azuremlexperimental finden Sie weitere Informationen.

Erstellen Sie ein DataTransferImport-Objekt, das in dsl.pipeline verwendet werden kann.

import_data(*, name: str | None = None, description: str | None = None, tags: Dict | None = None, display_name: str | None = None, experiment_name: str | None = None, compute: str | None = None, source: Dict | Database | FileSystem | None = None, outputs: Dict | None = None, **kwargs: Any) -> DataTransferImport

Keyword-Only Parameter

Name Beschreibung
name
str

Der Name des Auftrags.

description
str

Die Beschreibung des Auftrags

tags

Tagwörterbuch. Tags können hinzugefügt, entfernt und aktualisiert werden.

display_name
str

Anzeigename des Auftrags.

experiment_name
str

Name des Experiments, unter dem der Auftrag erstellt wird.

compute
str

Die Computeressource, auf der der Auftrag ausgeführt wird.

source

Die Datenquelle des Dateisystems oder der Datenbank.

outputs

Zuordnung von Ausgabedatenbindungen, die im Auftrag verwendet werden. Der Standardwert ist ein Ausgabeport mit dem Schlüssel "sink" und dem Typ "mltable".

Gibt zurück

Typ Beschreibung
<xref:azure.ai.ml.entities._job.pipeline._component_translatable.DataTransferImport>

Ein DataTransferImport-Objekt.