DataTransferStep Osztály
Létrehoz egy Azure ML Pipeline-lépést, amely adatokat továbbít a tárolási lehetőségek között.
A DataTransferStep olyan gyakori tárolási típusokat támogat, mint a Azure Blob Storage és az Azure Data Lake, mint forrás és fogadó. További információ: Megjegyzések szakasz.
A DataTransferStep használatára a jegyzetfüzetben https://aka.ms/pl-data-transtalál példát.
Hozzon létre egy Azure ML Pipeline-lépést, amely adatokat továbbít a tárolási lehetőségek között.
- Öröklődés
-
azureml.pipeline.core._data_transfer_step_base._DataTransferStepBaseDataTransferStep
Konstruktor
DataTransferStep(name, source_data_reference=None, destination_data_reference=None, compute_target=None, source_reference_type=None, destination_reference_type=None, allow_reuse=True)
Paraméterek
Name | Description |
---|---|
name
Kötelező
|
[Kötelező] A lépés neve. |
source_data_reference
|
[Kötelező] Egy bemeneti kapcsolat, amely az adatátviteli művelet forrásaként szolgál. alapértelmezett érték: None
|
destination_data_reference
|
[Kötelező] Egy kimeneti kapcsolat, amely az adatátviteli művelet céljaként szolgál. alapértelmezett érték: None
|
compute_target
|
[Kötelező] Az adatok átviteléhez használható Azure Data Factory. alapértelmezett érték: None
|
source_reference_type
|
Egy választható sztring, amely a típust alapértelmezett érték: None
|
destination_reference_type
|
Egy választható sztring, amely a típust alapértelmezett érték: None
|
allow_reuse
|
Azt jelzi, hogy a lépés újra felhasználja-e a korábbi eredményeket, amikor ugyanazokat a beállításokat használja újra. Az újrafelhasználás alapértelmezés szerint engedélyezve van. Ha a lépésargumentumok változatlanok maradnak, a rendszer újra felhasználja a lépés előző futtatásából származó kimenetet. A lépés újbóli használata esetén az adatok újbóli átvitele helyett az előző futtatás eredményei azonnal elérhetővé válnak a további lépésekhez. Ha az Azure Machine Learning-adathalmazokat használja bemenetként, az újrafelhasználást az határozza meg, hogy az adathalmaz definíciója megváltozott-e, nem pedig az, hogy a mögöttes adatok megváltoztak-e. alapértelmezett érték: True
|
name
Kötelező
|
[Kötelező] A lépés neve. |
source_data_reference
Kötelező
|
[Kötelező] Egy bemeneti kapcsolat, amely az adatátviteli művelet forrásaként szolgál. |
destination_data_reference
Kötelező
|
[Kötelező] Egy kimeneti kapcsolat, amely az adatátviteli művelet céljaként szolgál. |
compute_target
Kötelező
|
[Kötelező] Az adatok átviteléhez használható Azure Data Factory. |
source_reference_type
Kötelező
|
Egy választható sztring, amely a típust |
destination_reference_type
Kötelező
|
Egy választható sztring, amely a típust |
allow_reuse
Kötelező
|
Azt jelzi, hogy a lépés újra felhasználja-e a korábbi eredményeket, amikor ugyanazokat a beállításokat használja újra. Az újrafelhasználás alapértelmezés szerint engedélyezve van. Ha a lépésargumentumok változatlanok maradnak, a rendszer újra felhasználja a lépés előző futtatásából származó kimenetet. A lépés újbóli használata esetén az adatok újbóli átvitele helyett az előző futtatás eredményei azonnal elérhetővé válnak a további lépésekhez. Ha az Azure Machine Learning-adathalmazokat használja bemenetként, az újrafelhasználást az határozza meg, hogy az adathalmaz definíciója megváltozott-e, nem pedig az, hogy a mögöttes adatok megváltoztak-e. |
Megjegyzések
Ez a lépés a következő tárolási típusokat támogatja forrásként és fogadóként, kivéve, ha fel van jegyezve:
Azure Blob Storage
Azure Data Lake Storage Gen1 és Gen2
Azure SQL Database
Azure Database for PostgreSQL
Azure Database for MySQL
Az Azure SQL-adatbázishoz szolgáltatásnév-hitelesítést kell használnia. További információ: Egyszerű szolgáltatáshitelesítés. Példa a szolgáltatásnév-hitelesítés Azure SQL Database-hez való használatára: https://aka.ms/pl-data-trans.
Ha adatfüggőséget szeretne létesíteni a lépések között, a get_output metódussal lekérhet egy PipelineData objektumot, amely az adatátviteli lépés kimenetét képviseli, és bemenetként használható a folyamat későbbi lépéseihez.
data_transfer_step = DataTransferStep(name="copy data", ...)
# Use output of data_transfer_step as input of another step in pipeline
# This will make training_step wait for data_transfer_step to complete
training_input = data_transfer_step.get_output()
training_step = PythonScriptStep(script_name="train.py",
arguments=["--model", training_input],
inputs=[training_input],
compute_target=aml_compute,
source_directory=source_directory)
Ha egy adott nevet szeretne létrehozniInputPortBinding, kombinálhatja a get_output() kimenetet a vagy as_mount metódus as_input kimenetévelPipelineData.
data_transfer_step = DataTransferStep(name="copy data", ...)
training_input = data_transfer_step.get_output().as_input("my_input_name")
Metódusok
create_node |
Hozzon létre egy csomópontot a DataTransfer lépésből, és adja hozzá az adott gráfhoz. Ez a módszer nem használható közvetlenül. Ha ezzel a lépéssel példányosít egy folyamatot, az Azure ML automatikusan átadja a szükséges paramétereket ezen a módszeren keresztül, így a lépés hozzáadható a munkafolyamatot képviselő folyamatgráfhoz. |
get_output |
Kérje le a lépés kimenetét PipelineData néven. |
create_node
Hozzon létre egy csomópontot a DataTransfer lépésből, és adja hozzá az adott gráfhoz.
Ez a módszer nem használható közvetlenül. Ha ezzel a lépéssel példányosít egy folyamatot, az Azure ML automatikusan átadja a szükséges paramétereket ezen a módszeren keresztül, így a lépés hozzáadható a munkafolyamatot képviselő folyamatgráfhoz.
create_node(graph, default_datastore, context)
Paraméterek
Name | Description |
---|---|
graph
Kötelező
|
A csomópont hozzáadásához a gráfobjektum. |
default_datastore
Kötelező
|
Az alapértelmezett adattár. |
context
Kötelező
|
<xref:azureml.pipeline.core._GraphContext>
A gráfkörnyezet. |
Válaszok
Típus | Description |
---|---|
A létrehozott csomópont. |
get_output
Kérje le a lépés kimenetét PipelineData néven.
get_output()
Válaszok
Típus | Description |
---|---|
A lépés kimenete. |
Megjegyzések
A lépések közötti adatfüggőség megállapításához használjon get_output metódust egy PipelineData objektum lekéréséhez, amely az adatátviteli lépés kimenetét jelöli, és bemenetként használható a folyamat későbbi lépéseihez.
data_transfer_step = DataTransferStep(name="copy data", ...)
# Use output of data_transfer_step as input of another step in pipeline
# This will make training_step wait for data_transfer_step to complete
training_input = data_transfer_step.get_output()
training_step = PythonScriptStep(script_name="train.py",
arguments=["--model", training_input],
inputs=[training_input],
compute_target=aml_compute,
source_directory=source_directory)
Ha egy adott nevet szeretne létrehozniInputPortBinding, get_output() hívásokat kombinálhat a vagy as_mount segéd metódusokkalas_input.
data_transfer_step = DataTransferStep(name="copy data", ...)
training_input = data_transfer_step.get_output().as_input("my_input_name")
Visszajelzés
https://aka.ms/ContentUserFeedback.
Hamarosan elérhető: 2024-ben fokozatosan kivezetjük a GitHub-problémákat a tartalom visszajelzési mechanizmusaként, és lecseréljük egy új visszajelzési rendszerre. További információ:Visszajelzés küldése és megtekintése a következőhöz: