HyperDriveStep Clase
Crea un paso de Azure ML Pipeline para ejecutar el ajuste de hiperparámetros para modelos de Machine Learning.
Para obtener un ejemplo del uso de HyperDriveStep, vea el cuaderno https://aka.ms/pl-hyperdrive.
Cree un paso de canalización de Azure ML para ejecutar la asignación de hiperparámetros para el entrenamiento del modelo de Machine Learning.
- Herencia
-
HyperDriveStep
Constructor
HyperDriveStep(name, hyperdrive_config, estimator_entry_script_arguments=None, inputs=None, outputs=None, metrics_output=None, allow_reuse=True, version=None)
Parámetros
- hyperdrive_config
- HyperDriveConfig
[Obligatorio] Un elemento HyperDriveConfig que define la configuración de la ejecución de HyperDrive.
- estimator_entry_script_arguments
- list
Lista de argumentos de línea de comandos para el script de entrada del estimador. Si el script de entrada del estimador no acepta argumentos de línea de comandos, establezca este valor de parámetro en una lista vacía.
- inputs
- list[Union[InputPortBinding, PipelineOutputAbstractDataset, DataReference, PortDataReference, PipelineData, DatasetConsumptionConfig]]
Una lista de enlaces de puerto de entrada.
- outputs
- list[Union[PipelineData, OutputDatasetConfig, PipelineOutputAbstractDataset, OutputPortBinding]]
Una lista de enlaces de puerto de salida
- metrics_output
- Union[PipelineData, DataReference, OutputPortBinding]
Valor opcional que especifica la ubicación para almacenar las métricas de ejecución de HyperDrive como un archivo JSON.
- allow_reuse
- bool
Indica si el paso debe volver a usar los resultados anteriores cuando se ejecuta con la misma configuración o entrada. La reutilización está habilitada de manera predeterminada. Si el contenido del paso (scripts o dependencias), así como las entradas y los parámetros permanecen sin cambios, se reutiliza la salida de la ejecución anterior de este paso. Al volver a usar el paso, en lugar de enviar el trabajo al proceso, los resultados de la ejecución anterior se hacen disponibles inmediatamente para los pasos posteriores. Si usa conjuntos de datos de Azure Machine Learning como entradas, la reutilización viene determinada por si la definición del conjunto de datos ha cambiado, no por si los datos subyacentes han cambiado.
- version
- str
Una etiqueta de versión opcional para indicar un cambio en la funcionalidad del módulo.
- hyperdrive_config
- HyperDriveConfig
[Obligatorio] Un elemento HyperDriveConfig que define la configuración de la ejecución de HyperDrive.
- estimator_entry_script_arguments
- list
Lista de argumentos de línea de comandos para el script de entrada del estimador. Si el script de entrada del estimador no acepta argumentos de línea de comandos, establezca este valor de parámetro en una lista vacía.
- inputs
- list[Union[InputPortBinding, PipelineOutputAbstractDataset, DataReference, PortDataReference, PipelineData, DatasetConsumptionConfig]]
Una lista de enlaces de puerto de entrada.
Una lista de enlaces de puerto de salida.
- metrics_output
- Union[PipelineData, DataReference, OutputPortBinding]
Valor opcional que especifica la ubicación para almacenar las métricas de ejecución de HyperDrive como un archivo JSON.
- allow_reuse
- bool
Indica si el paso debe volver a usar los resultados anteriores cuando se ejecuta con la misma configuración o entrada. La reutilización está habilitada de manera predeterminada. Si el contenido del paso (scripts o dependencias), así como las entradas y los parámetros permanecen sin cambios, se reutiliza la salida de la ejecución anterior de este paso. Al volver a usar el paso, en lugar de enviar el trabajo al proceso, los resultados de la ejecución anterior se hacen disponibles inmediatamente para los pasos posteriores. Si usa conjuntos de datos de Azure Machine Learning como entradas, la reutilización viene determinada por si la definición del conjunto de datos ha cambiado, no por si los datos subyacentes han cambiado.
Comentarios
Tenga en cuenta que los argumentos del script de entrada usados en el objeto del estimador (por ejemplo, el objeto TensorFlow) deben especificarse como lista mediante el parámetro estimator_entry_script_arguments
al crear instancias de HyperDriveStep. El parámetro estimador script_params
acepta un diccionario. Sin embargo, el parámetro estimator_entry_script_argument
espera argumentos como una lista.
La inicialización de HyperDriveStep implica especificar una lista de objetos DataReference con el parámetro inputs
. En Azure ML Pipelines, un paso de canalización puede tomar la salida de otro paso o los objetos DataReference como entrada. Por lo tanto, al crear un HyperDriveStep, los parámetros inputs
y outputs
deben establecerse explícitamente, lo que invalida el parámetro inputs
especificado en el objeto Estimator.
El procedimiento recomendado para trabajar con HyperDriveStep es usar una carpeta independiente para los scripts y los archivos dependientes asociados al paso, y especificar esa carpeta como el objeto del estimador source_directory
. Por ejemplo, vea el parámetro source_directory
de la clase TensorFlow. Si lo hace, tiene dos ventajas. En primer lugar, ayuda a reducir el tamaño de la instantánea creada para el paso porque solo se crea una instantánea de lo que se necesita para el paso. En segundo lugar, la salida del paso de una ejecución anterior se puede reutilizar si no hay ningún cambio en source_directory
que desencadene una nueva carga de la instantánea.
En el ejemplo siguiente se muestra cómo usar HyperDriveStep en una canalización de Azure Machine Learning.
metrics_output_name = 'metrics_output'
metrics_data = PipelineData(name='metrics_data',
datastore=datastore,
pipeline_output_name=metrics_output_name,
training_output=TrainingOutput("Metrics"))
model_output_name = 'model_output'
saved_model = PipelineData(name='saved_model',
datastore=datastore,
pipeline_output_name=model_output_name,
training_output=TrainingOutput("Model",
model_file="outputs/model/saved_model.pb"))
hd_step_name='hd_step01'
hd_step = HyperDriveStep(
name=hd_step_name,
hyperdrive_config=hd_config,
inputs=[data_folder],
outputs=[metrics_data, saved_model])
El ejemplo completo está disponible en https://github.com/Azure/MachineLearningNotebooks/blob/master/how-to-use-azureml/machine-learning-pipelines/intro-to-pipelines/aml-pipelines-parameter-tuning-with-hyperdrive.ipynb.
Métodos
create_node |
Cree un nodo a partir del paso de HyperDrive y agregue al gráfico especificado. No se debe llamar a este método directamente. Cuando se crea una instancia de una canalización con este paso, Azure ML pasa automáticamente los parámetros necesarios a través de este método para que ese paso se pueda agregar a un gráfico de canalización que represente el flujo de trabajo. |
create_node
Cree un nodo a partir del paso de HyperDrive y agregue al gráfico especificado.
No se debe llamar a este método directamente. Cuando se crea una instancia de una canalización con este paso, Azure ML pasa automáticamente los parámetros necesarios a través de este método para que ese paso se pueda agregar a un gráfico de canalización que represente el flujo de trabajo.
create_node(graph, default_datastore, context)
Parámetros
- default_datastore
- Union[AbstractAzureStorageDatastore, AzureDataLakeDatastore]
El almacén de datos predeterminado.
- context
- <xref:azureml.pipeline.core._GraphContext>
El contexto del grafo.
Devoluciones
El nodo creado.
Tipo de valor devuelto
Comentarios
https://aka.ms/ContentUserFeedback.
Próximamente: A lo largo de 2024 iremos eliminando gradualmente GitHub Issues como mecanismo de comentarios sobre el contenido y lo sustituiremos por un nuevo sistema de comentarios. Para más información, vea:Enviar y ver comentarios de