Cargar un modelo entrenado

Importante

El soporte técnico de Machine Learning Studio (clásico) finalizará el 31 de agosto de 2024. Se recomienda realizar la transición a Azure Machine Learning antes de esa fecha.

A partir del 1 de diciembre de 2021 no se podrán crear recursos de Machine Learning Studio (clásico). Hasta el 31 de agosto de 2024, puede seguir usando los recursos de Machine Learning Studio (clásico) existentes.

La documentación de ML Studio (clásico) se está retirando y es posible que no se actualice en el futuro.

Carga de un modelo entrenado hospedado en web

Categoría: Entrada y salida de datos

Nota:

Solo se aplica a: Machine Learning Studio (clásico)

Hay módulos para arrastrar y colocar similares en el diseñador de Azure Machine Learning.

Información general sobre el módulo

En este artículo se describe cómo usar el módulo Cargar modelo entrenado en Machine Learning Studio (clásico) para cargar un modelo ya entrenado para usarlo en un experimento.

Este módulo requiere un modelo entrenado existente. Normalmente, se crea y, a continuación, se entrena el modelo en un experimento diferente y, a continuación, se guarda en el área de trabajo o en una de las opciones de almacenamiento en la nube admitidas.

A continuación, use el módulo Load Trained model (Cargar modelo entrenado) para obtener el modelo entrenado y ejecutarlo en un nuevo experimento.

Uso del modelo entrenado de carga

Para usar un modelo existente para realizar predicciones para datos nuevos:

  • El modelo se debe haber entrenado previamente y guardado en el formato iLearner.
  • El modelo debe ser accesible por dirección URL o en Azure Blob Storage.

En esta sección se describe cómo guardar un modelo, obtener un modelo guardado y aplicar un modelo guardado.

Guardar un modelo entrenado

Puede guardar modelos mediante la interfaz de Studio (clásico) o mediante un experimento que se ejecuta como un servicio web.

Guardar un modelo mediante un servicio web

  1. Creación de un experimento que realiza el entrenamiento o el reentrenamiento del modelo como un servicio web
  2. Publique ese experimento como un servicio web.
  3. Cuando se llama al punto de conexión BES del servicio web de entrenamiento, el servicio web guarda un modelo entrenado mediante la interfaz iLearner y guarda el archivo en la cuenta de Azure Blob Storage que especifique.

Para obtener información paso a paso sobre cómo crear un servicio web de entrenamiento, consulte estos artículos:

Guardar un modelo en Studio (clásico)

  1. Ejecute el experimento que compila y entrena el modelo.
  2. Una vez completado el entrenamiento, haga clic con el botón derecho en el módulo que se usó para el entrenamiento, seleccione Modelo entrenado y, a continuación, haga clic en Guardar como modelo entrenado.
  3. De forma predeterminada, los modelos se guardan en el área de trabajo de Studio (clásico). Puede verlos mediante la interfaz de usuario de Studio (clásico).

Los módulos siguientes pueden crear un modelo guardado que use la interfaz iLearner necesaria:

Nota:

No se admiten modelos arbitrarios; el modelo se debe haber guardado en el formato binario predeterminado que se usa para conservar Machine Learning modelos.

Carga del modelo en un experimento nuevo

  1. Agregue el módulo Load Trained Model (Cargar modelo entrenado) al experimento en Studio (clásico).

  2. En Origen de datos, indique la ubicación del modelo entrenado mediante una de las siguientes opciones:

    • Dirección URL web a través de HTTP: proporcione una dirección URL que apunta al experimento y al archivo que representa el modelo entrenado. En Machine Learning, los modelos entrenados se guardan de forma predeterminada en el formato ILearner.

    • Azure Blob Storage: seleccione esta opción solo si exportó el modelo entrenado a Azure Storage. A continuación, debe proporcionar el nombre de cuenta y la clave de cuenta, así como la ruta de acceso al contenedor, directorio o blob.

  3. Si tiene previsto crear un Request-Response web basado en el experimento actual, seleccione la opción Permitir usar en RRS. De lo contrario, la puntuación se realiza mediante la opción Servicio de ejecución por lotes (BES), que se recomienda. Consulte la sección Notas técnicas para obtener más información.

  4. Seleccione la opción Usar resultados almacenados en caché si desea cargar el modelo entrenado desde la memoria caché, cuando la memoria caché esté disponible y rellenada. Esta opción se omite después de implementar el experimento como una API de servicio web.

Ejemplos

Para obtener ejemplos de cómo usar este módulo, consulte la galería Cortana Intelligence.

  • Cargar un modelo de aprendizaje profundo Learning entrenamiento: en el ejemplo se crea una red neuronal personalizada para la detección de imágenes. Mediante el módulo Load Trained Model (Cargar modelo entrenado), puede volver a usar fácilmente este modelo sin tener que entrenarlo, lo que puede llevar mucho tiempo.

    Esta colección incluye un experimento de entrenamiento para crear el modelo y un experimento predictivo, en el que el modelo se carga como un servicio web y se usa para las predicciones.

Notas técnicas

Esta sección contiene detalles de implementación, sugerencias y respuestas a las preguntas más frecuentes.

Preguntas frecuentes

¿Por qué el uso de RRS no está habilitado de forma predeterminada?

Por lo general, se espera que las llamadas RRS devuelvan resultados en un breve período de tiempo. Sin embargo, dado que el módulo debe cargar el modelo entrenado en forma de blob desde una cuenta de almacenamiento de Azure o un archivo hospedado en un punto de conexión HTTP público, las operaciones de archivo pueden presentar retrasos imprevisibles.

Por lo tanto, se recomienda que el servicio web se ejecute en modo de ejecución por lotes (BES). Si selecciona la opción para .execution mediante RRS, tenga en cuenta la posibilidad de retraso. Para obtener información general sobre los tiempos de ejecución, consulte Machine Learning Sla.

¿El modelo entrenado se carga más rápido si uso la opción de resultados almacenados en caché?

Sí, pero solo cuando el experimento se ejecuta en Machine Learning Studio (clásico) y solo después de que la primera ejecución haya rellenado la memoria caché. Después de implementar el experimento como servicio web, la ejecución del servicio web omite esta marca.

¿Hay alguna manera de automatizar el proceso?

Puede usar PowerShell para simplificar o automatizar muchas tareas en Machine Learning. Por ejemplo, puede descargar el contenido de un experimento completo o un módulo determinado, exportar la definición del servicio web o invocar la API de ejecución del servicio web. Para obtener más información, vea Módulo de PowerShell para Microsoft Machine Learning.

Parámetros del módulo

Nombre Intervalo Tipo Valor predeterminado Descripción
Permitir el uso en RRS Verdadero/Falso Boolean false Permitir que este módulo se ejecute en el servicio web de solicitud-respuesta, lo que puede provocar retrasos impredecibles
Origen de datos Dirección URL web a través de HTTP o Azure Blob Storage T_DataSourceOrSink Azure Blob Storage El origen de datos puede ser HTTP o un archivo en Azure Blob Storage (obligatorio)
Para la dirección URL web a través de HTTP:
Dirección URL del origen de datos cualquiera String Dirección URL de HTTP
Para Azure Blob Storage:
Nombre de cuenta cualquiera String Nombre de la cuenta
Clave de cuenta cualquiera SecureString Clave asociada a la cuenta de Microsoft Azure Storage
Ruta de acceso al contenedor, directorio o blob cualquiera String Ruta de acceso al blob o nombre de tabla

Salidas

Nombre Tipo Descripción
modelo entrenado Interfaz ILearner Modelo entrenado

Excepciones

Excepción Descripción
Error 0003 Se produce una excepción si una o varias de las entradas son NULL o están vacías.

Para obtener una lista de errores específicos de los módulos de Studio (clásico), consulte Machine Learning códigos de error.

Para obtener una lista de excepciones de API, consulte Machine Learning códigos de error de la API REST.

Consulte también

Entrada y salida de datos