Uso compartido de conclusiones de inteligencia artificial responsable mediante el cuadro de mandos de IA responsable (versión preliminar)

El panel de inteligencia artificial responsable está diseñado para que los profesionales del aprendizaje automático y los científicos de datos exploren y evalúen la información del modelo y tomen decisiones basadas en datos. Si bien puede ayudarle a implementar inteligencia artificial responsable prácticamente en todo el ciclo de vida del aprendizaje automático, hay algunas necesidades que no se han tratado:

  • A menudo, existe una brecha entre las herramientas técnicas de inteligencia artificial responsable (diseñadas para profesionales del aprendizaje automático) y los requisitos éticos, normativos y empresariales que definen el entorno de producción.
  • Aunque un ciclo de vida de aprendizaje automático de un extremo a otro incluye en el bucle tanto a las partes interesadas técnicas como a las no técnicas, hay poco soporte para permitir una alineación eficaz de varias partes interesadas, lo que ayuda a los expertos técnicos a recibir comentarios y direcciones oportunas de las partes interesadas no técnicas.
  • Las regulaciones de inteligencia artificial hacen que sea esencial poder compartir información sobre el modelo y los datos con auditores y responsables de riesgos con fines de auditoría.

Una de las mayores ventajas de usar el ecosistema de Azure Machine Learning está relacionada con el archivo de información sobre el modelo y los datos en el historial de ejecución de Azure Machine Learning (para obtener una referencia rápida en el futuro). Como parte de esa infraestructura y para acompañar a los modelos de aprendizaje automático y sus correspondientes paneles de inteligencia artificial responsable, presentamos el cuadro de mandos de IA responsable para permitir que los profesionales de ML generen y compartan fácilmente sus datos y registros de estado del modelo.

Importante

Esta característica actualmente está en su versión preliminar pública. Esta versión preliminar se ofrece sin un Acuerdo de Nivel de Servicio y no se recomienda para cargas de trabajo de producción. Es posible que algunas características no sean compatibles o que tengan sus funcionalidades limitadas.

Para más información, consulte Términos de uso complementarios de las Versiones Preliminares de Microsoft Azure.

¿Quién debe usar un cuadro de mandos de inteligencia artificial responsable?

  • Si es científico de datos o profesional de aprendizaje automático, después de entrenar el modelo y generar sus paneles de IA responsables correspondientes para fines de evaluación y toma de decisiones, puede extraer esos aprendizajes a través de nuestro cuadro de mandos PDF y compartir el informe fácilmente con sus partes interesadas técnicas y no técnicas para generar confianza y obtener su aprobación para la implementación.

  • Si es administrador de productos, líder empresarial o parte interesada responsable de un producto de inteligencia artificial, puede pasar los valores de destino de rendimiento y equidad del modelo deseados, como la precisión del destino, la tasa de errores de destino, etc., al equipo de ciencia de datos y pedirles que generen este cuadro de mandos con respecto a los valores de destino identificados y si el modelo los cumple. Esto puede proporcionar una guía sobre si el modelo se debe implementar o mejorar aún más.

Pasos siguientes