Inicio rápido: Content Safety Studio de Azure AI

En este inicio rápido, empiece a trabajar con el servicio de Seguridad del contenido de Azure AI mediante Content Safety Studio en el explorador.

Precaución

Algunos de los contenidos de ejemplo proporcionados por Content Safety Studio pueden ser ofensivos. Las imágenes de ejemplo están difuminadas de manera predeterminada. Se recomienda discreción al usuario.

Requisitos previos

Análisis de contenido de texto

La página Moderación de contenido de texto proporciona funcionalidad para que pueda probar rápidamente la moderación de texto.

Captura de pantalla del panel de análisis de texto.

  1. Seleccione el panel Moderate text content.
  2. Agregue texto al campo de entrada o seleccione texto de ejemplo en los paneles de la página.

    Sugerencia

    Granularidad y tamaño del texto

    La longitud máxima predeterminada para envíos de texto es 10 000 caracteres.

  3. Haga clic en Ejecutar prueba.

El servicio devuelve todas las categorías detectadas con el nivel de gravedad de cada una (0-Seguro, 2-Bajo, 4-Medio, 6-Alto). También devuelve un resultado binario Aceptado/Rechazado en función de los filtros que configure. Use la matriz de la pestaña Configure filters de la derecha para establecer los niveles de gravedad permitidos o prohibidos para cada categoría. A continuación, puede volver a ejecutar el texto para ver cómo funciona el filtro.

La pestaña Use blocklist de la derecha le permite crear, editar y agregar una lista de bloqueados al flujo de trabajo de moderación. Si tiene habilitada una lista de bloqueados al ejecutar la prueba, obtendrá el panel Blocklist detection en Results. Notifica cualquier coincidencia con la lista de bloqueados.

Detección de ataques de entrada de usuario

El panel Escudos de avisos permite probar la detección de riesgo de entrada de usuario. Detecte aquellos mensajes de usuario diseñados para provocar que el modelo de IA generativa muestre comportamientos que fue entrenado para evitar o infringir las reglas establecidas en el mensaje del sistema. Estos ataques pueden variar desde un intrincado juego de roles a una subversión sutil del objetivo de seguridad.

Captura de pantalla de Content Safety Studio con el panel de detección de riesgo de entrada de usuario seleccionado.

  1. Seleccione el panel Escudos de avisos.
  2. Seleccione un texto de ejemplo en la página o escriba su propio contenido para realizar pruebas. También puede cargar un archivo CSV para realizar una prueba por lotes.
  3. Haga clic en Ejecutar prueba.

El servicio devuelve la marca de riesgo y el tipo para cada ejemplo.

Para obtener más información, consulte la guía conceptual de Escudos de avisos.

Análisis de contenido de imágenes

La página Moderate image content proporciona funcionalidad para que pueda probar rápidamente la moderación de texto.

Captura de pantalla del panel de análisis de imágenes.

  1. Seleccione el panel Moderate image content.
  2. Seleccione una imagen de ejemplo de los paneles de la página o cargue su propia imagen. El tamaño máximo de los envíos de imágenes es de 4 MB y las dimensiones de la imagen deben estar entre 50 x 50 píxeles y 2048 x 2048 píxeles. Las imágenes pueden estar en formato JPEG, PNG, GIF, BMP, TIFF o WEBP.
  3. Haga clic en Ejecutar prueba.

El servicio devuelve todas las categorías detectadas con el nivel de gravedad de cada una (0-Seguro, 2-Bajo, 4-Medio, 6-Alto). También devuelve un resultado binario Aceptado/Rechazado en función de los filtros que configure. Use la matriz de la pestaña Configure filters de la derecha para establecer los niveles de gravedad permitidos o prohibidos para cada categoría. A continuación, puede volver a ejecutar el texto para ver cómo funciona el filtro.

Visualización y exportación de código

Puede usar la característica View Code en la página Analyze text content o Analyze image content para ver y copiar el código de ejemplo, que incluye la configuración de las funciones de filtrado de gravedad, listas de bloqueados y moderación. A continuación, puede implementar el código en su extremo.

Captura de pantalla de la visualización de código.

Supervisión de la actividad en línea

La página Monitor online activity le permite ver el uso de la API y las tendencias.

Captura de pantalla del panel de supervisión.

Puede elegir qué tipo de elementos multimedia se va a supervisar. También puede especificar el intervalo de tiempo que desea comprobar si selecciona Show data for the last __.

En el gráfico Reject rate per category, también puede ajustar los umbrales de gravedad de cada categoría.

Captura de pantalla de la tabla de umbrales de gravedad.

También puede editar listas de bloqueados si desea cambiar algunos términos, en función del gráfico Top 10 blocked terms.

Administración de recursos

Para ver los detalles del recurso, como el nombre y el plan de tarifa, seleccione el icono Settings en la esquina superior derecha de la página principal de Content Safety Studio y seleccione la pestaña Resource. Si tiene otros recursos, también puede cambiar de recurso aquí.

Captura de pantalla de la administración de recursos.

Limpieza de recursos

Si quiere limpiar y eliminar un recurso de servicios de Azure AI, puede eliminar el recurso o el grupo de recursos. Al eliminar el grupo de recursos, también se elimina cualquier otro recurso que esté asociado a él.

Pasos siguientes

A continuación, empiece a usar la Seguridad del contenido de Azure AI mediante las API de REST o un SDK de cliente para que pueda integrar sin problemas el servicio en la aplicación.