Detecção de conteúdo para adulto

A Visão de IA do Azure pode detectar conteúdo adulto nas imagens para que os desenvolvedores possam restringir a exibição dessas imagens em seu software. Os sinalizadores de conteúdo são aplicados com uma pontuação entre zero e um, assim os desenvolvedores podem interpretar os resultados de acordo com suas próprias preferências.

Experimente os recursos de detecção de conteúdo para adulto de maneira rápida e fácil no navegador usando o Vision Studio.

Dica

A Segurança de Conteúdo de IA do Azure é a oferta mais recente de moderação de conteúdo por meio de IA. Para obter mais informações, confira a Visão geral do Segurança de Conteúdo de IA do Azure.

Definições de sinalizador de conteúdo

A classificação "adulto" contém várias categorias diferentes:

  • As imagens adultas são explicitamente sexuais por natureza e muitas vezes mostram nudez e atos sexuais.
  • As imagens picantes são definidas como imagens de natureza sexualmente sugestiva e, geralmente, contêm menos conteúdo sexualmente explícito do que imagens marcadas como Somente para adultos.
  • Imagens sangrentas mostram sangue.

Usar a API

É possível detectar conteúdo adulto com a API Análise de Imagem 3.2. Quando você adiciona o valor de Adult ao parâmetro de consulta visualFeatures, a API retorna três propriedades boolianas – isAdultContent, isRacyContent e isGoryContent – na resposta JSON. O método também retorna propriedades correspondentes – adultScore, racyScore e goreScore – que representam pontuações de confiança entre zero e um para cada categoria respectiva.