O que é o Content Moderator?
A moderação de conteúdo é um processo que envolve etapas simples. Revisão, monitoramento e interpretação do conteúdo antes de ser exibido ou liberado para consumo geral. Mas, moderar uma grande quantidade de conteúdo pode ser demorado. Usando um serviço, como o Moderador de Conteúdo, você pode automatizar grande parte desse processo e configurar a necessidade de revisão humana, conforme apropriado.
O serviço Content Moderator é uma API alimentada por inteligência artificial e executada no Azure. O serviço é capaz de digitalizar conteúdo de texto, imagem e vídeo em busca de possíveis aspetos arriscados, ofensivos ou indesejáveis. Ele aplica sinalizadores de conteúdo automaticamente, mas também se integra à ferramenta Revisão. A ferramenta Review é um ambiente de moderador online que é usado para facilitar a revisão humana do conteúdo sinalizado.
As APIs
Existem diferentes tipos de APIs disponíveis no Content Moderator. A tabela a seguir descreve cada uma das APIs atuais.
API | Caraterística |
---|---|
Moderação de Texto | Analisa o texto em busca de aspetos ofensivos, sexualmente explícitos ou sugestivos, palavrões e dados pessoais. |
Moderação de Imagens | Analisa imagens para determinar se contêm conteúdo adulto ou picante. Ele também pode digitalizar texto na imagem usando Reconhecimento Ótico de Caracteres (OCR) e pode detetar rostos em uma imagem também. |
Moderação de Vídeos | Verifica se há conteúdo adulto ou picante em arquivos de vídeo. A API retorna marcadores de tempo onde o conteúdo foi encontrado. |
Listas de termos personalizadas | Analisa o texto em busca de uma lista de termos que criou. Você pode usar a lista para bloquear ou permitir conteúdo com base nas políticas de conteúdo da sua organização. |
Listas de imagens personalizadas | Analisa as imagens em relação às suas listas de imagens personalizadas. Você pode usar a lista para filtrar o conteúdo comumente recorrente que não deseja classificar novamente. |
Revisão de conteúdo
A moderação automatizada de conteúdo ainda pode exigir validação. Você também pode decidir que deseja monitorar o desempenho do serviço nas tarefas de moderação. O serviço Moderador de Conteúdo também suporta um conjunto de APIs de revisão. Usando as APIs de revisão, você pode trazer um revisor humano para o fluxo de trabalho. Os seres humanos interagem com o serviço através da ferramenta de revisão: uma interface baseada na Web que hospeda as revisões de conteúdo que os moderadores humanos podem processar e monitorar.