Aprender conceitos de moderação de imagens

Utilize a moderação de imagens assistida por computador do Content Moderator para moderar imagens para conteúdos para adultos e picantes. Analise imagens para obter conteúdo de texto, extraia esse texto e detete rostos. Pode corresponder imagens a listas personalizadas e tomar medidas adicionais.

Avaliar conteúdos para adultos e picantes

A operação Evaluate devolve uma classificação de confiança entre 0 e 1. Também devolve dados booleanos iguais a verdadeiros ou falsos. Estes valores preveem se a imagem contém conteúdos potenciais para adultos ou picantes. Quando chama a API com a sua imagem (ficheiro ou URL), a resposta devolvida inclui as seguintes informações:

"ImageModeration": {
    .............
    "adultClassificationScore": 0.019196987152099609,
    "isImageAdultClassified": false,
    "racyClassificationScore": 0.032390203326940536,
    "isImageRacyClassified": false,
    ............
    ],

Nota

  • isImageAdultClassified representa a presença potencial de imagens que podem ser consideradas sexualmente explícitas ou para adultos em determinadas situações.
  • isImageRacyClassified representa a presença potencial de imagens que podem ser consideradas sexualmente sugestivas ou para adultos em determinadas situações.
  • As classificações estão entre 0 e 1. Quanto maior for a classificação, maior será o modelo a prever que a categoria pode ser aplicável. Esta pré-visualização baseia-se num modelo estatístico em vez de resultados codificados manualmente. Recomendamos que teste com o seu próprio conteúdo para determinar como cada categoria se alinha com os seus requisitos.
  • Os valores booleanos são verdadeiros ou falsos consoante os limiares de classificação interna. Os clientes devem avaliar se devem utilizar este valor ou decidir sobre limiares personalizados com base nas suas políticas de conteúdo.

Detetar texto com o Reconhecimento Ótico de Carateres (OCR)

A operação Reconhecimento Ótico de Carateres (OCR) prevê a presença de conteúdo de texto numa imagem e extrai-o para moderação de texto, entre outras utilizações. Pode especificar o idioma. Se não especificar um idioma, a deteção é predefinida para inglês.

A resposta inclui as seguintes informações:

  • O texto original.
  • Os elementos de texto detetados com as respetivas classificações de confiança.

Extração de exemplo:

"TextDetection": {
    "status": {
        "code": 3000.0,
        "description": "OK",
        "exception": null
    },
    .........
    "language": "eng",
    "text": "IF WE DID \r\nALL \r\nTHE THINGS \r\nWE ARE \r\nCAPABLE \r\nOF DOING, \r\nWE WOULD \r\nLITERALLY \r\nASTOUND \r\nOURSELVE \r\n",
    "candidates": []
},

Detetar faces

A deteção de rostos ajuda a detetar dados pessoais, como rostos nas imagens. Deteta potenciais rostos e o número de potenciais rostos em cada imagem.

Uma resposta inclui estas informações:

  • Contagem de rostos
  • Lista de localizações de rostos detetados

Extração de exemplo:

"FaceDetection": {
    ......
    "result": true,
    "count": 2,
    "advancedInfo": [
        .....
    ],
    "faces": [
        {
            "bottom": 598,
            "left": 44,
            "right": 268,
            "top": 374
        },
        {
            "bottom": 620,
            "left": 308,
            "right": 532,
            "top": 396
        }
    ]
}

Criar e gerir listas personalizadas

Em muitas comunidades online, após os utilizadores carregarem imagens ou outro tipo de conteúdo, os itens ofensivos podem ser partilhados várias vezes nos dias, semanas e meses seguintes. Os custos de digitalizar e filtrar repetidamente a mesma imagem ou mesmo versões ligeiramente modificadas da imagem a partir de vários locais podem ser dispendiosos e propensos a erros.

Em vez de moderar a mesma imagem várias vezes, adicione as imagens ofensivas à sua lista personalizada de conteúdos bloqueados. Dessa forma, o seu sistema de moderação de conteúdos compara as imagens recebidas com as suas listas personalizadas e interrompe qualquer processamento adicional.

Nota

Existe um limite máximo de 5 listas de imagens, sendo que cada lista não pode exceder 10 000 imagens.

O Content Moderator fornece uma API de Gestão de Lista de Imagens completa com operações para gerir listas de imagens personalizadas. Comece com a Consola de API Listas de Imagens e utilize os exemplos de código da API REST. Consulte também o início rápido .NET da Lista de Imagens se estiver familiarizado com o Visual Studio e C#.

Corresponder às suas listas personalizadas

A operação Match permite a correspondência difusa de imagens recebidas com qualquer uma das suas listas personalizadas, criadas e geridas através das operações de Lista.

Se for encontrada uma correspondência, a operação devolve o identificador e as etiquetas de moderação da imagem correspondente. A resposta inclui estas informações:

  • Pontuação da correspondência (entre 0 e 1)
  • Imagem com correspondência
  • Etiquetas de imagem (atribuídas durante a moderação anterior)
  • Etiquetas de imagem

Extração de exemplo:

{
    ..............,
    "IsMatch": true,
    "Matches": [
        {
            "Score": 1.0,
            "MatchId": 169490,
            "Source": "169642",
            "Tags": [],
            "Label": "Sports"
        }
    ],
    ....
}

Passos seguintes

Teste a consola da API de Moderação de Imagens e utilize os exemplos de código da API REST.