Considere a justiça modelo

Concluído

Quando consideramos o conceito de equidade em relação às previsões feitas por modelos de machine learning, ajuda ser claro sobre o que queremos dizer com "justo".

Por exemplo, suponha que um modelo de classificação seja utilizado para prever a probabilidade de um reembolso bem sucedido do empréstimo e, portanto, influencia se o empréstimo é ou não aprovado. O modelo será provavelmente treinado utilizando características que reflitam as características do requerente, tais como:

  • Idade
  • Estatuto do emprego
  • Receita
  • Poupança
  • Dívida corrente

Estas características são usadas para formar um modelo de classificação binária que prevê se um requerente irá reembolsar um empréstimo.

Um conjunto de 22 previsões para o reembolso do empréstimo, nas quais se prevê que 10 dos candidatos sejam reembolsados, e 12 estão previstos o incumprimento.

Suponhamos que o modelo prevê que cerca de 45% dos candidatos irão pagar com sucesso os seus empréstimos. No entanto, ao rever os registos de aprovação de empréstimos, começa a suspeitar que são aprovados menos empréstimos para candidatos com idade igual ou superior a 25 anos do que para os candidatos com mais de 25 anos. Como pode ter a certeza de que o modelo é justo para os candidatos em ambas as faixas etárias?

Medição da disparidade nas previsões

Uma forma de começar a avaliar a equidade de um modelo é comparar as previsões para cada grupo dentro de uma característica sensível. Para o modelo de aprovação de empréstimos, a Idade é uma característica sensível com a qual nos preocupamos, para que possamos dividir os dados em subconjuntos para cada faixa etária e comparar a taxa de seleção (a proporção de previsões positivas) para cada grupo.

Prevê-se que quatro em cada onze candidatos com idade igual ou superior a 25 anos sejam reembolsados e sete em cada onze candidatos com mais de 25 anos de idade devem reembolsar.

Digamos que o modelo prevê que 36% dos candidatos com idade igual ou superior a 25 anos irão reembolsar um empréstimo, mas prevê reembolsos bem-sucedidos para 54% dos candidatos com mais de 25 anos. Há uma disparidade nas previsões de 18%.

À primeira vista, esta comparação parece confirmar que há preconceitos no modelo que discrimina os candidatos mais jovens. No entanto, se considerarmos a população como um todo, pode ser que os mais jovens ganhem geralmente menos do que as pessoas mais estabelecidas nas suas carreiras, tenham níveis mais baixos de poupança e ativos e tenham uma taxa mais elevada de incumprimento dos empréstimos.

O ponto importante a considerar aqui é que só porque queremos garantir a equidade em relação à idade, não necessariamente seguir essa idade não é um fator na probabilidade de reembolso de empréstimos. É possível que, em geral, os mais jovens sejam menos propensos a pagar um empréstimo do que os mais velhos. Para obter o quadro completo, precisamos olhar um pouco mais para o desempenho preditivo do modelo para cada subconjunto da população.

Medir a disparidade no desempenho da previsão

Quando treina um modelo de machine learning utilizando uma técnica supervisionada, como regressão ou classificação, utiliza-se métricas conseguidas contra dados de validação de retenção para avaliar o desempenho preditivo geral do modelo. Por exemplo, pode avaliar um modelo de classificação baseado na precisão, precisão ou recordação.

Para avaliar a equidade de um modelo, pode aplicar a mesma métrica de desempenho preditivo aos subconjuntos dos dados, com base nas características sensíveis em que a sua população está agrupada, e medir a disparidade nessas métricas através dos subgrupos.

Por exemplo, suponha que o modelo de aprovação de empréstimos apresenta uma métrica global de recolha de 0,67 - ou seja, identifica corretamente 67% dos casos em que o requerente reembolsou o empréstimo. A questão é se o modelo fornece ou não uma taxa semelhante de previsões corretas para diferentes faixas etárias.

Para descobrir, agrupar os dados com base na característica sensível (Idade) e medimos a métrica de desempenho preditivo (lembre-se) para esses grupos. Então podemos comparar as pontuações métricas para determinar a disparidade entre eles.

Prevê-se que três em cada seis candidatos com idade igual ou superior a 25 anos que tenham reembolsado o façam, prevendo-se que cinco em cada seis candidatos com mais de 25 anos que reembolsem o façam. Ambos os grupos incluem um falso positivo onde se previa que um candidato reembolsasse, mas não o fez.

Digamos que a recolha de casos de validação em que o requerente tem 25 ou menos anos é de 0,50, e recordamos para os casos em que o requerente tem mais de 25 anos é de 0,83. Ou seja, o modelo identificou corretamente 50% das pessoas na faixa etária de 25 ou menos anos que reembolsaram com sucesso um empréstimo (e, portanto, classificaram mal 50% deles como incumprimentos de empréstimos), mas encontrou 83% dos reembolsadores de empréstimos na faixa etária mais velha (classificando mal apenas 17% deles). A disparidade no desempenho da previsão entre os grupos é de 33%, com o modelo a prever significativamente mais falsos negativos para a faixa etária mais jovem.

Causas potenciais de disparidade

Quando se encontra uma disparidade entre as taxas de previsão ou as métricas de desempenho de previsão entre grupos de características sensíveis, vale a pena considerar potenciais causas. As tarefas podem incluir:

  • Desequilíbrio de dados. Alguns grupos podem estar sobre-representados nos dados de formação, ou os dados podem ser distorcidos para que os casos dentro de um grupo específico não sejam representativos da população em geral.
  • Correlação indireta. A característica sensível em si pode não ser preditiva do rótulo, mas pode haver uma correlação escondida entre a característica sensível e alguma outra característica que influencia a previsão. Por exemplo, há provavelmente uma correlação entre a idade e o histórico de crédito, e há provavelmente uma correlação entre o histórico de crédito e os incumprimentos do empréstimo. Se a funcionalidade de histórico de crédito não estiver incluída nos dados de formação, o algoritmo de formação pode atribuir um peso preditivo à idade sem contabilizar o histórico de crédito, o que pode fazer a diferença para a probabilidade de reembolso de empréstimos.
  • Preconceitos sociais. Os enviesamentos subconscientes no processo de recolha, preparação ou modelação de dados podem ter influenciado a seleção de recursos ou outros aspetos do design do modelo.

Preconceito atenuante

Otimizar para a equidade num modelo de aprendizagem automática é um desafio sociotécnico. Por outras palavras, nem sempre é algo que se pode conseguir puramente aplicando correções técnicas a um algoritmo de treino. No entanto, existem algumas estratégias que pode adotar para mitigar o enviesamento, incluindo:

  • Equilibrar dados de treino e validação. Pode aplicar técnicas de sobre-amostragem ou sub-amostragem para equilibrar dados e usar algoritmos de divisão estratificados para manter proporções representativas para treino e validação.
  • Realizar uma extensa seleção de recursos e análise de engenharia. Certifique-se de que explora totalmente as correlações interligadas nos seus dados para tentar diferenciar funcionalidades que são diretamente preditivas de funcionalidades que encapsulam relações mais complexas e matizadas. Pode utilizar o suporte de interpretação do modelo em Azure Machine Learning para entender como as características individuais influenciam as previsões.
  • Avaliar modelos para a disparidade com base em características significativas. Não se pode abordar facilmente o preconceito num modelo se não se pode quantificar.
  • Compensação do desempenho preditivo global para a menor disparidade no desempenho preditivo entre grupos de características sensíveis. Um modelo 99,5% preciso com desempenho comparável em todos os grupos é muitas vezes mais desejável do que um modelo que é 99,9% preciso, mas discrimina um determinado subconjunto de casos.

O resto deste módulo explora o pacote Fairlearn - um pacote Python que você pode usar para avaliar e mitigar a injustiça em modelos de machine learning.