Wydajność i sprawiedliwość modelu
W tym artykule opisano metody, których można użyć do zrozumienia wydajności i sprawiedliwości modelu w usłudze Azure Machine Learning.
Co to jest sprawiedliwość uczenia maszynowego?
Sztuczna inteligencja i systemy uczenia maszynowego mogą wykazywać niesprawiedliwe zachowanie. Jednym ze sposobów zdefiniowania niesprawiedliwego zachowania jest jego krzywda lub jej wpływ na ludzi. Systemy sztucznej inteligencji mogą powodować wiele rodzajów szkód. Aby dowiedzieć się więcej, zobacz przemówienie Kate Crawford z NeurIPS 2017.
Istnieją dwa typowe typy szkód spowodowanych przez sztuczną inteligencję:
Szkoda alokacji: system sztucznej inteligencji rozszerza lub wstrzymuje możliwości, zasoby lub informacje dla niektórych grup. Przykłady obejmują zatrudnianie, przyjęcia do szkoły i udzielanie pożyczek, gdzie model może być lepszy w wybieraniu dobrych kandydatów wśród określonej grupy osób niż wśród innych grup.
Szkoda jakości usług: system sztucznej inteligencji nie działa tak dobrze dla jednej grupy osób, jak w przypadku innej. Na przykład system rozpoznawania głosu może nie działać, jak również dla kobiet, jak w przypadku mężczyzn.
Aby zmniejszyć niesprawiedliwe zachowanie w systemach sztucznej inteligencji, należy ocenić i wyeliminować te szkody. Składnik przeglądu modelupulpitu nawigacyjnego Odpowiedzialne używanie sztucznej inteligencji przyczynia się do etapu identyfikacji cyklu życia modelu przez wygenerowanie metryk wydajności modelu dla całego zestawu danych i zidentyfikowanych kohort danych. Generuje te metryki w podgrupach zidentyfikowanych pod kątem funkcji poufnych lub atrybutów poufnych.
Uwaga
Sprawiedliwość jest wyzwaniem społeczno-technicznym. Metryki sprawiedliwości ilościowej nie przechwytują wielu aspektów sprawiedliwości, takich jak sprawiedliwość i proces ukończenia. Ponadto wiele metryk sprawiedliwości ilościowej nie może być spełnionych jednocześnie.
Celem pakietu open source Fairlearn jest umożliwienie ludziom oceny wpływu i strategii ograniczania ryzyka. Ostatecznie zależy to od ludzi, którzy tworzą modele sztucznej inteligencji i uczenia maszynowego, aby dokonać kompromisów, które są odpowiednie dla ich scenariuszy.
W tym składniku pulpitu nawigacyjnego odpowiedzialnego używania sztucznej inteligencji sprawiedliwość jest koncepcyjna za pomocą podejścia znanego jako sprawiedliwość grupy. To podejście pyta: "Które grupy osób są narażone na ryzyko wystąpienia szkody?" Termin funkcje wrażliwe sugerują, że projektant systemu powinien być wrażliwy na te funkcje podczas oceny sprawiedliwości grupy.
W fazie oceny sprawiedliwość jest określana ilościowo za pomocą metryk dysproporcjności. Te metryki mogą oceniać i porównywać zachowanie modelu między grupami jako współczynniki lub różnice. Pulpit nawigacyjny odpowiedzialnej sztucznej inteligencji obsługuje dwie klasy metryk dysproporcyjnych:
Różnica w wydajności modelu: te zestawy metryk obliczają różnicę (różnicę) w wartościach wybranej metryki wydajności w podgrupach danych. Oto kilka przykładów:
- Rozbieżność w współczynniku dokładności
- Rozbieżność współczynnika błędów
- Rozbieżność w precyzji
- Rozbieżność w odwołaniu
- Rozbieżność w błędzie bezwzględnym średniej (MAE)
Różnica w współczynniku wyboru: Ta metryka zawiera różnicę w współczynniku wyboru (korzystne przewidywanie) wśród podgrup. Przykładem jest rozbieżność stopy zatwierdzania pożyczek. Współczynnik wyboru oznacza ułamek punktów danych w każdej klasie sklasyfikowany jako 1 (w klasyfikacji binarnej) lub rozkład wartości przewidywania (w regresji).
Możliwości oceny sprawiedliwości tego składnika pochodzą z pakietu Fairlearn . Fairlearn udostępnia kolekcję metryk oceny sprawiedliwości modelu i algorytmów ograniczania niesprawiedliwości.
Uwaga
Ocena sprawiedliwości nie jest czysto technicznym ćwiczeniem. Pakiet open source Fairlearn może identyfikować metryki ilościowe, aby ułatwić ocenę uczciwości modelu, ale nie wykona oceny za Ciebie. Należy przeprowadzić analizę jakościową, aby ocenić sprawiedliwość własnych modeli. Zanotowane wcześniej funkcje poufne są przykładem takiej analizy jakościowej.
Ograniczenia parzystości w celu ograniczenia niesprawiedliwości
Po zrozumieniu problemów z uczciwością modelu możesz użyć algorytmów ograniczania ryzyka w pakiecie open source Fairlearn , aby rozwiązać te problemy. Te algorytmy obsługują zestaw ograniczeń dotyczących zachowania predyktora nazywanego ograniczeniami lub kryteriami parzystości .
Ograniczenia parzystości wymagają porównania niektórych aspektów zachowania predyktora w grupach, które definiują poufne funkcje (na przykład różne rasy). Algorytmy ograniczania ryzyka w pakiecie open source Fairlearn używają takich ograniczeń parzystości, aby wyeliminować zaobserwowane problemy z uczciwością.
Uwaga
Algorytmy ograniczania niesprawiedliwości w pakiecie open source Fairlearn mogą zapewnić sugerowane strategie ograniczania ryzyka w celu zmniejszenia niesprawiedliwości w modelu uczenia maszynowego, ale te strategie nie eliminują niesprawiedliwości. Deweloperzy mogą wymagać rozważenia innych ograniczeń parzystości lub kryteriów dotyczących modeli uczenia maszynowego. Deweloperzy korzystający z usługi Azure Machine Learning muszą ustalić, czy ograniczenie ryzyka w wystarczającym stopniu zmniejsza nieuczciwość w ich zamierzonym użyciu i wdrażaniu modeli uczenia maszynowego.
Pakiet Fairlearn obsługuje następujące typy ograniczeń parzystości:
Ograniczenie parzystości | Przeznaczenie | Zadanie uczenia maszynowego |
---|---|---|
Parzystość demograficzna | Eliminowanie szkód alokacji | Klasyfikacja binarna, regresja |
Wyrównane kursy | Diagnozowanie szkód związanych z alokacją i jakością usług | Klasyfikacja binarna |
Równe szanse sprzedaży | Diagnozowanie szkód związanych z alokacją i jakością usług | Klasyfikacja binarna |
Ograniczona utrata grupy | Eliminowanie szkód związanych z jakością usług | Regresja |
Algorytmy ograniczania ryzyka
Pakiet open source Fairlearn udostępnia dwa typy algorytmów ograniczania niesprawiedliwości:
Redukcja: Te algorytmy korzystają ze standardowego narzędzia do szacowania uczenia maszynowego czarnego (na przykład modelu LightGBM) i generują zestaw ponownie wytrenowanych modeli przy użyciu sekwencji zestawów danych trenowania o ponownej wadze.
Na przykład wnioskodawcy określonej płci mogą być wyważone lub niedoważane w celu ponownego trenowania modeli i zmniejszenia różnic między grupami płci. Użytkownicy mogą następnie wybrać model, który zapewnia najlepszy kompromis między dokładnością (lub inną metryką wydajności) i dysproporcją, na podstawie reguł biznesowych i obliczeń kosztów.
Przetwarzanie końcowe: Te algorytmy przyjmują istniejący klasyfikator i funkcję wrażliwą jako dane wejściowe. Następnie tworzą transformację przewidywania klasyfikatora, aby wymusić określone ograniczenia sprawiedliwości. Największą zaletą jednego algorytmu przetwarzania końcowego, optymalizacji progowej jest jego prostota i elastyczność, ponieważ nie wymaga ponownego trenowania modelu.
Algorytm | Opis | Zadanie uczenia maszynowego | Funkcje poufne | Obsługiwane ograniczenia parzystości | Typ algorytmu |
---|---|---|---|---|---|
ExponentiatedGradient |
Podejście czarnej skrzynki do sprawiedliwej klasyfikacji opisane w artykule A Reductions Approach to Fair Classification (Podejście redukcji do sprawiedliwej klasyfikacji). | Klasyfikacja binarna | Podzielone na kategorie | Parzystość demograficzna, wyrównane kursy | Redukcji |
GridSearch |
Podejście czarnej skrzynki opisane w artykule A Reductions Approach to Fair Classification (Podejście redukcji do sprawiedliwej klasyfikacji). | Klasyfikacja binarna | Binarne | Parzystość demograficzna, wyrównane kursy | Redukcji |
GridSearch |
Podejście czarnej skrzynki, które implementuje wariant wyszukiwania w siatce regresji sprawiedliwej za pomocą algorytmu powiązanej utraty grupy opisanej w temacie Fair Regression: Quantitative Definitions and Reduction-based Algorithms (Algorytmy oparte na regresji sprawiedliwej: definicje ilościowe i algorytmy oparte na redukcji). | Regresja | Binarne | Ograniczona utrata grupy | Redukcji |
ThresholdOptimizer |
Algorytm przetwarzania postprocesowego oparty na artykule Równość szans w uczeniu nadzorowanym. Ta technika przyjmuje jako dane wejściowe istniejące klasyfikator i funkcję wrażliwą. Następnie tworzy przekształcenie monotonowe przewidywania klasyfikatora w celu wymuszenia określonych ograniczeń parzystości. | Klasyfikacja binarna | Podzielone na kategorie | Parzystość demograficzna, wyrównane kursy | Przetwarzanie końcowe |
Następne kroki
- Dowiedz się, jak wygenerować pulpit nawigacyjny odpowiedzialnej sztucznej inteligencji za pomocą interfejsu wiersza polecenia i zestawu SDK lub interfejsu użytkownika Azure Machine Learning studio.
- Zapoznaj się z obsługiwanym omówieniem modelu i wizualizacjami oceny sprawiedliwości pulpitu nawigacyjnego odpowiedzialnego używania sztucznej inteligencji.
- Dowiedz się, jak wygenerować kartę wyników odpowiedzialnej sztucznej inteligencji na podstawie szczegółowych informacji obserwowanych na pulpicie nawigacyjnym odpowiedzialnej sztucznej inteligencji.
- Dowiedz się, jak używać składników, sprawdzając repozytorium GitHub firmy Fairlearn, podręcznik użytkownika, przykłady i przykładowe notesy.