Výkon a nestrannost modelu

Tento článek popisuje metody, které můžete použít k pochopení výkonu a spravedlnosti modelu ve službě Azure Machine Learning.

Co je nestrannost strojového učení?

Systémy umělé inteligence a strojového učení můžou projevovat nespravedlivé chování. Jedním ze způsobů, jak definovat neférové chování, je jeho poškození nebo dopad na lidi. Systémy umělé inteligence můžou způsobovat mnoho typů škod. Další informace najdete v příspěvku Kate Crawfordové z konference NeurIPS 2017.

Existují dva běžné typy škod způsobených AI:

  • Poškození přidělení: Systém AI rozšiřuje nebo zadržuje příležitosti, zdroje nebo informace pro určité skupiny. Mezi příklady patří nábor, přijímání do školy a půjčování, kde model může být lepší při výběru vhodných kandidátů z konkrétní skupiny lidí než v jiných skupinách.

  • Poškození kvality služeb: Systém umělé inteligence nefunguje tak dobře pro jednu skupinu lidí jako pro jinou. Například systém rozpoznávání řeči nemusí fungovat stejně dobře pro ženy jako pro muže.

Pokud chcete omezit nespravedlivé chování v systémech AI, musíte tyto škody vyhodnotit a zmírnit. Komponenta přehledu modeluřídicího panelu odpovědné AI přispívá k identifikaci fáze životního cyklu modelu tím, že generuje metriky výkonu modelu pro celou datovou sadu a vaše identifikované kohorty dat. Generuje tyto metriky napříč podskupinami identifikovanými z hlediska citlivých funkcí nebo citlivých atributů.

Poznámka

Nestrannost je socio-technická výzva. Kvantitativní metriky nestrannosti nezachycuje mnoho aspektů spravedlnosti, jako je spravedlnost a proces spravedlnosti. Mnoho kvantitativních metrik nestrannosti také není možné splnit současně.

Cílem opensourcového balíčku Fairlearn je umožnit lidem posoudit dopad a strategie zmírnění rizik. V konečném důsledku je na lidech, kteří vytvářejí modely AI a strojového učení, aby udělali kompromisy, které jsou vhodné pro jejich scénáře.

V této komponentě řídicího panelu odpovědné AI je nestrannost konceptuální prostřednictvím přístupu označovaného jako nestrannost skupin. Tento přístup se ptá: "Které skupiny jednotlivců jsou ohroženy poškozením?" Pojem citlivé funkce naznačuje, že návrhář systému by měl být na tyto funkce při posuzování spravedlnosti skupiny citlivý.

Během fáze hodnocení se nestrannost kvantifikuje prostřednictvím metrik nepoměru. Tyto metriky můžou vyhodnocovat a porovnávat chování modelu napříč skupinami buď jako poměry, nebo jako rozdíly. Řídicí panel odpovědné AI podporuje dvě třídy metrik nepoměru:

  • Nepoměr ve výkonu modelu: Tyto sady metrik počítají nepoměr (rozdíl) v hodnotách vybrané metriky výkonu napříč podskupinami dat. Tady je pár příkladů:

    • Nepoměr v míře přesnosti
    • Nepoměr v míře chyb
    • Nepoměr v přesnosti
    • Nepoměr při odvolání
    • Nepoměr v střední absolutní chybě (MAE)
  • Nepoměr v míře výběru: Tato metrika obsahuje rozdíl v míře výběru (uspokojivá předpověď) mezi podskupinami. Příkladem je nepoměr v sazbě schválení půjčky. Míra výběru znamená zlomek datových bodů v každé třídě klasifikované jako 1 (v binární klasifikaci) nebo rozdělení predikčních hodnot (v regresi).

Možnosti posouzení spravedlnosti této komponenty pocházejí z balíčku Fairlearn . Fairlearn poskytuje kolekci metrik posouzení spravedlnosti modelu a algoritmů pro zmírnění nespravedlnosti.

Poznámka

Posouzení spravedlnosti není čistě technické cvičení. Opensourcový balíček Fairlearn dokáže identifikovat kvantitativní metriky, které vám pomůžou vyhodnotit nestrannost modelu, ale neprovádí hodnocení za vás. Abyste mohli vyhodnotit nestrannost svých vlastních modelů, musíte provést kvalitativní analýzu. Citlivé funkce, které jsme si poznamenali dříve, jsou příkladem tohoto druhu kvalitativní analýzy.

Omezení parity pro zmírnění nespravedlnosti

Jakmile porozumíte problémům se nestranností modelu, můžete tyto problémy zmírnit pomocí algoritmů pro zmírnění rizik v opensourcovém balíčku Fairlearn . Tyto algoritmy podporují sadu omezení chování vysvětlující proměnné označovanou jako omezení parity nebo kritéria.

Omezení parity vyžadují, aby některé aspekty chování vysvětlující proměnné byly srovnatelné se skupinami, které definují citlivé funkce (například různé rasy). Algoritmy pro zmírnění rizik v opensourcovém balíčku Fairlearn používají taková omezení parity ke zmírnění pozorovaných problémů se nestranností.

Poznámka

Algoritmy pro zmírnění nespravedlnosti v opensourcovém balíčku Fairlearn můžou poskytnout navrhované strategie pro zmírnění nespravedlnosti v modelu strojového učení, ale tyto strategie nestrannost neodstraní. Vývojáři možná budou muset u svých modelů strojového učení zvážit jiná omezení parity nebo kritéria. Vývojáři, kteří používají Azure Machine Learning, musí sami určit, jestli zmírnění rizik dostatečně snižuje neférnost při zamýšleném použití a nasazení modelů strojového učení.

Balíček Fairlearn podporuje následující typy omezení parity:

Omezení parity Účel Úloha strojového učení
Demografická parita Zmírnění škod při přidělování Binární klasifikace, regrese
Rovnoměrné kurzy Diagnostika přidělení a poškození kvality služeb Binární klasifikace
Rovná příležitost Diagnostika přidělení a poškození kvality služeb Binární klasifikace
Ztráta ohraničené skupiny Zmírnění škod poškozování kvality služeb Regrese

Algoritmy pro zmírnění rizik

Opensourcový balíček Fairlearn nabízí dva typy algoritmů pro zmírnění nespravedlnosti:

  • Redukce: Tyto algoritmy používají standardní černý box estimátor strojového učení (například model LightGBM) a generují sadu přetrénovaných modelů pomocí posloupnosti převažovaných trénovacích datových sad.

    Například uchazeči s určitým pohlavím mohou mít větší nebo nižší váhu, aby mohli přeučovat modely a snižovat rozdíly mezi genderovými skupinami. Uživatelé si pak můžou vybrat model, který na základě obchodních pravidel a výpočtů nákladů poskytuje nejlepší kompromis mezi přesností (nebo jinou metrikou výkonu) a nepoměrem.

  • Následné zpracování: Tyto algoritmy přebírají jako vstup existující klasifikátor a citlivou funkci. Potom odvozují transformaci predikce klasifikátoru, aby vynutily zadaná omezení spravedlnosti. Největší výhodou jednoho algoritmu následného zpracování, optimalizace prahových hodnot, je jednoduchost a flexibilita, protože není potřeba model přetrénovat.

Algoritmus Description Úloha strojového učení Citlivé funkce Podporovaná omezení parity Typ algoritmu
ExponentiatedGradient Černý přístup ke spravedlivé klasifikaci popsaný v části Přístup ke snížením ke spravedlivé klasifikaci. Binární klasifikace Kategorické Demografická parita, rovnoměrné kurzy Snížení
GridSearch Přístup založený na černých krabicách popsaný v tématu Přístup k redukci ke spravedlivé klasifikaci. Binární klasifikace Binární Demografická parita, rovnoměrné kurzy Snížení
GridSearch Přístup s černou skříňkou, který implementuje variantu vyhledávání v mřížce spravedlivé regrese s algoritmem pro ztrátu v omezené skupině, který je popsaný v tématu Fair Regression: Quantitative Definitions and Reduction-based Algorithms(Algoritmus založené na redukci). Regrese Binární Ztráta ohraničené skupiny Snížení
ThresholdOptimizer Algoritmus následného zpracování založený na dokumentu Rovnost příležitostí při učení s dohledem. Tato technika přijímá jako vstup existující klasifikátor a citlivou funkci. Potom odvozuje monotónní transformaci predikce klasifikátoru, která vynutí zadaná omezení parity. Binární klasifikace Kategorické Demografická parita, rovnoměrné kurzy Následné zpracování

Další kroky