Model performansı ve eşitliği
Bu makalede, Azure Machine Learning'de model performansınızı ve eşitliğinizi anlamak için kullanabileceğiniz yöntemler açıklanmaktadır.
Makine öğrenmesi eşitliği nedir?
Yapay zeka ve makine öğrenmesi sistemleri haksız davranışlar sergileyebilir. Haksız davranışları tanımlamanın bir yolu, zarar görmesi veya insanlar üzerindeki etkisidir. Yapay zeka sistemleri birçok zarara neden olabilir. Daha fazla bilgi edinmek için Kate Crawford'un NeurIPS 2017 açılış konuşmasına bakın.
Yapay zeka kaynaklı iki yaygın zarar türü şunlardır:
Ayırmanın zararı: Yapay zeka sistemi belirli gruplar için fırsatları, kaynakları veya bilgileri genişletir veya saklar. Örnek olarak, modelin belirli bir kişi grubu arasında diğer gruplara göre iyi adaylar seçme konusunda daha iyi olabileceği işe alma, okul kabulleri ve ödünç verme verilebilir.
Hizmet kalitesinin zarar görmesi: Yapay zeka sistemi, bir grup insan için olduğu gibi başka bir grup için de çalışmaz. Örneğin, ses tanıma sistemi kadınlar için olduğu gibi erkekler için de çalışmayabilir.
Yapay zeka sistemlerindeki haksız davranışları azaltmak için bu zararları değerlendirmeniz ve azaltmanız gerekir. Sorumlu yapay zeka panosununmodele genel bakış bileşeni, veri kümenizin tamamı ve tanımlanan veri kohortlarınız için model performansı ölçümleri oluşturarak model yaşam döngüsünün tanımlama aşamasına katkıda bulunur. Bu ölçümleri, hassas özellikler veya hassas öznitelikler açısından tanımlanan alt gruplar arasında oluşturur.
Not
Eşitlik sosyo-teknik bir zorluk. Nicel eşitlik ölçümleri, adalet ve son süreç gibi eşitliğin birçok yönünü yakalamaz. Ayrıca nicel eşitlik ölçümlerinin tümü aynı anda karşılanamaz.
Fairlearn açık kaynak paketinin amacı, insanların etki ve risk azaltma stratejilerini değerlendirmesine olanak tanımaktır. Sonuç olarak yapay zeka ve makine öğrenmesi modellerini oluşturan ve senaryolarına uygun olan dengeleri sağlayan kişilere bırakılıyor.
Sorumlu yapay zeka panosunun bu bileşeninde eşitlik, grup eşitliği olarak bilinen bir yaklaşımla kavramsallaştırılır. Bu yaklaşım şu soruyu sorar: "Hangi kişi grupları zarara neden olabilir?" Hassas özellikler terimi, grup eşitliğini değerlendirirken sistem tasarımcısının bu özelliklere duyarlı olması gerektiğini belirtir.
Değerlendirme aşamasında eşitlik, eşitlik ölçümleriyle ölçülmektedir. Bu ölçümler, gruplar arasında model davranışını oran veya farklılık olarak değerlendirebilir ve karşılaştırabilir. Sorumlu yapay zeka panosu iki farklı ölçüm sınıfını destekler:
Model performansındaki eşitsizlik: Bu ölçüm kümeleri, veri alt grupları arasında seçilen performans ölçümünün değerlerindeki eşitsizliği (farkı) hesaplar. İşte birkaç örnek:
- Doğruluk oranında eşitsizlik
- Hata oranında eşitsizlik
- Duyarlık açısından eşitsizlik
- Geri çağırmada eşitsizlik
- Ortalama mutlak hatada eşitsizlik (MAE)
Seçim oranında eşitsizlik: Bu ölçüm, alt gruplar arasındaki seçim oranı (olumlu tahmin) farkını içerir. Bunun bir örneği, kredi onay oranındaki eşitsizliktir. Seçim oranı, 1 (ikili sınıflandırmada) olarak sınıflandırılan her sınıftaki veri noktalarının kesirini veya tahmin değerlerinin dağılımını (regresyonda) ifade eder.
Bu bileşenin eşitlik değerlendirmesi özellikleri Fairlearn paketinden gelir. Fairlearn, model eşitliği değerlendirme ölçümlerini ve haksızlığı azaltma algoritmalarını bir araya getirir.
Not
Eşitlik değerlendirmesi tamamen teknik bir alıştırma değildir. Fairlearn açık kaynak paketi, modelin eşitliğini değerlendirmenize yardımcı olmak için nicel ölçümleri tanımlayabilir, ancak sizin için değerlendirmeyi gerçekleştirmez. Kendi modellerinizin eşitliğini değerlendirmek için nitel bir analiz yapmanız gerekir. Daha önce belirtilen hassas özellikler bu tür bir nitel analiz örneğidir.
Eşitsizliği azaltmaya yönelik eşlik kısıtlamaları
Modelinizin eşitlik sorunlarını anladıktan sonra, bu sorunları azaltmak için Fairlearn açık kaynak paketindeki azaltma algoritmalarını kullanabilirsiniz. Bu algoritmalar, eşlik kısıtlamaları veya ölçütleri olarak adlandırılan tahmin edicinin davranışı üzerindeki bir dizi kısıtlamayı destekler.
Eşlik kısıtlamaları, tahmin edicinin davranışının bazı yönlerini hassas özelliklerin tanımlamış olduğu gruplar (örneğin, farklı ırklar) arasında karşılaştırılabilir olmasını gerektirir. Fairlearn açık kaynak paketindeki azaltma algoritmaları, gözlemlenen eşitlik sorunlarını azaltmak için bu eşlik kısıtlamalarını kullanır.
Not
Fairlearn açık kaynak paketindeki haksızlığı azaltma algoritmaları, makine öğrenmesi modelindeki haksızlığı azaltmak için önerilen risk azaltma stratejileri sağlayabilir, ancak bu stratejiler haksızlığı ortadan kaldırmaz. Geliştiricilerin makine öğrenmesi modelleri için diğer eşlik kısıtlamalarını veya ölçütlerini dikkate almaları gerekebilir. Azure Machine Learning kullanan geliştiricilerin, azaltmanın makine öğrenmesi modellerinin amaçlanan kullanımında ve dağıtımında haksızlığı yeterince azaltıp azaltmadığını kendileri belirlemeleri gerekir.
Fairlearn paketi aşağıdaki eşlik kısıtlaması türlerini destekler:
Eşlik kısıtlaması | Amaç | Makine öğrenmesi görevi |
---|---|---|
Demografik eşlik | Ayırma zararlarını azaltma | İkili sınıflandırma, regresyon |
Eşitlenmiş oran | Ayırma ve hizmet kalitesi zararlarını tanılama | İkili sınıflandırma |
Fırsat eşitliği | Ayırma ve hizmet kalitesi zararlarını tanılama | İkili sınıflandırma |
Sınırlanmış grup kaybı | Hizmet kalitesi zararlarını azaltma | Regresyon |
Azaltma algoritmaları
Fairlearn açık kaynak paketi iki tür adaletsizlik azaltma algoritması sağlar:
Azaltma: Bu algoritmalar standart bir kara kutu makine öğrenmesi tahmin aracı (örneğin, bir LightGBM modeli) alır ve bir dizi yeniden ağırlıklı eğitim veri kümesi kullanarak bir dizi yeniden eğitilmiş model oluşturur.
Örneğin, belirli bir cinsiyete sahip başvuru sahipleri modelleri yeniden eğitmek ve cinsiyet grupları arasındaki eşitsizlikleri azaltmak için kilolu veya düşük kilolu olabilir. Kullanıcılar daha sonra iş kurallarına ve maliyet hesaplamalarına göre doğruluk (veya başka bir performans ölçümü) ile eşitsizlik arasında en iyi dengeyi sağlayan bir model seçebilir.
İşlem sonrası: Bu algoritmalar mevcut bir sınıflandırıcıyı ve hassas bir özelliği giriş olarak alır. Ardından, belirtilen eşitlik kısıtlamalarını zorlamak için sınıflandırıcının tahmininde bir dönüştürme türetirler. İşlem sonrası algoritma olan eşik iyileştirmesinin en büyük avantajı, modeli yeniden eğitmesi gerekmediğinden basitliği ve esnekliğidir.
Algoritma | Açıklama | Makine öğrenmesi görevi | Hassas özellikler | Desteklenen eşlik kısıtlamaları | Algoritma türü |
---|---|---|---|---|---|
ExponentiatedGradient |
Adil Sınıflandırmaya Azaltma Yaklaşımı bölümünde açıklanan adil sınıflandırmaya kara kutu yaklaşımı. | İkili sınıflandırma | Kategorik | Demografik eşlik, eşitlenmiş oran | Azaltma |
GridSearch |
Adil Sınıflandırmaya Azaltma Yaklaşımı'nda açıklanan kara kutu yaklaşımı. | İkili sınıflandırma | İkili | Demografik eşlik, eşitlenmiş oran | Azaltma |
GridSearch |
Fair Regression: Quantitative Definitions and Reduction-based Algorithms bölümünde açıklanan sınırlanmış grup kaybı algoritmasıyla adil regresyonun kılavuz arama değişkenini uygulayan kara kutu yaklaşımı. | Regresyon | İkili | Sınırlanmış grup kaybı | Azaltma |
ThresholdOptimizer |
Denetimli Öğrenmede Fırsat Eşitliği kağıdını temel alan işlem sonrası algoritma. Bu teknik, giriş olarak mevcut bir sınıflandırıcıyı ve hassas bir özelliği alır. Ardından, belirtilen eşlik kısıtlamalarını zorlamak için sınıflandırıcının tahmininde bir monoton dönüştürmesi türetir. | İkili sınıflandırma | Kategorik | Demografik eşlik, eşitlenmiş oranlar | İşlem sonrası |
Sonraki adımlar
- CLI ve SDK veya Azure Machine Learning stüdyosu kullanıcı arabirimi aracılığıyla Sorumlu yapay zeka panosu oluşturmayı öğrenin.
- Sorumlu yapay zeka panosunun desteklenen modele genel bakış ve eşitlik değerlendirmesi görselleştirmelerini keşfedin.
- Sorumlu yapay zeka panosunda gözlemlenen içgörülere göre Sorumlu yapay zeka karnesi oluşturmayı öğrenin.
- Fairlearn'ın GitHub deposuna, kullanıcı kılavuzuna, örneklere ve örnek not defterlerine bakarak bileşenleri kullanmayı öğrenin.