Machine Learning sorumlu nedir? (önizleme)

bu makalede, bir sorumlu makine öğrenimi (ML) ve Azure Machine Learning ile uygulamaya nasıl koyabileceğinizi öğreneceksiniz.

Sorumlu makine öğrenimi ilkeleri

AI sistemlerinin geliştirilmesi ve kullanımı boyunca güvenin çekirdek üzerinde olması gerekir. Platformda, süreçte ve modellerde güvenin. Microsoft 'ta, sorumlu makine öğrenimi aşağıdaki değerleri ve ilkeleri kapsar:

  • Makine öğrenimi modellerini anlama
    • Model davranışını yorumlama ve açıklama
    • Model unfairness değerlendir ve azaltma
  • Kişileri ve verilerini koruyun
    • Değişiklik gizliliğiyle veri pozlamasını önleyin
    • Homomorphic şifrelemesi kullanarak şifrelenmiş verilerle çalışma
  • Uçtan uca makine öğrenimi işlemini denetleme
    • Machine Learning yaşam döngüsünü veri sayfaları ile belgeleme

ML antısal-ınterkılabilirlik, değişiklik gizliliği, homomorphic şifrelemesi, denetim izi-Azure Machine Learning

Yapay zeka ve özerk sistemler topluluğu dokusuna daha fazlasını tümleştirmekle, bu teknolojilerin istenmeden sonuçlý sonuçlarını tahmin etmek ve azaltmak için önceden önlem olarak bir çaba olması önemlidir.

Model davranışını yorumlama ve açıklama

Sistem geliştiricileri, düzenleyiciler, kullanıcılar ve iş karar mekanizmalarının, sistemlerin neden belirli kararlar vermesini anlayabilmesi için zor olan sistemler, sistem geliştiricileri, düzenleyiciciler, kullanıcılar ve iş karar mekanizmaları gibi paydaşların sorun oluşturabileceğinden sorunlu olabilir. Bazı AI sistemleri diğerlerinden daha explainable ve bazı durumlarda, daha yüksek doğruluk ve daha fazla explainable olan bir sistem arasında bir zorunluluğunu getirir.

Intertable AI sistemleri oluşturmak için, Microsoft tarafından oluşturulan açık kaynaklı bir paket olan ınterbirPackage kullanın. Internıbu Package, SHapley Topladıtıve açıklamaları (SHAP), taklit açıklama ve permütasyon özelliği önem derecesi (PFI) gibi çok çeşitli yorumlu teknikleri destekler. ınter, otomatik makine öğrenimi modelleride dahil olmak üzere makine öğrenimi modellerinizi yorumlamak ve açıklamakiçin, Azure Machine Learning içinde yorumbir şekilde kullanılabilir .

Makine öğrenimi modellerinde eşitliği 'i azaltma

AI sistemleri, topluluğu 'in günlük karar verme konusunda daha fazla sonuç aldığından, bu sistemlerin herkese açık sonuçlar sağlamak için iyi bir öneme sahip olma.

AI sistemlerindeki Unfairness, aşağıdaki istenmeyen sonuçlara neden olabilir:

  • Vergi fırsatları, kaynaklar veya kişilerden gelen bilgiler.
  • Sapmaları ve stereotipleri yeniden zorluyor.

Eşitliği 'in birçok yönü yakalanamaz veya ölçümler tarafından gösterilemez. AI sistemlerinin tasarımında ve geliştirilmesinde eşitliği iyileştirebilecek araçlar ve uygulamalar vardır.

AI sistemlerinde unfairness azaltmada iki temel adım değerlendirme ve risk azaltma. AI sistemlerinin olası unfairness 'i değerlendirebileceği ve azaltabilen açık kaynaklı bir paket olan FairLearnönerilir. eşitliği ve FairLearn paketi hakkında daha fazla bilgi edinmek için ML makalesinde eşitliğibölümüne bakın.

Değişiklik gizliliğiyle veri pozlamasını önleyin

Analiz için veriler kullanıldığında, verilerin kullanımı boyunca özel ve gizli olarak kalması önemlidir. Değişiklik gizliliği, kişilerin verilerinin güvende ve özel olmasını sağlamaya yardımcı olan bir sistem ve uygulamalar kümesidir.

Geleneksel senaryolarda, ham veriler dosya ve veritabanlarında depolanır. Kullanıcılar verileri çözümlerse genellikle ham verileri kullanır. Bu sorun, bir kişinin gizliliğine infringe olabileceğinden bir kaygıdır. Değişiklik gizliliği, kullanıcıların herhangi bir veri noktasını tanımlayamaması için verilere "gürültü" veya rasgelelik ekleyerek bu sorunla başa geçmeye çalışır.

Farklı şekilde özel sistemlerin uygulanması zordur. Smartnoise , küresel farklı özel sistemler oluşturmak için farklı bileşenler içeren açık kaynaklı bir projem. Değişiklik gizliliği ve SmartNoise projesi hakkında daha fazla bilgi edinmek için, değişiklik gizliliği ve smartnoise kullanarak veri gizliliğini koruma makalesini inceleyin.

Homomorphic şifrelemesi ile şifrelenmiş veriler üzerinde çalışma

Geleneksel bulut depolama ve hesaplama çözümlerinde, bulutun üzerinde işlem yapmak için müşteri verilerine şifrelenmemiş erişimi olması gerekir. Bu erişim, verileri bulut işleçlerine sunar. Veri gizliliği, bulut tarafından uygulanan ve müşteri tarafından güvenilen erişim denetimi ilkelerine dayanır.

Homomorphic şifrelemesi, bir gizli dizi (şifre çözme) anahtarına erişmek gerekmeden, şifrelenmiş verilerde hesaplamalar yapılmasına izin verir. Hesaplamaların sonuçları şifrelenir ve yalnızca gizli anahtar sahibi tarafından açığa çıkarlenebilir. Homomorphic şifrelemesi kullanarak, bulut işleçleri depolarken ve bilgi işlem yaptıkları verilere şifrelenmemiş olarak erişemez. Hesaplamalar doğrudan şifrelenmiş verilerde gerçekleştirilir. Veri gizliliği, son derece şifreleme durumuna dayanır ve veri sahibi tüm bilgi sürümlerini denetler. Microsoft 'ta homomorphic şifreleme hakkında daha fazla bilgi için bkz. Microsoft Research.

Azure Machine Learning 'de homomorphic şifrelemeyi kullanmaya başlamak için, Microsoft mühürlemeküzere şifrelenmiş çıkarım Python bağlamalarını kullanın. Microsoft mühürleme, şifreli tamsayılar veya gerçek sayılar üzerinde eklemeler ve çoğullar gerçekleştirilmesini sağlayan açık kaynaklı bir homomorphic şifreleme kitaplığıdır. Microsoft MÜHÜRLEMEK hakkında daha fazla bilgi için Azure mimari merkezi veya Microsoft Research projesi sayfasınabakın.

Azure Machine Learning ' de şifrelenmiş bir ınırm Web hizmeti dağıtmayıöğrenmek için aşağıdaki örneğe bakın.

Machine Learning yaşam döngüsünü veri sayfaları ile belgeleme

Machine Learning işleminde doğru bilgilerin belgelenerek, her aşamada sorumlu kararlar alma anahtarıdır. Veri sayfaları, makine öğrenimi yaşam döngüsünün bir parçası olarak kullanılan ve oluşturulan makine öğrenimi varlıklarını belgelemek için bir yoldur.

Modeller "donuk kutular" olarak düşünüldük ve genellikle bunlar hakkında çok az bilgi vardır. Machine Learning sistemleri daha fazla bilgi edintiğinden ve karar vermek için kullanıldığından, veri sayfalarını kullanmak, daha sorumlu makine öğrenimi sistemleri geliştirmeye yönelik bir adımdır.

Bir veri sayfasının parçası olarak belgelemek isteyebileceğiniz bazı model bilgileri:

  • Amaçlanan kullanım
  • Model mimarisi
  • Kullanılan eğitim verileri
  • Kullanılan değerlendirme verileri
  • Eğitim modeli performans ölçümleri
  • Eşitliği bilgileri.

modeller için veri sayfalarınıuygulamak üzere Azure Machine Learning SDK 'nın nasıl kullanılacağını öğrenmek için aşağıdaki örneğe bakın.

Ek kaynaklar