Apa itu pembelajaran mesin yang bertanggung jawab? (pratinjau)

Dalam artikel ini, Anda akan mempelajari apa itu pembelajaran mesin (ML) yang bertanggung jawab dan cara mempraktikkannya dengan Azure Machine Learning.

Prinsip pembelajaran mesin yang bertanggung jawab

Sepanjang pengembangan dan penggunaan sistem AI, kepercayaan harus menjadi inti. Percayalah pada platform, proses, dan model. Di Microsoft, pembelajaran mesin yang bertanggung jawab mencakup nilai dan prinsip berikut:

  • Memahami model pembelajaran mesin
    • Menafsirkan dan menjelaskan perilaku model
    • Menilai dan mengurangi ketidakadilan model
  • Melindungi orang dan data mereka
    • Mencegah paparan data dengan privasi diferensial
    • Bekerja dengan data terenkripsi menggunakan enkripsi homomorfik
  • Kontrol proses pembelajaran mesin ujung-ke-ujung
    • Mendokumentasikan siklus hidup pembelajaran mesin dengan lembar data

Pilar ML yang bertanggung jawab - kemampuan interpretasi, privasi diferensial, enkripsi homomorfik, jejak audit - Azure Machine Learning

Karena kecerdasan buatan dan sistem otonom lebih terintegrasi ke dalam struktur masyarakat, penting untuk secara proaktif melakukan upaya untuk mengantisipasi dan mengurangi konsekuensi yang tidak diinginkan dari teknologi ini.

Menafsirkan dan menjelaskan perilaku model

Sistem yang sulit dijelaskan atau kotak buram dapat menjadi masalah karena menyulitkan pemangku kepentingan seperti pengembang sistem, regulator, pengguna, dan pengambil keputusan bisnis untuk memahami mengapa sistem membuat keputusan tertentu. Beberapa sistem AI lebih dapat dijelaskan daripada yang lain dan terkadang ada pertukaran antara sistem dengan akurasi yang lebih tinggi dan sistem yang lebih dapat dijelaskan.

Untuk membangun sistem AI yang dapat ditafsirkan, gunakan InterpretML, paket sumber terbuka yang dibuat oleh Microsoft. Paket InterpretML mendukung berbagai teknik interpretasi seperti SHapley Additive exPlanations (SHAP), penjelas mimik, dan pentingnya fitur permutasi (PFI). InterpretML dapat digunakan di dalam Azure Machine Learning untuk menafsirkan dan menjelaskan model pembelajaran mesin Anda, termasuk model pembelajaran mesin otomatis.

Mengurangi keadilan dalam model pembelajaran mesin

Karena sistem AI menjadi lebih terlibat dalam pengambilan keputusan sehari-hari masyarakat, sangat penting bahwa sistem ini bekerja dengan baik dalam memberikan hasil yang adil bagi semua orang.

Ketidakadilan dalam sistem AI dapat mengakibatkan konsekuensi yang tidak diinginkan berikut:

  • Menahan peluang, sumber daya atau informasi dari individu.
  • Memperkuat bias dan stereotip.

Banyak aspek keadilan tidak dapat ditangkap atau diwakili oleh metrik. Ada alat dan praktik yang dapat meningkatkan keadilan dalam desain dan pengembangan sistem AI.

Dua langkah kunci dalam mengurangi ketidakadilan dalam sistem AI adalah penilaian dan mitigasi. Kami merekomendasikan FairLearn, paket sumber terbuka yang dapat menilai dan mengurangi potensi ketidakadilan sistem AI. Untuk mempelajari selengkapnya tentang keadilan dan paket FairLearn, lihat artikel Keadilan dalam ML.

Mencegah paparan data dengan privasi diferensial

Saat data digunakan untuk analisis, penting agar data tetap privat dan rahasia selama penggunaannya. Privasi diferensial adalah serangkaian sistem dan praktik yang membantu menjaga data individu tetap aman dan privat.

Dalam skenario tradisional, data mentah disimpan dalam file dan database. Saat pengguna menganalisis data, mereka biasanya menggunakan data mentah. Hal ini menjadi masalah karena dapat melanggar privasi seseorang. Privasi diferensial mencoba menangani masalah ini dengan menambahkan "noise" atau keacakan pada data, sehingga pengguna tidak dapat mengidentifikasi setiap titik data.

Sulit untuk menerapkan sistem privat yang berbeda. SmartNoise adalah proyek sumber terbuka yang berisi komponen berbeda untuk membangun sistem privat global yang berbeda. Untuk mempelajari selengkapnya tentang privasi diferensial dan proyek SmartNoise, lihat artikel melestarikan privasi data dengan menggunakan privasi diferensial dan SmartNoise.

Bekerja dengan data terenkripsi menggunakan enkripsi homomorfik

Dalam penyimpanan cloud tradisional dan solusi komputasi, cloud harus memiliki akses tidak terenkripsi ke data pelanggan untuk melakukan komputasi. Akses ini memaparkan data ke operator cloud. Privasi data bergantung pada kebijakan kontrol akses yang diterapkan oleh cloud dan dipercaya oleh pelanggan.

Enkripsi homomorfik memungkinkan komputasi dilakukan pada data terenkripsi tanpa memerlukan akses ke kunci rahasia (dekripsi). Hasil perhitungan dienkripsi dan hanya dapat diungkapkan oleh pemilik kunci rahasia. Menggunakan enkripsi homomorfik, operator cloud tidak akan pernah memiliki akses tidak terenkripsi ke data tempat mereka menyimpan dan melakukan komputasi. Komputasi dilakukan langsung pada data terenkripsi. Privasi data bergantung pada kriptografi canggih, dan pemilik data mengontrol semua rilis informasi. Untuk informasi selengkapnya tentang enkripsi homomorfik di Microsoft, lihat Microsoft Research.

Untuk memulai enkripsi homomorfik di Azure Machine Learning, gunakan pengikatan Python inferensi terenkripsi untuk Microsoft SEAL. Microsoft SEAL adalah pustaka enkripsi homomorfik sumber terbuka yang memungkinkan penambahan dan perkalian dilakukan pada bilangan bulat terenkripsi atau bilangan real. Untuk mempelajari selengkapnya tentang Microsoft SEAL, lihat Azure Architecture Center atau halaman proyek Microsoft Research.

Lihat sampel berikut untuk mempelajari cara menyebarkan layanan web inferensi terenkripsi di Azure Machine Learning.

Mendokumentasikan siklus hidup pembelajaran mesin dengan lembar data

Mendokumentasikan informasi yang tepat dalam proses pembelajaran mesin adalah kunci untuk membuat keputusan yang bertanggung jawab di setiap tahap. Lembar data adalah cara untuk mendokumentasikan aset pembelajaran mesin yang digunakan dan dibuat sebagai bagian dari siklus hidup pembelajaran mesin.

Model cenderung dianggap sebagai "kotak buram" dan seringkali hanya ada sedikit informasi tentangnya. Karena sistem pembelajaran mesin menjadi lebih meresap dan digunakan untuk pengambilan keputusan, menggunakan lembar data adalah langkah menuju pengembangan sistem pembelajaran mesin yang lebih bertanggung jawab.

Beberapa informasi model yang mungkin ingin Anda dokumentasikan sebagai bagian dari lembar data:

  • Penggunaan yang dimaksudkan
  • Arsitektur model
  • Data pelatihan yang digunakan
  • Data evaluasi yang digunakan
  • Metrik performa model pelatihan
  • Informasi keadilan.

Lihat sampel berikut untuk mempelajari cara menggunakan SDK Azure Machine Learning untuk menerapkan lembar data untuk model.

Sumber Daya Tambahan: