什麼是負責任 AI?

適用於:Azure CLI ml 延伸模組 v2 (目前)Python SDK azure-ai-ml v2 (目前)

負責任人工智慧 (負責任 AI) 是一種以安全、可靠且道德的方式開發、評估及部署 AI 系統的方法。 AI 系統是由其開發者和部署者所做出之許多決策形成的產物。 從系統用途到人們與 AI 系統互動的方式,負責任 AI 都可協助主動引導,讓這些決策產生更大的效益和公平的結果。 這意味著必須將人員及其目標視為系統設計決策的核心,並尊重公平性、可靠性和透明度等恆久價值。

Microsoft 開發了負責任 AI 標準。 這是根據下列六大準則建置 AI 系統的架構:公平性、可靠性與安全性、隱私權與保密性、包容性、透明度,以及權責。 對 Microsoft 而言,這些準則是以負責任且值得信賴的方式處理 AI 的基石,尤其是智慧型技術會隨著人們每天使用的產品與服務而變得越來越普及。

本文示範 Azure Machine Learning 如何為工具提供支援,讓開發人員和資料科學家能夠實作及操作這六大準則。

 Diagram of the six principles of Microsoft Responsible AI, which encompass fairness, reliability and safety, privacy and security, inclusiveness, transparency, and accountability.

公平性和包容性

AI 系統應公平地對待每個人,避免以不同的方式影響處境相似的群體。 例如,當 AI 系統提供醫療處置、貸款申請或就業的指引時,應該對具有類似症狀、財務情況或專業資格的每個人提供相同的建議。

Azure Machine Learning 中的公平性和包容性負責任 AI 儀表板公平性評量元件可讓資料科學家和開發人員評估模型在以性別、種族、年齡及其他特性所定義的敏感性族群上的公平性。

可靠性和安全性

若要建立信任,AI 系統必須以可靠、安全且一致的方式運作。 這些系統應該要能夠依照其原先的設計運作、安全地回應非預期的狀況,以及反抗有害的操作。 其行為方式,以及其能夠處理的各種情況,反映自開發人員在設計和測試期間所預期之狀況與情況的範圍。

Azure Machine Learning 中的可靠性與安全性負責任 AI 儀表板錯誤分析元件可讓資料科學家和開發人員:

  • 深入了解模型的失敗分佈情況。
  • 識別比整體基準具有更高錯誤率的資料世代 (子集)。

當系統或模型對定型資料中的特定人口統計群組或不常觀察到之輸入條件的效能不佳時,就可能會發生這些差異。

透明

當 AI 系統協助通知那些對人們生活有極大影響的決策時,人們一定要了解這些決策產生的方式。 例如,銀行可能會使用 AI 系統來決定某人是否信用可靠。 公司可能會使用 AI 系統來決定所要雇用的最合格候選人。

透明度中很重要的一部分是「可解釋性」:對 AI 系統及其元件之行為的實用說明。 改善可解釋性需要利害關係人先理解 AI 系統的運作方式及其原因。 利害關係人接著可以判斷可能的效能問題、公平性問題、排他性行為或非預期的結果。

Azure Machine Learning 中的透明度負責任 AI 儀表板模型可解釋性反事實假設狀況元件可讓資料科學家和開發人員針對模型的預測產生人類可理解的描述。

模型可解釋性元件可提供模型行為的多個檢視:

  • 全域說明。 例如,哪些特徵會影響貸款配置模型的整體行為?
  • 局部說明。 例如,客戶的貸款申請為何通過核准或遭拒絕?
  • 所選資料點世代的模型說明。 例如,哪些特徵會影響低收入申請者貸款配置模型的整體行為?

反事實假設狀況元件可讓您了解機器學習模型對特徵變更和擾動的反應方式,並加以偵錯。

Azure Machine Learning 也支援負責任 AI 計分卡。 計分卡是可自訂的 PDF 報告,可讓開發人員輕鬆加以設定、產生和下載,並與其技術性和非技術性利害關係人共用,以教導他們關於資料集與模型健康狀態的知識、達到合規性以及建立信任。 此計分卡也可以用於稽核檢閱,以揭示機器學習模型的特性。

隱私權與安全性

隨著 AI 越來越普及,保護隱私權以及保護個人和公司資訊變得更加重要且複雜。 使用 AI 時,需要密切注意隱私權和資料安全性,因為 AI 系統在進行精確且有根據的人員相關預測與決策時,一定要存取資料。 AI 系統必須遵守下列隱私權法律:

  • 要求資料收集、使用及儲存相關透明度。
  • 要求取用者具有適當控制權,以選擇其資料的使用方式。

Azure Machine Learning 中的隱私權與安全性:Azure Machine Learning 可讓系統管理員和開發人員建立符合公司原則的安全設定。 透過 Azure Machine Learning 和 Azure 平台,使用者可以:

  • 依使用者帳戶或群組限制資源和作業的存取權。
  • 限制連入和連出的網路通訊。
  • 加密傳輸和待用的資料。
  • 掃描弱點。
  • 套用和稽核設定原則。

Microsoft 也建立了兩個開放原始碼套件,可進一步實作隱私權與安全性準則:

  • SmartNoise:差異隱私權是一組系統和實務,可協助保護個人資料的安全和隱私。 在機器學習解決方案中,法規合規性可能需要差異隱私權。 SmartNoise 是一個開放原始碼專案 (由 Microsoft 共同開發),其中包含用於建置全域差異隱私系統的元件。

  • Counterfit:Counterfit 是一個開放原始碼專案,其中包含命令列工具和一般自動化層,可讓開發人員針對 AI 系統模擬網路攻擊。 任何人都可以下載此工具,然後透過 Azure Cloud Shell 進行部署以在瀏覽器中執行,或是在本機的 Anaconda Python 環境中進行部署。 其可以評估裝載於各種雲端環境、內部部署或邊緣的 AI 模型。 此工具與 AI 模型無關,並支援各種資料類型,包括文字、影像或一般輸入。

當責

AI 系統的設計和部署人員必須對其系統的運作方式負責。 組織應該利用業界標準來開發權責規範。 這些規範可確保 AI 系統不會是任何影響人們生活之決策的最終授權單位。 還可確保人類對這些具高度自發性的 AI 系統維持有意義的控制。

Azure Machine Learning 中的權責機器學習作業 (MLOps) 是以能提升 AI 工作流程效率的 DevOps 準則和做法為基礎。 Azure Machine Learning 提供下列 MLOps 功能以提升 AI 系統的權責劃分:

  • 隨處註冊、封裝和部署模型。 您也可以追蹤使用模型所需的相關中繼資料。
  • 擷取端對端機器學習生命週期的治理資料。 記錄的譜系資訊可能包括正在發佈模型的人員、進行變更的原因,以及在生產環境中部署或使用模型的時間。
  • 通知並警示機器學習生命週期中的事件。 範例包括實驗完成、模型註冊、模型部署和資料漂移偵測。
  • 監視應用程式是否有操作問題以及與機器學習相關的問題。 比較定型和推斷之間的模型輸入、探索模型特定的計量,並在機器學習基礎結構上提供監視和警示。

除了 MLOps 功能以外,Azure Machine Learning 的負責任 AI 計分卡也可實現利害關係人之間的通訊,藉此建立權責劃分。 計分卡也可讓開發人員加以設定和下載,並與其技術性和非技術性利害關係人共用有關 AI 資料和模型健康狀態的模型健康狀態深入解析,藉此建立權責劃分。 共用這些深入解析有助於建立信任。

機器學習平台也可透過下列方式告知商務決策,來協助人員做出決策:

  • 資料驅動的深入解析,可協助利害關係人單憑歷史資料來了解治療對結果的因果影響。 例如,「某個藥品對於病患的血壓有何影響?」此類深入解析是透過負責任 AI 儀表板原因推斷元件提供。
  • 模型驅動的深入解析,可回答使用者的問題 (例如「我下一次可以做什麼來從您的 AI 取得不同的結果」),以便採取動作。 這類見解是透過負責任 AI 儀表板反事實假設狀況元件來提供給資料科學家。

下一步