책임감 있고 신뢰할 수 있는 AI

Microsoft는 신뢰할 수 있는 AI 구현을 위한 6가지 핵심 원칙인 책임감, 포용성, 안정성 및 안전성, 공정성, 투명성, 개인 정보 보호 및 보안에 대해 설명합니다. 이러한 원칙은 주류 제품 및 서비스로 전환할 때 책임 있고 신뢰할 수 있는 AI를 만드는 데 필수적입니다. 그들은 윤리적이고 설명 가능한 두 가지 관점에 의해 인도됩니다.

책임 있는 AI 원칙 다이어그램.

윤리

윤리적 관점에서 AI는 다음을 수행해야 합니다.

  • 해당 어설션에 공정하고 포용적이어야 합니다.
  • 결정에 대한 책임을 져야 합니다.
  • 다른 인종, 장애 또는 배경을 차별하거나 방해하지 않습니다.

2017년 Microsoft는 AI, 윤리 및 엔지니어링 및 연구 효과에 대한 자문위원회(Aether)를 설립했습니다. 위원회의 핵심 책임은 책임 있는 AI에 대한 문제, 기술, 프로세스 및 모범 사례에 대해 조언하는 것입니다. 자세한 내용은 Microsoft 거버넌스 모델 이해 - Aether + 책임 있는 AI Office를 참조하세요.

책임감

책임감은 책임 있는 AI의 핵심 요소입니다. AI 시스템을 설계하고 배포하는 사람들은 특히 더 많은 자율 시스템을 향해 나아가면서 그 행동과 결정에 대해 책임을 져야 합니다.

조직은 AI 시스템 개발 및 배포에 대한 감독, 인사이트 및 지침을 제공하는 내부 검토 기관의 설립을 고려해야 합니다. 이 지침은 회사 및 지역에 따라 달라질 수 있으며 organization AI 경험을 반영해야 합니다.

포용성

포용성은 AI가 모든 인류와 경험을 고려해야 합니다. 포괄적인 디자인 관행은 개발자가 의도치 않게 사람을 제외할 수 있는 잠재적 장벽을 이해하고 해결하는 데 도움이 될 수 있습니다. 가능한 경우 조직은 음성 텍스트 변환, 텍스트 음성 변환 및 시각 인식 기술을 사용하여 청각, 시각 및 기타 장애가 있는 사람들에게 권한을 부여해야 합니다.

안정성 및 안전성

AI 시스템을 신뢰하려면 안정적이고 안전해야 합니다. 시스템이 원래 설계된 대로 수행하고 새로운 상황에 안전하게 대응하는 것이 중요합니다. 내재된 복원력은 의도한 조작 또는 의도하지 않은 조작에 저항해야 합니다.

organization 운영 조건에 대한 엄격한 테스트 및 유효성 검사를 설정하여 시스템이 에지 사례에 안전하게 응답할 수 있도록 해야 합니다. A/B 테스트 및 챔피언/챌린저 메서드를 평가 프로세스에 통합해야 합니다.

AI 시스템의 성능은 시간이 지남에 따라 저하 될 수 있습니다. organization 강력한 모니터링 및 모델 추적 프로세스를 설정하여 모델의 성능을 사후 및 사전에 측정하고 필요에 따라 현대화를 위해 다시 학습해야 합니다.

설명 가능

설명은 데이터 과학자, 감사자 및 비즈니스 의사 결정자가 AI 시스템이 의사 결정과 결론에 도달하는 방법을 정당화할 수 있도록 하는 데 도움이 됩니다. 설명은 또한 회사 정책, 업계 표준 및 정부 규정을 준수하는 데 도움이 됩니다.

데이터 과학자는 특정 수준의 정확도를 달성한 방법과 결과에 어떤 영향을 미쳤는지 관련자에게 설명할 수 있어야 합니다. 마찬가지로 회사의 정책을 준수하기 위해 감사자는 모델의 유효성을 검사하는 도구가 필요합니다. 비즈니스 의사 결정자는 투명한 모델을 제공하여 신뢰를 얻어야 합니다.

설명 가능성 도구

Microsoft는 조직이 모델 설명 가능성을 달성하는 데 도움이 되는 오픈 소스 도구 키트인 InterpretML을 개발했습니다. 유리 상자 및 블랙 박스 모델을 지원합니다.

  • 유리 상자 모델은 구조 덕분에 해석이 가능합니다. 이러한 모델의 경우 EBM(Explainable Boosting Machine)은 의사 결정 트리 또는 선형 모델을 기반으로 알고리즘의 상태를 제공합니다. EBM은 무손실 설명을 제공하며 도메인 전문가가 편집할 수 있습니다.

  • 블랙박스 모델은 내부 구조가 복잡한 신경망 때문에 해석하기가 더 어렵습니다. 로컬 해석 가능한 모델 중립적 설명(LIME) 또는 SHapley SHAP(Additive exPlanations)과 같은 설명자는 입력과 출력 간의 관계를 분석하여 이러한 모델을 해석합니다.

Fairlearn은 SDK 및 AutoML 그래픽 사용자 인터페이스에 사용되는 Azure Machine Learning 통합 및 오픈 소스 도구 키트입니다. 설명자를 사용하여 모델에 주로 영향을 미치는 사항을 이해하고 도메인 전문가를 사용하여 이러한 영향의 유효성을 검사합니다.

설명 가능성에 대해 자세히 알아보려면 Azure Machine Learning에서 모델 해석 가능성을 살펴보세요.

공정성

공정성은 모든 사람이 이해하고 적용하는 것을 목표로 하는 핵심 윤리 원칙입니다. 이 원칙은 AI 시스템을 개발할 때 더욱 중요합니다. 주요 견제와 균형은 시스템의 결정이 성별, 인종, 성적 지향 또는 종교에 따라 그룹 또는 개인을 차별하거나 편견을 표현하지 않도록 해야 합니다.

Microsoft는 AI 시스템에 대한 지침과 솔루션을 제공하는 AI 공정성 검사 목록을 제공합니다. 이러한 솔루션은 구상, 프로토타입, 빌드, 시작 및 진화의 다섯 단계로 느슨하게 분류됩니다. 각 단계에는 시스템에 불공정의 영향을 최소화하는 데 도움이 되는 권장 실사 활동이 나열되어 있습니다.

Fairlearn은 Azure Machine Learning과 통합되어 데이터 과학자 및 개발자가 AI 시스템의 공정성을 평가하고 개선할 수 있도록 지원합니다. 불공정 완화 알고리즘과 모델의 공정성을 시각화하는 대화형 dashboard 제공합니다. organization 도구 키트를 사용하고 빌드되는 동안 모델의 공정성을 면밀히 평가해야 합니다. 이 활동은 데이터 과학 프로세스의 필수적인 부분이어야 합니다.

기계 학습 모델의 불공정성을 완화하는 방법을 알아봅니다.

투명성

투명성을 달성하면 팀이 다음을 이해하는 데 도움이 됩니다.

  • 모델을 학습시키는 데 사용된 데이터 및 알고리즘입니다.
  • 데이터에 적용된 변환 논리입니다.
  • 생성된 최종 모델입니다.
  • 모델의 연결된 자산입니다.

이 정보는 모델을 만든 방법에 대한 인사이트를 제공하므로 팀은 투명한 방식으로 모델을 재현할 수 있습니다. Azure Machine Learning 작업 영역 내의 스냅샷은 실험과 관련된 모든 학습 관련 자산과 메트릭을 기록하거나 재학습하여 투명성을 지원합니다.

개인 정보 보호 및 보안

데이터 보유자는 AI 시스템의 데이터를 보호할 의무가 있습니다. 개인 정보 보호 및 보안은 이 시스템의 필수적인 부분입니다.

개인 데이터는 보호되어야 하며, 개인 데이터에 대한 액세스는 개인의 개인 정보를 손상시키지 않아야 합니다. Azure 차등 개인 정보는 데이터를 임의로 지정하고 노이즈를 추가하여 데이터 과학자의 개인 정보를 숨겨 개인 정보를 보호하고 보존하는 데 도움이 됩니다.

인간 AI 지침

인간 AI 디자인 지침은 ‘처음에, 상호 작용 중에, 문제가 있을 때, 시간 경과에 따라’라는 네 가지 기간에 발생하는 18가지 원칙으로 구성됩니다. 이러한 원칙은 organization 보다 포괄적이고 인간 중심의 AI 시스템을 생성하는 데 도움이 됩니다.

초기

  • 시스템에서 수행할 수 있는 작업을 명확히 합니다. AI 시스템이 메트릭을 사용하거나 생성하는 경우 모든 메트릭과 메트릭 추적 방법을 보여주는 것이 중요합니다.

  • 시스템이 수행하는 작업을 얼마나 잘 수행할 수 있는지 명확히 설명합니다. 사용자가 AI가 완전히 정확하지 않다는 것을 이해합니다. AI 시스템이 실수를 할 수 있는 시기에 대한 기대치를 설정합니다.

상호 작용 중에

  • 상황에 맞는 정보를 표시합니다. 사용자의 현재 컨텍스트 및 환경(예: 주변 호텔)과 관련된 시각적 정보를 제공합니다. 대상 대상 및 날짜에 가까운 세부 정보를 반환합니다.

  • 사회적 편견을 완화합니다. 언어와 동작이 의도하지 않은 고정관념이나 편견을 유발하지 않도록 합니다. 예를 들어 자동 완성 기능은 성 정체성을 포함해야 합니다.

문제가 있을 때

  • 효율적인 해고를 지원합니다. 바람직하지 않은 기능 또는 서비스를 무시하거나 해제하는 쉬운 메커니즘을 제공합니다.
  • 효율적인 수정을 지원합니다. 보다 쉽게 편집, 구체화 또는 복구할 수 있는 직관적인 방법을 제공합니다.
  • 시스템이 그 일을 한 이유를 분명히 하십시오. 설명 가능한 AI를 최적화하여 AI 시스템의 주장에 대한 인사이트를 제공합니다.

시간별로

  • 최근 상호 작용을 기억하세요. 나중에 참조할 수 있도록 상호 작용 기록을 유지합니다.
  • 사용자 동작에서 알아봅니다. 사용자의 동작을 기반으로 상호 작용을 개인 설정합니다.
  • 신중하게 업데이트하고 조정합니다. 지장을 주는 변경을 제한하고, 사용자의 프로필을 기반으로 업데이트합니다.
  • 세분화된 피드백을 장려합니다. 사용자와 AI 시스템의 상호 작용에서 사용자 피드백을 수집합니다.

신뢰할 수 있는 AI 프레임워크

가상 사용자 중심의 신뢰할 수 있는 AI 프레임워크 다이어그램.

AI 디자이너

AI 디자이너는 모델을 빌드하며 다음을 담당합니다.

  • 데이터 드리프트 및 품질 검사. 디자이너는 이상값을 검색하고 데이터 품질 검사를 수행하여 누락된 값을 식별합니다. 또한 디자이너는 배포를 표준화하고, 데이터를 면밀히 조사하고, 사용 사례 및 프로젝트 보고서를 생성합니다.

  • 시스템 원본의 데이터를 평가하여 잠재적 편향을 파악합니다.

  • 데이터 편향을 최소화하기 위한 AI 알고리즘 설계 이러한 노력에는 범주화, 그룹화 및 정규화(특히 트리 기반 모델과 같은 기존 기계 학습 모델)가 데이터에서 소수 그룹을 제거하는 방법을 검색하는 것이 포함됩니다. 범주 AI 디자인은 PHI(보호된 건강 정보) 및 개인 데이터에 의존하는 산업 분야의 소셜, 인종 및 성별 클래스를 그룹화하여 데이터 편향을 반복합니다.

  • 모니터링 및 경고를 최적화하여 대상 누출을 파악하고 모델 개발을 강화합니다.

  • 모델에 대한 세분화된 이해를 제공하는 보고 및 인사이트에 대한 모범 사례를 설정합니다. 디자이너는 기능 또는 벡터 중요도, UMAP(Uniform Manifold Approximation and Projection) 클러스터링, 프리드먼의 H 통계, 기능 효과 및 관련 기술을 사용하는 블랙박스 접근 방식을 방지합니다. 식별 메트릭은 복잡한 현대 데이터 세트의 상관 관계 간 예측 영향, 관계 및 종속성을 정의하는 데 도움이 됩니다.

AI 관리자 및 임원

AI 관리자 및 임원은 AI, 거버넌스 및 감사 프레임워크 운영 및 성능 메트릭을 감독합니다. 또한 AI 보안이 구현되는 방식과 비즈니스 투자 수익률을 감독합니다. 해당 작업에는 다음이 포함됩니다.

  • 모델 모니터링을 지원하고 프로덕션 모델에 대한 모델 메트릭을 결합하는 추적 dashboard 모니터링 이 dashboard 정확도, 모델 저하, 데이터 드리프트, 편차 및 유추 속도/오차 변경에 중점을 둡니다.

  • 유연한 배포 및 재배포(바람직하게는 REST API를 통해)를 구현하여 모델을 개방적이고 중립적인 아키텍처로 구현할 수 있습니다. 아키텍처는 모델을 비즈니스 프로세스와 통합하고 피드백 루프에 대한 가치를 생성합니다.

  • 모델 거버넌스 및 액세스를 구축하여 경계를 설정하고 부정적인 비즈니스 및 운영 영향을 완화하기 위해 노력합니다. RBAC(역할 기반 액세스 제어) 표준은 제한된 프로덕션 환경 및 IP를 유지하는 보안 제어를 결정합니다.

  • AI 감사 및 규정 준수 프레임워크를 사용하여 모델이 산업별 표준을 유지하기 위해 어떻게 개발되고 변경되는지 추적합니다. 해석 가능하고 책임 있는 AI는 설명 가능성 측정, 간결한 기능, 모델 시각화 및 산업 수직 언어를 기반으로 합니다.

AI 비즈니스 소비자

AI 비즈니스 소비자(비즈니스 전문가)는 피드백 루프를 닫고 AI 디자이너에 대한 입력을 제공합니다. 예측 의사 결정과 공정성 및 윤리적 조치, 개인 정보 보호 및 규정 준수, 비즈니스 효율성과 같은 잠재적 성향 영향은 AI 시스템을 평가하는 데 도움이 됩니다. 다음은 비즈니스 소비자를 위한 몇 가지 고려 사항입니다.

  • 피드백 루프는 비즈니스 에코시스템에 속합니다. 모델의 바이어스, 오류, 예측 속도 및 공정성을 보여주는 데이터는 AI 디자이너, 관리자 및 임원 간에 신뢰와 균형을 설정합니다. 인간 중심 평가는 시간이 지남에 따라 AI를 점진적으로 개선해야 합니다.

    다차원 복잡한 데이터에서 AI 학습을 최소화하면 편향된 학습을 방지할 수 있습니다. 이 기술을 LO-샷(1회 미만) 학습이라고 합니다.

  • 해석 가능성 디자인 및 도구를 사용하면 AI 시스템이 잠재적 편견에 대한 책임을 집니다. 모델의 편향 및 공정성 문제는 이 동작에서 학습하고 자동으로 편견을 해결하는 경고 및 변칙 검색 시스템에 플래그를 지정하고 데이터를 제공해야 합니다.

  • 각 예측 값은 중요도 또는 영향에 따라 개별 기능 또는 벡터로 세분화되어야 합니다. 감사 및 규정 준수 검토, 고객 투명성 및 비즈니스 준비 상태를 위해 비즈니스 보고서로 내보낼 수 있는 철저한 예측 설명을 제공해야 합니다.

  • 글로벌 보안 및 개인 정보 보호 위험이 증가함에 따라 유추 중에 데이터 위반을 해결하기 위한 모범 사례는 개별 산업 분야의 규정을 준수해야 합니다. 예를 들어 PHI 및 개인 데이터의 비준수에 대한 경고 또는 국가/지역 보안법 위반에 대한 경고가 있습니다.

다음 단계

인간 AI 지침을 살펴보고 책임 있는 AI에 대해 자세히 알아보세요.