책임 있는 AI란?

적용 대상:Azure CLI ml 확장 v2(현재)Python SDK azure-ai-ml v2(현재)

책임 있는 AI(책임 있는 인공 지능)는 AI 시스템을 안전하고 신뢰할 수 있으며 윤리적인 방식으로 개발, 평가 및 배포하는 접근 방식입니다. AI 시스템은 이러한 시스템을 개발하고 배포하는 사용자에 의한 다양한 의사 결정의 산물입니다. 책임 있는 AI는 사전에 시스템 용도에서 사용자가 AI 시스템과 상호 작용하는 방법에 이르기까지 이러한 결정을 더 유익하고 공평한 결과로 안내하는 데 도움이 될 수 있습니다. 즉, 사람과 목표를 시스템 설계 결정의 중심에 두고 공정성, 신뢰성 및 투명성과 같은 지속적인 가치를 존중하는 것을 의미합니다.

Microsoft는 책임 있는 AI 표준을 개발했습니다. 이는 공정성, 안정성 및 안전, 개인 정보 보호 및 보안, 포용성, 투명성, 책임성의 6가지 원칙에 따라 AI 시스템을 구축하기 위한 프레임워크입니다. 특히 사람들이 매일 사용하는 제품과 서비스에서 인텔리전트 기술이 더 널리 사용됨에 따라 Microsoft에 대해 이러한 원칙은 AI에 대한 책임성 있고 신뢰할 수 있는 접근 방식의 기초입니다.

이 문서에서는 개발자와 데이터 과학자가 6가지 원칙을 구현하고 운영할 수 있도록 Azure Machine Learning에서 도구를 지원하는 방법을 보여 줍니다.

 Diagram of the six principles of Microsoft Responsible AI, which encompass fairness, reliability and safety, privacy and security, inclusiveness, transparency, and accountability.

공정성 및 포용성.

AI 시스템은 모든 사람을 공정하게 대하고 비슷한 상황에 있는 집단에게 상이한 방식으로 영향을 미치지 않아야 합니다. 예를 들어 AI 시스템에서 의료, 대출 신청 또는 고용에 대한 지침을 제공하는 경우 증상, 재정 상황 또는 전문 자격이 비슷한 모든 사람에게 동일한 권장 사항을 제안해야 합니다.

Azure Machine Learning의 공정성 및 포용성: 책임 있는 AI 대시보드공정성 평가 구성 요소를 사용하면 데이터 과학자와 개발자가 성별, 민족성, 연령 및 기타 특성의 측면에서 정의된 중요한 그룹에서 모델 공정성을 평가할 수 있습니다.

안정성 및 안전성

신뢰를 구축하려면 AI 시스템이 안정적이고 안전하며 일관되게 작동해야 합니다. 이 시스템은 예상하지 못한 조건에서도 원래 설계대로 안전하게 대응하고 유해한 조작에 대한 저항성이 있어야 합니다. 시스템이 작동하는 방식과 처리할 수 있는 다양한 조건은 개발자가 설계 및 테스트 중에 예상한 상황과 환경의 범위를 반영합니다.

Azure Machine Learning의 안정성 및 안전: 책임 있는 AI 대시보드오류 분석 구성 요소를 사용하면 데이터 과학자와 개발자가 다음을 수행할 수 있습니다.

  • 모델에 대해 오류가 배포되는 방식을 자세히 이해합니다.
  • 오류율이 전체 벤치마크보다 높은 데이터의 코호트(하위 집합)를 식별합니다.

이러한 불일치는 시스템 또는 모델에서 특정 인구 통계 그룹 또는 학습 데이터에서 드물게 관찰되는 입력 조건에 대해 성능이 저하될 때 발생할 수 있습니다.

투명성

AI 시스템이 사람들의 삶에 엄청난 영향을 주는 결정을 알리는 데 도움이 되는 경우 사람들이 이러한 결정을 내린 방법을 이해하는 것이 매우 중요합니다. 예를 들어 은행은 AI 시스템을 사용하여 신뢰할 수 있는 사람인지 여부를 결정할 수 있습니다. 회사는 AI 시스템을 사용하여 채용할 가장 적합한 후보자를 결정할 수 있습니다.

투명성의 중요한 부분은 해석력입니다. 이는 AI 시스템 및 해당 구성 요소의 동작에 대한 유용한 설명입니다. 해석력을 높이려면 관련자가 AI 시스템이 작동하는 방식과 이유를 이해해야 합니다. 그러면 관련자가 잠재적인 성능 문제, 공정성 문제, 배제 사례 또는 의도하지 않은 결과를 식별할 수 있습니다.

Azure Machine Learning의 투명성: 책임 있는 AI 대시보드모델 해석력반사실적 가상 구성 요소를 사용하면 데이터 과학자와 개발자가 모델 예측에 대해 사람이 이해할 수 있는 설명을 생성할 수 있습니다.

모델 해석력 구성 요소는 모델의 동작에 대한 여러 보기를 제공합니다.

  • 전체 설명. 예를 들어 대출 할당 모델의 전체 동작에 영향을 주는 기능은 무엇인가요?
  • 부분 설명. 예를 들어 고객의 대출 신청이 승인되거나 거부된 이유는 무엇인가요?
  • 선택한 데이터 지점의 코호트에 대한 모델 설명. 예를 들어 저소득 신청자의 대출 할당 모델에 대한 전체 동작에 영향을 주는 기능은 무엇인가요?

반사실적 가상 구성 요소를 사용하면 기능 변경 및 교란에 반응하는 방식의 측면에서 기계 학습 모델을 이해하고 디버그할 수 있습니다.

또한 Azure Machine Learning은 책임 있는 AI 성과 기록표를 지원합니다. 성과 기록표는 개발자가 데이터 세트 및 모델 상태에 대해 교육하고 규정 준수를 달성하고 신뢰를 구축하기 위해 쉽게 구성하고, 생성하고, 다운로드하고, 기술 및 비기술 관련자와 공유할 수 있는 사용자 지정 가능한 PDF 보고서입니다. 이 성과 기록표는 기계 학습 모델의 특성을 파악하기 위해 감사 검토에도 사용할 수 있습니다.

개인 정보 보호 및 보안

AI가 널리 사용됨에 따라 개인 정보를 보호하고 개인 및 비즈니스 정보를 보호하는 것이 더 중요하고 복잡해지고 있습니다. AI를 사용하면 데이터에 대한 액세스가 AI 시스템에서 사람에 대한 정확하고 정보에 근거한 예측과 결정을 수행하는 데 필수적이므로 개인 정보 보호 및 데이터 보안에 세심한 주의가 필요합니다. AI 시스템은 다음과 같은 개인 정보 보호법을 준수해야 합니다.

  • 데이터 수집, 사용 및 저장에 대한 투명성이 필요합니다.
  • 소비자가 데이터를 사용하는 방법을 선택할 수 있는 적절한 제어 권한을 갖도록 위임합니다.

Azure Machine Learning의 개인정보 보호 및 보안: Azure Machine Learning을 사용하면 관리자와 개발자가 회사 정책을 준수하는 보안 구성을 만들 수 있습니다. Azure Machine Learning 및 Azure 플랫폼을 사용하여 다음 작업을 수행할 수 있습니다.

  • 사용자 계정 또는 그룹의 리소스 및 작업에 액세스를 제한합니다.
  • 들어오고 나가는 네트워크 통신을 제한합니다.
  • 전송 중 및 미사용 데이터를 암호화합니다.
  • 취약성을 검사합니다.
  • 구성 정책을 적용하고 감사합니다.

또한 Microsoft는 개인 정보 보호 및 보안 원칙을 추가로 구현할 수 있는 두 가지 오픈 소스 패키지를 만들었습니다.

  • SmartNoise: 차등 개인정보 보호는 개인의 데이터를 안전하고 비공개로 유지하는 데 도움이 되는 일단의 시스템과 사례입니다. 기계 학습 솔루션에서 규정 준수를 위해 차등 개인정보 보호가 필요할 수 있습니다. SmartNoise는 차등 프라이빗 시스템을 빌드하기 위한 구성 요소가 포함된 오픈 소스 프로젝트(Microsoft 공동 개발)입니다.

  • Counterfit: Counterfit는 개발자가 AI 시스템에 대한 사이버 공격을 시뮬레이션할 수 있도록 명령줄 도구와 일반 자동화 계층으로 구성된 오픈 소스 프로젝트입니다. 누구나 도구를 다운로드하고 Azure Shell을 통해 배포하여 브라우저에서 실행하거나 Anaconda Python 환경에서 로컬로 배포할 수 있습니다. 다양한 클라우드 환경, 온-프레미스 또는 에지에서 호스팅되는 AI 모델을 평가할 수 있습니다. 이 도구는 AI 모델에 구애받지 않으며 텍스트, 이미지 또는 일반 입력을 포함한 다양한 데이터 형식을 지원합니다.

책임성

AI 시스템을 설계하고 배포하는 사용자는 시스템의 작동 방식에 대해 책임을 져야 합니다. 조직은 업계 표준을 기반으로 책임성 규범을 개발해야 합니다. 이러한 규범은 AI 시스템이 사람들의 삶에 영향을 주는 결정에 대한 최종 기관이 아님을 보장할 수 있습니다. 또한 인간이 고도로 자율적인 AI 시스템에 대해 의미 있는 제어를 유지하도록 보장할 수 있습니다.

Azure Machine Learning의 책임성: MLOps(Machine Learning Operations)는 AI 워크플로의 효율성을 높이는 DevOps 원칙 및 사례를 기반으로 합니다. Azure Machine Learning은 AI 시스템의 책임성을 높이기 위해 다음과 같은 MLOps 기능을 제공합니다.

  • 어디에서나 모델을 등록, 패키징 및 배포합니다. 모델을 사용하는 데 필요한 연결된 메타데이터를 추적할 수도 있습니다.
  • 엔드투엔드 기계 학습 수명 주기에 대한 거버넌스 데이터를 캡처합니다. 로그된 계보 정보에는 모델을 게시하는 주체, 변경 사유, 프로덕션 환경에서 모델이 배포 또는 사용된 시점 등이 포함될 수 있습니다.
  • 기계 학습 수명 주기의 이벤트를 알리고 경고합니다. 예를 들어 실험 완료, 모델 등록, 모델 배포 및 데이터 드리프트 검색이 있습니다.
  • 기계 학습과 관련된 문제 및 운영 문제에 대해 애플리케이션을 모니터링합니다. 학습과 유추 간의 모델 입력을 비교하고, 모델별 메트릭을 탐색하고, 기계 학습 인프라에 대한 모니터링 및 경고를 제공합니다.

MLOps 기능 외에도 Azure Machine Learning의 책임 있는 AI 성과 기록표는 관련자 간 통신을 사용하도록 설정하여 책임성을 만듭니다. 또한 성과 기록표는 개발자에게 AI 데이터 및 모델 상태에 대한 모델 상태 인사이트를 구성하고, 다운로드하고, 기술 및 비기술 관련자와 공유할 수 있는 권한을 부여하여 책임성을 만듭니다. 이러한 인사이트를 공유하면 신뢰를 구축하는 데 도움이 될 수 있습니다.

또한 기계 학습 플랫폼을 사용하면 다음을 통해 비즈니스 의사 결정을 알려 의사 결정을 내릴 수 있습니다.

  • 데이터 기반 인사이트 - 과거 데이터만 사용하여 관련자가 결과에 대한 인과적 처리 효과를 이해할 수 있도록 지원합니다. 예를 들어 "약제가 환자의 혈압에 어떤 영향을 주나요?"가 있습니다. 이러한 인사이트는 책임 있는 AI 대시보드인과 관계 유추 구성 요소를 통해 제공됩니다.
  • 모델 기반 인사이트 - 사용자의 질문(예: "다음에 AI에서 다른 결과를 가져오려면 어떻게 해야 하나요?")에 대답하여 사용자가 조치를 취할 수 있도록 합니다. 이러한 인사이트는 책임 있는 AI 대시보드반사실적 가상 구성 요소를 통해 데이터 과학자에게 제공됩니다.

다음 단계