Share via


Microsoft Copilot for Security 개인 정보 보호 및 데이터 보안

Microsoft Copilot for Security 사용하면 고객 데이터 및 시스템 생성 로그가 서비스의 일부로 저장 및 처리됩니다.

데이터 공유는 기본적으로 켜져 있습니다. 전역 관리자 및 보안 관리자는 Copilot for Security Copilot 소유자 역할이 할당됩니다. Copilot 소유자는 첫 번째 실행 환경 동안 및 이후 언제든지 고객 데이터에 대한 데이터 공유 설정을 변경할 수 있습니다. 역할에 대한 자세한 내용은 Copilot for Security 역할을 참조하세요.

이 문서에서는 Copilot for Security 고객 데이터를 시스템 생성 로그와 비교하고, 데이터 공유 옵션을 설명하고, 데이터를 보호하는 방법을 요약합니다.

고객 데이터 및 시스템 생성 로그

Microsoft 제품 약관에 정의된 대로 고객 데이터는 온라인 서비스를 사용하여 고객이 Microsoft에 제공하거나 대신 제공하는 모든 텍스트, 소리, 비디오 또는 이미지 파일 및 소프트웨어를 포함한 모든 데이터를 의미합니다. 고객 데이터에는 전문 서비스 데이터 또는 기술 설정 및 리소스 이름과 같은 온라인 서비스에서 리소스를 구성하는 데 사용되는 정보가 포함되지 않습니다.

Microsoft 온라인 서비스 서비스의 정기적인 작업의 일환으로 시스템 생성 로그를 만듭니다. 시스템 생성 로그는 시간이 지남에 따라 시스템 활동을 지속적으로 기록하여 Microsoft가 시스템이 예상대로 작동하고 있는지 여부를 모니터링할 수 있도록 합니다. "로깅"(로그의 스토리지 및 처리)은 운영 문제, 정책 위반 및 사기 행위를 식별, 검색, 대응 및 방지하는 데 필수적입니다. 로깅은 시스템, 네트워크 및 애플리케이션 성능을 최적화하고 보안 조사 및 복원력 활동을 돕고 법률 및 규정을 준수하는 데에도 필수적입니다.

다음 표에서는 Copilot for Security 고객 데이터를 시스템 생성 로그와 비교합니다.

고객 데이터 시스템 생성 로그
- 사용자가 Copilot for Security 제출하라는 메시지를 표시합니다.
- 응답을 생성하기 위해 검색된 정보입니다.
-응답.
- 고정된 항목의 콘텐츠입니다.
- 응답에 대한 고객 피드백입니다.
- 파일 업로드.
- 계정 정보(테넌트 ID, 계정 ID, 라이선스 등).
- 사용량 현황 데이터.
- 성능 정보입니다.
- 내부 시스템 동작 정보입니다.

고객 데이터 공유 기본 설정

데이터 공유는 기본적으로 켜져 있습니다. Copilot 소유자는 첫 번째 실행 환경 동안 및 이후 언제든지 고객 데이터에 대한 데이터 공유 설정을 변경할 수 있습니다.

다음 표에 설명된 이러한 고객 데이터 공유 기본 설정을 사용하거나 사용하지 않도록 설정하는 것은 Microsoft 제품 및 서비스 데이터 보호 부록에 따른 Microsoft의 권리 또는 책임에 영향을 주지 않습니다.

다음 데이터 공유 옵션을 사용할 수 있습니다.

설정 설명
Microsoft가 Copilot for Security 데이터를 캡처하여 사용자 검토를 사용하여 제품 성능의 유효성을 검사할 수 있도록 허용 이러한 유효성 검사는 다음을 포함하지만 이에 국한되지 않습니다.

- 사용자 요청에 대한 응답을 성공적으로 제공하고 사용자 프롬프트에 따라 해결해야 하는 기능 격차를 이해하는 Copilot for Security 기능입니다.

- 고객이 Copilot for Security 사용하는 작업 유형을 이해합니다.

- 응답의 유용성과 품질을 둘러싼 메트릭을 생성합니다.

- 고객이 구매하고 통합한 다른 Microsoft 제품과 관련된 Copilot for Security 기능의 유효성을 검사합니다.

- 다른 Microsoft 제품에 액세스하는 플러그 인의 응답을 개선합니다.

참고: 켜져 있는 경우 데이터는 데이터 처리 정책에 따라 미국에 저장됩니다. 자세한 내용은 프롬프트 평가 및 데이터 공유 옵트인(또는 옵트아웃)을 위한 위치 설정을 참조하세요.
Microsoft가 Copilot for Security 데이터를 캡처하고 인적 검토하여 Microsoft의 보안 AI 모델을 빌드하고 유효성을 검사할 수 있도록 허용 이러한 유효성 검사는 다음을 포함하지만 이에 국한되지 않습니다.

- 캡처된 데이터는 Azure OpenAI 기본 모델을 기반으로 구축된 보안 특정 모델을 개발하는 데 사용되며, 이 모델은 통합되는 Copilot for Security 및 기타 Microsoft 제품에 대해 보다 지능적이고 개인 설정된 기능을 제공합니다.

참고: 데이터는 OpenAI와 공유되거나 Azure OpenAI 기본 모델을 학습하는 데 사용되지 않습니다.
Copilot for Security Microsoft 365 서비스의 데이터에 액세스하도록 허용 Copilot for Security Copilot for Security 및 Microsoft 365 서비스의 고객이며 Microsoft 365 서비스에 대한 Copilot for Security 액세스를 허용하는 경우 사용자를 대신하여 Microsoft 365 서비스에서 데이터를 검색할 수 있습니다.

고객 데이터 스토리지 위치

고객이 데이터 공유에 옵트인하지 않은 경우 고객 데이터는 테넌트의 홈 "지역"에 저장됩니다. 예를 들어 독일에 거주하는 고객 테넌트는 고객 데이터를 "유럽"에 독일의 지정된 지리적 위치로 저장합니다.

데이터 공유가 옵트인되면 제품 성능을 향상시키고 정확도를 높이며 응답 대기 시간을 해결하기 위해 프롬프트 및 응답과 같은 고객 데이터를 Microsoft와 공유합니다. 이 경우 프롬프트와 같은 고객 데이터는 테넌트 지역 외부에 저장할 수 있습니다.

자세한 내용은 Azure의 데이터 상주를 참조하세요.

프롬프트 평가를 위한 위치

Microsoft Copilot 제품을 사용하면 프롬프트 표시줄에 입력한 텍스트 기반 자연어 입력을 참조하여 Copilot for Security 응답을 생성하도록 지시합니다. 프롬프트는 Copilot가 보안 관련 작업에 도움이 되는 답변을 생성하는 데 필요한 기본 입력입니다. 프롬프트는 Azure 보안 및 개인 정보 제어로 보호되는 Azure 데이터 센터의 GPU 리소스를 사용하여 평가됩니다.

다음 위치 중 하나에서 프롬프트가 평가되는 위치를 선택할 수 있습니다.

  • 오스트레일리아(ANZ)
  • 유럽(EU)
  • 영국(영국)
  • 미국(미국)

기본 위치가 높은 활동을 경험하는 경우 잠재적인 중단을 완화하기 위해 전 세계 어디에서나 프롬프트를 평가하도록 옵트인할 수 있습니다. 

Microsoft는 사용 가능한 GPU 용량으로 어디서나 프롬프트를 평가하는 것이 좋습니다. 이를 통해 Copilot 시스템은 부하, 대기 시간 및 응답성에 따라 최적의 위치를 결정할 수 있습니다. 

참고

고객 데이터 공유에 옵트인하지 않는 한 데이터(세션)는 항상 테넌트 홈 Geo 내에 저장됩니다. 자세한 내용은 고객 데이터 스토리지 위치를 참조하세요.

프롬프트 평가를 위한 위치 설정 및 데이터 공유 옵트인(또는 옵트아웃)

초기 설정 중에 Copilot 소유자는 데이터 공유 및 프롬프트 평가 옵션을 설정하라는 메시지가 표시됩니다. 자세한 내용은 Copilot for Security 시작을 참조하세요. Copilot 소유자는 첫 번째 실행 환경 동안 또는 이후 언제든지 이러한 설정을 변경할 수 있습니다.

권한 있는 역할
데이터 공유 옵션을 변경하려면 Copilot 소유자여야 합니다. 역할에 대한 자세한 내용은 인증 이해를 참조하세요.

데이터 공유 설정

초기 설정 중에 Copilot 소유자에게 다음 데이터 공유 옵션이 제공됩니다.

설정 설명
Microsoft가 Copilot for Security 데이터를 캡처하여 사용자 검토를 사용하여 제품 성능의 유효성을 검사할 수 있도록 허용 이러한 유효성 검사는 다음을 포함하지만 이에 국한되지 않습니다.

- 사용자 요청에 대한 응답을 성공적으로 제공하고 사용자 프롬프트에 따라 해결해야 하는 기능 격차를 이해하는 Copilot for Security 기능입니다.

- 고객이 Copilot for Security 사용하는 작업 유형을 이해합니다.

- 응답의 유용성과 품질을 둘러싼 메트릭을 생성합니다.

- 고객이 구매하고 통합한 다른 Microsoft 제품과 관련된 Copilot for Security 기능의 유효성을 검사합니다.

- 다른 Microsoft 제품에 액세스하는 플러그 인의 응답을 개선합니다.

참고: 켜져 있으면 데이터 처리 정책에 따라 데이터도 미국에 저장됩니다. 자세한 내용은 Azure OpenAI Service에 대한 데이터, 개인 정보 및 보안을 참조하세요.
Microsoft가 Copilot for Security 데이터를 캡처하고 인적 검토하여 Microsoft의 보안 AI 모델을 빌드하고 유효성을 검사할 수 있도록 허용 이러한 유효성 검사는 다음을 포함하지만 이에 국한되지 않습니다.

- 캡처된 데이터는 Azure OpenAI 기본 모델을 기반으로 구축된 보안 특정 모델을 개발하는 데 사용되며, 이 모델은 통합되는 Copilot for Security 및 기타 Microsoft 제품에 대해 보다 지능적이고 개인 설정된 기능을 제공합니다.

참고: 데이터는 OpenAI와 공유되거나 Azure OpenAI 기본 모델을 학습하는 데 사용되지 않습니다.
  • 데이터 공유를 옵트인하면 고객 데이터가 해당 시점부터 Microsoft와 공유됩니다.
  • 데이터 공유를 옵트아웃하면 더 이상 고객 데이터가 공유되지 않습니다. 이전에 공유된 고객 데이터는 180일 이내에 보존됩니다.

데이터 공유 업데이트

  1. Copilot for Security 설정>소유자 설정으로 이동합니다.

  2. 데이터 공유 선택 항목을 업데이트합니다.

Microsoft가 데이터를 보호하는 방법

Microsoft는 포괄적인 컨트롤을 사용하여 데이터를 보호합니다. 모든 Copilot for Security 데이터는 개인 정보 보호, 보안, 규정 준수 및 책임 있는 AI 관행에 대한 Microsoft의 약속에 따라 처리됩니다. 데이터를 보관하는 시스템에 대한 액세스는 Microsoft의 인증된 프로세스에 의해 관리됩니다.

Copilot for Security 쿼리를 사용자로 실행하므로 사용자가 가지고 있는 것 이상으로 상승된 권한은 없습니다.

고객 데이터를 공유하도록 옵트인하는 경우 데이터는 다음과 같습니다.

  • OpenAI와 공유되지 않음
  • 판매에 사용되지 않음
  • 제3자와 공유되지 않음
  • Azure OpenAI 기본 모델을 학습하는 데 사용되지 않음

Copilot for Security 모든 Azure 프로덕션 데이터 규정 준수 표준을 충족합니다.

Azure에 저장된 모든 데이터는 미사용 시 자동으로 암호화되며 AES-256 암호화를 사용합니다. 자세한 내용은 미사용 데이터 암호화암호화를 참조하세요.

Microsoft 보안 제품 데이터 처리

사용자가 구매한 Microsoft 보안 제품은 제품 설명서에 설명된 대로 고객 데이터를 포함한 데이터를 공유할 수 있습니다. Copilot for Security 공유되는 고객 데이터는 제품 약관, 데이터 보호 부록 및 Copilot for Security 적용되는 설명서의 적용을 받습니다. Microsoft 365 서비스의 경우 전역 관리 데이터 공유 설정에 자세히 설명된 공유 기본 설정 옵션에서 Copilot for Security 사용하도록 설정해야 하며 사용자는 해당 Microsoft 365 서비스에 플러그 인을 사용하도록 설정해야 합니다. 다른 Microsoft 서비스의 경우 이러한 플러그 인은 기본적으로 사용자에 대해 사용하도록 설정됩니다. 사용자는 언제든지 플러그 인을 끌 수 있습니다. 자세한 내용은 플러그 인 관리를 참조하세요.

Copilot for Security 사용자의 피드백

Microsoft는 제품 사용자로부터 Microsoft Copilot for Security 생성된 응답에 대한 피드백을 수집합니다. Copilot 소유자는 지원 티켓을 통해 Microsoft 지원 문의하여 테넌트에 대한 피드백 수집을 해제할 수 있습니다. 자세한 내용은 고객 지원에 문의를 참조하세요.

참고 항목

Azure OpenAI Service에 대한 데이터, 개인 정보 및 보안

Microsoft 책임 있는 AI 원칙.