Share via


Azure AI 콘텐츠 안전의 유해 범주

이 가이드에서는 Azure AI 콘텐츠 보안에서 콘텐츠를 신고하는 데 사용하는 모든 유해성 범주와 등급을 설명합니다. 텍스트와 이미지 콘텐츠 모두 동일한 플래그 집합을 사용합니다.

유해 범주

콘텐츠 안전에서는 불쾌한 콘텐츠를 네 가지 범주로 구분합니다.

범주 설명
증오와 공정성 증오와 공정성 관련 피해는 인종, 민족, 국적, 성 정체성 및 표현, 성적 지향, 종교, 이민 신분, 능력 상태, 개인 외모 및 신체 크기를 포함하지만 이에 국한되지 않는 이러한 그룹의 특정 차별화 특성에 근거하여 개인 또는 정체성 그룹을 참조하여 조롱적이거나 차별적인 언어를 사용하거나 공격하는 모든 콘텐츠를 가리킵니다.

공정성은 AI 시스템이 기존의 사회적 불평등에 기여하지 않고 모든 집단의 사람들을 공평하게 대우하도록 보장하는 것과 관련이 있습니다. 혐오 발언과 마찬가지로 공정성 관련 피해는 정체성 그룹의 이질적인 대우에 달려 있습니다.
성적 성적 범주는 해부학적 기관 및 생식기와 관련된 언어, 낭만적인 관계, 에로틱하거나 애정 어린 용어로 묘사된 행위, 임신, 신체적 성행위(자신의 의지에 반하는 폭행 또는 강제 성폭력 행위로 묘사되는 행위 포함), 매춘, 음란물 및 학대를 의미합니다.
폭력 폭력이란 누군가 또는 사물을 해치거나 손상시키거나 죽이려는 의도의 신체적 행동과 관련된 언어를 말합니다. 무기, 총기 및 관련 단체(제조업체, 협회, 법률 등)를 설명합니다.
자해 자해란 의도적으로 자신의 신체를 다치게 하거나 손상시키거나 자살하려는 의도를 지닌 신체적 행동과 관련된 언어를 말합니다.

분류에는 다중 레이블이 지정될 수 있습니다. 예를 들어 텍스트 샘플이 텍스트 조정 모델을 거치면 성적인 콘텐츠와 폭력으로 분류될 수 있습니다.

심각도 수준

서비스가 적용되는 모든 피해 범주에는 심각도 수준 등급도 함께 제공됩니다. 심각도 수준은 플래그가 지정된 콘텐츠 표시로 인한 결과의 심각도를 나타냅니다.

텍스트: 현재 버전의 텍스트 모델은 전체 0-7 심각도 척도를 지원합니다. 분류자는 이 척도를 기준으로 모든 심각도를 검색합니다. 사용자가 지정하는 경우 0, 2, 4, 6이라는 단축 척도로 심각도를 반환할 수 있습니다. 인접한 두 수준은 각각 단일 수준에 매핑됩니다.

  • [0,1] -> 0
  • [2,3] -> 2
  • [4,5] -> 4
  • [6,7] -> 6

이미지: 현재 버전의 이미지 모델은 전체 0-7 심각도 척도의 단축 버전을 지원합니다. 분류자는 심각도 0, 2, 4 및 6만 반환합니다. 인접한 두 수준은 각각 단일 수준에 매핑됩니다.

  • [0,1] -> 0
  • [2,3] -> 2
  • [4,5] -> 4
  • [6,7] -> 6

텍스트 콘텐츠

Warning

이 문서의 심각도 정의 탭에는 일부 읽기 권한자에게 불편을 줄 수 있는 유해 콘텐츠의 예가 포함되어 있습니다.

이미지 콘텐츠

Warning

이 문서의 심각도 정의 탭에는 일부 읽기 권한자에게 불편을 줄 수 있는 유해 콘텐츠의 예가 포함되어 있습니다.

다음 단계

애플리케이션에서 Azure AI 콘텐츠 보안 사용을 시작하려면 빠른 시작을 따르세요.