Share via


빠른 시작: 텍스트 콘텐츠 분석

기본적인 텍스트 조정을 수행하려면 콘텐츠 안전 스튜디오, REST API 또는 클라이언트 SDK를 시작하세요. Azure AI 콘텐츠 보안 서비스는 불쾌한 콘텐츠를 신고하기 위한 AI 알고리즘을 제공합니다. 사용해 보려면 다음 단계를 따르세요.

참고 항목

샘플 데이터와 코드에는 불쾌한 내용이 포함될 수 있습니다. 사용자의 재량에 따라 결정하는 것이 좋습니다.

필수 조건

  • Azure 구독 - 체험 구독 만들기
  • Azure 구독이 있으면 Azure Portal에서 콘텐츠 안전 리소스를 생성하여 키와 엔드포인트를 가져옵니다. 리소스의 고유한 이름을 입력하고, 구독을 선택하고, 리소스 그룹과 지원되는 지역(미국 동부 또는 서유럽), 지원되는 가격 책정 계층을 선택합니다. 다음으로 만들기를 선택합니다.
    • 리소스를 배포하는 데 몇 분 정도 걸립니다. 완료되면 리소스로 이동을 선택합니다. 왼쪽 창의 리소스 관리에서 구독 키 및 엔드포인트를 선택합니다. 엔드포인트와 키 중 하나는 API를 호출하는 데 사용됩니다.
  • cURL 설치

텍스트 콘텐츠 분석

다음 섹션에서는 cURL을 사용한 샘플 요청을 안내합니다. 아래 명령을 텍스트 편집기에 붙여넣고 다음과 같이 변경합니다.

  1. <endpoint>을(를) 리소스와 연결된 엔드포인트 URL로 바꾸세요.
  2. <your_subscription_key>을 리소스와 함께 제공되는 키 중 하나로 바꾸세요.
  3. 선택적으로 본문의 "text" 필드를 분석하려는 텍스트로 바꿉니다.

    텍스트 크기 및 세분성

    텍스트 제출의 기본 최대 길이는 10,000자입니다.

curl --location --request POST '<endpoint>/contentsafety/text:analyze?api-version=2023-10-01' \
--header 'Ocp-Apim-Subscription-Key: <your_subscription_key>' \
--header 'Content-Type: application/json' \
--data-raw '{
  "text": "I hate you",
  "categories": [
   "Hate","Sexual","SelfHarm","Violence"
  ]
   "blocklistNames": [
      "string"
    ],
   "haltOnBlocklistHit": true,
   "outputType": "FourSeverityLevels"
}'

아래 필드가 URL에 포함되어야 합니다.

이름 필수 설명 Type
API 버전 Required 확인할 API 버전입니다. 현재 버전은 api-version=2023-10-01입니다. 예: <endpoint>/contentsafety/text:analyze?api-version=2023-10-01 문자열

요청 본문의 매개 변수는 다음 표에 정의되어 있습니다.

이름 필수 설명 Type
text Required 확인할 원시 텍스트입니다. ASCII가 아닌 다른 문자도 포함될 수 있습니다. 문자열
범주 선택 사항 이는 범주 이름의 배열로 간주됩니다. 사용 가능한 범주 이름 목록은 위험 범주 가이드를 참조하세요. 범주를 지정하지 않으면 네 가지 범주가 모두 사용됩니다. 단일 요청으로 점수를 얻기 위해 여러 범주를 사용합니다. 문자열
차단 목록 이름 선택 사항 텍스트 차단 목록 이름. 다음 문자만 지원됩니다: 0-9 A-Z a-z - . _ ~. 여기에 여러 목록 이름을 첨부할 수 있습니다. Array
haltOnBlocklistHit 선택 사항 true로 설정하면 차단 목록에 적중되는 경우 유해 콘텐츠에 대한 추가 분석이 수행되지 않습니다. false로 설정하면 차단 목록 적중 여부에 관계없이 유해 콘텐츠에 대한 모든 분석이 수행됩니다. 부울
outputType 선택 사항 "FourSeverityLevels" 또는 "EightSeverityLevels". 4개 또는 8개 수준의 출력 심각도로, 값은 0,2,4,6 또는 0,1,2,3,4,5,6,7일 수 있습니다. 문자열

다음 샘플 요청 본문을 참조하세요.

{
  "text": "I hate you",
  "categories": [
   "Hate","Sexual","SelfHarm","Violence"
  ],
  "blocklistNames": [
    "array"
  ],
  "haltOnBlocklistHit": false,
  "outputType": "FourSeverityLevels"
}

명령 프롬프트 창을 열고 cURL 명령을 실행합니다.

API 응답 해석

콘솔 출력에 JSON 데이터로 표시되는 텍스트 조정 결과가 표시되어야 합니다. 예시:

{
  "blocklistsMatch": [
    {
      "blocklistName": "string",
      "blocklistItemId": "string",
      "blocklistItemText": "string"
    }
  ],
  "categoriesAnalysis": [
        {
            "category": "Hate",
            "severity": 2
        },
        {
            "category": "SelfHarm",
            "severity": 0
        },
        {
            "category": "Sexual",
            "severity": 0
        },
        {
            "category": "Violence",
            "severity": 0
  ]
}

출력의 JSON 필드는 다음과 같이 정의됩니다.

이름 Description Type
categoriesAnalysis API가 예측하는 각 출력 클래스입니다. 분류에는 다중 레이블이 지정될 수 있습니다. 예를 들어, 텍스트 샘플이 텍스트 조정 모델을 통해 실행되면 성적 콘텐츠와 폭력으로 분류될 수 있습니다. 유해 범주 문자열
심각도 입력 콘텐츠의 심각도가 높을수록 이 값은 커집니다. 정수

참조 설명서 | 라이브러리 소스 코드 | 패키지(NuGet) | 샘플

필수 조건

  • Azure 구독 - 체험 구독 만들기
  • 워크로드 .NET 데스크톱 개발이 활성화된 Visual Studio IDE입니다. 또는 Visual Studio IDE를 사용할 계획이 없다면 현재 버전의 .NET Core가 필요합니다.
  • Azure 구독이 있으면 Azure Portal에서 콘텐츠 안전 리소스를 생성하여 키와 엔드포인트를 가져옵니다. 리소스의 고유한 이름을 입력하고, 구독을 선택하고, 리소스 그룹과 지원되는 지역(미국 동부 또는 서유럽), 지원되는 가격 책정 계층을 선택합니다. 다음으로 만들기를 선택합니다.
    • 리소스를 배포하는 데 몇 분 정도 걸립니다. 완료되면 리소스로 이동을 선택합니다. 왼쪽 창의 리소스 관리에서 구독 키 및 엔드포인트를 선택합니다. 엔드포인트와 키 중 하나는 API를 호출하는 데 사용됩니다.

애플리케이션 설정

새 C# 애플리케이션을 만듭니다.

Visual Studio를 열고 시작하기에서 새 프로젝트 만들기를 선택합니다. 템플릿 필터를 C#/모든 플랫폼/콘솔로 설정합니다. 콘솔 앱(Windows, Linux 및 macOS의 .NET에서 실행할 수 있는 명령줄 애플리케이션)을 선택하고 다음을 선택합니다. 프로젝트 이름을 ContentSafetyQuickstart로 업데이트하고 Next를 선택합니다. .NET 6.0 이상을 선택하고 만들기를 선택하여 프로젝트를 만듭니다.

클라이언트 SDK 설치

새 프로젝트를 생성한 후 솔루션 탐색기에서 프로젝트 솔루션을 마우스 오른쪽 버튼으로 클릭하고 NuGet 패키지 관리를 선택하여 클라이언트 SDK를 설치합니다. 열리는 패키지 관리자에서 찾아보기를 선택하고 Azure.AI.ContentSafety를 검색합니다. 설치를 선택합니다.

환경 변수 만들기

이 예제에서는 애플리케이션을 실행하는 로컬 컴퓨터의 환경 변수에 자격 증명을 작성합니다.

코드에 키를 직접 포함하지 말고 공개적으로 게시하지 마세요. Azure Key Vault와 같은 추가 인증 옵션은 Azure AI 서비스 보안 문서를 참조하세요.

키 및 엔드포인트에 대한 환경 변수를 설정하려면 콘솔 창을 열고 운영 체제 및 개발 환경에 대한 지침을 따릅니다.

  1. CONTENT_SAFETY_KEY 환경 변수를 설정하려면 YOUR_CONTENT_SAFETY_KEY를 리소스에 대한 키 중 하나로 바꿉니다.
  2. CONTENT_SAFETY_ENDPOINT 환경 변수를 설정하려면 YOUR_CONTENT_SAFETY_ENDPOINT를 리소스에 대한 엔드포인트로 바꿉니다.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'

환경 변수가 추가되면 콘솔 창을 포함하여 환경 변수를 읽는 실행 중인 프로그램을 다시 시작해야 할 수 있습니다.

텍스트 콘텐츠 분석

프로젝트 디렉터리에서 이전에 생성된 Program.cs 파일을 엽니다. 다음 코드를 붙여넣습니다.

using System;
using Azure.AI.ContentSafety;

namespace Azure.AI.ContentSafety.Dotnet.Sample
{
  class ContentSafetySampleAnalyzeText
  {
    public static void AnalyzeText()
    {
      // retrieve the endpoint and key from the environment variables created earlier
      string endpoint = Environment.GetEnvironmentVariable("CONTENT_SAFETY_ENDPOINT");
      string key = Environment.GetEnvironmentVariable("CONTENT_SAFETY_KEY");

      ContentSafetyClient client = new ContentSafetyClient(new Uri(endpoint), new AzureKeyCredential(key));

      string text = "Your input text";

      var request = new AnalyzeTextOptions(text);

      Response<AnalyzeTextResult> response;
      try
      {
          response = client.AnalyzeText(request);
      }
      catch (RequestFailedException ex)
      {
          Console.WriteLine("Analyze text failed.\nStatus code: {0}, Error code: {1}, Error message: {2}", ex.Status, ex.ErrorCode, ex.Message);
          throw;
      }

      Console.WriteLine("\nAnalyze text succeeded:");
      Console.WriteLine("Hate severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Hate)?.Severity ?? 0);
      Console.WriteLine("SelfHarm severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.SelfHarm)?.Severity ?? 0);
      Console.WriteLine("Sexual severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Sexual)?.Severity ?? 0);
      Console.WriteLine("Violence severity: {0}", response.Value.CategoriesAnalysis.FirstOrDefault(a => a.Category == TextCategory.Violence)?.Severity ?? 0);

    }
    static void Main()
    {
        AnalyzeText();
    }
  }
}

"Your input text"을 사용하려는 텍스트 콘텐츠로 바꾸세요.

텍스트 크기 및 세분성

텍스트 제출의 기본 최대 길이는 10,000자입니다.

IDE 창 상단에 있는 디버그 메뉴에서 디버깅 시작을 선택하거나 F5 키를 눌러 애플리케이션을 빌드하고 실행합니다.

참조 설명서 | 라이브러리 소스 코드 | 패키지(PyPI) | 샘플 |

필수 조건

  • Azure 구독 - 체험 구독 만들기
  • Azure 구독이 있으면 Azure Portal에서 콘텐츠 안전 리소스를 생성하여 키와 엔드포인트를 가져옵니다. 리소스의 고유한 이름을 입력하고, 구독을 선택하고, 리소스 그룹과 지원되는 지역(미국 동부 또는 서유럽), 지원되는 가격 책정 계층을 선택합니다. 다음으로 만들기를 선택합니다.
    • 리소스를 배포하는 데 몇 분 정도 걸립니다. 완료되면 리소스로 이동을 선택합니다. 왼쪽 창의 리소스 관리에서 구독 키 및 엔드포인트를 선택합니다. 엔드포인트와 키 중 하나는 API를 호출하는 데 사용됩니다.
  • Python 3.x
    • Python 설치에 pip가 포함되어야 합니다. 명령줄에서 pip --version을 실행하여 pip가 설치되어 있는지 확인할 수 있습니다. 최신 버전의 Python을 설치하여 pip를 받으세요.

환경 변수 만들기

이 예제에서는 애플리케이션을 실행하는 로컬 컴퓨터의 환경 변수에 자격 증명을 작성합니다.

코드에 키를 직접 포함하지 말고 공개적으로 게시하지 마세요. Azure Key Vault와 같은 추가 인증 옵션은 Azure AI 서비스 보안 문서를 참조하세요.

키 및 엔드포인트에 대한 환경 변수를 설정하려면 콘솔 창을 열고 운영 체제 및 개발 환경에 대한 지침을 따릅니다.

  1. CONTENT_SAFETY_KEY 환경 변수를 설정하려면 YOUR_CONTENT_SAFETY_KEY를 리소스에 대한 키 중 하나로 바꿉니다.
  2. CONTENT_SAFETY_ENDPOINT 환경 변수를 설정하려면 YOUR_CONTENT_SAFETY_ENDPOINT를 리소스에 대한 엔드포인트로 바꿉니다.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'

환경 변수가 추가되면 콘솔 창을 포함하여 환경 변수를 읽는 실행 중인 프로그램을 다시 시작해야 할 수 있습니다.

텍스트 콘텐츠 분석

다음 섹션에서는 Python SDK를 사용한 샘플 요청을 안내합니다.

  1. 명령 프롬프트를 열고 프로젝트 폴더로 이동한 후 quickstart.py라는 새 파일을 만듭니다.

  2. 다음 명령을 실행하여 Azure AI 콘텐츠 안전 라이브러리를 설치합니다.

    pip install azure-ai-contentsafety
    
  3. 다음 코드를 quickstart.py에 복사합니다.

    import os
    from azure.ai.contentsafety import ContentSafetyClient
    from azure.core.credentials import AzureKeyCredential
    from azure.core.exceptions import HttpResponseError
    from azure.ai.contentsafety.models import AnalyzeTextOptions, TextCategory
    
    def analyze_text():
        # analyze text
        key = os.environ["CONTENT_SAFETY_KEY"]
        endpoint = os.environ["CONTENT_SAFETY_ENDPOINT"]
    
        # Create an Azure AI Content Safety client
        client = ContentSafetyClient(endpoint, AzureKeyCredential(key))
    
        # Contruct request
        request = AnalyzeTextOptions(text="Your input text")
    
        # Analyze text
        try:
            response = client.analyze_text(request)
        except HttpResponseError as e:
            print("Analyze text failed.")
            if e.error:
                print(f"Error code: {e.error.code}")
                print(f"Error message: {e.error.message}")
                raise
            print(e)
            raise
    
        hate_result = next(item for item in response.categories_analysis if item.category == TextCategory.HATE)
        self_harm_result = next(item for item in response.categories_analysis if item.category == TextCategory.SELF_HARM)
        sexual_result = next(item for item in response.categories_analysis if item.category == TextCategory.SEXUAL)
        violence_result = next(item for item in response.categories_analysis if item.category == TextCategory.VIOLENCE)
    
        if hate_result:
            print(f"Hate severity: {hate_result.severity}")
        if self_harm_result:
            print(f"SelfHarm severity: {self_harm_result.severity}")
        if sexual_result:
            print(f"Sexual severity: {sexual_result.severity}")
        if violence_result:
            print(f"Violence severity: {violence_result.severity}")
    
    if __name__ == "__main__":
        analyze_text()
    
  4. "Your input text"을 사용하려는 텍스트 콘텐츠로 바꾸세요.

    텍스트 크기 및 세분성

    텍스트 제출의 기본 최대 길이는 10,000자입니다.

  5. 그런 다음 quickstart 파일의 python 명령을 사용하여 애플리케이션을 실행합니다.

    python quickstart.py
    

참조 설명서 | 라이브러리 소스 코드 | 아티팩트(Maven) | 샘플

필수 조건

  • Azure 구독 - 체험 구독 만들기
  • JDK(Java Development Kit)의 현재 버전
  • Gradle 빌드 도구 또는 다른 종속성 관리자
  • Azure 구독이 있으면 Azure Portal에서 콘텐츠 안전 리소스를 생성하여 키와 엔드포인트를 가져옵니다. 리소스의 고유한 이름을 입력하고, 구독을 선택하고, 리소스 그룹과 지원되는 지역(미국 동부 또는 서유럽), 지원되는 가격 책정 계층을 선택합니다. 다음으로 만들기를 선택합니다.
    • 리소스를 배포하는 데 몇 분 정도 걸립니다. 완료되면 리소스로 이동을 선택합니다. 왼쪽 창의 리소스 관리에서 구독 키 및 엔드포인트를 선택합니다. 엔드포인트와 키 중 하나는 API를 호출하는 데 사용됩니다.

애플리케이션 설정

새 Gradle 프로젝트를 만듭니다.

콘솔 창(예: cmd, PowerShell 또는 Bash)에서 앱에 대한 새 디렉터리를 만들고 이 디렉터리로 이동합니다.

mkdir myapp && cd myapp

작업 디렉터리에서 gradle init 명령을 실행합니다. 이 명령은 build.gradle.kts를 포함하여 런타임에 애플리케이션을 만들고 구성하는 데 사용되는 Gradle용 필수 빌드 파일을 만듭니다.

gradle init --type basic

DSL을 선택하라는 메시지가 표시되면 Kotlin을 선택합니다.

작업 디렉터리에서 다음 명령을 실행하여 프로젝트 원본 폴더를 만듭니다.

mkdir -p src/main/java

새 폴더로 이동하여 ContentSafetyQuickstart.java라는 파일을 만듭니다.

클라이언트 SDK 설치

이 빠른 시작에서는 Gradle 종속성 관리자를 사용합니다. 다른 종속성 관리자에 대한 클라이언트 라이브러리 및 정보는 Maven 중앙 리포지토리에서 찾을 수 있습니다.

build.gradle.kts를 찾고, 원하는 IDE 또는 텍스트 편집기에서 엽니다. 그런 다음, 다음 빌드 구성을 복사합니다. 이 구성은 진입점이 ContentSafetyQuickstart 클래스인 Java 애플리케이션으로 프로젝트를 정의합니다. Azure AI Vision 라이브러리를 가져옵니다.

plugins {
    java
    application
}
application { 
    mainClass.set("ContentSafetyQuickstart")
}
repositories {
    mavenCentral()
}
dependencies {
    implementation(group = "com.azure", name = "azure-ai-contentsafety", version = "1.0.0")
}

환경 변수 만들기

이 예제에서는 애플리케이션을 실행하는 로컬 컴퓨터의 환경 변수에 자격 증명을 작성합니다.

코드에 키를 직접 포함하지 말고 공개적으로 게시하지 마세요. Azure Key Vault와 같은 추가 인증 옵션은 Azure AI 서비스 보안 문서를 참조하세요.

키 및 엔드포인트에 대한 환경 변수를 설정하려면 콘솔 창을 열고 운영 체제 및 개발 환경에 대한 지침을 따릅니다.

  1. CONTENT_SAFETY_KEY 환경 변수를 설정하려면 YOUR_CONTENT_SAFETY_KEY를 리소스에 대한 키 중 하나로 바꿉니다.
  2. CONTENT_SAFETY_ENDPOINT 환경 변수를 설정하려면 YOUR_CONTENT_SAFETY_ENDPOINT를 리소스에 대한 엔드포인트로 바꿉니다.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'

환경 변수가 추가되면 콘솔 창을 포함하여 환경 변수를 읽는 실행 중인 프로그램을 다시 시작해야 할 수 있습니다.

텍스트 콘텐츠 분석

선호하는 편집기 또는 IDE에서 ContentSafetyQuickstart.java 파일을 열고 다음 코드를 붙여넣습니다. <your text sample>을 사용하려는 텍스트 콘텐츠로 바꾸세요.

텍스트 크기 및 세분성

텍스트 제출의 기본 최대 길이는 10,000자입니다.

import com.azure.ai.contentsafety.ContentSafetyClient;
import com.azure.ai.contentsafety.ContentSafetyClientBuilder;
import com.azure.ai.contentsafety.models.AnalyzeTextOptions;
import com.azure.ai.contentsafety.models.AnalyzeTextResult;
import com.azure.ai.contentsafety.models.TextCategoriesAnalysis;
import com.azure.core.credential.KeyCredential;
import com.azure.core.util.Configuration;


public class ContentSafetyQuickstart {
    public static void main(String[] args) {

        // get endpoint and key from environment variables
        String endpoint = System.getenv("CONTENT_SAFETY_ENDPOINT");
        String key = System.getenv("CONTENT_SAFETY_KEY");
        
        ContentSafetyClient contentSafetyClient = new ContentSafetyClientBuilder()
            .credential(new KeyCredential(key))
            .endpoint(endpoint).buildClient();

        AnalyzeTextResult response = contentSafetyClient.analyzeText(new AnalyzeTextOptions("<your text sample>"));

        for (TextCategoriesAnalysis result : response.getCategoriesAnalysis()) {
            System.out.println(result.getCategory() + " severity: " + result.getSeverity());
        }
    }
}

프로젝트 루트 폴더로 돌아가서 다음을 사용하여 앱을 빌드합니다.

gradle build

그런 다음, gradle run 명령을 사용하여 실행합니다.

gradle run

출력

Hate severity: 0
SelfHarm severity: 0
Sexual severity: 0
Violence severity: 0

참조 설명서 | 라이브러리 소스 코드 | 패키지(npm) | 샘플 |

필수 조건

  • Azure 구독 - 체험 구독 만들기
  • 현재 버전의 Node.js
  • Azure 구독이 있으면 Azure Portal에서 콘텐츠 안전 리소스를 생성하여 키와 엔드포인트를 가져옵니다. 리소스의 고유한 이름을 입력하고, 구독을 선택하고, 리소스 그룹과 지원되는 지역(미국 동부 또는 서유럽), 지원되는 가격 책정 계층을 선택합니다. 다음으로 만들기를 선택합니다.
    • 리소스를 배포하는 데 몇 분 정도 걸립니다. 완료되면 리소스로 이동을 선택합니다. 왼쪽 창의 리소스 관리에서 구독 키 및 엔드포인트를 선택합니다. 엔드포인트와 키 중 하나는 API를 호출하는 데 사용됩니다.

애플리케이션 설정

새 Node.js 애플리케이션 만들기 콘솔 창(예: cmd, PowerShell 또는 Bash)에서 앱에 대한 새 디렉터리를 만들고 이 디렉터리로 이동합니다.

mkdir myapp && cd myapp

package.json 파일을 사용하여 노드 애플리케이션을 만들려면 npm init 명령을 실행합니다.

npm init

클라이언트 SDK 설치

@azure-rest/ai-content-safety npm 패키지를 설치합니다.

npm install @azure-rest/ai-content-safety

또한 환경 변수를 사용하도록 dotenv 모듈을 설치합니다.

npm install dotenv

종속성이 있는 앱의 package.json 파일이 업데이트됩니다.

환경 변수 만들기

이 예제에서는 애플리케이션을 실행하는 로컬 컴퓨터의 환경 변수에 자격 증명을 작성합니다.

코드에 키를 직접 포함하지 말고 공개적으로 게시하지 마세요. Azure Key Vault와 같은 추가 인증 옵션은 Azure AI 서비스 보안 문서를 참조하세요.

키 및 엔드포인트에 대한 환경 변수를 설정하려면 콘솔 창을 열고 운영 체제 및 개발 환경에 대한 지침을 따릅니다.

  1. CONTENT_SAFETY_KEY 환경 변수를 설정하려면 YOUR_CONTENT_SAFETY_KEY를 리소스에 대한 키 중 하나로 바꿉니다.
  2. CONTENT_SAFETY_ENDPOINT 환경 변수를 설정하려면 YOUR_CONTENT_SAFETY_ENDPOINT를 리소스에 대한 엔드포인트로 바꿉니다.
setx CONTENT_SAFETY_KEY 'YOUR_CONTENT_SAFETY_KEY'
setx CONTENT_SAFETY_ENDPOINT 'YOUR_CONTENT_SAFETY_ENDPOINT'

환경 변수가 추가되면 콘솔 창을 포함하여 환경 변수를 읽는 실행 중인 프로그램을 다시 시작해야 할 수 있습니다.

텍스트 콘텐츠 분석

디렉터리에 새 파일, index.js를 만듭니다. 선호하는 편집기 또는 IDE에서 이 파일을 열고 다음 코드를 붙여넣습니다. <your text sample>을 사용하려는 텍스트 콘텐츠로 바꾸세요.

텍스트 크기 및 세분성

텍스트 제출의 기본 최대 길이는 10,000자입니다.

const ContentSafetyClient = require("@azure-rest/ai-content-safety").default,
  { isUnexpected } = require("@azure-rest/ai-content-safety");
const { AzureKeyCredential } = require("@azure/core-auth");

// Load the .env file if it exists
require("dotenv").config();

async function main() {
    // get endpoint and key from environment variables
    const endpoint = process.env["CONTENT_SAFETY_ENDPOINT"];
    const key = process.env["CONTENT_SAFETY_KEY"];
    
    const credential = new AzureKeyCredential(key);
    const client = ContentSafetyClient(endpoint, credential);
    
    // replace with your own sample text string 
    const text = "<your sample text>";
    const analyzeTextOption = { text: text };
    const analyzeTextParameters = { body: analyzeTextOption };
    
    const result = await client.path("/text:analyze").post(analyzeTextParameters);
    
    if (isUnexpected(result)) {
        throw result;
    }
    
    for (let i = 0; i < result.body.categoriesAnalysis.length; i++) {
    const textCategoriesAnalysisOutput = result.body.categoriesAnalysis[i];
    console.log(
      textCategoriesAnalysisOutput.category,
      " severity: ",
      textCategoriesAnalysisOutput.severity
    );
  }
}

main().catch((err) => {
    console.error("The sample encountered an error:", err);
});

quickstart 파일의 node 명령을 사용하여 애플리케이션을 실행합니다.

node index.js

출력

Hate severity:  0
SelfHarm severity:  0
Sexual severity:  0
Violence severity:  0

리소스 정리

Azure AI 서비스 구독을 정리하고 제거하려면 리소스 또는 리소스 그룹을 삭제할 수 있습니다. 리소스 그룹을 삭제하면 해당 리소스 그룹에 연결된 다른 모든 리소스가 함께 삭제됩니다.

다음 단계

각 범주에 대한 필터를 구성하고 콘텐츠 안전 스튜디오를 사용하여 데이터 세트에서 테스트하고 코드를 내보내고 배포합니다.