이미지 설명

Azure AI Vision은 이미지를 분석하고 콘텐츠를 설명하며 사람이 읽을 수 있는 구를 생성할 수 있습니다. 알고리즘은 여러 시각적 기능을 기준으로 여러 설명을 반환하며, 각 설명에 신뢰도 점수가 제공됩니다. 최종 출력은 가장 높은 신뢰도부터 가장 낮은 신뢰도 순으로 정렬된 설명 목록입니다.

이 시점에서 이미지 설명에 대해 지원되는 언어는 영어뿐입니다.

Vision Studio를 사용하여 브라우저에서 이미지 캡션 기능을 빠르고 쉽게 사용해 보세요.

이미지 설명 예제

다음 JSON 응답에서는 시각적 기능을 기반으로 이미지 예를 설명할 때 Analyze API가 반환하는 내용을 보여 줍니다.

A black and white picture of buildings in Manhattan

{
   "description":{
      "tags":[
         "outdoor",
         "city",
         "white"
      ],
      "captions":[
         {
            "text":"a city with tall buildings",
            "confidence":0.48468858003616333
         }
      ]
   },
   "requestId":"7e5e5cac-ef16-43ca-a0c4-02bd49d379e9",
   "metadata":{
      "height":300,
      "width":239,
      "format":"Png"
   },
   "modelVersion":"2021-05-01"
}

API 사용

이미지 설명 기능은 Analyze Image API의 일부입니다. 이 API는 네이티브 SDK 또는 REST 호출을 통해 호출할 수 있습니다. visualFeatures 쿼리 매개 변수에 Description를 포함합니다. 그런 다음, 전체 JSON 응답을 받으면 "description" 섹션의 콘텐츠에 대한 문자열을 구문 분석합니다.

다음 단계

이미지에 태그를 지정하고 이미지를 분류하는 것과 관련된 개념을 알아봅니다.