Snabbstart: Azure AI Vision v3.2 GA Read

OCR-utgåvor (läsversioner)

Viktigt!

Välj den Läs-utgåva som passar dina behov bäst.

Indata Exempel Läs utgåva Förmån
Bilder: Allmänna, vilda bilder etiketter, gatuskyltar och affischer OCR för avbildningar (version 4.0) Optimerad för allmänna bilder som inte är dokument med ett prestandaförbättrat synkront API som gör det enklare att bädda in OCR i dina användarupplevelsescenarier.
Dokument: Digital och skannad, inklusive bilder böcker, artiklar och rapporter Läsmodell för dokumentinformation Optimerad för textintensiva genomsökta och digitala dokument med ett asynkront API för att automatisera intelligent dokumentbearbetning i stor skala.

Om Azure AI Vision v3.2 GA Read

Letar du efter den senaste ga-läsningen i Azure AI Vision v3.2? Alla framtida förbättringar av läs-OCR är en del av de två tjänster som listades tidigare. Det finns inga ytterligare uppdateringar av Azure AI Vision v3.2. Mer information finns i Anropa Azure AI Vision 3.2 GA Read API och Snabbstart: Azure AI Vision v3.2 GA Read.

Kom igång med Azure AI Vision Läs REST API eller klientbibliotek. Med Läs-API:et får du AI-algoritmer för att extrahera text från bilder och returnera den som strukturerade strängar. Följ de här stegen för att installera ett paket i ditt program och prova exempelkoden för grundläggande uppgifter.

Använd ocr-klientbiblioteket (optisk teckenigenkänning) för att läsa utskriven och handskriven text från en bild. OCR-tjänsten kan läsa synlig text i en bild och konvertera den till en teckenström. Mer information om textigenkänning finns i OCR-översikten. Koden i det här avsnittet använder det senaste Azure AI Vision-paketet .

Dricks

Du kan också extrahera text från en lokal bild. Se ComputerVisionClient-metoderna, till exempel ReadInStreamAsync. Eller se exempelkoden på GitHub för scenarier med lokala avbildningar.

Referensdokumentation NuGet-exempel (Library Source Code | Package) | |

Förutsättningar

  • En Azure-prenumeration – Skapa en kostnadsfritt.

  • Visual Studio IDE eller den aktuella versionen av .NET Core.

  • En Azure AI Vision-resurs. Du kan använda den kostnadsfria prisnivån (F0) för att prova tjänsten och uppgradera senare till en betald nivå för produktion.

  • Nyckeln och slutpunkten från resursen som du skapar för att ansluta ditt program till Azure AI Vision-tjänsten.

    1. När azure vision-resursen har distribuerats väljer du Gå till resurs.
    2. I den vänstra navigeringsmenyn väljer du Nycklar och Slutpunkt.
    3. Kopiera en av nycklarna och slutpunkten för användning senare i snabbstarten.

Skapa miljövariabler

I det här exemplet skriver du dina autentiseringsuppgifter till miljövariabler på den lokala dator som kör programmet.

Gå till Azure-portalen. Om resursen som du skapade i avsnittet Förutsättningar har distribuerats väljer du Gå till resurs under Nästa steg. Du hittar din nyckel och slutpunkt under Resurshanteringsidan Nycklar och slutpunkt . Resursnyckeln är inte samma som ditt Azure-prenumerations-ID.

Dricks

Inkludera inte nyckeln direkt i koden och publicera den aldrig offentligt. Mer autentiseringsalternativ som Azure Key Vault finns i säkerhetsartikeln för Azure AI-tjänster.

Om du vill ange miljövariabeln för din nyckel och slutpunkt öppnar du ett konsolfönster och följer anvisningarna för operativsystemet och utvecklingsmiljön.

  1. Om du vill ange VISION_KEY miljövariabeln ersätter du your-key med en av nycklarna för resursen.
  2. Om du vill ange VISION_ENDPOINT miljövariabeln ersätter du your-endpoint med slutpunkten för resursen.
setx VISION_KEY your-key
setx VISION_ENDPOINT your-endpoint

När du har lagt till miljövariablerna kan du behöva starta om alla program som körs som läser miljövariablerna, inklusive konsolfönstret.

Läsa utskriven och handskriven text

  1. Skapa ett nytt C#-program.

    Använd Visual Studio och skapa ett konsolappsprojekt (.NET Framework) för C#, Windows, Console.

    När du har skapat ett nytt projekt installerar du klientbiblioteket:

    1. Högerklicka på projektlösningen i Solution Explorer och välj Hantera NuGet-paket för lösning.
    2. I pakethanteraren som öppnas väljer du Bläddra. Välj Inkludera förhandsversion.
    3. Sök efter och välj Microsoft.Azure.CognitiveServices.Vision.ComputerVision.
    4. I informationsdialogrutan väljer du projektet och väljer den senaste stabila versionen. Välj sedan Installera.
  2. Öppna filen Program.cs i önskad redigerare eller IDE från projektkatalogen. Ersätt innehållet i Program.cs med följande kod.

    using System;
    using System.Collections.Generic;
    using Microsoft.Azure.CognitiveServices.Vision.ComputerVision;
    using Microsoft.Azure.CognitiveServices.Vision.ComputerVision.Models;
    using System.Threading.Tasks;
    using System.IO;
    using Newtonsoft.Json;
    using Newtonsoft.Json.Linq;
    using System.Threading;
    using System.Linq;
    
    namespace ComputerVisionQuickstart
    {
        class Program
        {
            // Add your Computer Vision key and endpoint
            static string key = Environment.GetEnvironmentVariable("VISION_KEY");
            static string endpoint = Environment.GetEnvironmentVariable("VISION_ENDPOINT");
    
            private const string READ_TEXT_URL_IMAGE = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/printed_text.jpg";
    
            static void Main(string[] args)
            {
                Console.WriteLine("Azure Cognitive Services Computer Vision - .NET quickstart example");
                Console.WriteLine();
    
                ComputerVisionClient client = Authenticate(endpoint, key);
    
                // Extract text (OCR) from a URL image using the Read API
                ReadFileUrl(client, READ_TEXT_URL_IMAGE).Wait();
            }
    
            public static ComputerVisionClient Authenticate(string endpoint, string key)
            {
                ComputerVisionClient client =
                  new ComputerVisionClient(new ApiKeyServiceClientCredentials(key))
                  { Endpoint = endpoint };
                return client;
            }
    
            public static async Task ReadFileUrl(ComputerVisionClient client, string urlFile)
            {
                Console.WriteLine("----------------------------------------------------------");
                Console.WriteLine("READ FILE FROM URL");
                Console.WriteLine();
    
                // Read text from URL
                var textHeaders = await client.ReadAsync(urlFile);
                // After the request, get the operation location (operation ID)
                string operationLocation = textHeaders.OperationLocation;
                Thread.Sleep(2000);
    
                // Retrieve the URI where the extracted text will be stored from the Operation-Location header.
                // We only need the ID and not the full URL
                const int numberOfCharsInOperationId = 36;
                string operationId = operationLocation.Substring(operationLocation.Length - numberOfCharsInOperationId);
    
                // Extract the text
                ReadOperationResult results;
                Console.WriteLine($"Extracting text from URL file {Path.GetFileName(urlFile)}...");
                Console.WriteLine();
                do
                {
                    results = await client.GetReadResultAsync(Guid.Parse(operationId));
                }
                while ((results.Status == OperationStatusCodes.Running ||
                    results.Status == OperationStatusCodes.NotStarted));
    
                // Display the found text.
                Console.WriteLine();
                var textUrlFileResults = results.AnalyzeResult.ReadResults;
                foreach (ReadResult page in textUrlFileResults)
                {
                    foreach (Line line in page.Lines)
                    {
                        Console.WriteLine(line.Text);
                    }
                }
                Console.WriteLine();
            }
    
        }
    }
    
  3. Som ett valfritt steg kan du läsa Bestämma hur data ska bearbetas. Om du till exempel uttryckligen vill ange den senaste GA-modellen redigerar du anropet ReadAsync som det visas. Hoppa över parametern eller använd "latest" för att använda den senaste GA-modellen.

      // Read text from URL with a specific model version
      var textHeaders = await client.ReadAsync(urlFile,null,null,"2022-04-30");
    
  4. Kör programmet.

    • På felsökningsmenynväljer du Starta felsökning.

Output

Azure AI Vision - .NET quickstart example

----------------------------------------------------------
READ FILE FROM URL

Extracting text from URL file printed_text.jpg...


Nutrition Facts Amount Per Serving
Serving size: 1 bar (40g)
Serving Per Package: 4
Total Fat 13g
Saturated Fat 1.5g
Amount Per Serving
Trans Fat 0g
Calories 190
Cholesterol 0mg
ories from Fat 110
Sodium 20mg
nt Daily Values are based on Vitamin A 50%
calorie diet.

Rensa resurser

Om du vill rensa och ta bort en Azure AI-tjänstprenumeration kan du ta bort resursen eller resursgruppen. Om du tar bort resursgruppen tas även alla andra resurser som är associerade med den bort.

Nästa steg

I den här snabbstarten har du lärt dig hur du installerar OCR-klientbiblioteket och använder Läs-API:et. Läs sedan mer om funktionerna i Läs API.

Använd ocr-klientbiblioteket (optisk teckenigenkänning) för att läsa utskriven och handskriven text från en fjärrbild. OCR-tjänsten kan läsa synlig text i en bild och konvertera den till en teckenström. Mer information om textigenkänning finns i OCR-översikten.

Dricks

Du kan också läsa text från en lokal bild. Se Metoderna ComputerVisionClientOperationsMixin, till exempel read_in_stream. Eller se exempelkoden på GitHub för scenarier med lokala avbildningar.

Exempel på källkodspaket (PiPy) | för referensdokumentation | |

Förutsättningar

  • En Azure-prenumeration – Skapa en kostnadsfritt.

  • Python 3.x.

  • Python-installationen bör innehålla pip. Du kan kontrollera om du har pip installerat och köra pip --version på kommandoraden. Hämta pip genom att installera den senaste versionen av Python.

  • En Azure AI Vision-resurs. Du kan använda den kostnadsfria prisnivån (F0) för att prova tjänsten och uppgradera senare till en betald nivå för produktion.

  • Nyckeln och slutpunkten från resursen som du skapar för att ansluta ditt program till Azure AI Vision-tjänsten.

    1. När azure vision-resursen har distribuerats väljer du Gå till resurs.
    2. I den vänstra navigeringsmenyn väljer du Nycklar och Slutpunkt.
    3. Kopiera en av nycklarna och slutpunkten för användning senare i snabbstarten.

Skapa miljövariabler

I det här exemplet skriver du dina autentiseringsuppgifter till miljövariabler på den lokala dator som kör programmet.

Gå till Azure-portalen. Om resursen som du skapade i avsnittet Förutsättningar har distribuerats väljer du Gå till resurs under Nästa steg. Du hittar din nyckel och slutpunkt under Resurshanteringsidan Nycklar och slutpunkt . Resursnyckeln är inte samma som ditt Azure-prenumerations-ID.

Dricks

Inkludera inte nyckeln direkt i koden och publicera den aldrig offentligt. Mer autentiseringsalternativ som Azure Key Vault finns i säkerhetsartikeln för Azure AI-tjänster.

Om du vill ange miljövariabeln för din nyckel och slutpunkt öppnar du ett konsolfönster och följer anvisningarna för operativsystemet och utvecklingsmiljön.

  1. Om du vill ange VISION_KEY miljövariabeln ersätter du your-key med en av nycklarna för resursen.
  2. Om du vill ange VISION_ENDPOINT miljövariabeln ersätter du your-endpoint med slutpunkten för resursen.
setx VISION_KEY your-key
setx VISION_ENDPOINT your-endpoint

När du har lagt till miljövariablerna kan du behöva starta om alla program som körs som läser miljövariablerna, inklusive konsolfönstret.

Läsa utskriven och handskriven text

  1. Installera klientbiblioteket.

    Kör följande kommando i ett konsolfönster:

    pip install --upgrade azure-cognitiveservices-vision-computervision
    
  2. Installera Pillow-biblioteket.

    pip install pillow
    
  3. Skapa en ny Python-programfil quickstart-file.py. Öppna den sedan i önskad redigerare eller IDE.

  4. Ersätt innehållet i quickstart-file.py med följande kod.

    from azure.cognitiveservices.vision.computervision import ComputerVisionClient
    from azure.cognitiveservices.vision.computervision.models import OperationStatusCodes
    from azure.cognitiveservices.vision.computervision.models import VisualFeatureTypes
    from msrest.authentication import CognitiveServicesCredentials
    
    from array import array
    import os
    from PIL import Image
    import sys
    import time
    
    '''
    Authenticate
    Authenticates your credentials and creates a client.
    '''
    subscription_key = os.environ["VISION_KEY"]
    endpoint = os.environ["VISION_ENDPOINT"]
    
    computervision_client = ComputerVisionClient(endpoint, CognitiveServicesCredentials(subscription_key))
    '''
    END - Authenticate
    '''
    
    '''
    OCR: Read File using the Read API, extract text - remote
    This example will extract text in an image, then print results, line by line.
    This API call can also extract handwriting style text (not shown).
    '''
    print("===== Read File - remote =====")
    # Get an image with text
    read_image_url = "https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png"
    
    # Call API with URL and raw response (allows you to get the operation location)
    read_response = computervision_client.read(read_image_url,  raw=True)
    
    # Get the operation location (URL with an ID at the end) from the response
    read_operation_location = read_response.headers["Operation-Location"]
    # Grab the ID from the URL
    operation_id = read_operation_location.split("/")[-1]
    
    # Call the "GET" API and wait for it to retrieve the results 
    while True:
        read_result = computervision_client.get_read_result(operation_id)
        if read_result.status not in ['notStarted', 'running']:
            break
        time.sleep(1)
    
    # Print the detected text, line by line
    if read_result.status == OperationStatusCodes.succeeded:
        for text_result in read_result.analyze_result.read_results:
            for line in text_result.lines:
                print(line.text)
                print(line.bounding_box)
    print()
    '''
    END - Read File - remote
    '''
    
    print("End of Computer Vision quickstart.")
    
    
  5. Som ett valfritt steg kan du läsa Bestämma hur data ska bearbetas. Om du till exempel uttryckligen vill ange den senaste GA-modellen redigerar du -instruktionen på det read sätt som visas. Om du hoppar över parametern eller använder "latest" automatiskt används den senaste GA-modellen.

       # Call API with URL and raw response (allows you to get the operation location)
       read_response = computervision_client.read(read_image_url,  raw=True, model_version="2022-04-30")
    
  6. Kör programmet med kommandot python på din snabbstartsfil.

    python quickstart-file.py
    

Output

===== Read File - remote =====
The quick brown fox jumps
[38.0, 650.0, 2572.0, 699.0, 2570.0, 854.0, 37.0, 815.0]
Over
[184.0, 1053.0, 508.0, 1044.0, 510.0, 1123.0, 184.0, 1128.0]
the lazy dog!
[639.0, 1011.0, 1976.0, 1026.0, 1974.0, 1158.0, 637.0, 1141.0]

End of Azure AI Vision quickstart.

Rensa resurser

Om du vill rensa och ta bort en Azure AI-tjänstprenumeration kan du ta bort resursen eller resursgruppen. Om du tar bort resursgruppen tas även alla andra resurser som är associerade med den bort.

Nästa steg

I den här snabbstarten har du lärt dig hur du installerar OCR-klientbiblioteket och använder Läs-API:et. Läs sedan mer om funktionerna i Läs API.

Använd ocr-klientbiblioteket (optisk teckenigenkänning) för att läsa utskriven och handskriven text med läs-API:et. OCR-tjänsten kan läsa synlig text i en bild och konvertera den till en teckenström. Mer information om textigenkänning finns i OCR-översikten.

Dricks

Du kan också läsa text från en lokal bild. Se ComputerVisionClient-metoderna, till exempel readInStream. Eller se exempelkoden på GitHub för scenarier med lokala avbildningar.

Referensdokumentation Bibliotek källkodspaket | (npm)Exempel | |

Förutsättningar

  • En Azure-prenumeration – Skapa en kostnadsfritt.

  • Den aktuella versionen av Node.js.

  • En Azure AI Vision-resurs. Du kan använda den kostnadsfria prisnivån (F0) för att prova tjänsten och uppgradera senare till en betald nivå för produktion.

  • Nyckeln och slutpunkten från resursen som du skapar för att ansluta ditt program till Azure AI Vision-tjänsten.

    1. När azure vision-resursen har distribuerats väljer du Gå till resurs.
    2. I den vänstra navigeringsmenyn väljer du Nycklar och Slutpunkt.
    3. Kopiera en av nycklarna och slutpunkten för användning senare i snabbstarten.

Skapa miljövariabler

I det här exemplet skriver du dina autentiseringsuppgifter till miljövariabler på den lokala dator som kör programmet.

Gå till Azure-portalen. Om resursen som du skapade i avsnittet Förutsättningar har distribuerats väljer du Gå till resurs under Nästa steg. Du hittar din nyckel och slutpunkt under Resurshanteringsidan Nycklar och slutpunkt . Resursnyckeln är inte samma som ditt Azure-prenumerations-ID.

Dricks

Inkludera inte nyckeln direkt i koden och publicera den aldrig offentligt. Mer autentiseringsalternativ som Azure Key Vault finns i säkerhetsartikeln för Azure AI-tjänster.

Om du vill ange miljövariabeln för din nyckel och slutpunkt öppnar du ett konsolfönster och följer anvisningarna för operativsystemet och utvecklingsmiljön.

  1. Om du vill ange VISION_KEY miljövariabeln ersätter du your-key med en av nycklarna för resursen.
  2. Om du vill ange VISION_ENDPOINT miljövariabeln ersätter du your-endpoint med slutpunkten för resursen.
setx VISION_KEY your-key
setx VISION_ENDPOINT your-endpoint

När du har lagt till miljövariablerna kan du behöva starta om alla program som körs som läser miljövariablerna, inklusive konsolfönstret.

Läsa utskriven och handskriven text

Skapa ett nytt Node.js-program.

  1. I ett konsolfönster skapar du en ny katalog för din app och navigerar till den.

    mkdir myapp
    cd myapp
    
  2. Kör kommandot npm init för att skapa ett nodprogram med en package.json-fil. Välj Retur för eventuella frågor.

    npm init
    
  3. Installera klientbiblioteket genom att ms-rest-azure installera och @azure/cognitiveservices-computervision npm-paketet:

    npm install ms-rest-azure
    npm install @azure/cognitiveservices-computervision
    
  4. Installera async-modulen:

    npm install async
    

    Appens package.json fil uppdateras med beroendena.

  5. Skapa en ny fil, index.js, och öppna den i en textredigerare.

  6. Klistra in följande kod i filen index.js .

    'use strict';
    
    const async = require('async');
    const fs = require('fs');
    const https = require('https');
    const path = require("path");
    const createReadStream = require('fs').createReadStream
    const sleep = require('util').promisify(setTimeout);
    const ComputerVisionClient = require('@azure/cognitiveservices-computervision').ComputerVisionClient;
    const ApiKeyCredentials = require('@azure/ms-rest-js').ApiKeyCredentials;
    /**
     * AUTHENTICATE
     * This single client is used for all examples.
     */
    const key = process.env.VISION_KEY;
    const endpoint = process.env.VISION_ENDPOINT;
    
    const computerVisionClient = new ComputerVisionClient(
      new ApiKeyCredentials({ inHeader: { 'Ocp-Apim-Subscription-Key': key } }), endpoint);
    /**
     * END - Authenticate
     */
    
    function computerVision() {
      async.series([
        async function () {
    
          /**
           * OCR: READ PRINTED & HANDWRITTEN TEXT WITH THE READ API
           * Extracts text from images using OCR (optical character recognition).
           */
          console.log('-------------------------------------------------');
          console.log('READ PRINTED, HANDWRITTEN TEXT AND PDF');
          console.log();
    
          // URL images containing printed and/or handwritten text. 
          // The URL can point to image files (.jpg/.png/.bmp) or multi-page files (.pdf, .tiff).
          const printedTextSampleURL = 'https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/printed_text.jpg';
    
          // Recognize text in printed image from a URL
          console.log('Read printed text from URL...', printedTextSampleURL.split('/').pop());
          const printedResult = await readTextFromURL(computerVisionClient, printedTextSampleURL);
          printRecText(printedResult);
    
          // Perform read and await the result from URL
          async function readTextFromURL(client, url) {
            // To recognize text in a local image, replace client.read() with readTextInStream() as shown:
            let result = await client.read(url);
            // Operation ID is last path segment of operationLocation (a URL)
            let operation = result.operationLocation.split('/').slice(-1)[0];
    
            // Wait for read recognition to complete
            // result.status is initially undefined, since it's the result of read
            while (result.status !== "succeeded") { await sleep(1000); result = await client.getReadResult(operation); }
            return result.analyzeResult.readResults; // Return the first page of result. Replace [0] with the desired page if this is a multi-page file such as .pdf or .tiff.
          }
    
          // Prints all text from Read result
          function printRecText(readResults) {
            console.log('Recognized text:');
            for (const page in readResults) {
              if (readResults.length > 1) {
                console.log(`==== Page: ${page}`);
              }
              const result = readResults[page];
              if (result.lines.length) {
                for (const line of result.lines) {
                  console.log(line.words.map(w => w.text).join(' '));
                }
              }
              else { console.log('No recognized text.'); }
            }
          }
    
          /**
           * 
           * Download the specified file in the URL to the current local folder
           * 
           */
          function downloadFilesToLocal(url, localFileName) {
            return new Promise((resolve, reject) => {
              console.log('--- Downloading file to local directory from: ' + url);
              const request = https.request(url, (res) => {
                if (res.statusCode !== 200) {
                  console.log(`Download sample file failed. Status code: ${res.statusCode}, Message: ${res.statusMessage}`);
                  reject();
                }
                var data = [];
                res.on('data', (chunk) => {
                  data.push(chunk);
                });
                res.on('end', () => {
                  console.log('   ... Downloaded successfully');
                  fs.writeFileSync(localFileName, Buffer.concat(data));
                  resolve();
                });
              });
              request.on('error', function (e) {
                console.log(e.message);
                reject();
              });
              request.end();
            });
          }
    
          /**
           * END - Recognize Printed & Handwritten Text
           */
          console.log();
          console.log('-------------------------------------------------');
          console.log('End of quickstart.');
    
        },
        function () {
          return new Promise((resolve) => {
            resolve();
          })
        }
      ], (err) => {
        throw (err);
      });
    }
    
    computerVision();
    
  7. Som ett valfritt steg kan du läsa Bestämma hur data ska bearbetas. Om du till exempel uttryckligen vill ange den senaste GA-modellen redigerar du -instruktionen på det read sätt som visas. Om du hoppar över parametern eller använder "latest" automatiskt används den senaste GA-modellen.

      let result = await client.read(url,{modelVersion:"2022-04-30"});
    
  8. Kör programmet med kommandot node på din snabbstartsfil.

    node index.js
    

Output

-------------------------------------------------
READ PRINTED, HANDWRITTEN TEXT AND PDF

Read printed text from URL... printed_text.jpg
Recognized text:
Nutrition Facts Amount Per Serving
Serving size: 1 bar (40g)
Serving Per Package: 4
Total Fat 13g
Saturated Fat 1.5g
Amount Per Serving
Trans Fat 0g
Calories 190
Cholesterol 0mg
ories from Fat 110
Sodium 20mg
nt Daily Values are based on Vitamin A 50%
calorie diet.

-------------------------------------------------
End of quickstart.

Rensa resurser

Om du vill rensa och ta bort en Azure AI-tjänstprenumeration kan du ta bort resursen eller resursgruppen. Om du tar bort resursgruppen tas även alla andra resurser som är associerade med den bort.

Nästa steg

I den här snabbstarten har du lärt dig hur du installerar OCR-klientbiblioteket och använder Läs-API:et. Läs sedan mer om funktionerna i Läs API.

Använd REST-API:et för optisk teckenigenkänning (OCR) för att läsa utskriven och handskriven text.

Kommentar

Den här snabbstarten använder cURL-kommandon för att anropa REST-API:et. Du kan också anropa REST-API:et med hjälp av ett programmeringsspråk. Se GitHub-exempel för exempel i C#, Python, Java och JavaScript.

Förutsättningar

  • En Azure-prenumeration – Skapa en kostnadsfritt.

  • cURL installerat.

  • En Azure AI Vision-resurs. Du kan använda den kostnadsfria prisnivån (F0) för att prova tjänsten och uppgradera senare till en betald nivå för produktion.

  • Nyckeln och slutpunkten från resursen som du skapar för att ansluta ditt program till Azure AI Vision-tjänsten.

    1. När azure vision-resursen har distribuerats väljer du Gå till resurs.
    2. I den vänstra navigeringsmenyn väljer du Nycklar och Slutpunkt.
    3. Kopiera en av nycklarna och slutpunkten för användning senare i snabbstarten.

Läsa utskriven och handskriven text

Tjänsten optisk teckenigenkänning (OCR) kan extrahera synlig text i en bild eller ett dokument och konvertera den till en teckenström. Mer information om extrahering av text finns i OCR-översikten.

Anropa läs-API:et

Så här skapar du och kör exemplet:

  1. Kopiera följande kommando till en textredigerare.

  2. Gör följande ändringar i kommandot där det behövs:

    1. Ersätt värdet <key> för med din nyckel.
    2. Ersätt den första delen av begärande-URL:en (https://westcentralus.api.cognitive.microsoft.com/) med texten i din egen slutpunkts-URL.

      Kommentar

      Nya resurser som skapats efter den 1 juli 2019 använder anpassade underdomännamn. Mer information och en fullständig lista över regionala slutpunkter finns i Anpassade underdomännamn för Azure AI-tjänster.

    3. Du kan också ändra bild-URL:en i begärandetexten (https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png) till URL:en för en annan bild som ska analyseras.
  3. Öppna ett kommandotolksfönster.

  4. Klistra in kommandot från textredigeraren i kommandotolkens fönster och kör sedan kommandot.

curl -v -X POST "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/read/analyze" -H "Content-Type: application/json" -H "Ocp-Apim-Subscription-Key: <subscription key>" --data-ascii "{'url':'https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png'}"

Svaret innehåller en Operation-Location rubrik, vars värde är en unik URL. Du använder den här URL:en för att köra frågor mot resultatet av åtgärden Läs. URL:en upphör att gälla om 48 timmar.

Du kan också ange modellversionen

Som ett valfritt steg kan du läsa Bestämma hur data ska bearbetas. Om du till exempel uttryckligen vill ange den senaste GA-modellen använder du model-version=2022-04-30 som parameter. Om du hoppar över parametern eller använder model-version=latest automatiskt används den senaste GA-modellen.

curl -v -X POST "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/read/analyze?model-version=2022-04-30" -H "Content-Type: application/json" -H "Ocp-Apim-Subscription-Key: <subscription key>" --data-ascii "{'url':'https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png'}"

Hämta läsresultat

  1. Kopiera följande kommando till textredigeraren.

  2. Ersätt URL:en med det Operation-Location värde som du kopierade i föregående procedur.

  3. Ersätt värdet <key> för med din nyckel.

  4. Öppna ett konsolfönster.

  5. Klistra in kommandot från textredigeraren i konsolfönstret och kör sedan kommandot.

    curl -v -X GET "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/read/analyzeResults/{operationId}" -H "Ocp-Apim-Subscription-Key: {key}" --data-ascii "{body}" 
    

Granska svaret

Ett svar som anger att åtgärden lyckades returneras i JSON. Exempelprogrammet parsar och visar ett lyckat svar i konsolfönstret enligt följande exempel:

{
  "status": "succeeded",
  "createdDateTime": "2021-04-08T21:56:17.6819115+00:00",
  "lastUpdatedDateTime": "2021-04-08T21:56:18.4161316+00:00",
  "analyzeResult": {
    "version": "3.2",
    "readResults": [
      {
        "page": 1,
        "angle": 0,
        "width": 338,
        "height": 479,
        "unit": "pixel",
        "lines": [
          {
            "boundingBox": [
              25,
              14,
              318,
              14,
              318,
              59,
              25,
              59
            ],
            "text": "NOTHING",
            "appearance": {
              "style": {
                "name": "other",
                "confidence": 0.971
              }
            },
            "words": [
              {
                "boundingBox": [
                  27,
                  15,
                  294,
                  15,
                  294,
                  60,
                  27,
                  60
                ],
                "text": "NOTHING",
                "confidence": 0.994
              }
            ]
          }
        ]
      }
    ]
  }
}

Rensa resurser

Om du vill rensa och ta bort en Azure AI-tjänstprenumeration kan du ta bort resursen eller resursgruppen. Om du tar bort resursgruppen tas även alla andra resurser som är associerade med den bort.

Nästa steg

I den här snabbstarten har du lärt dig hur du anropar Rest-API:et för läsning. Läs sedan mer om funktionerna i Läs API.

Förutsättningar

  • En Azure-prenumeration – Skapa en kostnadsfritt.

  • En Azure AI Vision-resurs. Du kan använda den kostnadsfria prisnivån (F0) för att prova tjänsten och uppgradera senare till en betald nivå för produktion.

  • Anslut till Vision Studio.

    • Du kan behöva logga in.
    • När du har loggat in väljer du Visa alla resurser. Om det behövs väljer du Uppdatera. Kontrollera att resursen är tillgänglig.

    Mer information finns i Komma igång med Vision Studio.

Läsa utskriven och handskriven text

  1. Under Optisk teckenigenkänning väljer du Extrahera text från bilder.

  2. Under Testa bekräftar du att den här demonstrationen medför användning av ditt Azure-konto. Mer information finns i Prissättning för Azure AI Vision.

  3. Välj en bild från den tillgängliga uppsättningen eller ladda upp en egen.

  4. Om det behövs väljer du Välj en resurs för att välja din resurs.

    När du har valt din bild visas den extraherade texten i utdatafönstret. Du kan också välja fliken JSON för att se JSON-utdata som API-anropet returnerar.

Under try-it-out-upplevelsen finns nästa steg för att börja använda den här funktionen i ditt eget program.

Nästa steg

I den här snabbstarten använde du Vision Studio för att komma åt läs-API:et. Läs sedan mer om funktionerna i Läs API.