Quickstart: Algemene beschikbaarheid van Azure AI Vision v3.2

OCR-edities (Lezen)

Belangrijk

Selecteer de Read-editie die het beste past bij uw vereisten.

Invoer Voorbeelden Leeseditie Voordeel
Afbeeldingen: Algemeen, in-the-wild afbeeldingen labels, straatborden en posters OCR voor installatiekopieën (versie 4.0) Geoptimaliseerd voor algemene, niet-documentafbeeldingen met een synchrone API met verbeterde prestaties, waardoor ocr eenvoudiger kan worden ingesloten in uw gebruikerservaringsscenario's.
Documenten: Digitaal en gescand, inclusief afbeeldingen boeken, artikelen en rapporten Document Intelligence-leesmodel Geoptimaliseerd voor tekstzware gescande en digitale documenten met een asynchrone API om intelligente documentverwerking op schaal te automatiseren.

Algemene beschikbaarheid van Azure AI Vision v3.2

Bent u op zoek naar de meest recente algemene beschikbaarheid van Azure AI Vision v3.2? Alle toekomstige verbeteringen voor lees-OCR maken deel uit van de twee services die eerder zijn vermeld. Er zijn geen verdere updates voor Azure AI Vision v3.2. Zie Voor meer informatie de Lees-API en quickstart van Azure AI Vision 3.2 aanroepen: Lees-API voor Azure AI Vision v3.2.

Aan de slag met de Azure AI Vision Read REST API of clientbibliotheken. De Read-API biedt AI-algoritmen voor het extraheren van tekst uit afbeeldingen en het retourneren als gestructureerde tekenreeksen. Volg deze stappen om een pakket in uw toepassing te installeren en de voorbeeldcode voor basistaken te proberen.

Gebruik de OCR-clientbibliotheek (Optical Character Recognition) om gedrukte en handgeschreven tekst uit een afbeelding te lezen. De OCR-service kan zichtbare tekst in een afbeelding lezen en deze converteren naar een tekenstroom. Zie het OCR-overzicht voor meer informatie over tekstherkenning. De code in deze sectie maakt gebruik van het nieuwste Azure AI Vision-pakket .

Tip

U kunt ook tekst extraheren uit een lokale afbeelding. Zie de ComputerVisionClient-methoden, zoals ReadInStreamAsync. Of bekijk de voorbeeldcode op GitHub voor scenario's met betrekking tot lokale afbeeldingen.

Referentiedocumentatie | Broncode van bibliotheek | Pakket (NuGet) | Voorbeelden

Vereisten

  • Een Azure-abonnement: maak er gratis een.

  • De Visual Studio IDE of de huidige versie van .NET Core.

  • Een Azure AI Vision-resource. U kunt de gratis prijscategorie (F0) gebruiken om de service uit te proberen, en later upgraden naar een betaalde laag voor productie.

  • De sleutel en het eindpunt van de resource die u maakt om uw toepassing te verbinden met de Azure AI Vision-service.

    1. Nadat uw Azure Vision-resource is geïmplementeerd, selecteert u Ga naar de resource.
    2. Selecteer sleutels en eindpunt in het linkernavigatiemenu.
    3. Kopieer een van de sleutels en het eindpunt voor later gebruik in de quickstart.

Omgevingsvariabelen maken

In dit voorbeeld schrijft u uw referenties naar omgevingsvariabelen op de lokale computer waarop de toepassing wordt uitgevoerd.

Ga naar de Azure-portal. Als de resource die u hebt gemaakt in de sectie Vereisten is geïmplementeerd, selecteert u Ga naar de resource onder Volgende stappen. U vindt uw sleutel en eindpunt onder Resourcebeheer op de pagina Sleutels en Eindpunt. Uw resourcesleutel is niet hetzelfde als uw Azure-abonnements-id.

Tip

Neem de sleutel niet rechtstreeks op in uw code en plaats deze nooit openbaar. Zie het beveiligingsartikel over Azure AI-services voor meer verificatieopties, zoals Azure Key Vault.

Als u de omgevingsvariabele voor uw sleutel en eindpunt wilt instellen, opent u een consolevenster en volgt u de instructies voor uw besturingssysteem en ontwikkelomgeving.

  1. Als u de VISION_KEY omgevingsvariabele wilt instellen, vervangt u deze door your-key een van de sleutels voor uw resource.
  2. Als u de VISION_ENDPOINT omgevingsvariabele wilt instellen, vervangt your-endpoint u het eindpunt voor uw resource.
setx VISION_KEY your-key
setx VISION_ENDPOINT your-endpoint

Nadat u de omgevingsvariabelen hebt toegevoegd, moet u mogelijk alle actieve programma's die de omgevingsvariabelen lezen, met inbegrip van het consolevenster, opnieuw opstarten.

Afgedrukte en handgeschreven tekst lezen

  1. Maak een nieuwe C#-toepassing.

    Maak met Visual Studio een console-appproject (.NET Framework) voor C#, Windows, Console.

    Nadat u een nieuw project hebt gemaakt, installeert u de clientbibliotheek:

    1. Klik met de rechtermuisknop op de projectoplossing in Solution Explorer en selecteer NuGet-pakketten beheren voor oplossing.
    2. Selecteer Bladeren in pakketbeheer dat wordt geopend. Selecteer Prerelease opnemen.
    3. Zoek en selecteer Microsoft.Azure.CognitiveServices.Vision.ComputerVision.
    4. Selecteer uw project in het dialoogvenster Details en selecteer de meest recente stabiele versie. Selecteer vervolgens Installeren.
  2. Open vanuit de projectmap het bestand Program.cs in uw favoriete editor of IDE. Vervang de inhoud van Program.cs door de volgende code.

    using System;
    using System.Collections.Generic;
    using Microsoft.Azure.CognitiveServices.Vision.ComputerVision;
    using Microsoft.Azure.CognitiveServices.Vision.ComputerVision.Models;
    using System.Threading.Tasks;
    using System.IO;
    using Newtonsoft.Json;
    using Newtonsoft.Json.Linq;
    using System.Threading;
    using System.Linq;
    
    namespace ComputerVisionQuickstart
    {
        class Program
        {
            // Add your Computer Vision key and endpoint
            static string key = Environment.GetEnvironmentVariable("VISION_KEY");
            static string endpoint = Environment.GetEnvironmentVariable("VISION_ENDPOINT");
    
            private const string READ_TEXT_URL_IMAGE = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/printed_text.jpg";
    
            static void Main(string[] args)
            {
                Console.WriteLine("Azure Cognitive Services Computer Vision - .NET quickstart example");
                Console.WriteLine();
    
                ComputerVisionClient client = Authenticate(endpoint, key);
    
                // Extract text (OCR) from a URL image using the Read API
                ReadFileUrl(client, READ_TEXT_URL_IMAGE).Wait();
            }
    
            public static ComputerVisionClient Authenticate(string endpoint, string key)
            {
                ComputerVisionClient client =
                  new ComputerVisionClient(new ApiKeyServiceClientCredentials(key))
                  { Endpoint = endpoint };
                return client;
            }
    
            public static async Task ReadFileUrl(ComputerVisionClient client, string urlFile)
            {
                Console.WriteLine("----------------------------------------------------------");
                Console.WriteLine("READ FILE FROM URL");
                Console.WriteLine();
    
                // Read text from URL
                var textHeaders = await client.ReadAsync(urlFile);
                // After the request, get the operation location (operation ID)
                string operationLocation = textHeaders.OperationLocation;
                Thread.Sleep(2000);
    
                // Retrieve the URI where the extracted text will be stored from the Operation-Location header.
                // We only need the ID and not the full URL
                const int numberOfCharsInOperationId = 36;
                string operationId = operationLocation.Substring(operationLocation.Length - numberOfCharsInOperationId);
    
                // Extract the text
                ReadOperationResult results;
                Console.WriteLine($"Extracting text from URL file {Path.GetFileName(urlFile)}...");
                Console.WriteLine();
                do
                {
                    results = await client.GetReadResultAsync(Guid.Parse(operationId));
                }
                while ((results.Status == OperationStatusCodes.Running ||
                    results.Status == OperationStatusCodes.NotStarted));
    
                // Display the found text.
                Console.WriteLine();
                var textUrlFileResults = results.AnalyzeResult.ReadResults;
                foreach (ReadResult page in textUrlFileResults)
                {
                    foreach (Line line in page.Lines)
                    {
                        Console.WriteLine(line.Text);
                    }
                }
                Console.WriteLine();
            }
    
        }
    }
    
  3. Zie Bepalen hoe de gegevens moeten worden verwerkt als een optionele stap. Als u bijvoorbeeld expliciet het meest recente GA-model wilt opgeven, bewerkt u de ReadAsync aanroep zoals wordt weergegeven. Sla de parameter over of gebruik "latest" deze om het meest recente GA-model te gebruiken.

      // Read text from URL with a specific model version
      var textHeaders = await client.ReadAsync(urlFile,null,null,"2022-04-30");
    
  4. Voer de toepassing uit.

    • Selecteer foutopsporing starten in het menu Foutopsporing.

Uitvoer

Azure AI Vision - .NET quickstart example

----------------------------------------------------------
READ FILE FROM URL

Extracting text from URL file printed_text.jpg...


Nutrition Facts Amount Per Serving
Serving size: 1 bar (40g)
Serving Per Package: 4
Total Fat 13g
Saturated Fat 1.5g
Amount Per Serving
Trans Fat 0g
Calories 190
Cholesterol 0mg
ories from Fat 110
Sodium 20mg
nt Daily Values are based on Vitamin A 50%
calorie diet.

Resources opschonen

Als u een Azure AI-servicesabonnement wilt opschonen en verwijderen, kunt u de resource of resourcegroep verwijderen. Als u de resourcegroep verwijdert, worden ook alle bijbehorende resources verwijderd.

Volgende stappen

In deze quickstart hebt u geleerd hoe u de OCR-clientbibliotheek installeert en de Lees-API gebruikt. Hierna vindt u meer informatie over de read-API-functies.

Gebruik de OCR-clientbibliotheek (Optical Character Recognition) om gedrukte en handgeschreven tekst van een externe afbeelding te lezen. De OCR-service kan zichtbare tekst in een afbeelding lezen en deze converteren naar een tekenstroom. Zie het OCR-overzicht voor meer informatie over tekstherkenning.

Tip

U kunt ook tekst lezen uit een lokale afbeelding. Zie de ComputerVisionClientOperationsMixin-methoden, bijvoorbeeld read_in_stream. Of bekijk de voorbeeldcode op GitHub voor scenario's met betrekking tot lokale afbeeldingen.

Referentiedocumentatie | Broncode bibliotheek | Package (PiPy) | Voorbeelden

Vereisten

  • Een Azure-abonnement: maak er gratis een.

  • Python 3.x.

  • Uw Python-installatie moet pip bevatten. U kunt controleren of pip is geïnstalleerd en uitgevoerd pip --version op de opdrachtregel. Haal pip op door de nieuwste versie van Python te installeren.

  • Een Azure AI Vision-resource. U kunt de gratis prijscategorie (F0) gebruiken om de service uit te proberen, en later upgraden naar een betaalde laag voor productie.

  • De sleutel en het eindpunt van de resource die u maakt om uw toepassing te verbinden met de Azure AI Vision-service.

    1. Nadat uw Azure Vision-resource is geïmplementeerd, selecteert u Ga naar de resource.
    2. Selecteer sleutels en eindpunt in het linkernavigatiemenu.
    3. Kopieer een van de sleutels en het eindpunt voor later gebruik in de quickstart.

Omgevingsvariabelen maken

In dit voorbeeld schrijft u uw referenties naar omgevingsvariabelen op de lokale computer waarop de toepassing wordt uitgevoerd.

Ga naar de Azure-portal. Als de resource die u hebt gemaakt in de sectie Vereisten is geïmplementeerd, selecteert u Ga naar de resource onder Volgende stappen. U vindt uw sleutel en eindpunt onder Resourcebeheer op de pagina Sleutels en Eindpunt. Uw resourcesleutel is niet hetzelfde als uw Azure-abonnements-id.

Tip

Neem de sleutel niet rechtstreeks op in uw code en plaats deze nooit openbaar. Zie het beveiligingsartikel over Azure AI-services voor meer verificatieopties, zoals Azure Key Vault.

Als u de omgevingsvariabele voor uw sleutel en eindpunt wilt instellen, opent u een consolevenster en volgt u de instructies voor uw besturingssysteem en ontwikkelomgeving.

  1. Als u de VISION_KEY omgevingsvariabele wilt instellen, vervangt u deze door your-key een van de sleutels voor uw resource.
  2. Als u de VISION_ENDPOINT omgevingsvariabele wilt instellen, vervangt your-endpoint u het eindpunt voor uw resource.
setx VISION_KEY your-key
setx VISION_ENDPOINT your-endpoint

Nadat u de omgevingsvariabelen hebt toegevoegd, moet u mogelijk alle actieve programma's die de omgevingsvariabelen lezen, met inbegrip van het consolevenster, opnieuw opstarten.

Afgedrukte en handgeschreven tekst lezen

  1. Installeer de clientbibliotheek.

    Voer in een consolevenster de volgende opdracht uit:

    pip install --upgrade azure-cognitiveservices-vision-computervision
    
  2. Installeer de Pillow-bibliotheek.

    pip install pillow
    
  3. Maak een nieuw Python-toepassingsbestand quickstart-file.py. Open deze vervolgens in uw favoriete editor of IDE.

  4. Vervang de inhoud van quickstart-file.py door de volgende code.

    from azure.cognitiveservices.vision.computervision import ComputerVisionClient
    from azure.cognitiveservices.vision.computervision.models import OperationStatusCodes
    from azure.cognitiveservices.vision.computervision.models import VisualFeatureTypes
    from msrest.authentication import CognitiveServicesCredentials
    
    from array import array
    import os
    from PIL import Image
    import sys
    import time
    
    '''
    Authenticate
    Authenticates your credentials and creates a client.
    '''
    subscription_key = os.environ["VISION_KEY"]
    endpoint = os.environ["VISION_ENDPOINT"]
    
    computervision_client = ComputerVisionClient(endpoint, CognitiveServicesCredentials(subscription_key))
    '''
    END - Authenticate
    '''
    
    '''
    OCR: Read File using the Read API, extract text - remote
    This example will extract text in an image, then print results, line by line.
    This API call can also extract handwriting style text (not shown).
    '''
    print("===== Read File - remote =====")
    # Get an image with text
    read_image_url = "https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png"
    
    # Call API with URL and raw response (allows you to get the operation location)
    read_response = computervision_client.read(read_image_url,  raw=True)
    
    # Get the operation location (URL with an ID at the end) from the response
    read_operation_location = read_response.headers["Operation-Location"]
    # Grab the ID from the URL
    operation_id = read_operation_location.split("/")[-1]
    
    # Call the "GET" API and wait for it to retrieve the results 
    while True:
        read_result = computervision_client.get_read_result(operation_id)
        if read_result.status not in ['notStarted', 'running']:
            break
        time.sleep(1)
    
    # Print the detected text, line by line
    if read_result.status == OperationStatusCodes.succeeded:
        for text_result in read_result.analyze_result.read_results:
            for line in text_result.lines:
                print(line.text)
                print(line.bounding_box)
    print()
    '''
    END - Read File - remote
    '''
    
    print("End of Computer Vision quickstart.")
    
    
  5. Zie Bepalen hoe de gegevens moeten worden verwerkt als een optionele stap. Als u bijvoorbeeld expliciet het meest recente GA-model wilt opgeven, bewerkt u de read instructie zoals wordt weergegeven. Het overslaan van de parameter of het automatisch gebruiken van "latest" het meest recente GA-model.

       # Call API with URL and raw response (allows you to get the operation location)
       read_response = computervision_client.read(read_image_url,  raw=True, model_version="2022-04-30")
    
  6. Voer de toepassing uit met de opdracht python in uw quickstart-bestand.

    python quickstart-file.py
    

Uitvoer

===== Read File - remote =====
The quick brown fox jumps
[38.0, 650.0, 2572.0, 699.0, 2570.0, 854.0, 37.0, 815.0]
Over
[184.0, 1053.0, 508.0, 1044.0, 510.0, 1123.0, 184.0, 1128.0]
the lazy dog!
[639.0, 1011.0, 1976.0, 1026.0, 1974.0, 1158.0, 637.0, 1141.0]

End of Azure AI Vision quickstart.

Resources opschonen

Als u een Azure AI-servicesabonnement wilt opschonen en verwijderen, kunt u de resource of resourcegroep verwijderen. Als u de resourcegroep verwijdert, worden ook alle bijbehorende resources verwijderd.

Volgende stappen

In deze quickstart hebt u geleerd hoe u de OCR-clientbibliotheek installeert en de Lees-API gebruikt. Hierna vindt u meer informatie over de read-API-functies.

Gebruik de OCR-clientbibliotheek (Optical Character Recognition) om gedrukte en handgeschreven tekst te lezen met de Read-API. De OCR-service kan zichtbare tekst in een afbeelding lezen en deze converteren naar een tekenstroom. Zie het OCR-overzicht voor meer informatie over tekstherkenning.

Tip

U kunt ook tekst lezen uit een lokale afbeelding. Zie de ComputerVisionClient-methoden, bijvoorbeeld readInStream. Of bekijk de voorbeeldcode op GitHub voor scenario's met betrekking tot lokale afbeeldingen.

Referentiedocumentatie | Bibliotheekbroncode | Pakket (npm) | Voorbeelden

Vereisten

  • Een Azure-abonnement: maak er gratis een.

  • De huidige versie van Node.js.

  • Een Azure AI Vision-resource. U kunt de gratis prijscategorie (F0) gebruiken om de service uit te proberen, en later upgraden naar een betaalde laag voor productie.

  • De sleutel en het eindpunt van de resource die u maakt om uw toepassing te verbinden met de Azure AI Vision-service.

    1. Nadat uw Azure Vision-resource is geïmplementeerd, selecteert u Ga naar de resource.
    2. Selecteer sleutels en eindpunt in het linkernavigatiemenu.
    3. Kopieer een van de sleutels en het eindpunt voor later gebruik in de quickstart.

Omgevingsvariabelen maken

In dit voorbeeld schrijft u uw referenties naar omgevingsvariabelen op de lokale computer waarop de toepassing wordt uitgevoerd.

Ga naar de Azure-portal. Als de resource die u hebt gemaakt in de sectie Vereisten is geïmplementeerd, selecteert u Ga naar de resource onder Volgende stappen. U vindt uw sleutel en eindpunt onder Resourcebeheer op de pagina Sleutels en Eindpunt. Uw resourcesleutel is niet hetzelfde als uw Azure-abonnements-id.

Tip

Neem de sleutel niet rechtstreeks op in uw code en plaats deze nooit openbaar. Zie het beveiligingsartikel over Azure AI-services voor meer verificatieopties, zoals Azure Key Vault.

Als u de omgevingsvariabele voor uw sleutel en eindpunt wilt instellen, opent u een consolevenster en volgt u de instructies voor uw besturingssysteem en ontwikkelomgeving.

  1. Als u de VISION_KEY omgevingsvariabele wilt instellen, vervangt u deze door your-key een van de sleutels voor uw resource.
  2. Als u de VISION_ENDPOINT omgevingsvariabele wilt instellen, vervangt your-endpoint u het eindpunt voor uw resource.
setx VISION_KEY your-key
setx VISION_ENDPOINT your-endpoint

Nadat u de omgevingsvariabelen hebt toegevoegd, moet u mogelijk alle actieve programma's die de omgevingsvariabelen lezen, met inbegrip van het consolevenster, opnieuw opstarten.

Afgedrukte en handgeschreven tekst lezen

Een nieuwe Node.js-toepassing maken.

  1. Maak in een consolevenster een nieuwe map voor uw app en navigeer ernaartoe.

    mkdir myapp
    cd myapp
    
  2. Voer de opdracht npm init uit om een knooppunttoepassing te maken met een package.json-bestand. Selecteer Enter voor prompts.

    npm init
    
  3. Als u de clientbibliotheek wilt installeren, installeert u het ms-rest-azure npm-pakket en @azure/cognitiveservices-computervision het npm-pakket:

    npm install ms-rest-azure
    npm install @azure/cognitiveservices-computervision
    
  4. Installeer de asynchrone module:

    npm install async
    

    Het package.json-bestand van uw app wordt bijgewerkt met de afhankelijkheden.

  5. Maak een nieuw bestand, index.js en open dit in een tekstbewerkingsprogramma.

  6. Plak de volgende code in uw index.js-bestand .

    'use strict';
    
    const async = require('async');
    const fs = require('fs');
    const https = require('https');
    const path = require("path");
    const createReadStream = require('fs').createReadStream
    const sleep = require('util').promisify(setTimeout);
    const ComputerVisionClient = require('@azure/cognitiveservices-computervision').ComputerVisionClient;
    const ApiKeyCredentials = require('@azure/ms-rest-js').ApiKeyCredentials;
    /**
     * AUTHENTICATE
     * This single client is used for all examples.
     */
    const key = process.env.VISION_KEY;
    const endpoint = process.env.VISION_ENDPOINT;
    
    const computerVisionClient = new ComputerVisionClient(
      new ApiKeyCredentials({ inHeader: { 'Ocp-Apim-Subscription-Key': key } }), endpoint);
    /**
     * END - Authenticate
     */
    
    function computerVision() {
      async.series([
        async function () {
    
          /**
           * OCR: READ PRINTED & HANDWRITTEN TEXT WITH THE READ API
           * Extracts text from images using OCR (optical character recognition).
           */
          console.log('-------------------------------------------------');
          console.log('READ PRINTED, HANDWRITTEN TEXT AND PDF');
          console.log();
    
          // URL images containing printed and/or handwritten text. 
          // The URL can point to image files (.jpg/.png/.bmp) or multi-page files (.pdf, .tiff).
          const printedTextSampleURL = 'https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/printed_text.jpg';
    
          // Recognize text in printed image from a URL
          console.log('Read printed text from URL...', printedTextSampleURL.split('/').pop());
          const printedResult = await readTextFromURL(computerVisionClient, printedTextSampleURL);
          printRecText(printedResult);
    
          // Perform read and await the result from URL
          async function readTextFromURL(client, url) {
            // To recognize text in a local image, replace client.read() with readTextInStream() as shown:
            let result = await client.read(url);
            // Operation ID is last path segment of operationLocation (a URL)
            let operation = result.operationLocation.split('/').slice(-1)[0];
    
            // Wait for read recognition to complete
            // result.status is initially undefined, since it's the result of read
            while (result.status !== "succeeded") { await sleep(1000); result = await client.getReadResult(operation); }
            return result.analyzeResult.readResults; // Return the first page of result. Replace [0] with the desired page if this is a multi-page file such as .pdf or .tiff.
          }
    
          // Prints all text from Read result
          function printRecText(readResults) {
            console.log('Recognized text:');
            for (const page in readResults) {
              if (readResults.length > 1) {
                console.log(`==== Page: ${page}`);
              }
              const result = readResults[page];
              if (result.lines.length) {
                for (const line of result.lines) {
                  console.log(line.words.map(w => w.text).join(' '));
                }
              }
              else { console.log('No recognized text.'); }
            }
          }
    
          /**
           * 
           * Download the specified file in the URL to the current local folder
           * 
           */
          function downloadFilesToLocal(url, localFileName) {
            return new Promise((resolve, reject) => {
              console.log('--- Downloading file to local directory from: ' + url);
              const request = https.request(url, (res) => {
                if (res.statusCode !== 200) {
                  console.log(`Download sample file failed. Status code: ${res.statusCode}, Message: ${res.statusMessage}`);
                  reject();
                }
                var data = [];
                res.on('data', (chunk) => {
                  data.push(chunk);
                });
                res.on('end', () => {
                  console.log('   ... Downloaded successfully');
                  fs.writeFileSync(localFileName, Buffer.concat(data));
                  resolve();
                });
              });
              request.on('error', function (e) {
                console.log(e.message);
                reject();
              });
              request.end();
            });
          }
    
          /**
           * END - Recognize Printed & Handwritten Text
           */
          console.log();
          console.log('-------------------------------------------------');
          console.log('End of quickstart.');
    
        },
        function () {
          return new Promise((resolve) => {
            resolve();
          })
        }
      ], (err) => {
        throw (err);
      });
    }
    
    computerVision();
    
  7. Zie Bepalen hoe de gegevens moeten worden verwerkt als een optionele stap. Als u bijvoorbeeld expliciet het meest recente GA-model wilt opgeven, bewerkt u de read instructie zoals wordt weergegeven. Het overslaan van de parameter of het automatisch gebruiken van "latest" het meest recente GA-model.

      let result = await client.read(url,{modelVersion:"2022-04-30"});
    
  8. Voer de toepassing uit met de opdracht node in uw quickstart-bestand.

    node index.js
    

Uitvoer

-------------------------------------------------
READ PRINTED, HANDWRITTEN TEXT AND PDF

Read printed text from URL... printed_text.jpg
Recognized text:
Nutrition Facts Amount Per Serving
Serving size: 1 bar (40g)
Serving Per Package: 4
Total Fat 13g
Saturated Fat 1.5g
Amount Per Serving
Trans Fat 0g
Calories 190
Cholesterol 0mg
ories from Fat 110
Sodium 20mg
nt Daily Values are based on Vitamin A 50%
calorie diet.

-------------------------------------------------
End of quickstart.

Resources opschonen

Als u een Azure AI-servicesabonnement wilt opschonen en verwijderen, kunt u de resource of resourcegroep verwijderen. Als u de resourcegroep verwijdert, worden ook alle bijbehorende resources verwijderd.

Volgende stappen

In deze quickstart hebt u geleerd hoe u de OCR-clientbibliotheek installeert en de Lees-API gebruikt. Hierna vindt u meer informatie over de read-API-functies.

Gebruik de OCR REST API (Optical Character Recognition) om gedrukte en handgeschreven tekst te lezen.

Notitie

In deze quickstart wordt gebruik gemaakt van cURL-opdrachten om de REST API aan te roepen. U kunt de REST API ook aanroepen met behulp van een programmeertaal. Zie de GitHub-voorbeelden voor voorbeelden in C#, Python, Java en JavaScript.

Vereisten

  • Een Azure-abonnement: maak er gratis een.

  • cURL geïnstalleerd.

  • Een Azure AI Vision-resource. U kunt de gratis prijscategorie (F0) gebruiken om de service uit te proberen, en later upgraden naar een betaalde laag voor productie.

  • De sleutel en het eindpunt van de resource die u maakt om uw toepassing te verbinden met de Azure AI Vision-service.

    1. Nadat uw Azure Vision-resource is geïmplementeerd, selecteert u Ga naar de resource.
    2. Selecteer sleutels en eindpunt in het linkernavigatiemenu.
    3. Kopieer een van de sleutels en het eindpunt voor later gebruik in de quickstart.

Afgedrukte en handgeschreven tekst lezen

De OCR-service (Optical Character Recognition) kan zichtbare tekst extraheren in een afbeelding of document en deze converteren naar een tekenstroom. Zie het OCR-overzicht voor meer informatie over tekstextractie.

De Read-API aanroepen

U kunt het voorbeeld maken en uitvoeren aan de hand van de volgende stappen:

  1. Kopieer de volgende opdracht naar een teksteditor.

  2. Breng waar nodig de volgende wijzigingen in de opdracht aan:

    1. Vervang de waarde door <key> uw sleutel.
    2. Vervang het eerste deel van de aanvraag-URL (https://westcentralus.api.cognitive.microsoft.com/) door de tekst in uw eigen eindpunt-URL.

      Notitie

      Nieuwe resources die zijn gemaakt na 1 juli 2019, hebben aangepaste subdomeinnamen. Zie Aangepaste subdomeinnamen voor Azure AI-services voor meer informatie en een volledige lijst met regionale eindpunten.

    3. Wijzig eventueel de afbeeldings-URL in de aanvraagtekst (https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png) naar de URL van een andere afbeelding die u wilt analyseren.
  3. Open een opdrachtpromptvenster.

  4. Plak de opdracht van de teksteditor in het opdrachtpromptvenster en voer de opdracht uit.

curl -v -X POST "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/read/analyze" -H "Content-Type: application/json" -H "Ocp-Apim-Subscription-Key: <subscription key>" --data-ascii "{'url':'https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png'}"

Het antwoord bevat een Operation-Location header, waarvan de waarde een unieke URL is. U gebruikt deze URL om de resultaten van de leesbewerking op te vragen. Een URL verloopt binnen 48 uur.

Geef desgewenst de modelversie op

Zie Bepalen hoe de gegevens moeten worden verwerkt als een optionele stap. Als u bijvoorbeeld expliciet het meest recente GA-model wilt opgeven, gebruikt model-version=2022-04-30 u deze als parameter. Het overslaan van de parameter of het automatisch gebruiken van model-version=latest het meest recente GA-model.

curl -v -X POST "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/read/analyze?model-version=2022-04-30" -H "Content-Type: application/json" -H "Ocp-Apim-Subscription-Key: <subscription key>" --data-ascii "{'url':'https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png'}"

Leesresultaten ophalen

  1. Kopieer de volgende opdracht naar een teksteditor.

  2. Vervang de URL door de Operation-Location waarde die u in de vorige procedure hebt gekopieerd.

  3. Vervang de waarde door <key> uw sleutel.

  4. Open een consolevenster.

  5. Plak de opdracht uit de teksteditor in het consolevenster en voer de opdracht uit.

    curl -v -X GET "https://westcentralus.api.cognitive.microsoft.com/vision/v3.2/read/analyzeResults/{operationId}" -H "Ocp-Apim-Subscription-Key: {key}" --data-ascii "{body}" 
    

Het antwoord bekijken

Een geslaagd antwoord wordt geretourneerd in JSON-indeling. De voorbeeldtoepassing parseert en geeft een geslaagd antwoord weer in het consolevenster dat vergelijkbaar is met het volgende voorbeeld:

{
  "status": "succeeded",
  "createdDateTime": "2021-04-08T21:56:17.6819115+00:00",
  "lastUpdatedDateTime": "2021-04-08T21:56:18.4161316+00:00",
  "analyzeResult": {
    "version": "3.2",
    "readResults": [
      {
        "page": 1,
        "angle": 0,
        "width": 338,
        "height": 479,
        "unit": "pixel",
        "lines": [
          {
            "boundingBox": [
              25,
              14,
              318,
              14,
              318,
              59,
              25,
              59
            ],
            "text": "NOTHING",
            "appearance": {
              "style": {
                "name": "other",
                "confidence": 0.971
              }
            },
            "words": [
              {
                "boundingBox": [
                  27,
                  15,
                  294,
                  15,
                  294,
                  60,
                  27,
                  60
                ],
                "text": "NOTHING",
                "confidence": 0.994
              }
            ]
          }
        ]
      }
    ]
  }
}

Resources opschonen

Als u een Azure AI-servicesabonnement wilt opschonen en verwijderen, kunt u de resource of resourcegroep verwijderen. Als u de resourcegroep verwijdert, worden ook alle bijbehorende resources verwijderd.

Volgende stappen

In deze quickstart hebt u geleerd hoe u de Read REST API aanroept. Hierna vindt u meer informatie over de read-API-functies.

Vereisten

  • Een Azure-abonnement: maak er gratis een.

  • Een Azure AI Vision-resource. U kunt de gratis prijscategorie (F0) gebruiken om de service uit te proberen, en later upgraden naar een betaalde laag voor productie.

  • Verbinding maken naar Vision Studio.

    • Mogelijk moet u zich aanmelden.
    • Nadat u zich hebt aangemeld, selecteert u Alle resources weergeven. Selecteer indien nodig Vernieuwen. Controleer of uw resource beschikbaar is.

    Zie Aan de slag met Vision Studio voor meer informatie.

Afgedrukte en handgeschreven tekst lezen

  1. Selecteer Onder Optische tekenherkenning de optie Tekst uit afbeeldingen extraheren.

  2. Onder Uitproberen bevestigt u dat deze demo gebruikmaakt van uw Azure-account. Zie prijzen voor Azure AI Vision voor meer informatie.

  3. Selecteer een afbeelding in de beschikbare set of upload uw eigen afbeelding.

  4. Selecteer indien nodig een resource om uw resource te selecteren.

    Nadat u de afbeelding hebt geselecteerd, wordt de geëxtraheerde tekst weergegeven in het uitvoervenster. U kunt ook het JSON-tabblad selecteren om de JSON-uitvoer te zien die door de API-aanroep wordt geretourneerd.

Onder de try-it-out-ervaring volgen de volgende stappen om deze mogelijkheid in uw eigen toepassing te gebruiken.

Volgende stappen

In deze quickstart hebt u Vision Studio gebruikt voor toegang tot de Read-API. Hierna vindt u meer informatie over de read-API-functies.