Usługi azure AI w usłudze Azure Synapse Analytics

Korzystając ze wstępnie wytrenowanych modeli z usług Azure AI, możesz wzbogacić dane o sztuczną inteligencję (AI) w usłudze Azure Synapse Analytics.

Usługi azure AI ułatwiają deweloperom i organizacjom szybkie tworzenie inteligentnych, najnowocześniejszych, gotowych na rynek i odpowiedzialnych aplikacji z wbudowanymi i wstępnie utworzonymi i dostosowywalnymi interfejsami API oraz modelami.

Istnieje kilka sposobów używania podzestawu usług Azure AI z danymi w usłudze Synapse Analytics:

  • Kreator "usługi Azure AI" w usłudze Synapse Analytics generuje kod PySpark w notesie usługi Synapse, który łączy się z usługami Azure AI przy użyciu danych w tabeli Spark. Następnie przy użyciu wstępnie wytrenowanych modeli uczenia maszynowego usługa wykonuje pracę, aby dodać sztuczną inteligencję do danych. Aby uzyskać więcej szczegółów, zapoznaj się z kreatorem analizy tonacji i kreatorem wykrywania anomalii.

  • Usługa Synapse Machine Edukacja (SynapseML) umożliwia tworzenie zaawansowanych i wysoce skalowalnych modeli predykcyjnych i analitycznych z różnych źródeł danych platformy Spark. Usługa Synapse Spark udostępnia wbudowane biblioteki synapseML, w tym synapse.ml.cognitive.

  • Począwszy od kodu PySpark wygenerowanego przez kreatora lub przykładowego kodu SynapseML dostarczonego w samouczku, możesz napisać własny kod, aby używać innych usług azure AI z danymi. Aby uzyskać więcej informacji na temat dostępnych usług, zobacz Co to są usługi azure AI?

Rozpocznij

Samouczek Wymagania wstępne dotyczące korzystania z usług azure AI w usłudze Azure Synapse zawiera kilka kroków, które należy wykonać przed rozpoczęciem korzystania z usług Azure AI w usłudze Synapse Analytics.

Użycie

Obraz

Przetwarzanie obrazów

  • Opis: zawiera opis obrazu w języku czytelnym dla człowieka (Scala, Python)
  • Analizuj (kolor, typ obrazu, twarz, zawartość dla dorosłych/rasowa): analizuje funkcje wizualne obrazu (Scala, Python)
  • OCR: odczytuje tekst z obrazu (Scala, Python)
  • Rozpoznawanie tekstu: odczytuje tekst z obrazu (Scala, Python)
  • Miniatura: generuje miniaturę rozmiaru określonego przez użytkownika na podstawie obrazu (Scala, Python)
  • Rozpoznawanie zawartości specyficznej dla domeny: rozpoznaje zawartość specyficzną dla domeny (celebryta, punkt orientacyjny) (Scala, Python)
  • Tag: identyfikuje listę wyrazów, które są istotne dla obrazu wejściowego (Scala, Python)

Rozpoznawanie twarzy

  • Wykrywanie: wykrywa ludzkie twarze na obrazie (Scala, Python)
  • Sprawdź: sprawdza, czy dwie twarze należą do tej samej osoby, czy twarz należy do osoby (Scala, Python)
  • Zidentyfikuj: znajduje najbliższe dopasowania określonej osoby kwerendy z grupy osób (Scala, Python)
  • Znajdź podobne: znajduje podobne twarze do twarzy zapytania na liście twarzy (Scala, Python)
  • Grupa: dzieli grupę twarzy na rozłączne grupy na podstawie podobieństwa (Scala, Python)

Mowa

Usługi mowy

  • Zamiana mowy na tekst: transkrypcja strumieni audio (Scala, Python)
  • Transkrypcja konwersacji: transkrybuje strumienie audio do transkrypcji na żywo z zidentyfikowanymi głośnikami. (Scala, Python)
  • Zamiana tekstu na mowę: konwertuje tekst na realistyczny dźwięk (Scala, Python)

Język

Analiza tekstu

  • Wykrywanie języka: wykrywa język tekstu wejściowego (Scala, Python)
  • Wyodrębnianie kluczowych fraz: identyfikuje kluczowe punkty rozmowy w tekście wejściowym (Scala, Python)
  • Rozpoznawanie nazwanych jednostek: identyfikuje znane jednostki i ogólne nazwane jednostki w tekście wejściowym (Scala, Python)
  • Analiza tonacji: zwraca wynik z zakresu od 0 do 1 wskazujący tonację w tekście wejściowym (Scala, Python)
  • Wyodrębnianie jednostek opieki zdrowotnej: wyodrębnia jednostki medyczne i relacje z tekstu. (Scala, Python)

Tłumaczenie

Translator

  • Tłumaczenie: tłumaczy tekst. (Scala, Python)
  • Transliteracja: konwertuje tekst w jednym języku z jednego skryptu na inny skrypt. (Scala, Python)
  • Wykryj: identyfikuje język tekstu. (Scala, Python)
  • BreakSentence: określa położenie granic zdań w tekście. (Scala, Python)
  • Wyszukiwanie słownika: udostępnia alternatywne tłumaczenia wyrazów i niewielką liczbę fraz idiomatycznych. (Scala, Python)
  • Przykłady słowników: zawiera przykłady pokazujące, jak terminy w słowniku są używane w kontekście. (Scala, Python)
  • Tłumaczenie dokumentów: tłumaczy dokumenty we wszystkich obsługiwanych językach i dialektach przy zachowaniu struktury dokumentów i formatu danych. (Scala, Python)

Analiza dokumentów

Analiza dokumentów (wcześniej znana jako analiza dokumentów sztucznej inteligencji platformy Azure)

  • Analizuj układ: wyodrębnianie informacji o tekście i układzie z danego dokumentu. (Scala, Python)
  • Analizowanie paragonów: wykrywa i wyodrębnia dane z paragonów przy użyciu optycznego rozpoznawania znaków (OCR) i naszego modelu paragonu, umożliwiając łatwe wyodrębnianie ustrukturyzowanych danych z paragonów, takich jak nazwa sprzedawcy, numer telefonu kupca, data transakcji, suma transakcji i nie tylko. (Scala, Python)
  • Analizowanie wizytówek: wykrywa i wyodrębnia dane z wizytówek przy użyciu optycznego rozpoznawania znaków (OCR) i naszego modelu wizytówek, co umożliwia łatwe wyodrębnianie ustrukturyzowanych danych z wizytówek, takich jak nazwy kontaktów, nazwy firm, numery telefonów, wiadomości e-mail i inne. (Scala, Python)
  • Analizowanie faktur: wykrywa i wyodrębnia dane z faktur przy użyciu optycznego rozpoznawania znaków (OCR) i modeli uczenia głębokiego z interpretacją faktur, umożliwiając łatwe wyodrębnianie danych ustrukturyzowanych z faktur, takich jak klient, dostawca, identyfikator faktury, data ukończenia faktury, łączna kwota faktury, kwota podatku, wysyłka do, rozliczenia, elementy liniowe i inne. (Scala, Python)
  • Analizowanie dokumentów identyfikatorów: wykrywa i wyodrębnia dane z dokumentów identyfikacyjnych przy użyciu optycznego rozpoznawania znaków (OCR) i modelu dokumentów identyfikatorów, co umożliwia łatwe wyodrębnianie danych strukturalnych z dokumentów identyfikatorów, takich jak imię, nazwisko, data urodzenia, numer dokumentu i inne. (Scala, Python)
  • Analizuj formularz niestandardowy: wyodrębnia informacje z formularzy (plików PDF i obrazów) do danych strukturalnych na podstawie modelu utworzonego na podstawie zestawu reprezentatywnych formularzy szkoleniowych. (Scala, Python)
  • Pobieranie modelu niestandardowego: uzyskiwanie szczegółowych informacji o modelu niestandardowym. (Scala, Python)
  • Wyświetlanie listy modeli niestandardowych: uzyskiwanie informacji o wszystkich modelach niestandardowych. (Scala, Python)

Decyzja

Narzędzie do wykrywania anomalii

  • Stan anomalii najnowszego punktu: generuje model przy użyciu poprzednich punktów i określa, czy najnowszy punkt jest nietypowy (Scala, Python)
  • Znajdowanie anomalii: generuje model przy użyciu całej serii i znajduje anomalie w serii (Scala, Python)

Wymagania wstępne

  1. Wykonaj kroki opisane w temacie Konfigurowanie środowiska usług Azure AI , aby skonfigurować środowisko usług Azure Databricks i Azure AI. W tym samouczku pokazano, jak zainstalować język SynapseML i jak utworzyć klaster Spark w usłudze Databricks.
  2. Po utworzeniu nowego notesu w usłudze Azure Databricks skopiuj następujący kod udostępniony i wklej go do nowej komórki w notesie.
  3. Wybierz jeden z poniższych przykładów usługi i skopiuj go do drugiej nowej komórki w notesie.
  4. Zastąp dowolne symbole zastępcze klucza subskrypcji usługi własnym kluczem.
  5. Wybierz przycisk uruchamiania (ikona trójkąta) w prawym górnym rogu komórki, a następnie wybierz pozycję Uruchom komórkę.
  6. Wyświetl wyniki w tabeli poniżej komórki.

Kod udostępniony

Aby rozpocząć, musimy dodać ten kod do projektu:

from pyspark.sql.functions import udf, col
from synapse.ml.io.http import HTTPTransformer, http_udf
from requests import Request
from pyspark.sql.functions import lit
from pyspark.ml import PipelineModel
from pyspark.sql.functions import col
import os
from pyspark.sql import SparkSession
from synapse.ml.core.platform import *

# Bootstrap Spark Session
spark = SparkSession.builder.getOrCreate()

from synapse.ml.core.platform import materializing_display as display
from synapse.ml.cognitive import *

# A multi-service resource key for Text Analytics, Computer Vision and Document Intelligence (or use separate keys that belong to each service)
service_key = find_secret("cognitive-api-key")
service_loc = "eastus"

# A Bing Search v7 subscription key
bing_search_key = find_secret("bing-search-key")

# An Anomaly Detector subscription key
anomaly_key = find_secret("anomaly-api-key")
anomaly_loc = "westus2"

# A Translator subscription key
translator_key = find_secret("translator-key")
translator_loc = "eastus"

# An Azure search key
search_key = find_secret("azure-search-key")

przykład analiza tekstu

Usługa analiza tekstu udostępnia kilka algorytmów do wyodrębniania inteligentnych szczegółowych informacji z tekstu. Na przykład możemy znaleźć tonację danego tekstu wejściowego. Usługa zwróci ocenę z zakresu od 0,0 do 1,0, gdzie niskie wyniki wskazują negatywną tonację i wysoki wynik wskazuje pozytywną tonację. W tym przykładzie są używane trzy proste zdania i zwraca tonację dla każdego z nich.

# Create a dataframe that's tied to it's column names
df = spark.createDataFrame(
    [
        ("I am so happy today, its sunny!", "en-US"),
        ("I am frustrated by this rush hour traffic", "en-US"),
        ("The Azure AI services on spark aint bad", "en-US"),
    ],
    ["text", "language"],
)

# Run the Text Analytics service with options
sentiment = (
    TextSentiment()
    .setTextCol("text")
    .setLocation(service_loc)
    .setSubscriptionKey(service_key)
    .setOutputCol("sentiment")
    .setErrorCol("error")
    .setLanguageCol("language")
)

# Show the results of your text query in a table format
display(
    sentiment.transform(df).select(
        "text", col("sentiment.document.sentiment").alias("sentiment")
    )
)

przykład analiza tekstu dla kondycji

Analiza tekstu dla Usługa kondycji wyodrębnia i oznacza odpowiednie informacje medyczne z nieustrukturyzowanych tekstów, takich jak uwagi lekarza, podsumowania wypisu, dokumenty kliniczne i elektroniczne dokumenty zdrowotne.

df = spark.createDataFrame(
    [
        ("20mg of ibuprofen twice a day",),
        ("1tsp of Tylenol every 4 hours",),
        ("6-drops of Vitamin B-12 every evening",),
    ],
    ["text"],
)

healthcare = (
    AnalyzeHealthText()
    .setSubscriptionKey(service_key)
    .setLocation(service_loc)
    .setLanguage("en")
    .setOutputCol("response")
)

display(healthcare.transform(df))

Przykładowe tłumaczenie w usłudze Translator

Translator to oparta na chmurze usługa tłumaczenia maszynowego i jest częścią rodziny usług sztucznej inteligencji platformy Azure używanych do tworzenia inteligentnych aplikacji. Translator jest łatwy do zintegrowania z aplikacjami, witrynami internetowymi, narzędziami i rozwiązaniami. Umożliwia dodawanie środowisk użytkownika w wielu językach w 90 językach i dialektach i może służyć do tłumaczenia tekstu w dowolnym systemie operacyjnym. W tym przykładzie wykonamy proste tłumaczenie tekstu, podając zdania, na które chcesz przetłumaczyć, i języki docelowe, na które chcesz przetłumaczyć.

from pyspark.sql.functions import col, flatten

# Create a dataframe including sentences you want to translate
df = spark.createDataFrame(
    [(["Hello, what is your name?", "Bye"],)],
    [
        "text",
    ],
)

# Run the Translator service with options
translate = (
    Translate()
    .setSubscriptionKey(translator_key)
    .setLocation(translator_loc)
    .setTextCol("text")
    .setToLanguage(["zh-Hans"])
    .setOutputCol("translation")
)

# Show the results of the translation.
display(
    translate.transform(df)
    .withColumn("translation", flatten(col("translation.translations")))
    .withColumn("translation", col("translation.text"))
    .select("translation")
)

Przykład analizy dokumentów

Analiza dokumentów (wcześniej znana jako "Azure AI Document Intelligence") jest częścią usług Azure AI, która umożliwia tworzenie zautomatyzowanego oprogramowania do przetwarzania danych przy użyciu technologii uczenia maszynowego. Identyfikowanie i wyodrębnianie tekstu, par klucz/wartość, znaczniki wyboru, tabele i struktura z dokumentów. Usługa generuje dane ustrukturyzowane, które zawierają relacje w oryginalnym pliku, pola ograniczenia, pewność siebie i nie tylko. W tym przykładzie analizujemy obraz wizytówki i wyodrębniamy jego informacje do danych strukturalnych.

from pyspark.sql.functions import col, explode

# Create a dataframe containing the source files
imageDf = spark.createDataFrame(
    [
        (
            "https://mmlspark.blob.core.windows.net/datasets/FormRecognizer/business_card.jpg",
        )
    ],
    [
        "source",
    ],
)

# Run the Document Intelligence service
analyzeBusinessCards = (
    AnalyzeBusinessCards()
    .setSubscriptionKey(service_key)
    .setLocation(service_loc)
    .setImageUrlCol("source")
    .setOutputCol("businessCards")
)

# Show the results of recognition.
display(
    analyzeBusinessCards.transform(imageDf)
    .withColumn(
        "documents", explode(col("businessCards.analyzeResult.documentResults.fields"))
    )
    .select("source", "documents")
)

przykład przetwarzanie obrazów

przetwarzanie obrazów analizuje obrazy, aby identyfikować strukturę, taką jak twarze, obiekty i opisy języka naturalnego. W tym przykładzie tagujemy listę obrazów. Tagi to jeden wyraz opis elementów na obrazie, takich jak rozpoznawalne obiekty, osoby, sceneria i akcje.

# Create a dataframe with the image URLs
base_url = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/"
df = spark.createDataFrame(
    [
        (base_url + "objects.jpg",),
        (base_url + "dog.jpg",),
        (base_url + "house.jpg",),
    ],
    [
        "image",
    ],
)

# Run the Computer Vision service. Analyze Image extracts information from/about the images.
analysis = (
    AnalyzeImage()
    .setLocation(service_loc)
    .setSubscriptionKey(service_key)
    .setVisualFeatures(
        ["Categories", "Color", "Description", "Faces", "Objects", "Tags"]
    )
    .setOutputCol("analysis_results")
    .setImageUrlCol("image")
    .setErrorCol("error")
)

# Show the results of what you wanted to pull out of the images.
display(analysis.transform(df).select("image", "analysis_results.description.tags"))

Przykład wyszukiwania obrazów Bing

Wyszukiwanie obrazów Bing wyszukuje w Internecie w celu pobrania obrazów powiązanych z zapytaniem w języku naturalnym użytkownika. W tym przykładzie używamy zapytania tekstowego, które wyszukuje obrazy z cudzysłowami. Zwraca listę adresów URL obrazów, które zawierają zdjęcia związane z naszym zapytaniem.

# Number of images Bing will return per query
imgsPerBatch = 10
# A list of offsets, used to page into the search results
offsets = [(i * imgsPerBatch,) for i in range(100)]
# Since web content is our data, we create a dataframe with options on that data: offsets
bingParameters = spark.createDataFrame(offsets, ["offset"])

# Run the Bing Image Search service with our text query
bingSearch = (
    BingImageSearch()
    .setSubscriptionKey(bing_search_key)
    .setOffsetCol("offset")
    .setQuery("Martin Luther King Jr. quotes")
    .setCount(imgsPerBatch)
    .setOutputCol("images")
)

# Transformer that extracts and flattens the richly structured output of Bing Image Search into a simple URL column
getUrls = BingImageSearch.getUrlTransformer("images", "url")

# This displays the full results returned, uncomment to use
# display(bingSearch.transform(bingParameters))

# Since we have two services, they are put into a pipeline
pipeline = PipelineModel(stages=[bingSearch, getUrls])

# Show the results of your search: image URLs
display(pipeline.transform(bingParameters))

Przykład zamiany mowy na tekst

Usługa zamiany mowy na tekst konwertuje strumienie lub pliki dźwięku mówionego na tekst. W tym przykładzie transkrypujemy jeden plik audio.

# Create a dataframe with our audio URLs, tied to the column called "url"
df = spark.createDataFrame(
    [("https://mmlspark.blob.core.windows.net/datasets/Speech/audio2.wav",)], ["url"]
)

# Run the Speech-to-text service to translate the audio into text
speech_to_text = (
    SpeechToTextSDK()
    .setSubscriptionKey(service_key)
    .setLocation(service_loc)
    .setOutputCol("text")
    .setAudioDataCol("url")
    .setLanguage("en-US")
    .setProfanity("Masked")
)

# Show the results of the translation
display(speech_to_text.transform(df).select("url", "text.DisplayText"))

Przykład zamiany tekstu na mowę

Zamiana tekstu na mowę to usługa, która umożliwia tworzenie aplikacji i usług, które mówią naturalnie, wybierając spośród ponad 270 neuronowych głosów w 119 językach i wariantach.

from synapse.ml.cognitive import TextToSpeech

fs = ""
if running_on_databricks():
    fs = "dbfs:"
elif running_on_synapse_internal():
    fs = "Files"

# Create a dataframe with text and an output file location
df = spark.createDataFrame(
    [
        (
            "Reading out loud is fun! Check out aka.ms/spark for more information",
            fs + "/output.mp3",
        )
    ],
    ["text", "output_file"],
)

tts = (
    TextToSpeech()
    .setSubscriptionKey(service_key)
    .setTextCol("text")
    .setLocation(service_loc)
    .setVoiceName("en-US-JennyNeural")
    .setOutputFileCol("output_file")
)

# Check to make sure there were no errors during audio creation
display(tts.transform(df))

przykład Narzędzie do wykrywania anomalii

Narzędzie do wykrywania anomalii doskonale nadaje się do wykrywania nieprawidłowości w danych szeregów czasowych. W tym przykładzie używamy usługi do znajdowania anomalii w całej serii czasowej.

# Create a dataframe with the point data that Anomaly Detector requires
df = spark.createDataFrame(
    [
        ("1972-01-01T00:00:00Z", 826.0),
        ("1972-02-01T00:00:00Z", 799.0),
        ("1972-03-01T00:00:00Z", 890.0),
        ("1972-04-01T00:00:00Z", 900.0),
        ("1972-05-01T00:00:00Z", 766.0),
        ("1972-06-01T00:00:00Z", 805.0),
        ("1972-07-01T00:00:00Z", 821.0),
        ("1972-08-01T00:00:00Z", 20000.0),
        ("1972-09-01T00:00:00Z", 883.0),
        ("1972-10-01T00:00:00Z", 898.0),
        ("1972-11-01T00:00:00Z", 957.0),
        ("1972-12-01T00:00:00Z", 924.0),
        ("1973-01-01T00:00:00Z", 881.0),
        ("1973-02-01T00:00:00Z", 837.0),
        ("1973-03-01T00:00:00Z", 9000.0),
    ],
    ["timestamp", "value"],
).withColumn("group", lit("series1"))

# Run the Anomaly Detector service to look for irregular data
anomaly_detector = (
    SimpleDetectAnomalies()
    .setSubscriptionKey(anomaly_key)
    .setLocation(anomaly_loc)
    .setTimestampCol("timestamp")
    .setValueCol("value")
    .setOutputCol("anomalies")
    .setGroupbyCol("group")
    .setGranularity("monthly")
)

# Show the full results of the analysis with the anomalies marked as "True"
display(
    anomaly_detector.transform(df).select("timestamp", "value", "anomalies.isAnomaly")
)

Dowolne internetowe interfejsy API

Protokół HTTP na platformie Spark umożliwia użycie dowolnej usługi internetowej w potoku danych big data. W tym przykładzie użyjemy interfejsu API Banku Światowego, aby uzyskać informacje o różnych krajach/regionach na całym świecie.

# Use any requests from the python requests library


def world_bank_request(country):
    return Request(
        "GET", "http://api.worldbank.org/v2/country/{}?format=json".format(country)
    )


# Create a dataframe with specifies which countries/regions we want data on
df = spark.createDataFrame([("br",), ("usa",)], ["country"]).withColumn(
    "request", http_udf(world_bank_request)(col("country"))
)

# Much faster for big data because of the concurrency :)
client = (
    HTTPTransformer().setConcurrency(3).setInputCol("request").setOutputCol("response")
)

# Get the body of the response


def get_response_body(resp):
    return resp.entity.content.decode()


# Show the details of the country data returned
display(
    client.transform(df).select(
        "country", udf(get_response_body)(col("response")).alias("response")
    )
)

Przykład usługi Azure AI Search

W tym przykładzie pokazano, jak wzbogacić dane przy użyciu umiejętności poznawczych i zapisać w indeksie usługi Azure Search przy użyciu usługi SynapseML.

search_service = "mmlspark-azure-search"
search_index = "test-33467690"

df = spark.createDataFrame(
    [
        (
            "upload",
            "0",
            "https://mmlspark.blob.core.windows.net/datasets/DSIR/test1.jpg",
        ),
        (
            "upload",
            "1",
            "https://mmlspark.blob.core.windows.net/datasets/DSIR/test2.jpg",
        ),
    ],
    ["searchAction", "id", "url"],
)

tdf = (
    AnalyzeImage()
    .setSubscriptionKey(service_key)
    .setLocation(service_loc)
    .setImageUrlCol("url")
    .setOutputCol("analyzed")
    .setErrorCol("errors")
    .setVisualFeatures(
        ["Categories", "Tags", "Description", "Faces", "ImageType", "Color", "Adult"]
    )
    .transform(df)
    .select("*", "analyzed.*")
    .drop("errors", "analyzed")
)

tdf.writeToAzureSearch(
    subscriptionKey=search_key,
    actionCol="searchAction",
    serviceName=search_service,
    indexName=search_index,
    keyCol="id",
)

Inne samouczki

Poniższe samouczki zawierają kompletne przykłady korzystania z usług Azure AI w usłudze Synapse Analytics.

Dostępne interfejsy API usług AI platformy Azure

Typ interfejsu API Interfejsy API usługi SynapseML Interfejsy API usług AI platformy Azure (wersje) Obsługa sieci wirtualnej programu DEP
Wyszukiwanie obrazów Bing BingImageSearch Obrazy — wyszukiwanie wizualne w wersji 7.0 Nieobsługiwany

Narzędzie do wykrywania anomalii

Typ interfejsu API Interfejsy API usługi SynapseML Interfejsy API usług AI platformy Azure (wersje) Obsługa sieci wirtualnej programu DEP
Wykrywanie ostatniej anomalii DetectLastAnomaly Wykrywanie ostatniego punktu w wersji 1.0 Obsługiwane
Wykrywanie anomalii DetectAnomalies Wykrywanie całej serii w wersji 1.0 Obsługiwane
Simple DetectAnomalies SimpleDetectAnomalies Wykrywanie całej serii w wersji 1.0 Obsługiwane

Przetwarzanie obrazów

Typ interfejsu API Interfejsy API usługi SynapseML Interfejsy API usług AI platformy Azure (wersje) Obsługa sieci wirtualnej programu DEP
OCR OCR Rozpoznawanie tekstu drukowanego w wersji 2.0 Obsługiwane
Rozpoznawanie tekstu RecognizeText Rozpoznawanie tekstu w wersji 2.0 Obsługiwane
Odczyt obrazu ReadImage Odczyt wersji 3.1 Obsługiwane
Generowanie miniatur GenerateThumbnails Generowanie miniatury w wersji 2.0 Obsługiwane
Analizowanie obrazu AnalyzeImage Analizowanie obrazu w wersji 2.0 Obsługiwane
Rozpoznawanie zawartości specyficznej dla domeny RecognizeDomainSpecificContent Analizowanie obrazu według domeny w wersji 2.0 Obsługiwane
Obraz tagu TagImage Tagowanie obrazu w wersji 2.0 Obsługiwane
Opisywanie obrazu DescribeImage Opis obrazu w wersji 2.0 Obsługiwane

Translator

Typ interfejsu API Interfejsy API usługi SynapseML Interfejsy API usług AI platformy Azure (wersje) Obsługa sieci wirtualnej programu DEP
Przetłumacz tekst Tłumaczenie Tłumaczenie wersji 3.0 Nieobsługiwany
Transliteracja tekstu Transliteracja Transliteracja wersji 3.0 Nieobsługiwany
Wykrywanie języka Wykryj Wykrywanie wersji 3.0 Nieobsługiwany
Podział zdania BreakSentence Podział zdania w wersji 3.0 Nieobsługiwany
Wyszukiwanie słownika (alternatywne tłumaczenia) SłownikLookup Wyszukiwanie słownika w wersji 3.0 Nieobsługiwany
Tłumaczenie dokumentu DocumentTranslator Tłumaczenie dokumentów w wersji 1.0 Nieobsługiwany

Rozpoznawanie twarzy

Typ interfejsu API Interfejsy API usługi SynapseML Interfejsy API usług AI platformy Azure (wersje) Obsługa sieci wirtualnej programu DEP
Wykrywanie twarzy DetectFace Wykrywanie przy użyciu adresu URL w wersji 1.0 Obsługiwane
Znajdź podobną twarz FindSimilarFace Znajdź podobne 1.0 Obsługiwane
Grupuj twarze GroupFaces Grupa w wersji 1.0 Obsługiwane
Identyfikowanie twarzy IdentifyFaces Identyfikowanie wersji 1.0 Obsługiwane
Weryfikowanie twarzy VerifyFaces Weryfikowanie twarzy w wersji 1.0 Obsługiwane

Analiza dokumentów

Typ interfejsu API Interfejsy API usługi SynapseML Interfejsy API usług AI platformy Azure (wersje) Obsługa sieci wirtualnej programu DEP
Analizowanie układu AnalyzeLayout Analizowanie układu asynchronicznego w wersji 2.1 Obsługiwane
Analizowanie paragonów AnalyzeReceipts Analizowanie potwierdzenia asynchronicznego w wersji 2.1 Obsługiwane
Analizowanie wizytówek AnalyzeBusinessCards Analizowanie wizytówek asynchronicznych w wersji 2.1 Obsługiwane
Analizowanie faktur AnalyzeInvoices Analizowanie faktury asynchroniczne w wersji 2.1 Obsługiwane
Analizowanie dokumentów identyfikatorów AnalyzeIDDocuments model dokumentu identyfikacji (ID) w wersji 2.1 Obsługiwane
Wyświetlanie listy modeli niestandardowych ListCustomModels Wyświetlanie listy modeli niestandardowych w wersji 2.1 Obsługiwane
Pobieranie modelu niestandardowego GetCustomModel Pobieranie modeli niestandardowych w wersji 2.1 Obsługiwane
Analizowanie modelu niestandardowego AnalyzeCustomModel Analizowanie za pomocą modelu niestandardowego w wersji 2.1 Obsługiwane

Zamiana mowy na tekst

Typ interfejsu API Interfejsy API usługi SynapseML Interfejsy API usług AI platformy Azure (wersje) Obsługa sieci wirtualnej programu DEP
Zamiana mowy na tekst SpeechToText SpeechToText V1.0 Nieobsługiwany
Zestaw SDK zamiany mowy na tekst SpeechToTextSDK Korzystanie z zestawu Speech SDK w wersji 1.14.0 Nieobsługiwany

Analiza tekstu

Typ interfejsu API Interfejsy API usługi SynapseML Interfejsy API usług AI platformy Azure (wersje) Obsługa sieci wirtualnej programu DEP
Tonacja tekstu w wersji 2 TextSentimentV2 Tonacja w wersji 2.0 Obsługiwane
Detektor języka v2 LanguageDetectorV2 Języki w wersji 2.0 Obsługiwane
Narzędzia do wykrywania jednostek w wersji 2 EntityDetectorV2 Jednostki łączące 2.0 Obsługiwane
NER V2 NERV2 Ogólne rozpoznawanie jednostek w wersji 2.0 Obsługiwane
Kluczowy moduł wyodrębniania fraz w wersji 2 KeyPhraseExtractorV2 Frazy kluczowe w wersji 2.0 Obsługiwane
Tonacja tekstu TextSentiment Tonacja w wersji 3.1 Obsługiwane
Moduł wyodrębniania kluczowych fraz KeyPhraseExtractor Frazy kluczowe w wersji 3.1 Obsługiwane
DANE OSOBOWE DANE OSOBOWE Rozpoznawanie jednostek Pii w wersji 3.1 Obsługiwane
NER NER Rozpoznawanie jednostek — ogólna wersja 3.1 Obsługiwane
Detektor języka LanguageDetector Języki w wersji 3.1 Obsługiwane
Detektor jednostek EntityDetector Jednostki łączące 3.1 Obsługiwane

Następne kroki