Usługi azure AI w usłudze Azure Synapse Analytics
Korzystając ze wstępnie wytrenowanych modeli z usług Azure AI, możesz wzbogacić dane o sztuczną inteligencję (AI) w usłudze Azure Synapse Analytics.
Usługi azure AI ułatwiają deweloperom i organizacjom szybkie tworzenie inteligentnych, najnowocześniejszych, gotowych na rynek i odpowiedzialnych aplikacji z wbudowanymi i wstępnie utworzonymi i dostosowywalnymi interfejsami API oraz modelami.
Istnieje kilka sposobów używania podzestawu usług Azure AI z danymi w usłudze Synapse Analytics:
Kreator "usługi Azure AI" w usłudze Synapse Analytics generuje kod PySpark w notesie usługi Synapse, który łączy się z usługami Azure AI przy użyciu danych w tabeli Spark. Następnie przy użyciu wstępnie wytrenowanych modeli uczenia maszynowego usługa wykonuje pracę, aby dodać sztuczną inteligencję do danych. Aby uzyskać więcej szczegółów, zapoznaj się z kreatorem analizy tonacji i kreatorem wykrywania anomalii.
Usługa Synapse Machine Edukacja (SynapseML) umożliwia tworzenie zaawansowanych i wysoce skalowalnych modeli predykcyjnych i analitycznych z różnych źródeł danych platformy Spark. Usługa Synapse Spark udostępnia wbudowane biblioteki synapseML, w tym synapse.ml.cognitive.
Począwszy od kodu PySpark wygenerowanego przez kreatora lub przykładowego kodu SynapseML dostarczonego w samouczku, możesz napisać własny kod, aby używać innych usług azure AI z danymi. Aby uzyskać więcej informacji na temat dostępnych usług, zobacz Co to są usługi azure AI?
Rozpocznij
Samouczek Wymagania wstępne dotyczące korzystania z usług azure AI w usłudze Azure Synapse zawiera kilka kroków, które należy wykonać przed rozpoczęciem korzystania z usług Azure AI w usłudze Synapse Analytics.
Użycie
Obraz
- Opis: zawiera opis obrazu w języku czytelnym dla człowieka (Scala, Python)
- Analizuj (kolor, typ obrazu, twarz, zawartość dla dorosłych/rasowa): analizuje funkcje wizualne obrazu (Scala, Python)
- OCR: odczytuje tekst z obrazu (Scala, Python)
- Rozpoznawanie tekstu: odczytuje tekst z obrazu (Scala, Python)
- Miniatura: generuje miniaturę rozmiaru określonego przez użytkownika na podstawie obrazu (Scala, Python)
- Rozpoznawanie zawartości specyficznej dla domeny: rozpoznaje zawartość specyficzną dla domeny (celebryta, punkt orientacyjny) (Scala, Python)
- Tag: identyfikuje listę wyrazów, które są istotne dla obrazu wejściowego (Scala, Python)
- Wykrywanie: wykrywa ludzkie twarze na obrazie (Scala, Python)
- Sprawdź: sprawdza, czy dwie twarze należą do tej samej osoby, czy twarz należy do osoby (Scala, Python)
- Zidentyfikuj: znajduje najbliższe dopasowania określonej osoby kwerendy z grupy osób (Scala, Python)
- Znajdź podobne: znajduje podobne twarze do twarzy zapytania na liście twarzy (Scala, Python)
- Grupa: dzieli grupę twarzy na rozłączne grupy na podstawie podobieństwa (Scala, Python)
Mowa
- Zamiana mowy na tekst: transkrypcja strumieni audio (Scala, Python)
- Transkrypcja konwersacji: transkrybuje strumienie audio do transkrypcji na żywo z zidentyfikowanymi głośnikami. (Scala, Python)
- Zamiana tekstu na mowę: konwertuje tekst na realistyczny dźwięk (Scala, Python)
Język
- Wykrywanie języka: wykrywa język tekstu wejściowego (Scala, Python)
- Wyodrębnianie kluczowych fraz: identyfikuje kluczowe punkty rozmowy w tekście wejściowym (Scala, Python)
- Rozpoznawanie nazwanych jednostek: identyfikuje znane jednostki i ogólne nazwane jednostki w tekście wejściowym (Scala, Python)
- Analiza tonacji: zwraca wynik z zakresu od 0 do 1 wskazujący tonację w tekście wejściowym (Scala, Python)
- Wyodrębnianie jednostek opieki zdrowotnej: wyodrębnia jednostki medyczne i relacje z tekstu. (Scala, Python)
Tłumaczenie
- Tłumaczenie: tłumaczy tekst. (Scala, Python)
- Transliteracja: konwertuje tekst w jednym języku z jednego skryptu na inny skrypt. (Scala, Python)
- Wykryj: identyfikuje język tekstu. (Scala, Python)
- BreakSentence: określa położenie granic zdań w tekście. (Scala, Python)
- Wyszukiwanie słownika: udostępnia alternatywne tłumaczenia wyrazów i niewielką liczbę fraz idiomatycznych. (Scala, Python)
- Przykłady słowników: zawiera przykłady pokazujące, jak terminy w słowniku są używane w kontekście. (Scala, Python)
- Tłumaczenie dokumentów: tłumaczy dokumenty we wszystkich obsługiwanych językach i dialektach przy zachowaniu struktury dokumentów i formatu danych. (Scala, Python)
Analiza dokumentów
Analiza dokumentów (wcześniej znana jako analiza dokumentów sztucznej inteligencji platformy Azure)
- Analizuj układ: wyodrębnianie informacji o tekście i układzie z danego dokumentu. (Scala, Python)
- Analizowanie paragonów: wykrywa i wyodrębnia dane z paragonów przy użyciu optycznego rozpoznawania znaków (OCR) i naszego modelu paragonu, umożliwiając łatwe wyodrębnianie ustrukturyzowanych danych z paragonów, takich jak nazwa sprzedawcy, numer telefonu kupca, data transakcji, suma transakcji i nie tylko. (Scala, Python)
- Analizowanie wizytówek: wykrywa i wyodrębnia dane z wizytówek przy użyciu optycznego rozpoznawania znaków (OCR) i naszego modelu wizytówek, co umożliwia łatwe wyodrębnianie ustrukturyzowanych danych z wizytówek, takich jak nazwy kontaktów, nazwy firm, numery telefonów, wiadomości e-mail i inne. (Scala, Python)
- Analizowanie faktur: wykrywa i wyodrębnia dane z faktur przy użyciu optycznego rozpoznawania znaków (OCR) i modeli uczenia głębokiego z interpretacją faktur, umożliwiając łatwe wyodrębnianie danych ustrukturyzowanych z faktur, takich jak klient, dostawca, identyfikator faktury, data ukończenia faktury, łączna kwota faktury, kwota podatku, wysyłka do, rozliczenia, elementy liniowe i inne. (Scala, Python)
- Analizowanie dokumentów identyfikatorów: wykrywa i wyodrębnia dane z dokumentów identyfikacyjnych przy użyciu optycznego rozpoznawania znaków (OCR) i modelu dokumentów identyfikatorów, co umożliwia łatwe wyodrębnianie danych strukturalnych z dokumentów identyfikatorów, takich jak imię, nazwisko, data urodzenia, numer dokumentu i inne. (Scala, Python)
- Analizuj formularz niestandardowy: wyodrębnia informacje z formularzy (plików PDF i obrazów) do danych strukturalnych na podstawie modelu utworzonego na podstawie zestawu reprezentatywnych formularzy szkoleniowych. (Scala, Python)
- Pobieranie modelu niestandardowego: uzyskiwanie szczegółowych informacji o modelu niestandardowym. (Scala, Python)
- Wyświetlanie listy modeli niestandardowych: uzyskiwanie informacji o wszystkich modelach niestandardowych. (Scala, Python)
Decyzja
Narzędzie do wykrywania anomalii
- Stan anomalii najnowszego punktu: generuje model przy użyciu poprzednich punktów i określa, czy najnowszy punkt jest nietypowy (Scala, Python)
- Znajdowanie anomalii: generuje model przy użyciu całej serii i znajduje anomalie w serii (Scala, Python)
Wyszukiw.
- Wyszukiwanie obrazów Bing (Scala, Python)
- Azure AI Search (Scala, Python)
Wymagania wstępne
- Wykonaj kroki opisane w temacie Konfigurowanie środowiska usług Azure AI , aby skonfigurować środowisko usług Azure Databricks i Azure AI. W tym samouczku pokazano, jak zainstalować język SynapseML i jak utworzyć klaster Spark w usłudze Databricks.
- Po utworzeniu nowego notesu w usłudze Azure Databricks skopiuj następujący kod udostępniony i wklej go do nowej komórki w notesie.
- Wybierz jeden z poniższych przykładów usługi i skopiuj go do drugiej nowej komórki w notesie.
- Zastąp dowolne symbole zastępcze klucza subskrypcji usługi własnym kluczem.
- Wybierz przycisk uruchamiania (ikona trójkąta) w prawym górnym rogu komórki, a następnie wybierz pozycję Uruchom komórkę.
- Wyświetl wyniki w tabeli poniżej komórki.
Kod udostępniony
Aby rozpocząć, musimy dodać ten kod do projektu:
from pyspark.sql.functions import udf, col
from synapse.ml.io.http import HTTPTransformer, http_udf
from requests import Request
from pyspark.sql.functions import lit
from pyspark.ml import PipelineModel
from pyspark.sql.functions import col
import os
from pyspark.sql import SparkSession
from synapse.ml.core.platform import *
# Bootstrap Spark Session
spark = SparkSession.builder.getOrCreate()
from synapse.ml.core.platform import materializing_display as display
from synapse.ml.cognitive import *
# A multi-service resource key for Text Analytics, Computer Vision and Document Intelligence (or use separate keys that belong to each service)
service_key = find_secret("cognitive-api-key")
service_loc = "eastus"
# A Bing Search v7 subscription key
bing_search_key = find_secret("bing-search-key")
# An Anomaly Detector subscription key
anomaly_key = find_secret("anomaly-api-key")
anomaly_loc = "westus2"
# A Translator subscription key
translator_key = find_secret("translator-key")
translator_loc = "eastus"
# An Azure search key
search_key = find_secret("azure-search-key")
przykład analiza tekstu
Usługa analiza tekstu udostępnia kilka algorytmów do wyodrębniania inteligentnych szczegółowych informacji z tekstu. Na przykład możemy znaleźć tonację danego tekstu wejściowego. Usługa zwróci ocenę z zakresu od 0,0 do 1,0, gdzie niskie wyniki wskazują negatywną tonację i wysoki wynik wskazuje pozytywną tonację. W tym przykładzie są używane trzy proste zdania i zwraca tonację dla każdego z nich.
# Create a dataframe that's tied to it's column names
df = spark.createDataFrame(
[
("I am so happy today, its sunny!", "en-US"),
("I am frustrated by this rush hour traffic", "en-US"),
("The Azure AI services on spark aint bad", "en-US"),
],
["text", "language"],
)
# Run the Text Analytics service with options
sentiment = (
TextSentiment()
.setTextCol("text")
.setLocation(service_loc)
.setSubscriptionKey(service_key)
.setOutputCol("sentiment")
.setErrorCol("error")
.setLanguageCol("language")
)
# Show the results of your text query in a table format
display(
sentiment.transform(df).select(
"text", col("sentiment.document.sentiment").alias("sentiment")
)
)
przykład analiza tekstu dla kondycji
Analiza tekstu dla Usługa kondycji wyodrębnia i oznacza odpowiednie informacje medyczne z nieustrukturyzowanych tekstów, takich jak uwagi lekarza, podsumowania wypisu, dokumenty kliniczne i elektroniczne dokumenty zdrowotne.
df = spark.createDataFrame(
[
("20mg of ibuprofen twice a day",),
("1tsp of Tylenol every 4 hours",),
("6-drops of Vitamin B-12 every evening",),
],
["text"],
)
healthcare = (
AnalyzeHealthText()
.setSubscriptionKey(service_key)
.setLocation(service_loc)
.setLanguage("en")
.setOutputCol("response")
)
display(healthcare.transform(df))
Przykładowe tłumaczenie w usłudze Translator
Translator to oparta na chmurze usługa tłumaczenia maszynowego i jest częścią rodziny usług sztucznej inteligencji platformy Azure używanych do tworzenia inteligentnych aplikacji. Translator jest łatwy do zintegrowania z aplikacjami, witrynami internetowymi, narzędziami i rozwiązaniami. Umożliwia dodawanie środowisk użytkownika w wielu językach w 90 językach i dialektach i może służyć do tłumaczenia tekstu w dowolnym systemie operacyjnym. W tym przykładzie wykonamy proste tłumaczenie tekstu, podając zdania, na które chcesz przetłumaczyć, i języki docelowe, na które chcesz przetłumaczyć.
from pyspark.sql.functions import col, flatten
# Create a dataframe including sentences you want to translate
df = spark.createDataFrame(
[(["Hello, what is your name?", "Bye"],)],
[
"text",
],
)
# Run the Translator service with options
translate = (
Translate()
.setSubscriptionKey(translator_key)
.setLocation(translator_loc)
.setTextCol("text")
.setToLanguage(["zh-Hans"])
.setOutputCol("translation")
)
# Show the results of the translation.
display(
translate.transform(df)
.withColumn("translation", flatten(col("translation.translations")))
.withColumn("translation", col("translation.text"))
.select("translation")
)
Przykład analizy dokumentów
Analiza dokumentów (wcześniej znana jako "Azure AI Document Intelligence") jest częścią usług Azure AI, która umożliwia tworzenie zautomatyzowanego oprogramowania do przetwarzania danych przy użyciu technologii uczenia maszynowego. Identyfikowanie i wyodrębnianie tekstu, par klucz/wartość, znaczniki wyboru, tabele i struktura z dokumentów. Usługa generuje dane ustrukturyzowane, które zawierają relacje w oryginalnym pliku, pola ograniczenia, pewność siebie i nie tylko. W tym przykładzie analizujemy obraz wizytówki i wyodrębniamy jego informacje do danych strukturalnych.
from pyspark.sql.functions import col, explode
# Create a dataframe containing the source files
imageDf = spark.createDataFrame(
[
(
"https://mmlspark.blob.core.windows.net/datasets/FormRecognizer/business_card.jpg",
)
],
[
"source",
],
)
# Run the Document Intelligence service
analyzeBusinessCards = (
AnalyzeBusinessCards()
.setSubscriptionKey(service_key)
.setLocation(service_loc)
.setImageUrlCol("source")
.setOutputCol("businessCards")
)
# Show the results of recognition.
display(
analyzeBusinessCards.transform(imageDf)
.withColumn(
"documents", explode(col("businessCards.analyzeResult.documentResults.fields"))
)
.select("source", "documents")
)
przykład przetwarzanie obrazów
przetwarzanie obrazów analizuje obrazy, aby identyfikować strukturę, taką jak twarze, obiekty i opisy języka naturalnego. W tym przykładzie tagujemy listę obrazów. Tagi to jeden wyraz opis elementów na obrazie, takich jak rozpoznawalne obiekty, osoby, sceneria i akcje.
# Create a dataframe with the image URLs
base_url = "https://raw.githubusercontent.com/Azure-Samples/cognitive-services-sample-data-files/master/ComputerVision/Images/"
df = spark.createDataFrame(
[
(base_url + "objects.jpg",),
(base_url + "dog.jpg",),
(base_url + "house.jpg",),
],
[
"image",
],
)
# Run the Computer Vision service. Analyze Image extracts information from/about the images.
analysis = (
AnalyzeImage()
.setLocation(service_loc)
.setSubscriptionKey(service_key)
.setVisualFeatures(
["Categories", "Color", "Description", "Faces", "Objects", "Tags"]
)
.setOutputCol("analysis_results")
.setImageUrlCol("image")
.setErrorCol("error")
)
# Show the results of what you wanted to pull out of the images.
display(analysis.transform(df).select("image", "analysis_results.description.tags"))
Przykład wyszukiwania obrazów Bing
Wyszukiwanie obrazów Bing wyszukuje w Internecie w celu pobrania obrazów powiązanych z zapytaniem w języku naturalnym użytkownika. W tym przykładzie używamy zapytania tekstowego, które wyszukuje obrazy z cudzysłowami. Zwraca listę adresów URL obrazów, które zawierają zdjęcia związane z naszym zapytaniem.
# Number of images Bing will return per query
imgsPerBatch = 10
# A list of offsets, used to page into the search results
offsets = [(i * imgsPerBatch,) for i in range(100)]
# Since web content is our data, we create a dataframe with options on that data: offsets
bingParameters = spark.createDataFrame(offsets, ["offset"])
# Run the Bing Image Search service with our text query
bingSearch = (
BingImageSearch()
.setSubscriptionKey(bing_search_key)
.setOffsetCol("offset")
.setQuery("Martin Luther King Jr. quotes")
.setCount(imgsPerBatch)
.setOutputCol("images")
)
# Transformer that extracts and flattens the richly structured output of Bing Image Search into a simple URL column
getUrls = BingImageSearch.getUrlTransformer("images", "url")
# This displays the full results returned, uncomment to use
# display(bingSearch.transform(bingParameters))
# Since we have two services, they are put into a pipeline
pipeline = PipelineModel(stages=[bingSearch, getUrls])
# Show the results of your search: image URLs
display(pipeline.transform(bingParameters))
Przykład zamiany mowy na tekst
Usługa zamiany mowy na tekst konwertuje strumienie lub pliki dźwięku mówionego na tekst. W tym przykładzie transkrypujemy jeden plik audio.
# Create a dataframe with our audio URLs, tied to the column called "url"
df = spark.createDataFrame(
[("https://mmlspark.blob.core.windows.net/datasets/Speech/audio2.wav",)], ["url"]
)
# Run the Speech-to-text service to translate the audio into text
speech_to_text = (
SpeechToTextSDK()
.setSubscriptionKey(service_key)
.setLocation(service_loc)
.setOutputCol("text")
.setAudioDataCol("url")
.setLanguage("en-US")
.setProfanity("Masked")
)
# Show the results of the translation
display(speech_to_text.transform(df).select("url", "text.DisplayText"))
Przykład zamiany tekstu na mowę
Zamiana tekstu na mowę to usługa, która umożliwia tworzenie aplikacji i usług, które mówią naturalnie, wybierając spośród ponad 270 neuronowych głosów w 119 językach i wariantach.
from synapse.ml.cognitive import TextToSpeech
fs = ""
if running_on_databricks():
fs = "dbfs:"
elif running_on_synapse_internal():
fs = "Files"
# Create a dataframe with text and an output file location
df = spark.createDataFrame(
[
(
"Reading out loud is fun! Check out aka.ms/spark for more information",
fs + "/output.mp3",
)
],
["text", "output_file"],
)
tts = (
TextToSpeech()
.setSubscriptionKey(service_key)
.setTextCol("text")
.setLocation(service_loc)
.setVoiceName("en-US-JennyNeural")
.setOutputFileCol("output_file")
)
# Check to make sure there were no errors during audio creation
display(tts.transform(df))
przykład Narzędzie do wykrywania anomalii
Narzędzie do wykrywania anomalii doskonale nadaje się do wykrywania nieprawidłowości w danych szeregów czasowych. W tym przykładzie używamy usługi do znajdowania anomalii w całej serii czasowej.
# Create a dataframe with the point data that Anomaly Detector requires
df = spark.createDataFrame(
[
("1972-01-01T00:00:00Z", 826.0),
("1972-02-01T00:00:00Z", 799.0),
("1972-03-01T00:00:00Z", 890.0),
("1972-04-01T00:00:00Z", 900.0),
("1972-05-01T00:00:00Z", 766.0),
("1972-06-01T00:00:00Z", 805.0),
("1972-07-01T00:00:00Z", 821.0),
("1972-08-01T00:00:00Z", 20000.0),
("1972-09-01T00:00:00Z", 883.0),
("1972-10-01T00:00:00Z", 898.0),
("1972-11-01T00:00:00Z", 957.0),
("1972-12-01T00:00:00Z", 924.0),
("1973-01-01T00:00:00Z", 881.0),
("1973-02-01T00:00:00Z", 837.0),
("1973-03-01T00:00:00Z", 9000.0),
],
["timestamp", "value"],
).withColumn("group", lit("series1"))
# Run the Anomaly Detector service to look for irregular data
anomaly_detector = (
SimpleDetectAnomalies()
.setSubscriptionKey(anomaly_key)
.setLocation(anomaly_loc)
.setTimestampCol("timestamp")
.setValueCol("value")
.setOutputCol("anomalies")
.setGroupbyCol("group")
.setGranularity("monthly")
)
# Show the full results of the analysis with the anomalies marked as "True"
display(
anomaly_detector.transform(df).select("timestamp", "value", "anomalies.isAnomaly")
)
Dowolne internetowe interfejsy API
Protokół HTTP na platformie Spark umożliwia użycie dowolnej usługi internetowej w potoku danych big data. W tym przykładzie użyjemy interfejsu API Banku Światowego, aby uzyskać informacje o różnych krajach/regionach na całym świecie.
# Use any requests from the python requests library
def world_bank_request(country):
return Request(
"GET", "http://api.worldbank.org/v2/country/{}?format=json".format(country)
)
# Create a dataframe with specifies which countries/regions we want data on
df = spark.createDataFrame([("br",), ("usa",)], ["country"]).withColumn(
"request", http_udf(world_bank_request)(col("country"))
)
# Much faster for big data because of the concurrency :)
client = (
HTTPTransformer().setConcurrency(3).setInputCol("request").setOutputCol("response")
)
# Get the body of the response
def get_response_body(resp):
return resp.entity.content.decode()
# Show the details of the country data returned
display(
client.transform(df).select(
"country", udf(get_response_body)(col("response")).alias("response")
)
)
Przykład usługi Azure AI Search
W tym przykładzie pokazano, jak wzbogacić dane przy użyciu umiejętności poznawczych i zapisać w indeksie usługi Azure Search przy użyciu usługi SynapseML.
search_service = "mmlspark-azure-search"
search_index = "test-33467690"
df = spark.createDataFrame(
[
(
"upload",
"0",
"https://mmlspark.blob.core.windows.net/datasets/DSIR/test1.jpg",
),
(
"upload",
"1",
"https://mmlspark.blob.core.windows.net/datasets/DSIR/test2.jpg",
),
],
["searchAction", "id", "url"],
)
tdf = (
AnalyzeImage()
.setSubscriptionKey(service_key)
.setLocation(service_loc)
.setImageUrlCol("url")
.setOutputCol("analyzed")
.setErrorCol("errors")
.setVisualFeatures(
["Categories", "Tags", "Description", "Faces", "ImageType", "Color", "Adult"]
)
.transform(df)
.select("*", "analyzed.*")
.drop("errors", "analyzed")
)
tdf.writeToAzureSearch(
subscriptionKey=search_key,
actionCol="searchAction",
serviceName=search_service,
indexName=search_index,
keyCol="id",
)
Inne samouczki
Poniższe samouczki zawierają kompletne przykłady korzystania z usług Azure AI w usłudze Synapse Analytics.
Analiza tonacji za pomocą usług Azure AI — korzystając z przykładowego zestawu danych komentarzy klientów, tworzysz tabelę Platformy Spark z kolumną wskazującą tonację komentarzy w każdym wierszu.
Wykrywanie anomalii w usługach Azure AI — korzystając z przykładowego zestawu danych szeregów czasowych, tworzysz tabelę Platformy Spark z kolumną wskazującą, czy dane w każdym wierszu są anomalią.
Tworzenie aplikacji uczenia maszynowego przy użyciu usługi Microsoft Machine Edukacja dla platformy Apache Spark — w tym samouczku pokazano, jak używać usługi SynapseML do uzyskiwania dostępu do kilku modeli z usług Azure AI.
Analiza dokumentów w usługach Azure AI pokazuje, jak używać analizy dokumentów do analizowania formularzy i dokumentów, wyodrębniania tekstu i danych w usłudze Azure Synapse Analytics.
analiza tekstu z usługami azure AI pokazuje, jak używać analiza tekstu do analizowania tekstu bez struktury w usłudze Azure Synapse Analytics.
Usługa Translator z usługami Azure AI pokazuje, jak używać usługi Translator do tworzenia inteligentnych, wielojęzycznych rozwiązań w usłudze Azure Synapse Analytics
przetwarzanie obrazów z usługami Azure AI pokazuje, jak używać przetwarzanie obrazów do analizowania obrazów w usłudze Azure Synapse Analytics.
Dostępne interfejsy API usług AI platformy Azure
Wyszukiwanie obrazów Bing
Typ interfejsu API | Interfejsy API usługi SynapseML | Interfejsy API usług AI platformy Azure (wersje) | Obsługa sieci wirtualnej programu DEP |
---|---|---|---|
Wyszukiwanie obrazów Bing | BingImageSearch | Obrazy — wyszukiwanie wizualne w wersji 7.0 | Nieobsługiwany |
Narzędzie do wykrywania anomalii
Typ interfejsu API | Interfejsy API usługi SynapseML | Interfejsy API usług AI platformy Azure (wersje) | Obsługa sieci wirtualnej programu DEP |
---|---|---|---|
Wykrywanie ostatniej anomalii | DetectLastAnomaly | Wykrywanie ostatniego punktu w wersji 1.0 | Obsługiwane |
Wykrywanie anomalii | DetectAnomalies | Wykrywanie całej serii w wersji 1.0 | Obsługiwane |
Simple DetectAnomalies | SimpleDetectAnomalies | Wykrywanie całej serii w wersji 1.0 | Obsługiwane |
Przetwarzanie obrazów
Typ interfejsu API | Interfejsy API usługi SynapseML | Interfejsy API usług AI platformy Azure (wersje) | Obsługa sieci wirtualnej programu DEP |
---|---|---|---|
OCR | OCR | Rozpoznawanie tekstu drukowanego w wersji 2.0 | Obsługiwane |
Rozpoznawanie tekstu | RecognizeText | Rozpoznawanie tekstu w wersji 2.0 | Obsługiwane |
Odczyt obrazu | ReadImage | Odczyt wersji 3.1 | Obsługiwane |
Generowanie miniatur | GenerateThumbnails | Generowanie miniatury w wersji 2.0 | Obsługiwane |
Analizowanie obrazu | AnalyzeImage | Analizowanie obrazu w wersji 2.0 | Obsługiwane |
Rozpoznawanie zawartości specyficznej dla domeny | RecognizeDomainSpecificContent | Analizowanie obrazu według domeny w wersji 2.0 | Obsługiwane |
Obraz tagu | TagImage | Tagowanie obrazu w wersji 2.0 | Obsługiwane |
Opisywanie obrazu | DescribeImage | Opis obrazu w wersji 2.0 | Obsługiwane |
Translator
Typ interfejsu API | Interfejsy API usługi SynapseML | Interfejsy API usług AI platformy Azure (wersje) | Obsługa sieci wirtualnej programu DEP |
---|---|---|---|
Przetłumacz tekst | Tłumaczenie | Tłumaczenie wersji 3.0 | Nieobsługiwany |
Transliteracja tekstu | Transliteracja | Transliteracja wersji 3.0 | Nieobsługiwany |
Wykrywanie języka | Wykryj | Wykrywanie wersji 3.0 | Nieobsługiwany |
Podział zdania | BreakSentence | Podział zdania w wersji 3.0 | Nieobsługiwany |
Wyszukiwanie słownika (alternatywne tłumaczenia) | SłownikLookup | Wyszukiwanie słownika w wersji 3.0 | Nieobsługiwany |
Tłumaczenie dokumentu | DocumentTranslator | Tłumaczenie dokumentów w wersji 1.0 | Nieobsługiwany |
Rozpoznawanie twarzy
Typ interfejsu API | Interfejsy API usługi SynapseML | Interfejsy API usług AI platformy Azure (wersje) | Obsługa sieci wirtualnej programu DEP |
---|---|---|---|
Wykrywanie twarzy | DetectFace | Wykrywanie przy użyciu adresu URL w wersji 1.0 | Obsługiwane |
Znajdź podobną twarz | FindSimilarFace | Znajdź podobne 1.0 | Obsługiwane |
Grupuj twarze | GroupFaces | Grupa w wersji 1.0 | Obsługiwane |
Identyfikowanie twarzy | IdentifyFaces | Identyfikowanie wersji 1.0 | Obsługiwane |
Weryfikowanie twarzy | VerifyFaces | Weryfikowanie twarzy w wersji 1.0 | Obsługiwane |
Analiza dokumentów
Typ interfejsu API | Interfejsy API usługi SynapseML | Interfejsy API usług AI platformy Azure (wersje) | Obsługa sieci wirtualnej programu DEP |
---|---|---|---|
Analizowanie układu | AnalyzeLayout | Analizowanie układu asynchronicznego w wersji 2.1 | Obsługiwane |
Analizowanie paragonów | AnalyzeReceipts | Analizowanie potwierdzenia asynchronicznego w wersji 2.1 | Obsługiwane |
Analizowanie wizytówek | AnalyzeBusinessCards | Analizowanie wizytówek asynchronicznych w wersji 2.1 | Obsługiwane |
Analizowanie faktur | AnalyzeInvoices | Analizowanie faktury asynchroniczne w wersji 2.1 | Obsługiwane |
Analizowanie dokumentów identyfikatorów | AnalyzeIDDocuments | model dokumentu identyfikacji (ID) w wersji 2.1 | Obsługiwane |
Wyświetlanie listy modeli niestandardowych | ListCustomModels | Wyświetlanie listy modeli niestandardowych w wersji 2.1 | Obsługiwane |
Pobieranie modelu niestandardowego | GetCustomModel | Pobieranie modeli niestandardowych w wersji 2.1 | Obsługiwane |
Analizowanie modelu niestandardowego | AnalyzeCustomModel | Analizowanie za pomocą modelu niestandardowego w wersji 2.1 | Obsługiwane |
Zamiana mowy na tekst
Typ interfejsu API | Interfejsy API usługi SynapseML | Interfejsy API usług AI platformy Azure (wersje) | Obsługa sieci wirtualnej programu DEP |
---|---|---|---|
Zamiana mowy na tekst | SpeechToText | SpeechToText V1.0 | Nieobsługiwany |
Zestaw SDK zamiany mowy na tekst | SpeechToTextSDK | Korzystanie z zestawu Speech SDK w wersji 1.14.0 | Nieobsługiwany |
Analiza tekstu
Typ interfejsu API | Interfejsy API usługi SynapseML | Interfejsy API usług AI platformy Azure (wersje) | Obsługa sieci wirtualnej programu DEP |
---|---|---|---|
Tonacja tekstu w wersji 2 | TextSentimentV2 | Tonacja w wersji 2.0 | Obsługiwane |
Detektor języka v2 | LanguageDetectorV2 | Języki w wersji 2.0 | Obsługiwane |
Narzędzia do wykrywania jednostek w wersji 2 | EntityDetectorV2 | Jednostki łączące 2.0 | Obsługiwane |
NER V2 | NERV2 | Ogólne rozpoznawanie jednostek w wersji 2.0 | Obsługiwane |
Kluczowy moduł wyodrębniania fraz w wersji 2 | KeyPhraseExtractorV2 | Frazy kluczowe w wersji 2.0 | Obsługiwane |
Tonacja tekstu | TextSentiment | Tonacja w wersji 3.1 | Obsługiwane |
Moduł wyodrębniania kluczowych fraz | KeyPhraseExtractor | Frazy kluczowe w wersji 3.1 | Obsługiwane |
DANE OSOBOWE | DANE OSOBOWE | Rozpoznawanie jednostek Pii w wersji 3.1 | Obsługiwane |
NER | NER | Rozpoznawanie jednostek — ogólna wersja 3.1 | Obsługiwane |
Detektor języka | LanguageDetector | Języki w wersji 3.1 | Obsługiwane |
Detektor jednostek | EntityDetector | Jednostki łączące 3.1 | Obsługiwane |