Referenz zur REST-API von Azure OpenAI Service

Dieser Artikel enthält Details zu den REST API-Rückschlussendpunkten für Azure OpenAI.

Authentication

Azure OpenAI bietet zwei Authentifizierungsmethoden. Sie können entweder API-Schlüssel oder Microsoft Entra-ID verwenden.

  • API-Schlüssel-Authentifizierung: Bei dieser Art der Authentifizierung müssen alle API-Anforderungen den API-Schlüssel in den api-key-HTTP-Header einbeziehen. Die Schnellstartanleitung bietet eine Anleitung, wie Sie mit dieser Art der Authentifizierung Aufrufe tätigen können.

  • Microsoft Entra ID-Authentifizierung: Sie können einen API-Aufruf mit einem Microsoft Entra-Token authentifizieren. Authentifizierungstoken werden als Authorization-Header in eine Anforderung eingefügt. Dem bereitgestellten Token muss Bearer vorangestellt werden. Beispiel: Bearer YOUR_AUTH_TOKEN. Sie können unsere Anleitung zur Authentifizierung mit Microsoft Entra ID lesen.

REST-API-Versionsverwaltung

Die Dienst-APIs erhalten mithilfe des Abfrageparameters api-version ihre Versionsangaben. Alle Versionen folgen der Datumsstruktur JJJJ-MM-TT. Beispiel:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/completions?api-version=2024-02-01

Vervollständigungen

Mit dem Vorgang „Vervollständigungen“ generiert das Modell eine oder mehrere vorhergesagte Vervollständigungen auf der Grundlage einer bereitgestellten Äußerung. Der Dienst kann auch die Wahrscheinlichkeiten der alternativen Token an jeder Position zurückgeben.

Erstellen einer Vervollständigung

POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/completions?api-version={api-version}

Pfadparameter

Parameter type Erforderlich? BESCHREIBUNG
your-resource-name Zeichenfolge Erforderlich Der Name Ihrer Azure OpenAI-Ressource.
deployment-id Zeichenfolge Erforderlich Der Bereitstellungsname, den Sie bei der Bereitstellung des Modells ausgewählt haben.
api-version Zeichenfolge Erforderlich Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Sie hat das Format „JJJJ-MM-TT“.

Unterstützte Versionen

Anforderungstext

Parameter type Erforderlich? Standard BESCHREIBUNG
prompt Zeichenfolge oder Array Optional <\|endoftext\|> Der Prompt oder die Prompts für die Vervollständigungen generiert werden sollen, codiert als Zeichenfolge oder als Array von Zeichenfolgen. <\|endoftext\|> ist das Dokumententrennzeichen, welches das Modell während des Trainings sieht. Wenn also keine Äußerung angegeben wird, generiert das Modell so, als würde es am Anfang eines neuen Dokuments stehen.
max_tokens integer Optional 16 Die maximale Anzahl von Token, die in der Vervollständigung generiert werden. Die Tokenanzahl Ihrer Äußerung plus „max_tokens“ darf die Kontextlänge des Modells nicht überschreiten. Die meisten Modelle haben eine Kontextlänge von 2048 Token (mit Ausnahme der neuesten Modelle, die 4096 unterstützen).
temperature number Optional 1 Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Höhere Werte bedeuten, dass das Modell mehr Risiken eingeht. Versuchen Sie es mit 0,9 für kreativere Anwendungen und 0 (argmax sampling) für Anwendungen mit einer klar definierten Antwort. Wir empfehlen im Allgemeinen, dies oder „top_p“ zu ändern, aber nicht beides.
top_p number Optional 1 Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
logit_bias Karte Optional NULL Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugehörigen Tendenzwert von -100 bis 100 zuordnet. Sie können dieses Tokenizertool (das sowohl für GPT-2 als auch für GPT-3 funktioniert) verwenden, um Text in Token-IDs zu konvertieren. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. Als Beispiel können Sie {"50256": -100}, um zu verhindern, dass das Token <|endoftext|> generiert wird.
user Zeichenfolge Optional Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann.
n integer Optional 1 Wie viele Vervollständigungen für jede Äußerung generiert werden sollen. Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für „max_tokens“ und „stop“ verwenden.
stream boolean Optional False Gibt an, ob der Teilfortschritt zurückgestreamt werden soll. Wenn diese Option festgelegt ist, werden die Token als reine Serverereignisse gesendet, sobald sie verfügbar sind, wobei der Stream durch die Nachricht „data: [DONE]“ beendet wird.
logprobs integer Optional NULL Beziehen Sie die logarithmierten Wahrscheinlichkeiten für die wahrscheinlichsten Token von „logprobs“ sowie die ausgewählten Token ein. Wenn z. B. „logprobs“ 10 ist, gibt die API eine Liste der zehn wahrscheinlichsten Token zurück. Die API gibt immer den „logprob“ des Tokens der Stichprobenentnahme zurück, sodass die Antwort bis zu „logprobs+1“ Elemente enthalten kann. Dieser Parameter kann nicht mit gpt-35-turbo verwendet werden.
suffix Zeichenfolge Optional NULL Das Suffix, das nach einer Vervollständigung des eingefügten Texts folgt.
echo boolean Optional False Gibt die Eingabeaufforderung zusätzlich zum Abschluss zurück. Dieser Parameter kann nicht mit gpt-35-turbo verwendet werden.
stop Zeichenfolge oder Array Optional NULL Bis zu vier Sequenzen, in denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text wird die Beendigungssequenz nicht enthalten. Für GPT-4 Turbo mit Vision werden bis zu zwei Sequenzen unterstützt.
presence_penalty Zahl Optional 0 Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht.
frequency_penalty number Optional 0 Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt.
best_of integer Optional 1 Generiert serverseitige „best_of“-Vervollständigungen und gibt die „beste“ zurück (diejenige mit der geringsten logarithmierten Wahrscheinlichkeit pro Token). Die Ergebnisse können nicht gestreamt werden. Wenn Sie diese Funktion zusammen mit „n“ verwenden, steuert „best_of“ die Anzahl der möglichen Vervollständigungen und „n“ gibt an, wie viele zurückgegeben werden sollen – „best_of“ muss größer als „n“ sein. Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für „max_tokens“ und „stop“ verwenden. Dieser Parameter kann nicht mit gpt-35-turbo verwendet werden.

Beispielanforderung

curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/completions?api-version=2024-02-01\
  -H "Content-Type: application/json" \
  -H "api-key: YOUR_API_KEY" \
  -d "{
  \"prompt\": \"Once upon a time\",
  \"max_tokens\": 5
}"

Beispielantwort

{
    "id": "cmpl-4kGh7iXtjW4lc9eGhff6Hp8C7btdQ",
    "object": "text_completion",
    "created": 1646932609,
    "model": "ada",
    "choices": [
        {
            "text": ", a dark line crossed",
            "index": 0,
            "logprobs": null,
            "finish_reason": "length"
        }
    ]
}

In der Beispielantwort ist finish_reason dasselbe wie stop. Wenn finish_reason gleich content_filter ist, lesen Sie den Leitfaden zur Inhaltsfilterung, um zu verstehen, warum dies geschieht.

Einbettungen

Rufen Sie eine Vektordarstellung einer bestimmten Eingabe ab, die von Machine Learning-Modellen und anderen Algorithmen leicht verarbeitet werden kann.

Hinweis

OpenAI ermöglicht derzeit eine größere Anzahl von Arrayeingaben mit text-embedding-ada-002. Azure OpenAI unterstützt derzeit Eingabearrays bis zu 16 für text-embedding-ada-002 (Version 2). In diesem Modell erfordern beide, dass das Maximum eingegebener Token pro API-Anforderung unter 8191 bleibt.

Erstellen einer Einbettung

POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/embeddings?api-version={api-version}

Pfadparameter

Parameter type Erforderlich? BESCHREIBUNG
your-resource-name Zeichenfolge Erforderlich Der Name Ihrer Azure OpenAI-Ressource.
deployment-id Zeichenfolge Erforderlich Der Name der Modellimplementierung. Sie müssen zuerst ein Modell bereitstellen, bevor Sie Aufrufe tätigen können.
api-version Zeichenfolge Erforderlich Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Sie hat das Format „JJJJ-MM-TT“.

Unterstützte Versionen

Anforderungstext

Parameter type Erforderlich? Standard BESCHREIBUNG
input Zeichenfolge oder Array Ja Nicht zutreffend Eingabetext, für den Sie Einbettungen abrufen können, codiert als Array oder als Zeichenfolge. Die Anzahl der Eingabetoken hängt vom verwendeten Modell ab. Nur text-embedding-ada-002 (Version 2) unterstützt Arrayeingaben.
user Zeichenfolge Nein Null Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt. Dies wird Azure OpenAI helfen, Missbrauch zu überwachen und zu erkennen. Geben Sie keine PII-Bezeichner weiter, sondern verwenden Sie pseudoanonymisierte Werte wie GUIDs
encoding_format Zeichenfolge No float Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64 sein. Wird standardmäßig auf float festgelegt.

[Hinzugefügt in 2024-03-01-preview].
dimensions integer No Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt.

[Hinzugefügt in 2024-03-01-preview]

Beispielanforderung

curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings?api-version=2024-02-01 \
  -H "Content-Type: application/json" \
  -H "api-key: YOUR_API_KEY" \
  -d "{\"input\": \"The food was delicious and the waiter...\"}"

Beispielantwort

{
  "object": "list",
  "data": [
    {
      "object": "embedding",
      "embedding": [
        0.018990106880664825,
        -0.0073809814639389515,
        .... (1024 floats total for ada)
        0.021276434883475304,
      ],
      "index": 0
    }
  ],
  "model": "text-similarity-babbage:001"
}

Chatvervollständigungen

Sie können Vervollständigungen für Chatnachrichten mit dem GPT-35-Turbo- und GPT-4-Modell erstellen.

Erstellen von Chatvervollständigungen

POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/chat/completions?api-version={api-version}

Pfadparameter

Parameter type Erforderlich? BESCHREIBUNG
your-resource-name Zeichenfolge Erforderlich Der Name Ihrer Azure OpenAI-Ressource.
deployment-id Zeichenfolge Erforderlich Der Name der Modellimplementierung. Sie müssen zuerst ein Modell bereitstellen, bevor Sie Aufrufe tätigen können.
api-version Zeichenfolge Erforderlich Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Dies entspricht dem Format „JJJJ-MM-TT“ oder „JJJJ-MM-TT-preview“.

Unterstützte Versionen

Anforderungstext

Der Anforderungstext besteht aus einer Reihe von Nachrichten. Das Modell generiert eine Antwort auf die letzte Nachricht, wobei frühere Nachrichten als Kontext verwendet werden.

Parameter type Erforderlich? Standard BESCHREIBUNG
messages array Ja N/V Die Reihe von Nachrichten, die dieser Chatabschlussanfrage zugeordnet sind. Sie sollte vorherige Nachrichten in die Unterhaltung aufnehmen. Jede Meldung verfügt über role und content.
role Zeichenfolge Ja N/V Gibt an, wer die aktuelle Nachricht angibt. Kann system,user,assistant,tool oder function sein.
content Zeichenfolge oder Array Ja N/V Der Inhalt der Nachricht. Es muss eine Zeichenfolge sein, es sei denn, es handelt sich um ein Vision-Szenario. Wenn es sich um einen Teil der user Nachricht handelt, der das GPT-4 Turbo with Vision-Modell mit der neuesten API-content Version verwendet, muss es sich um ein Array von Strukturen handeln, wobei jedes Element entweder Text oder ein Bild darstellt:
  • text: Eingabetext wird als Struktur mit den folgenden Eigenschaften dargestellt:
    • type = "text"
    • text = der Eingabetext
  • images: Ein Eingabebild wird als Struktur mit den folgenden Eigenschaften dargestellt:
    • type = "image_url"
    • image_url = eine Struktur mit den folgenden Eigenschaften:
      • url = die Bild-URL
      • (optional) detail = high, low oder auto
contentPart Objekt Nein Teil der mehr modalen Nachricht eines Benutzers. Es kann sich um Texttyp oder Bildtyp sein. Bei Text handelt es sich um eine Textzeichenfolge. Wenn Bild, wird es ein contentPartImage-Objekt sein.
contentPartImage Objekt Nein Stellt ein vom Benutzer hochgeladenes Bild dar. Es verfügt über eine url-Eigenschaft, die entweder eine URL des Bilds oder die base64-codierten Bilddaten sind. Es hat auch eine detail-Eigenschaft, die kann auto, lowoder high sein.
enhancements Objekt Nein Stellt die für den Chat angeforderten Vision-Erweiterungsfeatures dar. Es verfügt über grounding- und ocr-Eigenschaften, und jede verfügt über eine boolesche enabled-Eigenschaft. Verwenden Sie diese, um den OCR-Dienst und/oder den Objekterkennungs-/Erdungsdienst anzufordern [Dieser Vorschauparameter ist in der 2024-02-01-GA-API nicht verfügbar].
dataSources Objekt Nein Stellt zusätzliche Ressourcendaten dar. Computer Vision-Ressourcendaten sind für die Verbesserung von Vision erforderlich. Es hat eine type-Eigenschaft, die "AzureComputerVision" sein sollte, und eine parameters-Eigenschaft, die eine endpoint- und key-Eigenschaft hat. Diese Zeichenfolgen sollten auf die Endpunkt-URL und den Zugriffsschlüssel Ihrer Computer Vision-Ressource festgelegt werden.

Beispielanforderung

Nur-Text-Chat

curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-02-01 \
  -H "Content-Type: application/json" \
  -H "api-key: YOUR_API_KEY" \
  -d '{"messages":[{"role": "system", "content": "You are a helpful assistant."},{"role": "user", "content": "Does Azure OpenAI support customer managed keys?"},{"role": "assistant", "content": "Yes, customer managed keys are supported by Azure OpenAI."},{"role": "user", "content": "Do other Azure AI services support this too?"}]}'

Mit Vision chatten

curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2023-12-01-preview \
  -H "Content-Type: application/json" \
  -H "api-key: YOUR_API_KEY" \
  -d '{"messages":[{"role":"system","content":"You are a helpful assistant."},{"role":"user","content":[{"type":"text","text":"Describe this picture:"},{ "type": "image_url", "image_url": { "url": "https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png", "detail": "high" } }]}]}'

Erweiterter Chat mit Vision

curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/extensions/chat/completions?api-version=2023-12-01-preview \
  -H "Content-Type: application/json" \
  -H "api-key: YOUR_API_KEY" \
  -d '{"enhancements":{"ocr":{"enabled":true},"grounding":{"enabled":true}},"dataSources":[{"type":"AzureComputerVision","parameters":{"endpoint":" <Computer Vision Resource Endpoint> ","key":"<Computer Vision Resource Key>"}}],"messages":[{"role":"system","content":"You are a helpful assistant."},{"role":"user","content":[{"type":"text","text":"Describe this picture:"},{"type":"image_url","image_url":"https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png"}]}]}'

Beispielantwort

{
    "id": "chatcmpl-6v7mkQj980V1yBec6ETrKPRqFjNw9",
    "object": "chat.completion",
    "created": 1679072642,
    "model": "gpt-35-turbo",
    "usage":
    {
        "prompt_tokens": 58,
        "completion_tokens": 68,
        "total_tokens": 126
    },
    "choices":
    [
        {
            "message":
            {
                "role": "assistant",
                "content": "Yes, other Azure AI services also support customer managed keys.
                    Azure AI services offer multiple options for customers to manage keys, such as
                    using Azure Key Vault, customer-managed keys in Azure Key Vault or
                    customer-managed keys through Azure Storage service. This helps customers ensure
                    that their data is secure and access to their services is controlled."
            },
            "finish_reason": "stop",
            "index": 0
        }
    ]
}

Die Ausgabeformatierung wurde zur erleichterten Lesbarkeit angepasst, die tatsächliche Ausgabe ist ein einzelner Textblock ohne Zeilenumbrüche.

In der Beispielantwort ist finish_reason dasselbe wie stop. Wenn finish_reason gleich content_filter ist, lesen Sie den Leitfaden zur Inhaltsfilterung, um zu verstehen, warum dies geschieht.

Wichtig

Die Parameter functions und function_call wurden mit der Veröffentlichung der Version 2023-12-01-preview der API als veraltet markiert. Der Ersatz für functions ist der Parameter tools. Der Ersatz für function_call ist der Parameter tool_choice. Parallele Funktionsaufrufe, die als Teil von 2023-12-01-preview eingeführt wurden, werden nur mit gpt-35-turbo (1106) und gpt-4 (1106-Vorschau) unterstützt, auch als GPT-4 Turbo Preview bezeichnet.

Parameter type Erforderlich? Standard BESCHREIBUNG
messages array Erforderlich Die Sammlung von Kontextnachrichten, die dieser Chatabschlussanforderung zugeordnet sind. Die typische Verwendung beginnt mit einer Chatnachricht für die Systemrolle, die Anweisungen zum Verhalten des Assistenten enthält, gefolgt von abwechselnden Nachrichten zwischen den Rollen „Benutzer“ und „Assistent“.
temperature Zahl Optional 1 Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
n integer Optional 1 Wie viele Optionen für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen.
stream boolean Optional false Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (nur Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch eine data: [DONE]-Nachricht beendet wird.
stop Zeichenfolge oder Array Optional NULL Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren.
max_tokens integer Optional inf Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig ist die Anzahl der vom Modell zurückgegebenen Token (4096 - Äußerungstoken).
presence_penalty number Optional 0 Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht.
frequency_penalty number Optional 0 Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt.
logit_bias Objekt (object) Optional NULL Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen.
user Zeichenfolge Optional Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und Azure OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann.
function_call Optional [Deprecated in 2023-12-01-preview replacement parameter is tools_choice]Steuert, wie das Modell auf Funktionsaufrufe reagiert. „none“ bedeutet, dass das Modell keine Funktion aufruft und Endbenutzer*innen antwortet. auto bedeutet, dass das Modell zwischen einem Endbenutzer oder dem Aufrufen einer Funktion auswählen kann. Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese Funktion aufzurufen. „none“ ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind. Für diesen Parameter ist die API-Version 2023-07-01-preview erforderlich.
functions FunctionDefinition[] Optional [Deprecated in 2023-12-01-preview replacement paremeter is tools] Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann. Für diesen Parameter ist die API-Version 2023-07-01-preview erforderlich.
tools Zeichenfolge (Der Typ des Tools. Nur function wird unterstützt.) Optional Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. Für diesen Parameter ist die API-Version 2023-12-01-preview erforderlich.
tool_choice Zeichenfolge oder Objekt Optional „none“ ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind. Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird. „None“ bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Meldung generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann. Wenn Sie über {"type: "function", "function": {"name": "my_function"}} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese Funktion aufzurufen. Für diesen Parameter ist die API-Version 2023-12-01-preview oder höher erforderlich.

ChatMessage

Eine einzelne, rollenbezogene Nachricht innerhalb einer Chatvervollständigungsinteraktion.

Name Typ Beschreibung
Inhalt Zeichenfolge Der Text, der dieser Nachrichtennutzlast zugeordnet ist.
function_call FunctionCall Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie sie vom Modell generiert werden.
name Zeichenfolge Der Name (name) des Autors dieser Nachricht. Der Name (name) ist erforderlich, wenn die Rolle „function“ lautet, und sollte der Name der Funktion sein, deren Antwort sich im Inhalt (content) befindet. Kann a-z, A-Z, 0-9 und Unterstriche mit einer maximalen Länge von 64 Zeichen enthalten.
role ChatRole Die Rolle, die dieser Nachrichtennutzlast zugeordnet ist.

ChatRole

Eine Beschreibung des beabsichtigten Zwecks einer Nachricht innerhalb einer Chatvervollständigungsinteraktion.

Name Typ Beschreibung
assistant Zeichenfolge Die Rolle, die Antworten auf vom System angewiesene, vom Benutzer angeforderte Eingaben bereitstellt.
Funktion Zeichenfolge Die Rolle, die Funktionsergebnisse für Chatvervollständigungen bereitstellt.
system Zeichenfolge Die Rolle, die das Verhalten des Assistenten anweist oder festlegt.
user Zeichenfolge Die Rolle, die Eingaben für Chatvervollständigungen bereitstellt.

Funktion

Dies wird mit dem Parameter tools verwendet, der in der API-Version 2023-12-01-preview hinzugefügt wurde.

Name Typ BESCHREIBUNG
Beschreibung string Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird
name Zeichenfolge Der Name der Funktion, die aufgerufen werden soll. Muss aus a-z, A-Z, 0-9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64.
Parameter Objekt Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt. Weitere Informationen zum Format finden Sie in der JSON-Schemareferenz.

FunctionCall-Deprecated

Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie sie vom Modell generiert werden. Hierfür ist die API-Version 2023-07-01-preview erforderlich.

Name Typ Beschreibung
Argumente Zeichenfolge Die Argumente, mit denen die Funktion aufgerufen werden soll, wie sie vom Modell im JSON-Format generiert werden. Modell generiert nicht immer gültige JSON-Werte und erstellt möglicherweise Parameter, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Ihre Funktion aufrufen.
name Zeichenfolge Der Name der aufzurufenden Funktion.

FunctionDefinition-Deprecated

Die Definition einer vom Aufrufer angegebenen Funktion, die Chatvervollständigungen als Reaktion auf übereinstimmende Benutzereingaben aufrufen können. Hierfür ist die API-Version 2023-07-01-preview erforderlich.

Name Typ BESCHREIBUNG
Beschreibung string Eine Beschreibung der Funktion. Das Modell verwendet diese Beschreibung, wenn die Funktion ausgewählt und die Parameter interpretiert werden.
name Zeichenfolge Der Name der Funktion, die aufgerufen werden soll.
Parameter Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt.

Erweiterungen für Vervollständigungen

Erweiterungen für Chat-Vervollständigungen, z. B. Azure OpenAI On Your Data.

Wichtig

Die folgenden Informationen sind für die Version 2023-12-01-preview der API vorgesehen. Dies ist nicht die aktuelle Version der API. Informationen zur neuesten Referenzdokumentation finden Sie unter Azure OpenAI auf Ihren Daten.

Verwenden von Erweiterungen für Chat-Vervollständigungen

POST {your-resource-name}/openai/deployments/{deployment-id}/extensions/chat/completions?api-version={api-version}

Pfadparameter

Parameter type Erforderlich? BESCHREIBUNG
your-resource-name Zeichenfolge Erforderlich Der Name Ihrer Azure OpenAI-Ressource.
deployment-id Zeichenfolge Erforderlich Der Name der Modellimplementierung. Sie müssen zuerst ein Modell bereitstellen, bevor Sie Aufrufe tätigen können.
api-version Zeichenfolge Erforderlich Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Sie hat das Format „JJJJ-MM-TT“.

Unterstützte Versionen

Beispielanforderung

Sie können Anforderungen mit Azure KI-Suche, Azure Cosmos DB für MongoDB vCore, Pinecone und Elasticsearch stellen. Weitere Informationen finden Sie unter Azure OpenAI On Your Data.

curl -i -X POST YOUR_RESOURCE_NAME/openai/deployments/YOUR_DEPLOYMENT_NAME/extensions/chat/completions?api-version=2023-06-01-preview \
-H "Content-Type: application/json" \
-H "api-key: YOUR_API_KEY" \
-d \
'
{
    "temperature": 0,
    "max_tokens": 1000,
    "top_p": 1.0,
    "dataSources": [
        {
            "type": "AzureCognitiveSearch",
            "parameters": {
                "endpoint": "YOUR_AZURE_COGNITIVE_SEARCH_ENDPOINT",
                "key": "YOUR_AZURE_COGNITIVE_SEARCH_KEY",
                "indexName": "YOUR_AZURE_COGNITIVE_SEARCH_INDEX_NAME"
            }
        }
    ],
    "messages": [
        {
            "role": "user",
            "content": "What are the differences between Azure Machine Learning and Azure AI services?"
        }
    ]
}
'
Azure Cosmos DB für MongoDB vCore
curl -i -X POST YOUR_RESOURCE_NAME/openai/deployments/YOUR_DEPLOYMENT_NAME/extensions/chat/completions?api-version=2023-06-01-preview \
-H "Content-Type: application/json" \
-H "api-key: YOUR_API_KEY" \
-d \
'
{
    "temperature": 0,
    "top_p": 1.0,
    "max_tokens": 800,
    "stream": false,
    "messages": [
        {
            "role": "user",
            "content": "What is the company insurance plan?"
        }
    ],
    "dataSources": [
        {
            "type": "AzureCosmosDB",
            "parameters": {
                "authentication": {
                    "type": "ConnectionString",
                    "connectionString": "mongodb+srv://onyourdatatest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
                },
                "databaseName": "vectordb",
                "containerName": "azuredocs",
                "indexName": "azuredocindex",
                "embeddingDependency": {
                    "type": "DeploymentName",
                    "deploymentName": "{embedding deployment name}"
                },
                "fieldsMapping": {
                    "vectorFields": [
                        "contentvector"
                    ]
                }
            }
        }
    ]
}
'
Elasticsearch
curl -i -X POST YOUR_RESOURCE_NAME/openai/deployments/YOUR_DEPLOYMENT_NAME/extensions/chat/completions?api-version=2023-12-01-preview \
-H "Content-Type: application/json" \
-H "api-key: YOUR_API_KEY" \
-d \
{
  "messages": [
    {
      "role": "system",
      "content": "you are a helpful assistant that talks like a pirate"
    },
    {
      "role": "user",
      "content": "can you tell me how to care for a parrot?"
    }
  ],
  "dataSources": [
    {
      "type": "Elasticsearch",
      "parameters": {
        "endpoint": "{search endpoint}",
        "indexName": "{index name}",
        "authentication": {
          "type": "KeyAndKeyId",
          "key": "{key}",
          "keyId": "{key id}"
        }
      }
    }
  ]
}
Azure Machine Learning
curl -i -X POST YOUR_RESOURCE_NAME/openai/deployments/YOUR_DEPLOYMENT_NAME/extensions/chat/completions?api-version=2023-12-01-preview \
-H "Content-Type: application/json" \
-H "api-key: YOUR_API_KEY" \
-d \
'
{
  "messages": [
    {
      "role": "system",
      "content": "you are a helpful assistant that talks like a pirate"
    },
    {
      "role": "user",
      "content": "can you tell me how to care for a parrot?"
    }
  ],
  "dataSources": [
    {
      "type": "AzureMLIndex",
      "parameters": {
        "projectResourceId": "/subscriptions/{subscription-id}/resourceGroups/{resource-group-name}/providers/Microsoft.MachineLearningServices/workspaces/{workspace-id}",
        "name": "my-project",
        "version": "5"
      }
    }
  ]
}
'
Pinecone
curl -i -X POST YOUR_RESOURCE_NAME/openai/deployments/YOUR_DEPLOYMENT_NAME/extensions/chat/completions?api-version=2023-12-01-preview \
-H "Content-Type: application/json" \
-H "api-key: YOUR_API_KEY" \
-d \
'
{
  "messages": [
    {
      "role": "system",
      "content": "you are a helpful assistant that talks like a pirate"
    },
    {
      "role": "user",
      "content": "can you tell me how to care for a parrot?"
    }
  ],
  "dataSources": [
    {
      "type": "Pinecone",
      "parameters": {
        "authentication": {
          "type": "APIKey",
          "apiKey": "{api key}"
        },
        "environment": "{environment name}",
        "indexName": "{index name}",
        "embeddingDependency": {
          "type": "DeploymentName",
          "deploymentName": "{embedding deployment name}"
        },
        "fieldsMapping": {
          "titleField": "title",
          "urlField": "url",
          "filepathField": "filepath",
          "contentFields": [
            "content"
          ],
          "contentFieldsSeparator": "\n"
        }
      }
    }
  ]
}
'

Beispielantwort

{
    "id": "12345678-1a2b-3c4e5f-a123-12345678abcd",
    "model": "",
    "created": 1684304924,
    "object": "chat.completion",
    "choices": [
        {
            "index": 0,
            "messages": [
                {
                    "role": "tool",
                    "content": "{\"citations\": [{\"content\": \"\\nAzure AI services are cloud-based artificial intelligence (AI) services...\", \"id\": null, \"title\": \"What is Azure AI services\", \"filepath\": null, \"url\": null, \"metadata\": {\"chunking\": \"orignal document size=250. Scores=0.4314117431640625 and 1.72564697265625.Org Highlight count=4.\"}, \"chunk_id\": \"0\"}], \"intent\": \"[\\\"Learn about Azure AI services.\\\"]\"}",
                    "end_turn": false
                },
                {
                    "role": "assistant",
                    "content": " \nAzure AI services are cloud-based artificial intelligence (AI) services that help developers build cognitive intelligence into applications without having direct AI or data science skills or knowledge. [doc1]. Azure Machine Learning is a cloud service for accelerating and managing the machine learning project lifecycle. [doc1].",
                    "end_turn": true
                }
            ]
        }
    ]
}
Parameter type Erforderlich? Standard BESCHREIBUNG
messages array Erforderlich NULL Die Nachrichten, für die Chatvervollständigungen generiert werden sollen, im Chatformat.
dataSources array Erforderlich Die Datenquellen, die für das Feature „Azure OpenAI On Your Data“ verwendet werden sollen.
temperature number Optional 0 Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides.
top_p number Optional 1 Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme, bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse top_p berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides.
stream boolean Optional false Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (nur Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch eine Nachricht "messages": [{"delta": {"content": "[DONE]"}, "index": 2, "end_turn": true}] beendet wird.
stop Zeichenfolge oder Array Optional NULL Bis zu zwei Sequenzen, bei denen die API aufhört, weitere Token zu generieren.
max_tokens integer Optional 1000 Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig beträgt die Anzahl der Token, die das Modell zurückgeben kann, 4096 - prompt_tokens.

Die folgenden Parameter können innerhalb des parameters-Felds innerhalb von dataSourcesverwendet werden.

Parameter type Erforderlich? Standard BESCHREIBUNG
type Zeichenfolge Erforderlich NULL Die Datenquelle, die für das Feature „Azure OpenAI On Your Data“ verwendet werden soll. Für Azure KI Search lautet der Wert AzureCognitiveSearch. Für Azure Cosmos DB for MongoDB vCore lautet der Wert AzureCosmosDB. Für Elasticsearch lautet der Wert Elasticsearch. Für Azure Machine Learning ist der Wert AzureMLIndex. Für Pinecone lautet der Wert Pinecone.
indexName Zeichenfolge Erforderlich NULL Der zu verwendende Suchindex.
inScope boolean Optional true Wenn dieser Wert festgelegt ist, beschränkt er die Antworten auf den zugrundeliegenden Dateninhalt.
topNDocuments Zahl Optional 5 Gibt die Anzahl der Topbewertungsdokumente aus Ihrem Datenindex an, die zum Generieren von Antworten verwendet werden. Möglicherweise möchten Sie den Wert erhöhen, wenn Sie kurze Dokumente haben oder mehr Kontext bereitstellen möchten. Dies ist der Parameter abgerufene Dokumente in Azure OpenAI Studio.
semanticConfiguration Zeichenfolge Optional NULL Die Konfiguration der semantischen Suche. Nur erforderlich, wenn queryType auf semantic oder vectorSemanticHybrid festgelegt ist.
roleInformation Zeichenfolge Optional NULL Gibt dem Modell Anweisungen dazu, wie es sich verhalten soll und auf welchen Kontext es beim Generieren einer Antwort verweisen soll. Entspricht der „Systemnachricht“ in Azure OpenAI Studio. Weitere Informationen finden Sie unter Verwenden Ihrer Daten. Es gibt ein Limit von 100 Token, das auf die Gesamtmenge der Token angerechnet wird.
filter Zeichenfolge Optional NULL Das Filtermuster, das zum Einschränken des Zugriffs auf vertrauliche Dokumente verwendet wird
embeddingEndpoint Zeichenfolge Optional NULL Die Endpunkt-URL für eine Ada-Einbettungsmodellbereitstellung, in der Regel im Format https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings?api-version=2023-05-15. Wird mit dem Parameter embeddingKey für die Vektorsuche außerhalb privater Netzwerke und privater Endpunkte verwendet.
embeddingKey Zeichenfolge Optional NULL Der API-Schlüssel für die Implementierung eines Ada-Einbettungsmodells. Mit embeddingEndpoint für die Vektorsuche außerhalb privater Netzwerke und privater Endpunkte verwenden.
embeddingDeploymentName Zeichenfolge Optional NULL Der Bereitstellungsname des Ada-Einbettungsmodells innerhalb derselben Azure OpenAI-Ressource. Wird anstelle von embeddingEndpoint und embeddingKey für die Vektorsuche verwendet. Sollte nur verwendet werden, wenn sowohl die Parameter embeddingEndpoint als auch embeddingKey definiert sind. Wenn dieser Parameter bereitgestellt wird, verwendet Azure OpenAI On Your Data einen internen Aufruf, um das Ada-Einbettungsmodell auszuwerten, anstatt den Azure OpenAI-Endpunkt aufzurufen. Auf diese Weise können Sie die Vektorsuche in privaten Netzwerken und privaten Endpunkten verwenden. Die Abrechnung bleibt gleich, ob dieser Parameter definiert ist oder nicht. Verfügbar in Regionen, in denen Einbettungsmodelle ab API-Versionen 2023-06-01-previewverfügbar sind.
strictness Zahl Optional 3 Legt den Schwellenwert fest, um Dokumente als relevant für Ihre Abfragen zu kategorisieren. Das Erhöhen des Werts bedeutet einen höheren Schwellenwert für Relevanz und filtert weniger relevante Dokumente für Antworten heraus. Das Festlegen dieses Werts zu hoch kann dazu führen, dass das Modell aufgrund eingeschränkter verfügbarer Dokumente keine Antworten generiert.

Parameter für Azure KI-Suche

Die folgenden Parameter werden für Azure KI-Suche verwendet.

Parameter type Erforderlich? Standard BESCHREIBUNG
endpoint Zeichenfolge Erforderlich NULL Nur Azure KI Search. Der Datenquellenendpunkt.
key Zeichenfolge Erforderlich NULL Nur Azure KI Search. Einer der Azure KI Search-Administratorschlüssel für Ihren Dienst.
queryType Zeichenfolge Optional Einfach Gibt an, welche Abfrageoption für Azure KI Search verwendet wird. Verfügbare Typen: simple, semantic, vector, vectorSimpleHybrid, vectorSemanticHybrid.
fieldsMapping dictionary Optional für Azure KI Search. NULL definiert, welche Felder beim Hinzufügen der Datenquelle zugeordnet werden sollen.

Die folgenden Parameter werden innerhalb des Felds authentication verwendet. So können Sie Azure OpenAI ohne Zugriff über öffentliche Netzwerke verwenden.

Parameter type Erforderlich? Standard BESCHREIBUNG
type Zeichenfolge Erforderlich NULL Der Authentifizierungstyp.
managedIdentityResourceId Zeichenfolge Erforderlich NULL Die Ressourcen-ID der benutzerseitig zugewiesenen verwalteten Identität, die für die Authentifizierung verwendet werden soll.
"authentication": {
  "type": "UserAssignedManagedIdentity",
  "managedIdentityResourceId": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},

Die folgenden Parameter werden innerhalb des Felds fieldsMapping verwendet.

Parameter type Erforderlich? Standard BESCHREIBUNG
titleField string Optional NULL Das Feld in Ihrem Index, das den ursprünglichen Titel jedes Dokuments enthält.
urlField Zeichenfolge Optional NULL Das Feld in Ihrem Index, das die ursprüngliche URL jedes Dokuments enthält.
filepathField Zeichenfolge Optional NULL Das Feld in Ihrem Index, das den ursprünglichen Dateinamen jedes Dokuments enthält.
contentFields dictionary Optional NULL Die Felder in Ihrem Index, die den Haupttextinhalt jedes Dokuments enthalten.
contentFieldsSeparator Zeichenfolge Optional NULL Das Trennzeichen für Inhaltsfelder. Standardmäßig wird \n verwendet.
"fieldsMapping": {
  "titleField": "myTitleField",
  "urlField": "myUrlField",
  "filepathField": "myFilePathField",
  "contentFields": [
    "myContentField"
  ],
  "contentFieldsSeparator": "\n"
}

Die folgenden Parameter werden innerhalb des optionalen embeddingDependency-Parameters verwendet, der Details zu einer Vektorisierungsquelle enthält, die auf dem internen Namen für die Einbettungsmodellbereitstellung in derselben Azure OpenAI-Ressource basiert.

Parameter type Erforderlich? Standard BESCHREIBUNG
deploymentName string Optional NULL Der Typ der zu verwendenden Vektorisierungsquelle
type Zeichenfolge Optional NULL Der Name der Einbettungsmodellbereitstellung innerhalb derselben Azure OpenAI-Ressource. Auf diese Weise können Sie die Vektorsuche ohne Azure OpenAI-API-Schlüssel und ohne Azure OpenAI-Zugriff über öffentliche Netzwerke verwenden.
"embeddingDependency": {
  "type": "DeploymentName",
  "deploymentName": "{embedding deployment name}"
},

Parameter von Azure Cosmos DB for MongoDB vCore

Die folgenden Parameter werden für Azure Cosmos DB for MongoDB vCore verwendet.

Parameter type Erforderlich? Standard Beschreibung
type (gefunden in authentication) Zeichenfolge Erforderlich NULL Nur Azure Cosmos DB for MongoDB vCore. Die zu verwendende Authentifizierung. Azure Cosmos Mongo vCore, der Wert ist ConnectionString
connectionString Zeichenfolge Erforderlich NULL Nur Azure Cosmos DB for MongoDB vCore. Die Verbindungszeichenfolge, die für die Authentifizierung von Azure Cosmos Mongo vCore-Konto verwendet werden soll.
databaseName Zeichenfolge Erforderlich NULL Nur Azure Cosmos DB for MongoDB vCore. Der Name der Azure Cosmos Mongo vCore-Datenbank.
containerName Zeichenfolge Erforderlich NULL Nur Azure Cosmos DB for MongoDB vCore. Der Name des Azure Cosmos Mongo vCore-Containers in der Datenbank.
type (gefunden inembeddingDependencyType) Zeichenfolge Erforderlich NULL Gibt die Abhängigkeit des Einbettungsmodells an.
deploymentName (gefunden inembeddingDependencyType) Zeichenfolge Erforderlich NULL Der Bereitstellungsname des Einbettungsmodells.
fieldsMapping dictionary Erforderlich für Azure Cosmos DB for MongoDB vCore. NULL Indexdatenspaltenzuordnung. Bei Verwendung von Azure Cosmos DB for MongoDB vCore ist der Wert vectorFields erforderlich. Er gibt die Felder an, die Vektoren speichern.

Die folgenden Parameter werden innerhalb des optionalen embeddingDependency-Parameters verwendet, der Details zu einer Vektorisierungsquelle enthält, die auf dem internen Namen für die Einbettungsmodellbereitstellung in derselben Azure OpenAI-Ressource basiert.

Parameter type Erforderlich? Standard BESCHREIBUNG
deploymentName string Optional NULL Der Typ der zu verwendenden Vektorisierungsquelle
type Zeichenfolge Optional NULL Der Name der Einbettungsmodellbereitstellung innerhalb derselben Azure OpenAI-Ressource. Auf diese Weise können Sie die Vektorsuche ohne Azure OpenAI-API-Schlüssel und ohne Azure OpenAI-Zugriff über öffentliche Netzwerke verwenden.
"embeddingDependency": {
  "type": "DeploymentName",
  "deploymentName": "{embedding deployment name}"
},

Elasticsearch-Parameter

Für Elasticsearch werden die folgenden Parameter verwendet:

Parameter type Erforderlich? Standard BESCHREIBUNG
endpoint Zeichenfolge Erforderlich NULL Der Endpunkt für die Verbindung mit Elasticsearch
indexName Zeichenfolge Erforderlich NULL Der Name des Elasticsearch-Index
type (gefunden inauthentication) Zeichenfolge Erforderlich NULL Die zu verwendende Authentifizierung. Für Elasticsearch lautet der Wert KeyAndKeyId.
key (gefunden inauthentication) Zeichenfolge Erforderlich NULL Der Schlüssel, der zum Herstellen einer Verbindung mit Elasticsearch verwendet wird
keyId (gefunden inauthentication) Zeichenfolge Erforderlich NULL Die zu verwendende Schlüssel-ID. Für Elasticsearch

Die folgenden Parameter werden innerhalb des Felds fieldsMapping verwendet.

Parameter type Erforderlich? Standard BESCHREIBUNG
titleField string Optional NULL Das Feld in Ihrem Index, das den ursprünglichen Titel jedes Dokuments enthält.
urlField Zeichenfolge Optional NULL Das Feld in Ihrem Index, das die ursprüngliche URL jedes Dokuments enthält.
filepathField Zeichenfolge Optional NULL Das Feld in Ihrem Index, das den ursprünglichen Dateinamen jedes Dokuments enthält.
contentFields dictionary Optional NULL Die Felder in Ihrem Index, die den Haupttextinhalt jedes Dokuments enthalten.
contentFieldsSeparator Zeichenfolge Optional NULL Das Trennzeichen für Inhaltsfelder. Standardmäßig wird \n verwendet.
vectorFields dictionary Optional NULL Die Namen von Feldern, die Vektordaten darstellen
"fieldsMapping": {
  "titleField": "myTitleField",
  "urlField": "myUrlField",
  "filepathField": "myFilePathField",
  "contentFields": [
    "myContentField"
  ],
  "contentFieldsSeparator": "\n",
  "vectorFields": [
    "myVectorField"
  ]
}

Die folgenden Parameter werden innerhalb des optionalen embeddingDependency-Parameters verwendet, der Details zu einer Vektorisierungsquelle enthält, die auf dem internen Namen für die Einbettungsmodellbereitstellung in derselben Azure OpenAI-Ressource basiert.

Parameter type Erforderlich? Standard BESCHREIBUNG
deploymentName string Optional NULL Der Typ der zu verwendenden Vektorisierungsquelle
type Zeichenfolge Optional NULL Der Name der Einbettungsmodellbereitstellung innerhalb derselben Azure OpenAI-Ressource. Auf diese Weise können Sie die Vektorsuche ohne Azure OpenAI-API-Schlüssel und ohne Azure OpenAI-Zugriff über öffentliche Netzwerke verwenden.
"embeddingDependency": {
  "type": "DeploymentName",
  "deploymentName": "{embedding deployment name}"
},

Azure Machine Learning-Parameter

Die folgenden Parameter werden für Azure Machine Learning verwendet:

Parameter type Erforderlich? Standard BESCHREIBUNG
projectResourceId Zeichenfolge Erforderlich NULL Die Projektressourcen-ID.
name Zeichenfolge Erforderlich NULL Der Name des Azure Machine Learning-Projekts
version (gefunden inauthentication) Zeichenfolge Erforderlich NULL Die Version des Azure Machine Learning-Vektorindex

Die folgenden Parameter werden innerhalb des optionalen embeddingDependency-Parameters verwendet, der Details zu einer Vektorisierungsquelle enthält, die auf dem internen Namen für die Einbettungsmodellbereitstellung in derselben Azure OpenAI-Ressource basiert.

Parameter type Erforderlich? Standard BESCHREIBUNG
deploymentName string Optional NULL Der Typ der zu verwendenden Vektorisierungsquelle
type Zeichenfolge Optional NULL Der Name der Einbettungsmodellbereitstellung innerhalb derselben Azure OpenAI-Ressource. Auf diese Weise können Sie die Vektorsuche ohne Azure OpenAI-API-Schlüssel und ohne Azure OpenAI-Zugriff über öffentliche Netzwerke verwenden.
"embeddingDependency": {
  "type": "DeploymentName",
  "deploymentName": "{embedding deployment name}"
},

Pinecone-Parameter

Für Pinecone werden die folgenden Parameter verwendet:

Parameter type Erforderlich? Standard Beschreibung
type (gefunden in authentication) Zeichenfolge Erforderlich NULL Die zu verwendende Authentifizierung. Für Pinecone lautet der Wert APIKey.
apiKey (gefunden inauthentication) Zeichenfolge Erforderlich NULL Der API-Schlüssel für Pinecone
environment Zeichenfolge Erforderlich NULL Der Name der Pinecone-Umgebung
indexName Zeichenfolge Erforderlich NULL Der Name des Pinecone-Index
embeddingDependency Zeichenfolge Erforderlich NULL Die Einbettungsabhängigkeit für die Vektorsuche
type (gefunden inembeddingDependency) Zeichenfolge Erforderlich NULL Der Abhängigkeitstyp. Für Pinecone lautet der Wert DeploymentName.
deploymentName (gefunden inembeddingDependency) Zeichenfolge Erforderlich NULL Der Name der Bereitstellung
titleField (gefunden infieldsMapping) Zeichenfolge Erforderlich NULL Der Name des Indexfelds, das als Titel verwendet werden soll
urlField (gefunden infieldsMapping) Zeichenfolge Erforderlich NULL Der Name des Indexfelds, das als URL verwendet werden soll
filepathField (gefunden infieldsMapping) Zeichenfolge Erforderlich NULL Der Name des Indexfelds, das als Dateipfad verwendet werden soll
contentFields (gefunden infieldsMapping) Zeichenfolge Erforderlich NULL Der Name der Indexfelder, die als Inhalt behandelt werden sollen
vectorFields dictionary Optional NULL Die Namen von Feldern, die Vektordaten darstellen
contentFieldsSeparator (gefunden infieldsMapping) Zeichenfolge Erforderlich NULL Die Trennlinie für Ihre Inhaltsfelder. Standardmäßig wird \n verwendet.

Die folgenden Parameter werden innerhalb des optionalen embeddingDependency-Parameters verwendet, der Details zu einer Vektorisierungsquelle enthält, die auf dem internen Namen für die Einbettungsmodellbereitstellung in derselben Azure OpenAI-Ressource basiert.

Parameter type Erforderlich? Standard BESCHREIBUNG
deploymentName string Optional NULL Der Typ der zu verwendenden Vektorisierungsquelle
type Zeichenfolge Optional NULL Der Name der Einbettungsmodellbereitstellung innerhalb derselben Azure OpenAI-Ressource. Auf diese Weise können Sie die Vektorsuche ohne Azure OpenAI-API-Schlüssel und ohne Azure OpenAI-Zugriff über öffentliche Netzwerke verwenden.
"embeddingDependency": {
  "type": "DeploymentName",
  "deploymentName": "{embedding deployment name}"
},

Starten eines Erfassungsvorgangs (Vorschau)

Tipp

Die JOB_NAME von Ihnen ausgewählte Option wird als Indexname verwendet. Beachten Sie die Einschränkungen für den Indexnamen.

curl -i -X PUT https://YOUR_RESOURCE_NAME.openai.azure.com/openai/extensions/on-your-data/ingestion-jobs/JOB_NAME?api-version=2023-10-01-preview \ 
-H "Content-Type: application/json" \ 
-H "api-key: YOUR_API_KEY" \ 
-H "searchServiceEndpoint: https://YOUR_AZURE_COGNITIVE_SEARCH_NAME.search.windows.net" \ 
-H "searchServiceAdminKey: YOUR_SEARCH_SERVICE_ADMIN_KEY" \ 
-H  "storageConnectionString: YOUR_STORAGE_CONNECTION_STRING" \ 
-H "storageContainer: YOUR_INPUT_CONTAINER" \ 
-d '{ "dataRefreshIntervalInMinutes": 10 }'

Beispielantwort

{ 
    "id": "test-1", 
    "dataRefreshIntervalInMinutes": 10, 
    "completionAction": "cleanUpAssets", 
    "status": "running", 
    "warnings": [], 
    "progress": { 
        "stageProgress": [ 
            { 
                "name": "Preprocessing", 
                "totalItems": 100, 
                "processedItems": 100 
            }, 
            { 
                "name": "Indexing", 
                "totalItems": 350, 
                "processedItems": 40 
            } 
        ] 
    } 
} 

Headerparameter

Parameter type Erforderlich? Standard BESCHREIBUNG
searchServiceEndpoint Zeichenfolge Erforderlich NULL Der Endpunkt der Suchressource, in der die Daten aufgenommen werden.
searchServiceAdminKey Zeichenfolge Optional NULL Wenn angegeben, wird der Schlüssel verwendet, um sich bei der searchServiceEndpoint zu authentifizieren. Falls nicht angegeben, wird die vom System zugewiesene Identität der Azure OpenAI-Ressource verwendet. In diesem Fall muss die vom System zugewiesene Identität die Rollenzuweisung „Suchdienstmitwirkender“ für die Suchressource aufweisen.
storageConnectionString Zeichenfolge Erforderlich NULL Die Verbindungszeichenfolge für das Speicherkonto, in dem sich die Eingabedaten befinden. Ein Kontoschlüssel muss in der Verbindungszeichenfolge angegeben werden. Dieser sollte ungefähr wie folgt aussehen: DefaultEndpointsProtocol=https;AccountName=<your storage account>;AccountKey=<your account key>
storageContainer Zeichenfolge Erforderlich NULL Der Name des Containers, in dem sich die Eingabedaten befinden.
embeddingEndpoint Zeichenfolge Optional NULL Nicht erforderlich, wenn Sie die Semantik oder nur die Schlüsselwortsuche verwenden. Er ist erforderlich, wenn Sie die Vektor-, Hybrid- oder Hybrid-Semantiksuche verwenden.
embeddingKey Zeichenfolge Optional NULL Der Schlüssel des Einbettungsendpunkts. Dies ist erforderlich, wenn der Einbettungsendpunkt nicht leer ist.
url Zeichenfolge Optional NULL Wenn die URL nicht NULL ist, wird die bereitgestellte URL im bereitgestellten Speichercontainer aufgefüllt und dann entsprechend erfasst.

Textparameter

Parameter type Erforderlich? Standard BESCHREIBUNG
dataRefreshIntervalInMinutes Zeichenfolge Erforderlich 0 Das Datenaktualisierungsintervall in Minuten. Wenn Sie einen einzelnen Aufnahmeauftrag ohne Zeitplan ausführen möchten, legen Sie diesen Parameter auf 0.
completionAction Zeichenfolge Optional cleanUpAssets Was mit den Ressourcen geschehen sollte, die während des Aufnahmevorgangs nach Abschluss des Auftrags erstellt wurden. Gültige Werte sind cleanUpAssets oder keepAllAssets. keepAllAssets hinterlässt alle Zwischenressourcen für Benutzer, die daran interessiert sind, die Zwischenergebnisse zu überprüfen, was für das Debuggen von Ressourcen hilfreich sein kann. cleanUpAssets entfernt die Ressourcen nach Abschluss des Auftrags.
chunkSize INT Optional 1024 Diese Zahl definiert die maximale Anzahl von Token in jedem Block, der vom Erfassungsflow erzeugt wird.

Auflisten von Erfassungsvorgängen (Vorschau)

curl -i -X GET https://YOUR_RESOURCE_NAME.openai.azure.com/openai/extensions/on-your-data/ingestion-jobs?api-version=2023-10-01-preview \ 
-H "api-key: YOUR_API_KEY"

Beispielantwort

{ 
    "value": [ 
        { 
            "id": "test-1", 
            "dataRefreshIntervalInMinutes": 10, 
            "completionAction": "cleanUpAssets", 
            "status": "succeeded", 
            "warnings": [] 
        }, 
        { 
            "id": "test-2", 
            "dataRefreshIntervalInMinutes": 10, 
            "completionAction": "cleanUpAssets", 
            "status": "failed", 
            "error": { 
                "code": "BadRequest", 
                "message": "Could not execute skill because the Web Api request failed." 
            }, 
            "warnings": [] 
        } 
    ] 
} 

Abrufen des Status eines Erfassungsvorgangs (Vorschau)

curl -i -X GET https://YOUR_RESOURCE_NAME.openai.azure.com/openai/extensions/on-your-data/ingestion-jobs/YOUR_JOB_NAME?api-version=2023-10-01-preview \ 
-H "api-key: YOUR_API_KEY"

Beispiel für Antworttext

{ 
    "id": "test-1", 
    "dataRefreshIntervalInMinutes": 10, 
    "completionAction": "cleanUpAssets", 
    "status": "succeeded", 
    "warnings": [] 
} 

Bildgenerierung

Anfordern eines generierten Bildes (DALL-E 3)

Generieren und Abrufen eines Batch von Bildern aus einem Textuntertitel.

POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/images/generations?api-version={api-version} 

Pfadparameter

Parameter type Erforderlich? BESCHREIBUNG
your-resource-name Zeichenfolge Erforderlich Der Name Ihrer Azure OpenAI-Ressource.
deployment-id Zeichenfolge Erforderlich Der Name Ihrer DALL-E 3-Modellbereitstellung wie MyDalle3. Sie müssen zuerst ein DALL-E 3-Modell bereitstellen, bevor Sie Aufrufe tätigen können.
api-version Zeichenfolge Erforderlich Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Sie hat das Format „JJJJ-MM-TT“.

Unterstützte Versionen

Anforderungstext

Parameter type Erforderlich? Standard BESCHREIBUNG
prompt Zeichenfolge Erforderlich Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 4000 Zeichen.
n integer Optional 1 Die Anzahl der zu generierenden Bilder. Für DALL-E 3 wird nur n=1 unterstützt.
size Zeichenfolge Optional 1024x1024 Die Größe der generierten Bilder. Muss 1792x1024, 1024x1024 oder 1024x1792 sein.
quality Zeichenfolge Optional standard Die Qualität der generierten Bilder. Muss hd oder standard sein.
response_format Zeichenfolge Optional url Das Format, in dem die generierten Bilder zurückgegeben werden, muss url (eine URL, die auf das Bild verweist) oder b64_json (der Base 64-Byte-Code im JSON-Format) sein.
style Zeichenfolge Optional vivid Die Größe der generierten Bilder. Muss natural oder vivid sein (für hyperrealistische / dramatische Bilder).
user Zeichenfolge Optional Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann.

Beispielanforderung

curl -X POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/images/generations?api-version=2023-12-01-preview \
  -H "Content-Type: application/json" \
  -H "api-key: YOUR_API_KEY" \
  -d '{
    "prompt": "An avocado chair",
    "size": "1024x1024",
    "n": 1,
    "quality": "hd", 
    "style": "vivid"
  }'

Beispielantwort

Der Vorgang gibt einen Statuscode 202 und ein GenerateImagesResponse-JSON-Objekt zurück, das die ID und den Status des Vorgangs enthält.

{ 
    "created": 1698116662, 
    "data": [ 
        { 
            "url": "url to the image", 
            "revised_prompt": "the actual prompt that was used" 
        }, 
        { 
            "url": "url to the image" 
        },
        ...
    ]
} 

Anfordern eines generierten Bildes (DALL-E 2 Vorschau)

Generieren Sie einen Batch von Bildern aus einem Textuntertitel.

POST https://{your-resource-name}.openai.azure.com/openai/images/generations:submit?api-version={api-version}

Pfadparameter

Parameter type Erforderlich? BESCHREIBUNG
your-resource-name Zeichenfolge Erforderlich Der Name Ihrer Azure OpenAI-Ressource.
api-version Zeichenfolge Erforderlich Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Sie hat das Format „JJJJ-MM-TT“.

Unterstützte Versionen

Anforderungstext

Parameter type Erforderlich? Standard BESCHREIBUNG
prompt Zeichenfolge Erforderlich Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 1000 Zeichen.
n integer Optional 1 Die Anzahl der zu generierenden Bilder. Der Wert muss zwischen 1 und 5 liegen.
size Zeichenfolge Optional 1\.024 × 1.024 Die Größe der generierten Bilder. Muss 256x256, 512x512 oder 1024x1024 sein.

Beispielanforderung

curl -X POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/images/generations:submit?api-version=2023-06-01-preview \
  -H "Content-Type: application/json" \
  -H "api-key: YOUR_API_KEY" \
  -d '{
"prompt": "An avocado chair",
"size": "512x512",
"n": 3
}'

Beispielantwort

Der Vorgang gibt einen Statuscode 202 und ein GenerateImagesResponse-JSON-Objekt zurück, das die ID und den Status des Vorgangs enthält.

{
  "id": "f508bcf2-e651-4b4b-85a7-58ad77981ffa",
  "status": "notRunning"
}

Abrufen eines generierten Bildergebnisses (DALL-E 2 Vorschau)

Verwenden Sie diese API, um die Ergebnisse eines Bildgenerierungsvorgangs abzurufen. Die Bildgenerierung ist derzeit nur mit api-version=2023-06-01-previewverfügbar.

GET https://{your-resource-name}.openai.azure.com/openai/operations/images/{operation-id}?api-version={api-version}

Pfadparameter

Parameter type Erforderlich? BESCHREIBUNG
your-resource-name Zeichenfolge Erforderlich Der Name Ihrer Azure OpenAI-Ressource.
operation-id Zeichenfolge Erforderlich Die GUID, die die ursprüngliche Bildgenerierungsanforderung identifiziert.

Unterstützte Versionen

Beispielanforderung

curl -X GET "https://{your-resource-name}.openai.azure.com/openai/operations/images/{operation-id}?api-version=2023-06-01-preview"
-H "Content-Type: application/json"
-H "Api-Key: {api key}"

Beispielantwort

Nach erfolgreicher Ausführung gibt der Vorgang einen Statuscode 200 und ein OperationResponse-JSON-Objekt zurück. Das Feld status kann "notRunning" (Aufgabe befindet sich in der Warteschlange, wurde aber noch nicht gestartet), "running", "succeeded", "canceled" (Aufgabe hat ein Timeout), "failed" oder "deleted" sein. Ein succeeded-Status gibt an, dass das generierte Bild unter der angegebenen URL zum Download verfügbar ist. Wenn mehrere Bilder generiert wurden, werden alle ihre URLs im Feld result.data zurückgegeben.

{
  "created": 1685064331,
  "expires": 1685150737,
  "id": "4b755937-3173-4b49-bf3f-da6702a3971a",
  "result": {
    "data": [
      {
        "url": "<URL_TO_IMAGE>"
      },
      {
        "url": "<URL_TO_NEXT_IMAGE>"
      },
      ...
    ]
  },
  "status": "succeeded"
}

Löschen eines generierten Bildes vom Server (DALL-E 2 Vorschau)

Sie können die von der Anforderung zurückgegebene Vorgangs-ID verwenden, um das entsprechende Bild vom Azure-Server zu löschen. Generierte Bilder werden standardmäßig nach 24 Stunden automatisch gelöscht, aber Sie können den Löschvorgang bei Bedarf früher auslösen.

DELETE https://{your-resource-name}.openai.azure.com/openai/operations/images/{operation-id}?api-version={api-version}

Pfadparameter

Parameter type Erforderlich? BESCHREIBUNG
your-resource-name Zeichenfolge Erforderlich Der Name Ihrer Azure OpenAI-Ressource.
operation-id Zeichenfolge Erforderlich Die GUID, die die ursprüngliche Bildgenerierungsanforderung identifiziert.

Unterstützte Versionen

Beispielanforderung

curl -X DELETE "https://{your-resource-name}.openai.azure.com/openai/operations/images/{operation-id}?api-version=2023-06-01-preview"
-H "Content-Type: application/json"
-H "Api-Key: {api key}"

Antwort

Der Vorgang gibt bei erfolgreicher Ausführung einen Statuscode 204 zurück. Diese API ist nur erfolgreich, wenn sich der Vorgang im Endzustand befindet (nicht running).

Spracherkennung

Sie können ein Whisper-Modell in Azure OpenAI Service für die Spracherkennungstranskription oder Sprachübersetzung verwenden. Weitere Informationen zur Verwendung eines Whisper-Modells finden Sie im Schnellstart und in der Übersicht über das Whisper-Modell.

Anfordern einer Sprache-in-Text-Transkription

Transkribiert eine Audiodatei.

POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/audio/transcriptions?api-version={api-version}

Pfadparameter

Parameter type Erforderlich? BESCHREIBUNG
your-resource-name Zeichenfolge Erforderlich Der Name Ihrer Azure OpenAI-Ressource.
deployment-id Zeichenfolge Erforderlich Der Name Ihrer Whisper-Modellimplementierung, z. B. MyWhisperDeployment. Sie müssen zuerst ein Whisper-Modell bereitstellen, bevor Sie Aufrufe tätigen können.
api-version Zeichenfolge Erforderlich Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Dieser Wert liegt im Format JJJJ-MM-TT vor.

Unterstützte Versionen

Anforderungstext

Parameter type Erforderlich? Standard Beschreibung
file datei Ja N/V Das zu transkribierende Audiodateiobjekt (kein Dateiname) in einem der folgenden Formate: flac, mp3, mp4, mpeg, mpga, m4a, ogg, wav oder webm.

Die Dateigrößenbeschränkung für das Whisper-Modell in Azure OpenAI Service beträgt 25 MB. Wenn Sie eine Datei mit einer Größe von mehr als 25 MB transkribieren müssen, unterteilen Sie sie in Blöcke. Alternativ können Sie die Batchtranskriptions-API von Azure KI Speech verwenden.

Beispiele für Audiodateien finden Sie im Azure KI Speech SDK-Repository auf GitHub.
language Zeichenfolge Nein Null Die Sprache der Eingabeaudiodaten, z. B. fr. Die Bereitstellung der Eingabesprache im ISO-639-1-Format verbessert die Genauigkeit und Latenz.

Die Liste der unterstützten Sprachen finden Sie in der OpenAI-Dokumentation.
prompt Zeichenfolge Nein Null Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Die Äußerung sollte mit der Audiosprache übereinstimmen.

Weitere Informationen zu Äußerungen, einschließlich Beispielanwendungsfällen, finden Sie in der OpenAI-Dokumentation.
response_format Zeichenfolge Nein json Das Format der Transkriptausgabe gemäß einer der folgenden Optionen: json, text, srt, verbose_json oder vtt.

Der Standardwert ist json.
temperature Zahl Nein 0 Die Temperatur für die Stichprobenentnahme, zwischen 0 und 1.

Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn sie auf 0 festgelegt ist, verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden.

Der Standardwert ist 0.

Beispielanforderung

curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/audio/transcriptions?api-version=2023-09-01-preview \
  -H "Content-Type: multipart/form-data" \
  -H "api-key: $YOUR_API_KEY" \
  -F file="@./YOUR_AUDIO_FILE_NAME.wav" \
  -F "language=en" \
  -F "prompt=The transcript contains zoology terms and geographical locations." \
  -F "temperature=0" \
  -F "response_format=srt"

Beispielantwort

1
00:00:00,960 --> 00:00:07,680
The ocelot, Lepardus paradalis, is a small wild cat native to the southwestern United States,

2
00:00:07,680 --> 00:00:13,520
Mexico, and Central and South America. This medium-sized cat is characterized by

3
00:00:13,520 --> 00:00:18,960
solid black spots and streaks on its coat, round ears, and white neck and undersides.

4
00:00:19,760 --> 00:00:27,840
It weighs between 8 and 15.5 kilograms, 18 and 34 pounds, and reaches 40 to 50 centimeters

5
00:00:27,840 --> 00:00:34,560
16 to 20 inches at the shoulders. It was first described by Carl Linnaeus in 1758.

6
00:00:35,360 --> 00:00:42,880
Two subspecies are recognized, L. p. paradalis and L. p. mitis. Typically active during twilight

7
00:00:42,880 --> 00:00:48,480
and at night, the ocelot tends to be solitary and territorial. It is efficient at climbing,

8
00:00:48,480 --> 00:00:54,480
leaping, and swimming. It preys on small terrestrial mammals such as armadillo, opossum,

9
00:00:54,480 --> 00:00:56,480
and lagomorphs.

Anfordern einer Sprache-in-Text-Übersetzung

Übersetzt eine Audiodatei aus einer anderen Sprache ins Englische. Die Liste der unterstützten Sprachen finden Sie in der OpenAI-Dokumentation.

POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/audio/translations?api-version={api-version}

Pfadparameter

Parameter type Erforderlich? BESCHREIBUNG
your-resource-name Zeichenfolge Erforderlich Der Name Ihrer Azure OpenAI-Ressource.
deployment-id Zeichenfolge Erforderlich Der Name Ihrer Whisper-Modellimplementierung, z. B. MyWhisperDeployment. Sie müssen zuerst ein Whisper-Modell bereitstellen, bevor Sie Aufrufe tätigen können.
api-version Zeichenfolge Erforderlich Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Dieser Wert liegt im Format JJJJ-MM-TT vor.

Unterstützte Versionen

Anforderungstext

Parameter type Erforderlich? Standard Beschreibung
file datei Ja Nicht zutreffend Das zu transkribierende Audiodateiobjekt (nicht der Dateiname) in einem der folgenden Formate: flac, mp3, mp4, mpeg, mpga, m4a, ogg, wav oder webm.

Die Dateigrößenbegrenzung für das Whisper-Modell von Azure OpenAI beträgt 25 MB. Wenn Sie eine Datei mit einer Größe von mehr als 25 MB transkribieren müssen, unterteilen Sie sie in Blöcke.

Beispiele für Audiodateien können Sie aus dem Azure KI Speech SDK-Repository auf GitHub herunterladen.
prompt Zeichenfolge Nein Null Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Die Äußerung sollte mit der Audiosprache übereinstimmen.

Weitere Informationen zu Äußerungen, einschließlich Beispielanwendungsfällen, finden Sie in der OpenAI-Dokumentation.
response_format Zeichenfolge Nein json Das Format der Transkriptausgabe gemäß einer der folgenden Optionen: json, text, srt, verbose_json oder vtt.

Der Standardwert ist json.
temperature Zahl Nein 0 Die Temperatur für die Stichprobenentnahme, zwischen 0 und 1.

Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn sie auf 0 festgelegt ist, verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden.

Der Standardwert ist 0.

Beispielanforderung

curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/audio/translations?api-version=2023-09-01-preview \
  -H "Content-Type: multipart/form-data" \
  -H "api-key: $YOUR_API_KEY" \
  -F file="@./YOUR_AUDIO_FILE_NAME.wav" \
  -F "temperature=0" \
  -F "response_format=json"

Beispielantwort

{
  "text": "Hello, my name is Wolfgang and I come from Germany. Where are you heading today?"
}

Sprachsynthese

Synthetisieren Sie Text in Sprache.

POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/audio/speech?api-version={api-version}

Pfadparameter

Parameter type Erforderlich? BESCHREIBUNG
your-resource-name Zeichenfolge Erforderlich Der Name Ihrer Azure OpenAI-Ressource.
deployment-id Zeichenfolge Erforderlich Der Name der Sprachsynthese-Modellimplementierung, z. B. MyTextToSpeechDeployment. Sie müssen zuerst ein Sprachsynthesemodell (z. B. tts-1 oder tts-1-hd) bereitstellen, bevor Sie Anrufe tätigen können.
api-version Zeichenfolge Erforderlich Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Dieser Wert liegt im Format JJJJ-MM-TT vor.

Unterstützte Versionen

Anforderungstext

Parameter type Erforderlich? Standard BESCHREIBUNG
model Zeichenfolge Ja N/V Eines der verfügbaren TTS-Modelle: tts-1 oder tts-1-hd
input Zeichenfolge Ja N/V Der Text, für den Audio generiert werden soll. Die maximale Länge beträgt 4096 Zeichen. Geben Sie den Eingabetext in der gewünschten Sprache an.1
voice Zeichenfolge Ja N/V Die Stimme, die beim Generieren des Audiosignals verwendet werden soll. Unterstützte Stimmen sind alloy, echo, fable, onyx, nova und shimmer. Hörproben der Stimmen sind im Leitfaden für die OpenAI-Sprachsynthese verfügbar.

1 Die Sprachsynthesemodelle unterstützten in der Regel die gleichen Sprachen wie das Whisper-Modell. Die Liste der unterstützten Sprachen finden Sie in der OpenAI-Dokumentation.

Beispielanforderung

curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/audio/speech?api-version=2024-02-15-preview \
 -H "api-key: $YOUR_API_KEY" \
 -H "Content-Type: application/json" \
 -d '{
    "model": "tts-hd",
    "input": "I'm excited to try text to speech.",
    "voice": "alloy"
}' --output speech.mp3

Beispielantwort

Die Sprache wird als Audiodatei aus der vorherigen Anforderung zurückgegeben.

Verwaltungs-APIs

Azure OpenAI wird als Teil von Azure KI Services bereitgestellt. Alle Azure KI Services-Instanzen stützen sich auf dieselben Verwaltungs-APIs für die Erstellung, Aktualisierung und Löschung von Vorgängen. Die Verwaltungs-APIs werden auch für die Bereitstellung von Modellen innerhalb einer Azure OpenAI-Ressource verwendet.

Referenzdokumentation für Verwaltungs-APIs

Nächste Schritte

Erfahren Sie mehr über Modelle und die Optimierung mit der REST-API. Erfahren Sie mehr über die zugrunde liegenden Modelle, auf denen Azure OpenAI basiert.