Referenz zur REST-API von Azure OpenAI Service
Dieser Artikel enthält Details zu den REST API-Rückschlussendpunkten für Azure OpenAI.
Authentication
Azure OpenAI bietet zwei Authentifizierungsmethoden. Sie können entweder API-Schlüssel oder Microsoft Entra-ID verwenden.
API-Schlüssel-Authentifizierung: Bei dieser Art der Authentifizierung müssen alle API-Anforderungen den API-Schlüssel in den
api-key
-HTTP-Header einbeziehen. Die Schnellstartanleitung bietet eine Anleitung, wie Sie mit dieser Art der Authentifizierung Aufrufe tätigen können.Microsoft Entra ID-Authentifizierung: Sie können einen API-Aufruf mit einem Microsoft Entra-Token authentifizieren. Authentifizierungstoken werden als
Authorization
-Header in eine Anforderung eingefügt. Dem bereitgestellten Token mussBearer
vorangestellt werden. Beispiel:Bearer YOUR_AUTH_TOKEN
. Sie können unsere Anleitung zur Authentifizierung mit Microsoft Entra ID lesen.
REST-API-Versionsverwaltung
Die Dienst-APIs erhalten mithilfe des Abfrageparameters api-version
ihre Versionsangaben. Alle Versionen folgen der Datumsstruktur JJJJ-MM-TT. Beispiel:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/completions?api-version=2024-02-01
Vervollständigungen
Mit dem Vorgang „Vervollständigungen“ generiert das Modell eine oder mehrere vorhergesagte Vervollständigungen auf der Grundlage einer bereitgestellten Äußerung. Der Dienst kann auch die Wahrscheinlichkeiten der alternativen Token an jeder Position zurückgeben.
Erstellen einer Vervollständigung
POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/completions?api-version={api-version}
Pfadparameter
Parameter | type | Erforderlich? | BESCHREIBUNG |
---|---|---|---|
your-resource-name |
Zeichenfolge | Erforderlich | Der Name Ihrer Azure OpenAI-Ressource. |
deployment-id |
Zeichenfolge | Erforderlich | Der Bereitstellungsname, den Sie bei der Bereitstellung des Modells ausgewählt haben. |
api-version |
Zeichenfolge | Erforderlich | Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Sie hat das Format „JJJJ-MM-TT“. |
Unterstützte Versionen
2022-12-01
Swagger-Spezifikation2023-03-15-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-05-15
Swagger-Spezifikation2023-06-01-preview
Swagger-Spezifikation2023-07-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-08-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-09-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-10-01-preview
Swagger-Spezifikation2023-12-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2024-02-15-preview
Swagger-Spezifikation2024-03-01-preview
Swagger-Spezifikation2024-02-01
Swagger-Spezifikation
Anforderungstext
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
prompt |
Zeichenfolge oder Array | Optional | <\|endoftext\|> |
Der Prompt oder die Prompts für die Vervollständigungen generiert werden sollen, codiert als Zeichenfolge oder als Array von Zeichenfolgen. <\|endoftext\|> ist das Dokumententrennzeichen, welches das Modell während des Trainings sieht. Wenn also keine Äußerung angegeben wird, generiert das Modell so, als würde es am Anfang eines neuen Dokuments stehen. |
max_tokens |
integer | Optional | 16 | Die maximale Anzahl von Token, die in der Vervollständigung generiert werden. Die Tokenanzahl Ihrer Äußerung plus „max_tokens“ darf die Kontextlänge des Modells nicht überschreiten. Die meisten Modelle haben eine Kontextlänge von 2048 Token (mit Ausnahme der neuesten Modelle, die 4096 unterstützen). |
temperature |
number | Optional | 1 | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Höhere Werte bedeuten, dass das Modell mehr Risiken eingeht. Versuchen Sie es mit 0,9 für kreativere Anwendungen und 0 (argmax sampling ) für Anwendungen mit einer klar definierten Antwort. Wir empfehlen im Allgemeinen, dies oder „top_p“ zu ändern, aber nicht beides. |
top_p |
number | Optional | 1 | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
logit_bias |
Karte | Optional | NULL | Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im GPT-Tokenizer) einem zugehörigen Tendenzwert von -100 bis 100 zuordnet. Sie können dieses Tokenizertool (das sowohl für GPT-2 als auch für GPT-3 funktioniert) verwenden, um Text in Token-IDs zu konvertieren. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. Als Beispiel können Sie {"50256": -100}, um zu verhindern, dass das Token <|endoftext|> generiert wird. |
user |
Zeichenfolge | Optional | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. | |
n |
integer | Optional | 1 | Wie viele Vervollständigungen für jede Äußerung generiert werden sollen. Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für „max_tokens“ und „stop“ verwenden. |
stream |
boolean | Optional | False | Gibt an, ob der Teilfortschritt zurückgestreamt werden soll. Wenn diese Option festgelegt ist, werden die Token als reine Serverereignisse gesendet, sobald sie verfügbar sind, wobei der Stream durch die Nachricht „data: [DONE]“ beendet wird. |
logprobs |
integer | Optional | NULL | Beziehen Sie die logarithmierten Wahrscheinlichkeiten für die wahrscheinlichsten Token von „logprobs“ sowie die ausgewählten Token ein. Wenn z. B. „logprobs“ 10 ist, gibt die API eine Liste der zehn wahrscheinlichsten Token zurück. Die API gibt immer den „logprob“ des Tokens der Stichprobenentnahme zurück, sodass die Antwort bis zu „logprobs+1“ Elemente enthalten kann. Dieser Parameter kann nicht mit gpt-35-turbo verwendet werden. |
suffix |
Zeichenfolge | Optional | NULL | Das Suffix, das nach einer Vervollständigung des eingefügten Texts folgt. |
echo |
boolean | Optional | False | Gibt die Eingabeaufforderung zusätzlich zum Abschluss zurück. Dieser Parameter kann nicht mit gpt-35-turbo verwendet werden. |
stop |
Zeichenfolge oder Array | Optional | NULL | Bis zu vier Sequenzen, in denen die API aufhört, weitere Token zu generieren. Der zurückgegebene Text wird die Beendigungssequenz nicht enthalten. Für GPT-4 Turbo mit Vision werden bis zu zwei Sequenzen unterstützt. |
presence_penalty |
Zahl | Optional | 0 | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. |
frequency_penalty |
number | Optional | 0 | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. |
best_of |
integer | Optional | 1 | Generiert serverseitige „best_of“-Vervollständigungen und gibt die „beste“ zurück (diejenige mit der geringsten logarithmierten Wahrscheinlichkeit pro Token). Die Ergebnisse können nicht gestreamt werden. Wenn Sie diese Funktion zusammen mit „n“ verwenden, steuert „best_of“ die Anzahl der möglichen Vervollständigungen und „n“ gibt an, wie viele zurückgegeben werden sollen – „best_of“ muss größer als „n“ sein. Hinweis: Da dieser Parameter viele Vervollständigungen generiert, kann Ihr Tokenkontingent schnell aufgebraucht sein. Verwenden Sie ihn sorgfältig und stellen Sie sicher, dass Sie angemessene Einstellungen für „max_tokens“ und „stop“ verwenden. Dieser Parameter kann nicht mit gpt-35-turbo verwendet werden. |
Beispielanforderung
curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/completions?api-version=2024-02-01\
-H "Content-Type: application/json" \
-H "api-key: YOUR_API_KEY" \
-d "{
\"prompt\": \"Once upon a time\",
\"max_tokens\": 5
}"
Beispielantwort
{
"id": "cmpl-4kGh7iXtjW4lc9eGhff6Hp8C7btdQ",
"object": "text_completion",
"created": 1646932609,
"model": "ada",
"choices": [
{
"text": ", a dark line crossed",
"index": 0,
"logprobs": null,
"finish_reason": "length"
}
]
}
In der Beispielantwort ist finish_reason
dasselbe wie stop
. Wenn finish_reason
gleich content_filter
ist, lesen Sie den Leitfaden zur Inhaltsfilterung, um zu verstehen, warum dies geschieht.
Einbettungen
Rufen Sie eine Vektordarstellung einer bestimmten Eingabe ab, die von Machine Learning-Modellen und anderen Algorithmen leicht verarbeitet werden kann.
Hinweis
OpenAI ermöglicht derzeit eine größere Anzahl von Arrayeingaben mit text-embedding-ada-002
. Azure OpenAI unterstützt derzeit Eingabearrays bis zu 16 für text-embedding-ada-002 (Version 2)
. In diesem Modell erfordern beide, dass das Maximum eingegebener Token pro API-Anforderung unter 8191 bleibt.
Erstellen einer Einbettung
POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/embeddings?api-version={api-version}
Pfadparameter
Parameter | type | Erforderlich? | BESCHREIBUNG |
---|---|---|---|
your-resource-name |
Zeichenfolge | Erforderlich | Der Name Ihrer Azure OpenAI-Ressource. |
deployment-id |
Zeichenfolge | Erforderlich | Der Name der Modellimplementierung. Sie müssen zuerst ein Modell bereitstellen, bevor Sie Aufrufe tätigen können. |
api-version |
Zeichenfolge | Erforderlich | Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Sie hat das Format „JJJJ-MM-TT“. |
Unterstützte Versionen
2023-03-15-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-05-15
Swagger-Spezifikation2023-06-01-preview
Swagger-Spezifikation2023-07-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-08-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-09-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-10-01-preview
Swagger-Spezifikation2023-12-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2024-02-15-preview
Swagger-Spezifikation2024-03-01-preview
Swagger-Spezifikation2024-02-01
Swagger-Spezifikation
Anforderungstext
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
input |
Zeichenfolge oder Array | Ja | Nicht zutreffend | Eingabetext, für den Sie Einbettungen abrufen können, codiert als Array oder als Zeichenfolge. Die Anzahl der Eingabetoken hängt vom verwendeten Modell ab. Nur text-embedding-ada-002 (Version 2) unterstützt Arrayeingaben. |
user |
Zeichenfolge | Nein | Null | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt. Dies wird Azure OpenAI helfen, Missbrauch zu überwachen und zu erkennen. Geben Sie keine PII-Bezeichner weiter, sondern verwenden Sie pseudoanonymisierte Werte wie GUIDs |
encoding_format |
Zeichenfolge | No | float |
Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64 sein. Wird standardmäßig auf float festgelegt. [Hinzugefügt in 2024-03-01-preview ]. |
dimensions |
integer | No | Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt. [Hinzugefügt in 2024-03-01-preview ] |
Beispielanforderung
curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings?api-version=2024-02-01 \
-H "Content-Type: application/json" \
-H "api-key: YOUR_API_KEY" \
-d "{\"input\": \"The food was delicious and the waiter...\"}"
Beispielantwort
{
"object": "list",
"data": [
{
"object": "embedding",
"embedding": [
0.018990106880664825,
-0.0073809814639389515,
.... (1024 floats total for ada)
0.021276434883475304,
],
"index": 0
}
],
"model": "text-similarity-babbage:001"
}
Chatvervollständigungen
Sie können Vervollständigungen für Chatnachrichten mit dem GPT-35-Turbo- und GPT-4-Modell erstellen.
Erstellen von Chatvervollständigungen
POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/chat/completions?api-version={api-version}
Pfadparameter
Parameter | type | Erforderlich? | BESCHREIBUNG |
---|---|---|---|
your-resource-name |
Zeichenfolge | Erforderlich | Der Name Ihrer Azure OpenAI-Ressource. |
deployment-id |
Zeichenfolge | Erforderlich | Der Name der Modellimplementierung. Sie müssen zuerst ein Modell bereitstellen, bevor Sie Aufrufe tätigen können. |
api-version |
Zeichenfolge | Erforderlich | Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Dies entspricht dem Format „JJJJ-MM-TT“ oder „JJJJ-MM-TT-preview“. |
Unterstützte Versionen
2023-03-15-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-05-15
Swagger-Spezifikation2023-06-01-preview
Swagger-Spezifikation2023-07-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-08-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-09-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-10-01-preview
Swagger-Spezifikation2023-12-01-preview
(Einstellung am 1. April 2024) (Diese oder eine höhere Version ist für Vision-Szenarien erforderlich) Swagger-Spezifikation2024-02-15-preview
Swagger-Spezifikation2024-03-01-preview
Swagger-Spezifikation2024-02-01
Swagger-Spezifikation
Anforderungstext
Der Anforderungstext besteht aus einer Reihe von Nachrichten. Das Modell generiert eine Antwort auf die letzte Nachricht, wobei frühere Nachrichten als Kontext verwendet werden.
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
messages |
array | Ja | N/V | Die Reihe von Nachrichten, die dieser Chatabschlussanfrage zugeordnet sind. Sie sollte vorherige Nachrichten in die Unterhaltung aufnehmen. Jede Meldung verfügt über role und content . |
role |
Zeichenfolge | Ja | N/V | Gibt an, wer die aktuelle Nachricht angibt. Kann system ,user ,assistant ,tool oder function sein. |
content |
Zeichenfolge oder Array | Ja | N/V | Der Inhalt der Nachricht. Es muss eine Zeichenfolge sein, es sei denn, es handelt sich um ein Vision-Szenario. Wenn es sich um einen Teil der user Nachricht handelt, der das GPT-4 Turbo with Vision-Modell mit der neuesten API-content Version verwendet, muss es sich um ein Array von Strukturen handeln, wobei jedes Element entweder Text oder ein Bild darstellt:
|
contentPart |
Objekt | Nein | – | Teil der mehr modalen Nachricht eines Benutzers. Es kann sich um Texttyp oder Bildtyp sein. Bei Text handelt es sich um eine Textzeichenfolge. Wenn Bild, wird es ein contentPartImage -Objekt sein. |
contentPartImage |
Objekt | Nein | – | Stellt ein vom Benutzer hochgeladenes Bild dar. Es verfügt über eine url -Eigenschaft, die entweder eine URL des Bilds oder die base64-codierten Bilddaten sind. Es hat auch eine detail -Eigenschaft, die kann auto , low oder high sein. |
enhancements |
Objekt | Nein | – | Stellt die für den Chat angeforderten Vision-Erweiterungsfeatures dar. Es verfügt über grounding - und ocr -Eigenschaften, und jede verfügt über eine boolesche enabled -Eigenschaft. Verwenden Sie diese, um den OCR-Dienst und/oder den Objekterkennungs-/Erdungsdienst anzufordern [Dieser Vorschauparameter ist in der 2024-02-01 -GA-API nicht verfügbar]. |
dataSources |
Objekt | Nein | – | Stellt zusätzliche Ressourcendaten dar. Computer Vision-Ressourcendaten sind für die Verbesserung von Vision erforderlich. Es hat eine type -Eigenschaft, die "AzureComputerVision" sein sollte, und eine parameters -Eigenschaft, die eine endpoint - und key -Eigenschaft hat. Diese Zeichenfolgen sollten auf die Endpunkt-URL und den Zugriffsschlüssel Ihrer Computer Vision-Ressource festgelegt werden. |
Beispielanforderung
Nur-Text-Chat
curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-02-01 \
-H "Content-Type: application/json" \
-H "api-key: YOUR_API_KEY" \
-d '{"messages":[{"role": "system", "content": "You are a helpful assistant."},{"role": "user", "content": "Does Azure OpenAI support customer managed keys?"},{"role": "assistant", "content": "Yes, customer managed keys are supported by Azure OpenAI."},{"role": "user", "content": "Do other Azure AI services support this too?"}]}'
Mit Vision chatten
curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2023-12-01-preview \
-H "Content-Type: application/json" \
-H "api-key: YOUR_API_KEY" \
-d '{"messages":[{"role":"system","content":"You are a helpful assistant."},{"role":"user","content":[{"type":"text","text":"Describe this picture:"},{ "type": "image_url", "image_url": { "url": "https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png", "detail": "high" } }]}]}'
Erweiterter Chat mit Vision
curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/extensions/chat/completions?api-version=2023-12-01-preview \
-H "Content-Type: application/json" \
-H "api-key: YOUR_API_KEY" \
-d '{"enhancements":{"ocr":{"enabled":true},"grounding":{"enabled":true}},"dataSources":[{"type":"AzureComputerVision","parameters":{"endpoint":" <Computer Vision Resource Endpoint> ","key":"<Computer Vision Resource Key>"}}],"messages":[{"role":"system","content":"You are a helpful assistant."},{"role":"user","content":[{"type":"text","text":"Describe this picture:"},{"type":"image_url","image_url":"https://learn.microsoft.com/azure/ai-services/computer-vision/media/quickstarts/presentation.png"}]}]}'
Beispielantwort
{
"id": "chatcmpl-6v7mkQj980V1yBec6ETrKPRqFjNw9",
"object": "chat.completion",
"created": 1679072642,
"model": "gpt-35-turbo",
"usage":
{
"prompt_tokens": 58,
"completion_tokens": 68,
"total_tokens": 126
},
"choices":
[
{
"message":
{
"role": "assistant",
"content": "Yes, other Azure AI services also support customer managed keys.
Azure AI services offer multiple options for customers to manage keys, such as
using Azure Key Vault, customer-managed keys in Azure Key Vault or
customer-managed keys through Azure Storage service. This helps customers ensure
that their data is secure and access to their services is controlled."
},
"finish_reason": "stop",
"index": 0
}
]
}
Die Ausgabeformatierung wurde zur erleichterten Lesbarkeit angepasst, die tatsächliche Ausgabe ist ein einzelner Textblock ohne Zeilenumbrüche.
In der Beispielantwort ist finish_reason
dasselbe wie stop
. Wenn finish_reason
gleich content_filter
ist, lesen Sie den Leitfaden zur Inhaltsfilterung, um zu verstehen, warum dies geschieht.
Wichtig
Die Parameter functions
und function_call
wurden mit der Veröffentlichung der Version 2023-12-01-preview
der API als veraltet markiert. Der Ersatz für functions
ist der Parameter tools
. Der Ersatz für function_call
ist der Parameter tool_choice
. Parallele Funktionsaufrufe, die als Teil von 2023-12-01-preview
eingeführt wurden, werden nur mit gpt-35-turbo
(1106) und gpt-4
(1106-Vorschau) unterstützt, auch als GPT-4 Turbo Preview bezeichnet.
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
messages |
array | Erforderlich | Die Sammlung von Kontextnachrichten, die dieser Chatabschlussanforderung zugeordnet sind. Die typische Verwendung beginnt mit einer Chatnachricht für die Systemrolle, die Anweisungen zum Verhalten des Assistenten enthält, gefolgt von abwechselnden Nachrichten zwischen den Rollen „Benutzer“ und „Assistent“. | |
temperature |
Zahl | Optional | 1 | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
n |
integer | Optional | 1 | Wie viele Optionen für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. |
stream |
boolean | Optional | false | Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (nur Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch eine data: [DONE] -Nachricht beendet wird. |
stop |
Zeichenfolge oder Array | Optional | NULL | Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. |
max_tokens |
integer | Optional | inf | Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig ist die Anzahl der vom Modell zurückgegebenen Token (4096 - Äußerungstoken). |
presence_penalty |
number | Optional | 0 | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. |
frequency_penalty |
number | Optional | 0 | Eine Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. |
logit_bias |
Objekt (object) | Optional | NULL | Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. |
user |
Zeichenfolge | Optional | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt und Azure OpenAI bei der Überwachung und Erkennung von Missbrauch helfen kann. | |
function_call |
Optional | [Deprecated in 2023-12-01-preview replacement parameter is tools_choice] Steuert, wie das Modell auf Funktionsaufrufe reagiert. „none“ bedeutet, dass das Modell keine Funktion aufruft und Endbenutzer*innen antwortet. auto bedeutet, dass das Modell zwischen einem Endbenutzer oder dem Aufrufen einer Funktion auswählen kann. Wenn Sie über {"name": "my_function"} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese Funktion aufzurufen. „none“ ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind. Für diesen Parameter ist die API-Version 2023-07-01-preview erforderlich. |
||
functions |
FunctionDefinition[] |
Optional | [Deprecated in 2023-12-01-preview replacement paremeter is tools] Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann. Für diesen Parameter ist die API-Version 2023-07-01-preview erforderlich. |
|
tools |
Zeichenfolge (Der Typ des Tools. Nur function wird unterstützt.) |
Optional | Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diesen Parameter, um eine Liste der Funktionen anzugeben, für die das Modell JSON-Eingaben generieren kann. Für diesen Parameter ist die API-Version 2023-12-01-preview erforderlich. |
|
tool_choice |
Zeichenfolge oder Objekt | Optional | „none“ ist die Standardeinstellung, wenn keine Funktionen vorhanden sind. auto ist die Standardeinstellung, wenn Funktionen vorhanden sind. |
Steuert, welche Funktion (falls vorhanden) vom Modell aufgerufen wird. „None“ bedeutet, dass das Modell keine Funktion aufruft und stattdessen eine Meldung generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Meldung und dem Aufrufen einer Funktion auswählen kann. Wenn Sie über {"type: "function", "function": {"name": "my_function"}} eine bestimmte Funktion angeben, wird das Modell gezwungen, diese Funktion aufzurufen. Für diesen Parameter ist die API-Version 2023-12-01-preview oder höher erforderlich. |
ChatMessage
Eine einzelne, rollenbezogene Nachricht innerhalb einer Chatvervollständigungsinteraktion.
Name | Typ | Beschreibung |
---|---|---|
Inhalt | Zeichenfolge | Der Text, der dieser Nachrichtennutzlast zugeordnet ist. |
function_call | FunctionCall | Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie sie vom Modell generiert werden. |
name | Zeichenfolge | Der Name (name ) des Autors dieser Nachricht. Der Name (name ) ist erforderlich, wenn die Rolle „function “ lautet, und sollte der Name der Funktion sein, deren Antwort sich im Inhalt (content ) befindet. Kann a-z, A-Z, 0-9 und Unterstriche mit einer maximalen Länge von 64 Zeichen enthalten. |
role | ChatRole | Die Rolle, die dieser Nachrichtennutzlast zugeordnet ist. |
ChatRole
Eine Beschreibung des beabsichtigten Zwecks einer Nachricht innerhalb einer Chatvervollständigungsinteraktion.
Name | Typ | Beschreibung |
---|---|---|
assistant | Zeichenfolge | Die Rolle, die Antworten auf vom System angewiesene, vom Benutzer angeforderte Eingaben bereitstellt. |
Funktion | Zeichenfolge | Die Rolle, die Funktionsergebnisse für Chatvervollständigungen bereitstellt. |
system | Zeichenfolge | Die Rolle, die das Verhalten des Assistenten anweist oder festlegt. |
user | Zeichenfolge | Die Rolle, die Eingaben für Chatvervollständigungen bereitstellt. |
Funktion
Dies wird mit dem Parameter tools
verwendet, der in der API-Version 2023-12-01-preview
hinzugefügt wurde.
Name | Typ | BESCHREIBUNG |
---|---|---|
Beschreibung | string | Eine Beschreibung des Zwecks der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird |
name | Zeichenfolge | Der Name der Funktion, die aufgerufen werden soll. Muss aus a-z, A-Z, 0-9 bestehen oder Unterstriche und Bindestriche enthalten, maximale Länge: 64. |
Parameter | Objekt | Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt. Weitere Informationen zum Format finden Sie in der JSON-Schemareferenz. |
FunctionCall-Deprecated
Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie sie vom Modell generiert werden. Hierfür ist die API-Version 2023-07-01-preview
erforderlich.
Name | Typ | Beschreibung |
---|---|---|
Argumente | Zeichenfolge | Die Argumente, mit denen die Funktion aufgerufen werden soll, wie sie vom Modell im JSON-Format generiert werden. Modell generiert nicht immer gültige JSON-Werte und erstellt möglicherweise Parameter, die nicht durch Ihr Funktionsschema definiert sind. Überprüfen Sie die Argumente im Code, bevor Sie Ihre Funktion aufrufen. |
name | Zeichenfolge | Der Name der aufzurufenden Funktion. |
FunctionDefinition-Deprecated
Die Definition einer vom Aufrufer angegebenen Funktion, die Chatvervollständigungen als Reaktion auf übereinstimmende Benutzereingaben aufrufen können. Hierfür ist die API-Version 2023-07-01-preview
erforderlich.
Name | Typ | BESCHREIBUNG |
---|---|---|
Beschreibung | string | Eine Beschreibung der Funktion. Das Modell verwendet diese Beschreibung, wenn die Funktion ausgewählt und die Parameter interpretiert werden. |
name | Zeichenfolge | Der Name der Funktion, die aufgerufen werden soll. |
Parameter | Die von den Funktionen akzeptierten Parameter beschrieben als JSON-Schemaobjekt. |
Erweiterungen für Vervollständigungen
Erweiterungen für Chat-Vervollständigungen, z. B. Azure OpenAI On Your Data.
Wichtig
Die folgenden Informationen sind für die Version 2023-12-01-preview
der API vorgesehen. Dies ist nicht die aktuelle Version der API. Informationen zur neuesten Referenzdokumentation finden Sie unter Azure OpenAI auf Ihren Daten.
Verwenden von Erweiterungen für Chat-Vervollständigungen
POST {your-resource-name}/openai/deployments/{deployment-id}/extensions/chat/completions?api-version={api-version}
Pfadparameter
Parameter | type | Erforderlich? | BESCHREIBUNG |
---|---|---|---|
your-resource-name |
Zeichenfolge | Erforderlich | Der Name Ihrer Azure OpenAI-Ressource. |
deployment-id |
Zeichenfolge | Erforderlich | Der Name der Modellimplementierung. Sie müssen zuerst ein Modell bereitstellen, bevor Sie Aufrufe tätigen können. |
api-version |
Zeichenfolge | Erforderlich | Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Sie hat das Format „JJJJ-MM-TT“. |
Unterstützte Versionen
2023-06-01-preview
Swagger-Spezifikation2023-07-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-08-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-09-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-10-01-preview
Swagger-Spezifikation2023-12-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation
Beispielanforderung
Sie können Anforderungen mit Azure KI-Suche, Azure Cosmos DB für MongoDB vCore, Pinecone und Elasticsearch stellen. Weitere Informationen finden Sie unter Azure OpenAI On Your Data.
Azure KI Cognitive Search
curl -i -X POST YOUR_RESOURCE_NAME/openai/deployments/YOUR_DEPLOYMENT_NAME/extensions/chat/completions?api-version=2023-06-01-preview \
-H "Content-Type: application/json" \
-H "api-key: YOUR_API_KEY" \
-d \
'
{
"temperature": 0,
"max_tokens": 1000,
"top_p": 1.0,
"dataSources": [
{
"type": "AzureCognitiveSearch",
"parameters": {
"endpoint": "YOUR_AZURE_COGNITIVE_SEARCH_ENDPOINT",
"key": "YOUR_AZURE_COGNITIVE_SEARCH_KEY",
"indexName": "YOUR_AZURE_COGNITIVE_SEARCH_INDEX_NAME"
}
}
],
"messages": [
{
"role": "user",
"content": "What are the differences between Azure Machine Learning and Azure AI services?"
}
]
}
'
Azure Cosmos DB für MongoDB vCore
curl -i -X POST YOUR_RESOURCE_NAME/openai/deployments/YOUR_DEPLOYMENT_NAME/extensions/chat/completions?api-version=2023-06-01-preview \
-H "Content-Type: application/json" \
-H "api-key: YOUR_API_KEY" \
-d \
'
{
"temperature": 0,
"top_p": 1.0,
"max_tokens": 800,
"stream": false,
"messages": [
{
"role": "user",
"content": "What is the company insurance plan?"
}
],
"dataSources": [
{
"type": "AzureCosmosDB",
"parameters": {
"authentication": {
"type": "ConnectionString",
"connectionString": "mongodb+srv://onyourdatatest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"databaseName": "vectordb",
"containerName": "azuredocs",
"indexName": "azuredocindex",
"embeddingDependency": {
"type": "DeploymentName",
"deploymentName": "{embedding deployment name}"
},
"fieldsMapping": {
"vectorFields": [
"contentvector"
]
}
}
}
]
}
'
Elasticsearch
curl -i -X POST YOUR_RESOURCE_NAME/openai/deployments/YOUR_DEPLOYMENT_NAME/extensions/chat/completions?api-version=2023-12-01-preview \
-H "Content-Type: application/json" \
-H "api-key: YOUR_API_KEY" \
-d \
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
],
"dataSources": [
{
"type": "Elasticsearch",
"parameters": {
"endpoint": "{search endpoint}",
"indexName": "{index name}",
"authentication": {
"type": "KeyAndKeyId",
"key": "{key}",
"keyId": "{key id}"
}
}
}
]
}
Azure Machine Learning
curl -i -X POST YOUR_RESOURCE_NAME/openai/deployments/YOUR_DEPLOYMENT_NAME/extensions/chat/completions?api-version=2023-12-01-preview \
-H "Content-Type: application/json" \
-H "api-key: YOUR_API_KEY" \
-d \
'
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
],
"dataSources": [
{
"type": "AzureMLIndex",
"parameters": {
"projectResourceId": "/subscriptions/{subscription-id}/resourceGroups/{resource-group-name}/providers/Microsoft.MachineLearningServices/workspaces/{workspace-id}",
"name": "my-project",
"version": "5"
}
}
]
}
'
Pinecone
curl -i -X POST YOUR_RESOURCE_NAME/openai/deployments/YOUR_DEPLOYMENT_NAME/extensions/chat/completions?api-version=2023-12-01-preview \
-H "Content-Type: application/json" \
-H "api-key: YOUR_API_KEY" \
-d \
'
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
],
"dataSources": [
{
"type": "Pinecone",
"parameters": {
"authentication": {
"type": "APIKey",
"apiKey": "{api key}"
},
"environment": "{environment name}",
"indexName": "{index name}",
"embeddingDependency": {
"type": "DeploymentName",
"deploymentName": "{embedding deployment name}"
},
"fieldsMapping": {
"titleField": "title",
"urlField": "url",
"filepathField": "filepath",
"contentFields": [
"content"
],
"contentFieldsSeparator": "\n"
}
}
}
]
}
'
Beispielantwort
{
"id": "12345678-1a2b-3c4e5f-a123-12345678abcd",
"model": "",
"created": 1684304924,
"object": "chat.completion",
"choices": [
{
"index": 0,
"messages": [
{
"role": "tool",
"content": "{\"citations\": [{\"content\": \"\\nAzure AI services are cloud-based artificial intelligence (AI) services...\", \"id\": null, \"title\": \"What is Azure AI services\", \"filepath\": null, \"url\": null, \"metadata\": {\"chunking\": \"orignal document size=250. Scores=0.4314117431640625 and 1.72564697265625.Org Highlight count=4.\"}, \"chunk_id\": \"0\"}], \"intent\": \"[\\\"Learn about Azure AI services.\\\"]\"}",
"end_turn": false
},
{
"role": "assistant",
"content": " \nAzure AI services are cloud-based artificial intelligence (AI) services that help developers build cognitive intelligence into applications without having direct AI or data science skills or knowledge. [doc1]. Azure Machine Learning is a cloud service for accelerating and managing the machine learning project lifecycle. [doc1].",
"end_turn": true
}
]
}
]
}
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
messages |
array | Erforderlich | NULL | Die Nachrichten, für die Chatvervollständigungen generiert werden sollen, im Chatformat. |
dataSources |
array | Erforderlich | Die Datenquellen, die für das Feature „Azure OpenAI On Your Data“ verwendet werden sollen. | |
temperature |
number | Optional | 0 | Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wir empfehlen im Allgemeinen, dies oder top_p zu ändern, aber nicht beides. |
top_p |
number | Optional | 1 | Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme, bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse top_p berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen. Wir empfehlen im Allgemeinen, dies oder die Temperatur zu ändern, aber nicht beides. |
stream |
boolean | Optional | false | Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (nur Daten) übermittelt, sobald sie verfügbar sind, wobei der Stream durch eine Nachricht "messages": [{"delta": {"content": "[DONE]"}, "index": 2, "end_turn": true}] beendet wird. |
stop |
Zeichenfolge oder Array | Optional | NULL | Bis zu zwei Sequenzen, bei denen die API aufhört, weitere Token zu generieren. |
max_tokens |
integer | Optional | 1000 | Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig beträgt die Anzahl der Token, die das Modell zurückgeben kann, 4096 - prompt_tokens . |
Die folgenden Parameter können innerhalb des parameters
-Felds innerhalb von dataSources
verwendet werden.
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
type |
Zeichenfolge | Erforderlich | NULL | Die Datenquelle, die für das Feature „Azure OpenAI On Your Data“ verwendet werden soll. Für Azure KI Search lautet der Wert AzureCognitiveSearch . Für Azure Cosmos DB for MongoDB vCore lautet der Wert AzureCosmosDB . Für Elasticsearch lautet der Wert Elasticsearch . Für Azure Machine Learning ist der Wert AzureMLIndex . Für Pinecone lautet der Wert Pinecone . |
indexName |
Zeichenfolge | Erforderlich | NULL | Der zu verwendende Suchindex. |
inScope |
boolean | Optional | true | Wenn dieser Wert festgelegt ist, beschränkt er die Antworten auf den zugrundeliegenden Dateninhalt. |
topNDocuments |
Zahl | Optional | 5 | Gibt die Anzahl der Topbewertungsdokumente aus Ihrem Datenindex an, die zum Generieren von Antworten verwendet werden. Möglicherweise möchten Sie den Wert erhöhen, wenn Sie kurze Dokumente haben oder mehr Kontext bereitstellen möchten. Dies ist der Parameter abgerufene Dokumente in Azure OpenAI Studio. |
semanticConfiguration |
Zeichenfolge | Optional | NULL | Die Konfiguration der semantischen Suche. Nur erforderlich, wenn queryType auf semantic oder vectorSemanticHybrid festgelegt ist. |
roleInformation |
Zeichenfolge | Optional | NULL | Gibt dem Modell Anweisungen dazu, wie es sich verhalten soll und auf welchen Kontext es beim Generieren einer Antwort verweisen soll. Entspricht der „Systemnachricht“ in Azure OpenAI Studio. Weitere Informationen finden Sie unter Verwenden Ihrer Daten. Es gibt ein Limit von 100 Token, das auf die Gesamtmenge der Token angerechnet wird. |
filter |
Zeichenfolge | Optional | NULL | Das Filtermuster, das zum Einschränken des Zugriffs auf vertrauliche Dokumente verwendet wird |
embeddingEndpoint |
Zeichenfolge | Optional | NULL | Die Endpunkt-URL für eine Ada-Einbettungsmodellbereitstellung, in der Regel im Format https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings?api-version=2023-05-15 . Wird mit dem Parameter embeddingKey für die Vektorsuche außerhalb privater Netzwerke und privater Endpunkte verwendet. |
embeddingKey |
Zeichenfolge | Optional | NULL | Der API-Schlüssel für die Implementierung eines Ada-Einbettungsmodells. Mit embeddingEndpoint für die Vektorsuche außerhalb privater Netzwerke und privater Endpunkte verwenden. |
embeddingDeploymentName |
Zeichenfolge | Optional | NULL | Der Bereitstellungsname des Ada-Einbettungsmodells innerhalb derselben Azure OpenAI-Ressource. Wird anstelle von embeddingEndpoint und embeddingKey für die Vektorsuche verwendet. Sollte nur verwendet werden, wenn sowohl die Parameter embeddingEndpoint als auch embeddingKey definiert sind. Wenn dieser Parameter bereitgestellt wird, verwendet Azure OpenAI On Your Data einen internen Aufruf, um das Ada-Einbettungsmodell auszuwerten, anstatt den Azure OpenAI-Endpunkt aufzurufen. Auf diese Weise können Sie die Vektorsuche in privaten Netzwerken und privaten Endpunkten verwenden. Die Abrechnung bleibt gleich, ob dieser Parameter definiert ist oder nicht. Verfügbar in Regionen, in denen Einbettungsmodelle ab API-Versionen 2023-06-01-preview verfügbar sind. |
strictness |
Zahl | Optional | 3 | Legt den Schwellenwert fest, um Dokumente als relevant für Ihre Abfragen zu kategorisieren. Das Erhöhen des Werts bedeutet einen höheren Schwellenwert für Relevanz und filtert weniger relevante Dokumente für Antworten heraus. Das Festlegen dieses Werts zu hoch kann dazu führen, dass das Modell aufgrund eingeschränkter verfügbarer Dokumente keine Antworten generiert. |
Parameter für Azure KI-Suche
Die folgenden Parameter werden für Azure KI-Suche verwendet.
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
endpoint |
Zeichenfolge | Erforderlich | NULL | Nur Azure KI Search. Der Datenquellenendpunkt. |
key |
Zeichenfolge | Erforderlich | NULL | Nur Azure KI Search. Einer der Azure KI Search-Administratorschlüssel für Ihren Dienst. |
queryType |
Zeichenfolge | Optional | Einfach | Gibt an, welche Abfrageoption für Azure KI Search verwendet wird. Verfügbare Typen: simple , semantic , vector , vectorSimpleHybrid , vectorSemanticHybrid . |
fieldsMapping |
dictionary | Optional für Azure KI Search. | NULL | definiert, welche Felder beim Hinzufügen der Datenquelle zugeordnet werden sollen. |
Die folgenden Parameter werden innerhalb des Felds authentication
verwendet. So können Sie Azure OpenAI ohne Zugriff über öffentliche Netzwerke verwenden.
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
type |
Zeichenfolge | Erforderlich | NULL | Der Authentifizierungstyp. |
managedIdentityResourceId |
Zeichenfolge | Erforderlich | NULL | Die Ressourcen-ID der benutzerseitig zugewiesenen verwalteten Identität, die für die Authentifizierung verwendet werden soll. |
"authentication": {
"type": "UserAssignedManagedIdentity",
"managedIdentityResourceId": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
Die folgenden Parameter werden innerhalb des Felds fieldsMapping
verwendet.
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
titleField |
string | Optional | NULL | Das Feld in Ihrem Index, das den ursprünglichen Titel jedes Dokuments enthält. |
urlField |
Zeichenfolge | Optional | NULL | Das Feld in Ihrem Index, das die ursprüngliche URL jedes Dokuments enthält. |
filepathField |
Zeichenfolge | Optional | NULL | Das Feld in Ihrem Index, das den ursprünglichen Dateinamen jedes Dokuments enthält. |
contentFields |
dictionary | Optional | NULL | Die Felder in Ihrem Index, die den Haupttextinhalt jedes Dokuments enthalten. |
contentFieldsSeparator |
Zeichenfolge | Optional | NULL | Das Trennzeichen für Inhaltsfelder. Standardmäßig wird \n verwendet. |
"fieldsMapping": {
"titleField": "myTitleField",
"urlField": "myUrlField",
"filepathField": "myFilePathField",
"contentFields": [
"myContentField"
],
"contentFieldsSeparator": "\n"
}
Die folgenden Parameter werden innerhalb des optionalen embeddingDependency
-Parameters verwendet, der Details zu einer Vektorisierungsquelle enthält, die auf dem internen Namen für die Einbettungsmodellbereitstellung in derselben Azure OpenAI-Ressource basiert.
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
deploymentName |
string | Optional | NULL | Der Typ der zu verwendenden Vektorisierungsquelle |
type |
Zeichenfolge | Optional | NULL | Der Name der Einbettungsmodellbereitstellung innerhalb derselben Azure OpenAI-Ressource. Auf diese Weise können Sie die Vektorsuche ohne Azure OpenAI-API-Schlüssel und ohne Azure OpenAI-Zugriff über öffentliche Netzwerke verwenden. |
"embeddingDependency": {
"type": "DeploymentName",
"deploymentName": "{embedding deployment name}"
},
Parameter von Azure Cosmos DB for MongoDB vCore
Die folgenden Parameter werden für Azure Cosmos DB for MongoDB vCore verwendet.
Parameter | type | Erforderlich? | Standard | Beschreibung |
---|---|---|---|---|
type (gefunden in authentication ) |
Zeichenfolge | Erforderlich | NULL | Nur Azure Cosmos DB for MongoDB vCore. Die zu verwendende Authentifizierung. Azure Cosmos Mongo vCore, der Wert ist ConnectionString |
connectionString |
Zeichenfolge | Erforderlich | NULL | Nur Azure Cosmos DB for MongoDB vCore. Die Verbindungszeichenfolge, die für die Authentifizierung von Azure Cosmos Mongo vCore-Konto verwendet werden soll. |
databaseName |
Zeichenfolge | Erforderlich | NULL | Nur Azure Cosmos DB for MongoDB vCore. Der Name der Azure Cosmos Mongo vCore-Datenbank. |
containerName |
Zeichenfolge | Erforderlich | NULL | Nur Azure Cosmos DB for MongoDB vCore. Der Name des Azure Cosmos Mongo vCore-Containers in der Datenbank. |
type (gefunden inembeddingDependencyType ) |
Zeichenfolge | Erforderlich | NULL | Gibt die Abhängigkeit des Einbettungsmodells an. |
deploymentName (gefunden inembeddingDependencyType ) |
Zeichenfolge | Erforderlich | NULL | Der Bereitstellungsname des Einbettungsmodells. |
fieldsMapping |
dictionary | Erforderlich für Azure Cosmos DB for MongoDB vCore. | NULL | Indexdatenspaltenzuordnung. Bei Verwendung von Azure Cosmos DB for MongoDB vCore ist der Wert vectorFields erforderlich. Er gibt die Felder an, die Vektoren speichern. |
Die folgenden Parameter werden innerhalb des optionalen embeddingDependency
-Parameters verwendet, der Details zu einer Vektorisierungsquelle enthält, die auf dem internen Namen für die Einbettungsmodellbereitstellung in derselben Azure OpenAI-Ressource basiert.
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
deploymentName |
string | Optional | NULL | Der Typ der zu verwendenden Vektorisierungsquelle |
type |
Zeichenfolge | Optional | NULL | Der Name der Einbettungsmodellbereitstellung innerhalb derselben Azure OpenAI-Ressource. Auf diese Weise können Sie die Vektorsuche ohne Azure OpenAI-API-Schlüssel und ohne Azure OpenAI-Zugriff über öffentliche Netzwerke verwenden. |
"embeddingDependency": {
"type": "DeploymentName",
"deploymentName": "{embedding deployment name}"
},
Elasticsearch-Parameter
Für Elasticsearch werden die folgenden Parameter verwendet:
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
endpoint |
Zeichenfolge | Erforderlich | NULL | Der Endpunkt für die Verbindung mit Elasticsearch |
indexName |
Zeichenfolge | Erforderlich | NULL | Der Name des Elasticsearch-Index |
type (gefunden inauthentication ) |
Zeichenfolge | Erforderlich | NULL | Die zu verwendende Authentifizierung. Für Elasticsearch lautet der Wert KeyAndKeyId . |
key (gefunden inauthentication ) |
Zeichenfolge | Erforderlich | NULL | Der Schlüssel, der zum Herstellen einer Verbindung mit Elasticsearch verwendet wird |
keyId (gefunden inauthentication ) |
Zeichenfolge | Erforderlich | NULL | Die zu verwendende Schlüssel-ID. Für Elasticsearch |
Die folgenden Parameter werden innerhalb des Felds fieldsMapping
verwendet.
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
titleField |
string | Optional | NULL | Das Feld in Ihrem Index, das den ursprünglichen Titel jedes Dokuments enthält. |
urlField |
Zeichenfolge | Optional | NULL | Das Feld in Ihrem Index, das die ursprüngliche URL jedes Dokuments enthält. |
filepathField |
Zeichenfolge | Optional | NULL | Das Feld in Ihrem Index, das den ursprünglichen Dateinamen jedes Dokuments enthält. |
contentFields |
dictionary | Optional | NULL | Die Felder in Ihrem Index, die den Haupttextinhalt jedes Dokuments enthalten. |
contentFieldsSeparator |
Zeichenfolge | Optional | NULL | Das Trennzeichen für Inhaltsfelder. Standardmäßig wird \n verwendet. |
vectorFields |
dictionary | Optional | NULL | Die Namen von Feldern, die Vektordaten darstellen |
"fieldsMapping": {
"titleField": "myTitleField",
"urlField": "myUrlField",
"filepathField": "myFilePathField",
"contentFields": [
"myContentField"
],
"contentFieldsSeparator": "\n",
"vectorFields": [
"myVectorField"
]
}
Die folgenden Parameter werden innerhalb des optionalen embeddingDependency
-Parameters verwendet, der Details zu einer Vektorisierungsquelle enthält, die auf dem internen Namen für die Einbettungsmodellbereitstellung in derselben Azure OpenAI-Ressource basiert.
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
deploymentName |
string | Optional | NULL | Der Typ der zu verwendenden Vektorisierungsquelle |
type |
Zeichenfolge | Optional | NULL | Der Name der Einbettungsmodellbereitstellung innerhalb derselben Azure OpenAI-Ressource. Auf diese Weise können Sie die Vektorsuche ohne Azure OpenAI-API-Schlüssel und ohne Azure OpenAI-Zugriff über öffentliche Netzwerke verwenden. |
"embeddingDependency": {
"type": "DeploymentName",
"deploymentName": "{embedding deployment name}"
},
Azure Machine Learning-Parameter
Die folgenden Parameter werden für Azure Machine Learning verwendet:
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
projectResourceId |
Zeichenfolge | Erforderlich | NULL | Die Projektressourcen-ID. |
name |
Zeichenfolge | Erforderlich | NULL | Der Name des Azure Machine Learning-Projekts |
version (gefunden inauthentication ) |
Zeichenfolge | Erforderlich | NULL | Die Version des Azure Machine Learning-Vektorindex |
Die folgenden Parameter werden innerhalb des optionalen embeddingDependency
-Parameters verwendet, der Details zu einer Vektorisierungsquelle enthält, die auf dem internen Namen für die Einbettungsmodellbereitstellung in derselben Azure OpenAI-Ressource basiert.
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
deploymentName |
string | Optional | NULL | Der Typ der zu verwendenden Vektorisierungsquelle |
type |
Zeichenfolge | Optional | NULL | Der Name der Einbettungsmodellbereitstellung innerhalb derselben Azure OpenAI-Ressource. Auf diese Weise können Sie die Vektorsuche ohne Azure OpenAI-API-Schlüssel und ohne Azure OpenAI-Zugriff über öffentliche Netzwerke verwenden. |
"embeddingDependency": {
"type": "DeploymentName",
"deploymentName": "{embedding deployment name}"
},
Pinecone-Parameter
Für Pinecone werden die folgenden Parameter verwendet:
Parameter | type | Erforderlich? | Standard | Beschreibung |
---|---|---|---|---|
type (gefunden in authentication ) |
Zeichenfolge | Erforderlich | NULL | Die zu verwendende Authentifizierung. Für Pinecone lautet der Wert APIKey . |
apiKey (gefunden inauthentication ) |
Zeichenfolge | Erforderlich | NULL | Der API-Schlüssel für Pinecone |
environment |
Zeichenfolge | Erforderlich | NULL | Der Name der Pinecone-Umgebung |
indexName |
Zeichenfolge | Erforderlich | NULL | Der Name des Pinecone-Index |
embeddingDependency |
Zeichenfolge | Erforderlich | NULL | Die Einbettungsabhängigkeit für die Vektorsuche |
type (gefunden inembeddingDependency ) |
Zeichenfolge | Erforderlich | NULL | Der Abhängigkeitstyp. Für Pinecone lautet der Wert DeploymentName . |
deploymentName (gefunden inembeddingDependency ) |
Zeichenfolge | Erforderlich | NULL | Der Name der Bereitstellung |
titleField (gefunden infieldsMapping ) |
Zeichenfolge | Erforderlich | NULL | Der Name des Indexfelds, das als Titel verwendet werden soll |
urlField (gefunden infieldsMapping ) |
Zeichenfolge | Erforderlich | NULL | Der Name des Indexfelds, das als URL verwendet werden soll |
filepathField (gefunden infieldsMapping ) |
Zeichenfolge | Erforderlich | NULL | Der Name des Indexfelds, das als Dateipfad verwendet werden soll |
contentFields (gefunden infieldsMapping ) |
Zeichenfolge | Erforderlich | NULL | Der Name der Indexfelder, die als Inhalt behandelt werden sollen |
vectorFields |
dictionary | Optional | NULL | Die Namen von Feldern, die Vektordaten darstellen |
contentFieldsSeparator (gefunden infieldsMapping ) |
Zeichenfolge | Erforderlich | NULL | Die Trennlinie für Ihre Inhaltsfelder. Standardmäßig wird \n verwendet. |
Die folgenden Parameter werden innerhalb des optionalen embeddingDependency
-Parameters verwendet, der Details zu einer Vektorisierungsquelle enthält, die auf dem internen Namen für die Einbettungsmodellbereitstellung in derselben Azure OpenAI-Ressource basiert.
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
deploymentName |
string | Optional | NULL | Der Typ der zu verwendenden Vektorisierungsquelle |
type |
Zeichenfolge | Optional | NULL | Der Name der Einbettungsmodellbereitstellung innerhalb derselben Azure OpenAI-Ressource. Auf diese Weise können Sie die Vektorsuche ohne Azure OpenAI-API-Schlüssel und ohne Azure OpenAI-Zugriff über öffentliche Netzwerke verwenden. |
"embeddingDependency": {
"type": "DeploymentName",
"deploymentName": "{embedding deployment name}"
},
Starten eines Erfassungsvorgangs (Vorschau)
Tipp
Die JOB_NAME
von Ihnen ausgewählte Option wird als Indexname verwendet. Beachten Sie die Einschränkungen für den Indexnamen.
curl -i -X PUT https://YOUR_RESOURCE_NAME.openai.azure.com/openai/extensions/on-your-data/ingestion-jobs/JOB_NAME?api-version=2023-10-01-preview \
-H "Content-Type: application/json" \
-H "api-key: YOUR_API_KEY" \
-H "searchServiceEndpoint: https://YOUR_AZURE_COGNITIVE_SEARCH_NAME.search.windows.net" \
-H "searchServiceAdminKey: YOUR_SEARCH_SERVICE_ADMIN_KEY" \
-H "storageConnectionString: YOUR_STORAGE_CONNECTION_STRING" \
-H "storageContainer: YOUR_INPUT_CONTAINER" \
-d '{ "dataRefreshIntervalInMinutes": 10 }'
Beispielantwort
{
"id": "test-1",
"dataRefreshIntervalInMinutes": 10,
"completionAction": "cleanUpAssets",
"status": "running",
"warnings": [],
"progress": {
"stageProgress": [
{
"name": "Preprocessing",
"totalItems": 100,
"processedItems": 100
},
{
"name": "Indexing",
"totalItems": 350,
"processedItems": 40
}
]
}
}
Headerparameter
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
searchServiceEndpoint |
Zeichenfolge | Erforderlich | NULL | Der Endpunkt der Suchressource, in der die Daten aufgenommen werden. |
searchServiceAdminKey |
Zeichenfolge | Optional | NULL | Wenn angegeben, wird der Schlüssel verwendet, um sich bei der searchServiceEndpoint zu authentifizieren. Falls nicht angegeben, wird die vom System zugewiesene Identität der Azure OpenAI-Ressource verwendet. In diesem Fall muss die vom System zugewiesene Identität die Rollenzuweisung „Suchdienstmitwirkender“ für die Suchressource aufweisen. |
storageConnectionString |
Zeichenfolge | Erforderlich | NULL | Die Verbindungszeichenfolge für das Speicherkonto, in dem sich die Eingabedaten befinden. Ein Kontoschlüssel muss in der Verbindungszeichenfolge angegeben werden. Dieser sollte ungefähr wie folgt aussehen: DefaultEndpointsProtocol=https;AccountName=<your storage account>;AccountKey=<your account key> |
storageContainer |
Zeichenfolge | Erforderlich | NULL | Der Name des Containers, in dem sich die Eingabedaten befinden. |
embeddingEndpoint |
Zeichenfolge | Optional | NULL | Nicht erforderlich, wenn Sie die Semantik oder nur die Schlüsselwortsuche verwenden. Er ist erforderlich, wenn Sie die Vektor-, Hybrid- oder Hybrid-Semantiksuche verwenden. |
embeddingKey |
Zeichenfolge | Optional | NULL | Der Schlüssel des Einbettungsendpunkts. Dies ist erforderlich, wenn der Einbettungsendpunkt nicht leer ist. |
url |
Zeichenfolge | Optional | NULL | Wenn die URL nicht NULL ist, wird die bereitgestellte URL im bereitgestellten Speichercontainer aufgefüllt und dann entsprechend erfasst. |
Textparameter
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
dataRefreshIntervalInMinutes |
Zeichenfolge | Erforderlich | 0 | Das Datenaktualisierungsintervall in Minuten. Wenn Sie einen einzelnen Aufnahmeauftrag ohne Zeitplan ausführen möchten, legen Sie diesen Parameter auf 0 . |
completionAction |
Zeichenfolge | Optional | cleanUpAssets |
Was mit den Ressourcen geschehen sollte, die während des Aufnahmevorgangs nach Abschluss des Auftrags erstellt wurden. Gültige Werte sind cleanUpAssets oder keepAllAssets . keepAllAssets hinterlässt alle Zwischenressourcen für Benutzer, die daran interessiert sind, die Zwischenergebnisse zu überprüfen, was für das Debuggen von Ressourcen hilfreich sein kann. cleanUpAssets entfernt die Ressourcen nach Abschluss des Auftrags. |
chunkSize |
INT | Optional | 1024 | Diese Zahl definiert die maximale Anzahl von Token in jedem Block, der vom Erfassungsflow erzeugt wird. |
Auflisten von Erfassungsvorgängen (Vorschau)
curl -i -X GET https://YOUR_RESOURCE_NAME.openai.azure.com/openai/extensions/on-your-data/ingestion-jobs?api-version=2023-10-01-preview \
-H "api-key: YOUR_API_KEY"
Beispielantwort
{
"value": [
{
"id": "test-1",
"dataRefreshIntervalInMinutes": 10,
"completionAction": "cleanUpAssets",
"status": "succeeded",
"warnings": []
},
{
"id": "test-2",
"dataRefreshIntervalInMinutes": 10,
"completionAction": "cleanUpAssets",
"status": "failed",
"error": {
"code": "BadRequest",
"message": "Could not execute skill because the Web Api request failed."
},
"warnings": []
}
]
}
Abrufen des Status eines Erfassungsvorgangs (Vorschau)
curl -i -X GET https://YOUR_RESOURCE_NAME.openai.azure.com/openai/extensions/on-your-data/ingestion-jobs/YOUR_JOB_NAME?api-version=2023-10-01-preview \
-H "api-key: YOUR_API_KEY"
Beispiel für Antworttext
{
"id": "test-1",
"dataRefreshIntervalInMinutes": 10,
"completionAction": "cleanUpAssets",
"status": "succeeded",
"warnings": []
}
Bildgenerierung
Anfordern eines generierten Bildes (DALL-E 3)
Generieren und Abrufen eines Batch von Bildern aus einem Textuntertitel.
POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/images/generations?api-version={api-version}
Pfadparameter
Parameter | type | Erforderlich? | BESCHREIBUNG |
---|---|---|---|
your-resource-name |
Zeichenfolge | Erforderlich | Der Name Ihrer Azure OpenAI-Ressource. |
deployment-id |
Zeichenfolge | Erforderlich | Der Name Ihrer DALL-E 3-Modellbereitstellung wie MyDalle3. Sie müssen zuerst ein DALL-E 3-Modell bereitstellen, bevor Sie Aufrufe tätigen können. |
api-version |
Zeichenfolge | Erforderlich | Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Sie hat das Format „JJJJ-MM-TT“. |
Unterstützte Versionen
2023-12-01-preview (retiring July 1, 2024)
Swagger-Spezifikation2024-02-15-preview
Swagger-Spezifikation2024-02-01
Swagger-Spezifikation
Anforderungstext
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
prompt |
Zeichenfolge | Erforderlich | Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 4000 Zeichen. | |
n |
integer | Optional | 1 | Die Anzahl der zu generierenden Bilder. Für DALL-E 3 wird nur n=1 unterstützt. |
size |
Zeichenfolge | Optional | 1024x1024 |
Die Größe der generierten Bilder. Muss 1792x1024 , 1024x1024 oder 1024x1792 sein. |
quality |
Zeichenfolge | Optional | standard |
Die Qualität der generierten Bilder. Muss hd oder standard sein. |
response_format |
Zeichenfolge | Optional | url |
Das Format, in dem die generierten Bilder zurückgegeben werden, muss url (eine URL, die auf das Bild verweist) oder b64_json (der Base 64-Byte-Code im JSON-Format) sein. |
style |
Zeichenfolge | Optional | vivid |
Die Größe der generierten Bilder. Muss natural oder vivid sein (für hyperrealistische / dramatische Bilder). |
user |
Zeichenfolge | Optional | Ein eindeutiger Bezeichner, der Ihr Endbenutzerkonto darstellt und bei der Überwachung und Erkennung von Missbrauch helfen kann. |
Beispielanforderung
curl -X POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/images/generations?api-version=2023-12-01-preview \
-H "Content-Type: application/json" \
-H "api-key: YOUR_API_KEY" \
-d '{
"prompt": "An avocado chair",
"size": "1024x1024",
"n": 1,
"quality": "hd",
"style": "vivid"
}'
Beispielantwort
Der Vorgang gibt einen Statuscode 202
und ein GenerateImagesResponse
-JSON-Objekt zurück, das die ID und den Status des Vorgangs enthält.
{
"created": 1698116662,
"data": [
{
"url": "url to the image",
"revised_prompt": "the actual prompt that was used"
},
{
"url": "url to the image"
},
...
]
}
Anfordern eines generierten Bildes (DALL-E 2 Vorschau)
Generieren Sie einen Batch von Bildern aus einem Textuntertitel.
POST https://{your-resource-name}.openai.azure.com/openai/images/generations:submit?api-version={api-version}
Pfadparameter
Parameter | type | Erforderlich? | BESCHREIBUNG |
---|---|---|---|
your-resource-name |
Zeichenfolge | Erforderlich | Der Name Ihrer Azure OpenAI-Ressource. |
api-version |
Zeichenfolge | Erforderlich | Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Sie hat das Format „JJJJ-MM-TT“. |
Unterstützte Versionen
2023-06-01-preview
Swagger-Spezifikation
Anforderungstext
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
prompt |
Zeichenfolge | Erforderlich | Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 1000 Zeichen. | |
n |
integer | Optional | 1 | Die Anzahl der zu generierenden Bilder. Der Wert muss zwischen 1 und 5 liegen. |
size |
Zeichenfolge | Optional | 1\.024 × 1.024 | Die Größe der generierten Bilder. Muss 256x256 , 512x512 oder 1024x1024 sein. |
Beispielanforderung
curl -X POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/images/generations:submit?api-version=2023-06-01-preview \
-H "Content-Type: application/json" \
-H "api-key: YOUR_API_KEY" \
-d '{
"prompt": "An avocado chair",
"size": "512x512",
"n": 3
}'
Beispielantwort
Der Vorgang gibt einen Statuscode 202
und ein GenerateImagesResponse
-JSON-Objekt zurück, das die ID und den Status des Vorgangs enthält.
{
"id": "f508bcf2-e651-4b4b-85a7-58ad77981ffa",
"status": "notRunning"
}
Abrufen eines generierten Bildergebnisses (DALL-E 2 Vorschau)
Verwenden Sie diese API, um die Ergebnisse eines Bildgenerierungsvorgangs abzurufen. Die Bildgenerierung ist derzeit nur mit api-version=2023-06-01-preview
verfügbar.
GET https://{your-resource-name}.openai.azure.com/openai/operations/images/{operation-id}?api-version={api-version}
Pfadparameter
Parameter | type | Erforderlich? | BESCHREIBUNG |
---|---|---|---|
your-resource-name |
Zeichenfolge | Erforderlich | Der Name Ihrer Azure OpenAI-Ressource. |
operation-id |
Zeichenfolge | Erforderlich | Die GUID, die die ursprüngliche Bildgenerierungsanforderung identifiziert. |
Unterstützte Versionen
2023-06-01-preview
Swagger-Spezifikation
Beispielanforderung
curl -X GET "https://{your-resource-name}.openai.azure.com/openai/operations/images/{operation-id}?api-version=2023-06-01-preview"
-H "Content-Type: application/json"
-H "Api-Key: {api key}"
Beispielantwort
Nach erfolgreicher Ausführung gibt der Vorgang einen Statuscode 200
und ein OperationResponse
-JSON-Objekt zurück. Das Feld status
kann "notRunning"
(Aufgabe befindet sich in der Warteschlange, wurde aber noch nicht gestartet), "running"
, "succeeded"
, "canceled"
(Aufgabe hat ein Timeout), "failed"
oder "deleted"
sein. Ein succeeded
-Status gibt an, dass das generierte Bild unter der angegebenen URL zum Download verfügbar ist. Wenn mehrere Bilder generiert wurden, werden alle ihre URLs im Feld result.data
zurückgegeben.
{
"created": 1685064331,
"expires": 1685150737,
"id": "4b755937-3173-4b49-bf3f-da6702a3971a",
"result": {
"data": [
{
"url": "<URL_TO_IMAGE>"
},
{
"url": "<URL_TO_NEXT_IMAGE>"
},
...
]
},
"status": "succeeded"
}
Löschen eines generierten Bildes vom Server (DALL-E 2 Vorschau)
Sie können die von der Anforderung zurückgegebene Vorgangs-ID verwenden, um das entsprechende Bild vom Azure-Server zu löschen. Generierte Bilder werden standardmäßig nach 24 Stunden automatisch gelöscht, aber Sie können den Löschvorgang bei Bedarf früher auslösen.
DELETE https://{your-resource-name}.openai.azure.com/openai/operations/images/{operation-id}?api-version={api-version}
Pfadparameter
Parameter | type | Erforderlich? | BESCHREIBUNG |
---|---|---|---|
your-resource-name |
Zeichenfolge | Erforderlich | Der Name Ihrer Azure OpenAI-Ressource. |
operation-id |
Zeichenfolge | Erforderlich | Die GUID, die die ursprüngliche Bildgenerierungsanforderung identifiziert. |
Unterstützte Versionen
2023-06-01-preview
Swagger-Spezifikation
Beispielanforderung
curl -X DELETE "https://{your-resource-name}.openai.azure.com/openai/operations/images/{operation-id}?api-version=2023-06-01-preview"
-H "Content-Type: application/json"
-H "Api-Key: {api key}"
Antwort
Der Vorgang gibt bei erfolgreicher Ausführung einen Statuscode 204
zurück. Diese API ist nur erfolgreich, wenn sich der Vorgang im Endzustand befindet (nicht running
).
Spracherkennung
Sie können ein Whisper-Modell in Azure OpenAI Service für die Spracherkennungstranskription oder Sprachübersetzung verwenden. Weitere Informationen zur Verwendung eines Whisper-Modells finden Sie im Schnellstart und in der Übersicht über das Whisper-Modell.
Anfordern einer Sprache-in-Text-Transkription
Transkribiert eine Audiodatei.
POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/audio/transcriptions?api-version={api-version}
Pfadparameter
Parameter | type | Erforderlich? | BESCHREIBUNG |
---|---|---|---|
your-resource-name |
Zeichenfolge | Erforderlich | Der Name Ihrer Azure OpenAI-Ressource. |
deployment-id |
Zeichenfolge | Erforderlich | Der Name Ihrer Whisper-Modellimplementierung, z. B. MyWhisperDeployment. Sie müssen zuerst ein Whisper-Modell bereitstellen, bevor Sie Aufrufe tätigen können. |
api-version |
Zeichenfolge | Erforderlich | Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Dieser Wert liegt im Format JJJJ-MM-TT vor. |
Unterstützte Versionen
2023-09-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-10-01-preview
Swagger-Spezifikation2023-12-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2024-02-15-preview
Swagger-Spezifikation2024-03-01-preview
Swagger-Spezifikation2024-02-01
Swagger-Spezifikation
Anforderungstext
Parameter | type | Erforderlich? | Standard | Beschreibung |
---|---|---|---|---|
file |
datei | Ja | N/V | Das zu transkribierende Audiodateiobjekt (kein Dateiname) in einem der folgenden Formate: flac , mp3 , mp4 , mpeg , mpga , m4a , ogg , wav oder webm .Die Dateigrößenbeschränkung für das Whisper-Modell in Azure OpenAI Service beträgt 25 MB. Wenn Sie eine Datei mit einer Größe von mehr als 25 MB transkribieren müssen, unterteilen Sie sie in Blöcke. Alternativ können Sie die Batchtranskriptions-API von Azure KI Speech verwenden. Beispiele für Audiodateien finden Sie im Azure KI Speech SDK-Repository auf GitHub. |
language |
Zeichenfolge | Nein | Null | Die Sprache der Eingabeaudiodaten, z. B. fr . Die Bereitstellung der Eingabesprache im ISO-639-1-Format verbessert die Genauigkeit und Latenz.Die Liste der unterstützten Sprachen finden Sie in der OpenAI-Dokumentation. |
prompt |
Zeichenfolge | Nein | Null | Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Die Äußerung sollte mit der Audiosprache übereinstimmen. Weitere Informationen zu Äußerungen, einschließlich Beispielanwendungsfällen, finden Sie in der OpenAI-Dokumentation. |
response_format |
Zeichenfolge | Nein | json | Das Format der Transkriptausgabe gemäß einer der folgenden Optionen: json, text, srt, verbose_json oder vtt. Der Standardwert ist json. |
temperature |
Zahl | Nein | 0 | Die Temperatur für die Stichprobenentnahme, zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn sie auf 0 festgelegt ist, verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. Der Standardwert ist 0. |
Beispielanforderung
curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/audio/transcriptions?api-version=2023-09-01-preview \
-H "Content-Type: multipart/form-data" \
-H "api-key: $YOUR_API_KEY" \
-F file="@./YOUR_AUDIO_FILE_NAME.wav" \
-F "language=en" \
-F "prompt=The transcript contains zoology terms and geographical locations." \
-F "temperature=0" \
-F "response_format=srt"
Beispielantwort
1
00:00:00,960 --> 00:00:07,680
The ocelot, Lepardus paradalis, is a small wild cat native to the southwestern United States,
2
00:00:07,680 --> 00:00:13,520
Mexico, and Central and South America. This medium-sized cat is characterized by
3
00:00:13,520 --> 00:00:18,960
solid black spots and streaks on its coat, round ears, and white neck and undersides.
4
00:00:19,760 --> 00:00:27,840
It weighs between 8 and 15.5 kilograms, 18 and 34 pounds, and reaches 40 to 50 centimeters
5
00:00:27,840 --> 00:00:34,560
16 to 20 inches at the shoulders. It was first described by Carl Linnaeus in 1758.
6
00:00:35,360 --> 00:00:42,880
Two subspecies are recognized, L. p. paradalis and L. p. mitis. Typically active during twilight
7
00:00:42,880 --> 00:00:48,480
and at night, the ocelot tends to be solitary and territorial. It is efficient at climbing,
8
00:00:48,480 --> 00:00:54,480
leaping, and swimming. It preys on small terrestrial mammals such as armadillo, opossum,
9
00:00:54,480 --> 00:00:56,480
and lagomorphs.
Anfordern einer Sprache-in-Text-Übersetzung
Übersetzt eine Audiodatei aus einer anderen Sprache ins Englische. Die Liste der unterstützten Sprachen finden Sie in der OpenAI-Dokumentation.
POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/audio/translations?api-version={api-version}
Pfadparameter
Parameter | type | Erforderlich? | BESCHREIBUNG |
---|---|---|---|
your-resource-name |
Zeichenfolge | Erforderlich | Der Name Ihrer Azure OpenAI-Ressource. |
deployment-id |
Zeichenfolge | Erforderlich | Der Name Ihrer Whisper-Modellimplementierung, z. B. MyWhisperDeployment. Sie müssen zuerst ein Whisper-Modell bereitstellen, bevor Sie Aufrufe tätigen können. |
api-version |
Zeichenfolge | Erforderlich | Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Dieser Wert liegt im Format JJJJ-MM-TT vor. |
Unterstützte Versionen
2023-09-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2023-10-01-preview
Swagger-Spezifikation2023-12-01-preview
(Einstellung am 1. Juli 2024) Swagger-Spezifikation2024-02-15-preview
Swagger-Spezifikation2024-03-01-preview
Swagger-Spezifikation2024-02-01
Swagger-Spezifikation
Anforderungstext
Parameter | type | Erforderlich? | Standard | Beschreibung |
---|---|---|---|---|
file |
datei | Ja | Nicht zutreffend | Das zu transkribierende Audiodateiobjekt (nicht der Dateiname) in einem der folgenden Formate: flac, mp3, mp4, mpeg, mpga, m4a, ogg, wav oder webm. Die Dateigrößenbegrenzung für das Whisper-Modell von Azure OpenAI beträgt 25 MB. Wenn Sie eine Datei mit einer Größe von mehr als 25 MB transkribieren müssen, unterteilen Sie sie in Blöcke. Beispiele für Audiodateien können Sie aus dem Azure KI Speech SDK-Repository auf GitHub herunterladen. |
prompt |
Zeichenfolge | Nein | Null | Ein optionaler Text, um den Stil des Modells zu steuern oder ein vorheriges Audiosegment fortzusetzen. Die Äußerung sollte mit der Audiosprache übereinstimmen. Weitere Informationen zu Äußerungen, einschließlich Beispielanwendungsfällen, finden Sie in der OpenAI-Dokumentation. |
response_format |
Zeichenfolge | Nein | json | Das Format der Transkriptausgabe gemäß einer der folgenden Optionen: json, text, srt, verbose_json oder vtt. Der Standardwert ist json. |
temperature |
Zahl | Nein | 0 | Die Temperatur für die Stichprobenentnahme, zwischen 0 und 1. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird. Wenn sie auf 0 festgelegt ist, verwendet das Modell die Protokollwahrscheinlichkeit, um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. Der Standardwert ist 0. |
Beispielanforderung
curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/audio/translations?api-version=2023-09-01-preview \
-H "Content-Type: multipart/form-data" \
-H "api-key: $YOUR_API_KEY" \
-F file="@./YOUR_AUDIO_FILE_NAME.wav" \
-F "temperature=0" \
-F "response_format=json"
Beispielantwort
{
"text": "Hello, my name is Wolfgang and I come from Germany. Where are you heading today?"
}
Sprachsynthese
Synthetisieren Sie Text in Sprache.
POST https://{your-resource-name}.openai.azure.com/openai/deployments/{deployment-id}/audio/speech?api-version={api-version}
Pfadparameter
Parameter | type | Erforderlich? | BESCHREIBUNG |
---|---|---|---|
your-resource-name |
Zeichenfolge | Erforderlich | Der Name Ihrer Azure OpenAI-Ressource. |
deployment-id |
Zeichenfolge | Erforderlich | Der Name der Sprachsynthese-Modellimplementierung, z. B. MyTextToSpeechDeployment. Sie müssen zuerst ein Sprachsynthesemodell (z. B. tts-1 oder tts-1-hd ) bereitstellen, bevor Sie Anrufe tätigen können. |
api-version |
Zeichenfolge | Erforderlich | Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. Dieser Wert liegt im Format JJJJ-MM-TT vor. |
Unterstützte Versionen
2024-02-15-preview
Swagger-Spezifikation
Anforderungstext
Parameter | type | Erforderlich? | Standard | BESCHREIBUNG |
---|---|---|---|---|
model |
Zeichenfolge | Ja | N/V | Eines der verfügbaren TTS-Modelle: tts-1 oder tts-1-hd |
input |
Zeichenfolge | Ja | N/V | Der Text, für den Audio generiert werden soll. Die maximale Länge beträgt 4096 Zeichen. Geben Sie den Eingabetext in der gewünschten Sprache an.1 |
voice |
Zeichenfolge | Ja | N/V | Die Stimme, die beim Generieren des Audiosignals verwendet werden soll. Unterstützte Stimmen sind alloy , echo , fable , onyx , nova und shimmer . Hörproben der Stimmen sind im Leitfaden für die OpenAI-Sprachsynthese verfügbar. |
1 Die Sprachsynthesemodelle unterstützten in der Regel die gleichen Sprachen wie das Whisper-Modell. Die Liste der unterstützten Sprachen finden Sie in der OpenAI-Dokumentation.
Beispielanforderung
curl https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/audio/speech?api-version=2024-02-15-preview \
-H "api-key: $YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "tts-hd",
"input": "I'm excited to try text to speech.",
"voice": "alloy"
}' --output speech.mp3
Beispielantwort
Die Sprache wird als Audiodatei aus der vorherigen Anforderung zurückgegeben.
Verwaltungs-APIs
Azure OpenAI wird als Teil von Azure KI Services bereitgestellt. Alle Azure KI Services-Instanzen stützen sich auf dieselben Verwaltungs-APIs für die Erstellung, Aktualisierung und Löschung von Vorgängen. Die Verwaltungs-APIs werden auch für die Bereitstellung von Modellen innerhalb einer Azure OpenAI-Ressource verwendet.
Referenzdokumentation für Verwaltungs-APIs
Nächste Schritte
Erfahren Sie mehr über Modelle und die Optimierung mit der REST-API. Erfahren Sie mehr über die zugrunde liegenden Modelle, auf denen Azure OpenAI basiert.