Vad är Azure OpenAI-tjänsten?

Azure OpenAI Service ger REST API-åtkomst till OpenAI:s kraftfulla språkmodeller, inklusive modellserien GPT-4, GPT-4 Turbo with Vision, GPT-3.5-Turbo och Embeddings. Dessutom har den nya modellserien GPT-4 och GPT-3.5-Turbo nu nått allmän tillgänglighet. Dessa modeller kan enkelt anpassas till din specifika uppgift, inklusive men inte begränsat till innehållsgenerering, sammanfattning, bildtolkning, semantisk sökning och naturligt språk för kodöversättning. Användare kan komma åt tjänsten via REST-API:er, Python SDK eller vårt webbaserade gränssnitt i Azure OpenAI Studio.

Funktionsöversikt

Funktion Azure OpenAI
Tillgängliga modeller GPT-4-serien (inklusive GPT-4 Turbo med vision)
GPT-3.5-Turbo-serien
Inbäddningsserie
Läs mer på sidan Modeller .
Finjustering (förhandsversion) GPT-3.5-Turbo (0613)
babbage-002
davinci-002.
Pris Finns här
Mer information om GPT-4 Turbo with Vision finns i den särskilda prisinformationen.
Stöd för virtuellt nätverk och stöd för privata länkar Ja, såvida du inte använder Azure OpenAI på dina data.
Hanterad identitet Ja, via Microsoft Entra-ID
Användargränssnittsupplevelse Azure-portalen för konto- och resurshantering,
Azure OpenAI Service Studio för modellutforskning och finjustering
Modell regional tillgänglighet Modelltillgänglighet
Innehållsfiltrering Frågor och slutföranden utvärderas mot vår innehållsprincip med automatiserade system. Innehåll med hög allvarlighetsgrad filtreras.

Ansvarig AI

På Microsoft är vi engagerade i utvecklingen av AI som drivs av principer som sätter människor först. Generativa modeller som de som är tillgängliga i Azure OpenAI har betydande potentiella fördelar, men utan noggrann design och tankeväckande åtgärder kan sådana modeller generera felaktigt eller till och med skadligt innehåll. Microsoft har gjort betydande investeringar för att skydda sig mot missbruk och oavsiktlig skada, vilket inkluderar att kräva att sökande visar väldefinierade användningsfall, införlivar Microsofts principer för ansvarsfull AI-användning, skapar innehållsfilter för att stödja kunder och ger ansvarsfull AI-implementeringsvägledning till registrerade kunder.

Hur gör jag för att få åtkomst till Azure OpenAI?

Hur gör jag för att få åtkomst till Azure OpenAI?

Åtkomsten är för närvarande begränsad när vi navigerar i hög efterfrågan, kommande produktförbättringar och Microsofts engagemang för ansvarsfull AI. För tillfället arbetar vi med kunder med ett befintligt partnerskap med Microsoft, användningsfall med lägre risk och de som har åtagit sig att implementera åtgärder.

Mer specifik information finns i ansökningsformuläret. Vi uppskattar ditt tålamod när vi arbetar för att på ett ansvarsfullt sätt ge bredare åtkomst till Azure OpenAI.

Använd här för åtkomst:

Använd nu

Jämföra Azure OpenAI och OpenAI

Azure OpenAI Service ger kunderna avancerad språk-AI med OpenAI GPT-4, GPT-3, Codex, DALL-E, Whisper och text till talmodeller med säkerhet och företagslöfte för Azure. Azure OpenAI utvecklar API:erna tillsammans med OpenAI, vilket säkerställer kompatibilitet och en smidig övergång från en till en annan.

Med Azure OpenAI får kunderna säkerhetsfunktionerna i Microsoft Azure när de kör samma modeller som OpenAI. Azure OpenAI erbjuder privata nätverk, regional tillgänglighet och ansvarsfull AI-innehållsfiltrering.

Nyckelbegrepp

Frågor och slutföranden

Slutpunkten för slutföranden är kärnkomponenten i API-tjänsten. Det här API:et ger åtkomst till modellens text-in-, text-out-gränssnitt. Användarna behöver bara ange en indataprompt som innehåller det engelska textkommandot, och modellen genererar en textavslutning.

Här är ett exempel på en enkel fråga och slutförande:

Fråga: """ count to 5 in a for loop """

Slutförande: for i in range(1, 6): print(i)

Token

Texttoken

Azure OpenAI bearbetar text genom att dela upp den i token. Token kan vara hela ord eller teckensegment. Till exempel delas ordet "hamburgare" upp i tokens "skinka", "bur" och "ger", medan ett kort och vanligt ord som "päron" är en enda token. Många token börjar med ett tomt utrymme, till exempel "hello" och "bye".

Det totala antalet token som bearbetas i en viss begäran beror på längden på parametrarna för indata, utdata och begäranden. Mängden token som bearbetas påverkar även svarsfördröjningen och dataflödet för modellerna.

Bildtoken (GPT-4 Turbo med vision)

Tokenkostnaden för en indatabild beror på två huvudsakliga faktorer: bildens storlek och den detaljinställning (låg eller hög) som används för varje bild. Här är en översikt över hur det fungerar:

  • Information: Läge med låg upplösning

    • Med låg detaljnivå kan API:et returnera snabbare svar och använda färre indatatoken för användningsfall som inte kräver detaljerad information.
    • Dessa bilder kostar 85 token vardera, oavsett bildstorlek.
    • Exempel: 4096 x 8192 bild (låg detaljnivå): Kostnaden är en fast 85 tokens, eftersom det är en låg detaljbild, och storleken påverkar inte kostnaden i det här läget.
  • Information: Högupplösningsläge

    • Med hög detaljnivå kan API:et se bilden mer detaljerat genom att beskära den till mindre rutor. Varje kvadrat använder fler token för att generera text.
    • Tokenkostnaden beräknas med en serie skalningssteg:
      1. Bilden skalas först för att passa inom en 2048 x 2048 kvadrat samtidigt som dess proportioner bibehålls.
      2. Bilden skalas sedan ned så att den kortaste sidan är 768 bildpunkter lång.
      3. Bilden är uppdelad i 512 bildpunkters kvadratiska paneler och antalet paneler (avrundning för partiella paneler) avgör den slutliga kostnaden. Varje panel kostar 170 token.
      4. Ytterligare 85 token läggs till i den totala kostnaden.
    • Exempel: 2048 x 4096 bild (hög detaljnivå)
      1. Ursprungligen storleksändras till 1024 x 2048 för att passa i 2048 kvadrat.
      2. Ytterligare storleksändras till 768 x 1536.
      3. Kräver sex 512px paneler att täcka.
      4. Total kostnad är 170 × 6 + 85 = 1105 token.

Resurser

Azure OpenAI är ett nytt produkterbjudande i Azure. Du kan komma igång med Azure OpenAI på samma sätt som andra Azure-produkter där du skapar en resurs eller instans av tjänsten i din Azure-prenumeration. Du kan läsa mer om Azures resurshanteringsdesign.

Distributioner

När du har skapat en Azure OpenAI-resurs måste du distribuera en modell innan du kan börja göra API-anrop och generera text. Den här åtgärden kan utföras med hjälp av API:er för distribution. Med dessa API:er kan du ange den modell som du vill använda.

Promptkonstruktion

Modellerna GPT-3, GPT-3.5 och GPT-4 från OpenAI är promptbaserade. Med promptbaserade modeller interagerar användaren med modellen genom att ange en textprompt, som modellen svarar på med en textkomplettering. Detta är modellens fortsättning på indatatexten.

Även om dessa modeller är extremt kraftfulla, är deras beteende också mycket känsligt för prompten. Detta gör prompt engineering till en viktig färdighet att utveckla.

Snabb konstruktion kan vara svårt. I praktiken fungerar uppmaningen för att konfigurera modellvikterna för att slutföra den önskade uppgiften, men det är mer av en konst än en vetenskap, som ofta kräver erfarenhet och intuition för att skapa en lyckad prompt.

Modeller

Tjänsten ger användarna åtkomst till flera olika modeller. Varje modell har olika funktioner och prispunkter.

DALL-E-modellerna (vissa i förhandsversion, se modeller) genererar bilder från textanvisningarna som användaren tillhandahåller.

Whisper-modellerna kan användas för att transkribera och översätta tal till text.

Text till tal-modeller, som för närvarande är i förhandsversion, kan användas för att syntetisera text till tal.

Läs mer om varje modell på konceptsidan för våra modeller.

Nästa steg

Läs mer om de underliggande modeller som driver Azure OpenAI.