Dela via


AI-appmallar

I det här avsnittet av dokumentationen beskrivs AI-appmallar och relaterade artiklar som använder dessa mallar för att visa hur du utför viktiga uppgifter för utvecklare. Med AI-appmallar får du väl underhållna och enkla att distribuera referensimplementeringar som hjälper dig att säkerställa en högkvalitativ startpunkt för dina AI-appar.

Det finns två kategorier av AI-appmallar, byggstenar och lösningar från slutpunkt till slutpunkt. I följande avsnitt beskrivs några av de viktigaste mallarna i varje kategori för det programmeringsspråk som du har valt överst i den här artikeln. Om du vill bläddra i en mer omfattande lista med dessa och andra mallar kan du läsa AI-appmallarna i Azure Developer CLI-galleriet.

Byggblocken

Byggstenar är mindre skalningsexempel som fokuserar på specifika scenarier och uppgifter. De flesta byggstenar visar funktioner som utnyttjar lösningen för företagschatt från slutpunkt till slutpunkt.

Byggsten beskrivning Artikel
Belastningsutjämning med Azure Container Apps Lär dig hur du lägger till belastningsutjämning i ditt program för att utöka chattappen utöver gränserna för Azure OpenAI-token och modellkvoter. Den här metoden använder Azure Container Apps för att skapa tre Azure OpenAI-slutpunkter samt en primär container för att dirigera inkommande trafik till en av de tre slutpunkterna. Belastningsutjämning med Azure Container Apps
Byggsten beskrivning Artikel
Lägga till dokumentsäkerhetstrimning i Azure AI Search När du skapar ett chattprogram med HJÄLP av RAG-mönstret med dina egna data kontrollerar du att varje användare får ett svar baserat på deras behörigheter. En behörig användare bör ha åtkomst till svar som finns i chattappens dokument. En obehörig användare bör inte ha åtkomst till svar från skyddade dokument som de inte har behörighet att se. Konfigurera dokumentsäkerhet för Python-chattappen
Utvärdera chattappens svar Lär dig hur du utvärderar en chattapps svar mot en uppsättning korrekta eller idealiska svar (kallas grundsanning). När du ändrar chattprogrammet på ett sätt som påverkar svaren kör du en utvärdering för att jämföra ändringarna. Det här demoprogrammet erbjuder verktyg som du kan använda i dag för att göra det enklare att köra utvärderingar. Utvärdera Python-chattappen
Belastningsutjämning med Azure Container Apps Lär dig hur du lägger till belastningsutjämning i ditt program för att utöka chattappen utöver gränserna för Azure OpenAI-token och modellkvoter. Den här metoden använder Azure Container Apps för att skapa tre Azure OpenAI-slutpunkter samt en primär container för att dirigera inkommande trafik till en av de tre slutpunkterna. Belastningsutjämning med Azure Container Apps
Belastningsutjämning med API Management Lär dig hur du lägger till belastningsutjämning i ditt program för att utöka chattappen utöver gränserna för Azure OpenAI-token och modellkvoter. Den här metoden använder Azure API Management för att skapa tre Azure OpenAI-slutpunkter samt en primär container för att dirigera inkommande trafik till en av de tre slutpunkterna. Belastningsutjämning med Azure Container Apps
Belastningstest med gräshoppa Lär dig hur du utför belastningstestning i ett Python-chattprogram med hjälp av RAG-mönstret med Locust, ett populärt verktyg för belastningstestning med öppen källkod. Det primära målet med belastningstestning är att säkerställa att den förväntade belastningen i chattprogrammet inte överskrider den aktuella TPM-kvoten (Azure OpenAI Transactions Per Minute). Genom att simulera användarbeteende under hög belastning kan du identifiera potentiella flaskhalsar och skalbarhetsproblem i ditt program. Läs in test av Python-chattappen med Locust
Byggsten beskrivning Artikel
Belastningsutjämning med Azure Container Apps Lär dig hur du lägger till belastningsutjämning i ditt program för att utöka chattappen utöver gränserna för Azure OpenAI-token och modellkvoter. Den här metoden använder Azure Container Apps för att skapa tre Azure OpenAI-slutpunkter samt en primär container för att dirigera inkommande trafik till en av de tre slutpunkterna. Belastningsutjämning med Azure Container Apps
Byggsten beskrivning Artikel
Utvärdera chattappens svar Lär dig hur du utvärderar en chattapps svar mot en uppsättning korrekta eller idealiska svar (kallas grundsanning). När du ändrar chattprogrammet på ett sätt som påverkar svaren kör du en utvärdering för att jämföra ändringarna. Det här demoprogrammet erbjuder verktyg som du kan använda i dag för att göra det enklare att köra utvärderingar. Utvärdera JavaScript-chattappen
Belastningsutjämning med Azure Container Apps Lär dig hur du lägger till belastningsutjämning i ditt program för att utöka chattappen utöver gränserna för Azure OpenAI-token och modellkvoter. Den här metoden använder Azure Container Apps för att skapa tre Azure OpenAI-slutpunkter samt en primär container för att dirigera inkommande trafik till en av de tre slutpunkterna. Belastningsutjämning med Azure Container Apps
Belastningsutjämning med API Management Lär dig hur du lägger till belastningsutjämning i ditt program för att utöka chattappen utöver gränserna för Azure OpenAI-token och modellkvoter. Den här metoden använder Azure API Management för att skapa tre Azure OpenAI-slutpunkter samt en primär container för att dirigera inkommande trafik till en av de tre slutpunkterna. Belastningsutjämning med Azure Container Apps

Lösningar från slutpunkt till slutpunkt

Lösningar från slutpunkt till slutpunkt är omfattande referensexempel, inklusive dokumentering, källkod och distribution så att du kan ta och utöka för dina egna syften.

Företagschatt med .NET

Den här mallen är en komplett lösning från slutpunkt till slutpunkt som visar RAG-mönstret (Retrieval-Augmented Generation) som körs i Azure, med hjälp av Azure AI Search för hämtning och stora Azure OpenAI-språkmodeller för att driva ChatGPT-stil och Q&A-upplevelser.

Information om hur du kommer igång med den här mallen finns i Kom igång med .NET Enterprise-chattexemplet med HJÄLP av RAG. Om du vill komma åt källkoden och läsa detaljerad information om mallen kan du läsa GitHub-lagringsplatsen azure-search-openai-demo-csharp .

Diagram som visar arkitektur från klient till serverdelsapp för .NET.

Skärmbild av .NET-chattappen i webbläsaren som visar flera förslag på chattindata och textrutan chatt för att ange en fråga.

Den här mallen visar hur dessa funktioner används.

Azure-värdlösning Tekniker AI-modeller
Azure Container Apps
Azure Functions
Azure OpenAI
Azure Computer Vision
Formigenkänning i Azure
Azure AI-sökning
Azure Storage
GPT 3.5 Turbo
GPT 4.0

Contoso chattbutik copilot med .NET och semantisk kernel

Den här mallen implementerar Contoso Outdoors, en konceptbutik som specialiserat sig på utomhusutrustning för vandrings- och campingentusiaster. Den här virtuella butiken förbättrar kundengagemanget och säljsupporten via en intelligent chattagent. Den här agenten drivs av RAG-mönstret (Retrieval Augmented Generation) i Microsoft Azure AI Stack, berikad med stöd för semantisk kernel och prompty.

Information om mallen finns i GitHub-lagringsplatsen contoso-chat-csharp-prompty för att komma åt källkoden och läsa detaljerad information om mallen.

Diagram som visar arkitektur från klient till serverdelsapp för vandringsapp.

Skärmbild av .NET-vandrings- och campingentusiastbutik.

Den här mallen visar hur dessa funktioner används.

Azure-värdlösning Tekniker AI-modeller
Azure Container Apps
Azure OpenAI
Microsoft Entra ID
Azure Managed Identity
Azure Monitor
Azure AI-sökning
Azure AI Studio
Azure SQL
Azure Storage
GPT 3.5 Turbo
GPT 4.0

Processautomatisering med tal till text och sammanfattning med .NET och GPT 3.5 Turbo

Den här mallen är en processautomatiseringslösning som tar emot problem som rapporterats av fält- och butiksarbetare på ett företag som heter Contoso Manufacturing, ett tillverkningsföretag som tillverkar bilbatterier. Problemen delas av arbetarna antingen live via mikrofoninmatning eller förinspelade som ljudfiler. Lösningen översätter ljudindata från tal till text och använder sedan en LLM och Prompty eller Promptflow för att sammanfatta problemet och returnera resultatet i ett format som anges av lösningen.

Om du vill komma åt källkoden och läsa detaljerad information om mallen kan du läsa GitHub-lagringsplatsen summarization-openai-csharp-prompty .

Skärmbild av .NET-webbapp med sidochatt för tal till text och sammanfattning för Contoso Manufacturing.

Den här mallen visar hur dessa funktioner används.

Azure-värdlösning Tekniker AI-modeller
Azure Container Apps Tal till text
Summering
Azure OpenAI
GPT 3.5 Turbo

Företagschatt med Python

Den här mallen är en komplett lösning från slutpunkt till slutpunkt som visar RAG-mönstret (Retrieval-Augmented Generation) som körs i Azure, med hjälp av Azure AI Search för hämtning och stora Azure OpenAI-språkmodeller för att driva ChatGPT-stil och Q&A-upplevelser.

Information om hur du kommer igång med den här mallen finns i Kom igång med Python Enterprise-chattexemplet med HJÄLP av RAG. Information om mallen finns i GitHub-lagringsplatsen azure-search-openai-demo för att få åtkomst till källkoden och läsa detaljerad information om mallen.

Skärmbild av chattappen i webbläsaren som visar flera förslag på chattinmatning och chatttextrutan för att ange en fråga.

Diagram som visar arkitektur från klient till serverdelsapp

Den här mallen visar hur dessa funktioner används.

Azure-värdlösning Tekniker AI-modeller
Azure App Service Azure OpenAI
Bing-sökning
Azure Managed Identity
Azure Monitor
Azure AI-sökning
Azure AI Studio
GPT 3.5 Turbo
GPT 4.0
DALL-E

Multi-Modal Creative Writing Copilot med DALL-E

Den här mallen är en kreativ lösning för att skriva flera agenter som hjälper användarna att skriva artiklar. Den visar hur du skapar och arbetar med AI-agenter som drivs av Azure OpenAI. Den innehåller en Flask-app som tar ett ämne och instruktioner från en användare och sedan anropar en forskningsagent som använder API:et för Bing-sökning för att undersöka ämnet, en produktagent som använder Azure AI Search för att göra en semantisk likhetssökning efter relaterade produkter från ett vektorarkiv, en skrivagent för att kombinera forskning och produktinformation till en användbar artikel. och en redigeraragent för att förfina artikeln som slutligen presenteras för användaren.

Information om mallen finns i GitHub-lagringsplatsen agent-openai-python-prompty för att komma åt källkoden och läsa detaljerad information om mallen.

Arkitekturdiagram över copilot-programmet python multimodal creative writing.

Den här mallen visar hur dessa funktioner används.

Azure-värdlösning Tekniker AI-modeller
Azure Container registery
Azure Kubernetes
Azure OpenAI
Bing-sökning
Azure Managed Identity
Azure Monitor
Azure AI-sökning
Azure AI Studio
GPT 3.5 Turbo
GPT 4.0
DALL-E

Contoso Chat Retail Copilot med AI Studio

Den här mallen är en chattlösning för kundförsäljning och support. Den visar hur du skapar ett LLM-program (Large Language Model) med en RAG-arkitektur (Retrieval Augmented Generation) med hjälp av Azure AI Studio och Prompt Flow.

Information om mallen finns i GitHub-lagringsplatsen contoso-chat för att få åtkomst till källkoden och läsa detaljerad information om mallen.

Skärmbild av chattapp med promptflöde i visual editor för Contoso chat retail copilot.

Den här mallen visar hur dessa funktioner används.

Azure-värdlösning Tekniker AI-modeller
Azure Container Apps
Azure OpenAI
Azure AI-sökning
Azure AI Studio
Azure Cosmos DB
GPT 3.5 Turbo
GPT 4.0
Managed Integration Runtime (MIR)

Processautomatisering med tal till text och sammanfattning med AI Studio

Den här mallen är en processautomatiseringslösning som tar emot problem som rapporterats av fält- och butiksarbetare på ett företag som heter Contoso Manufacturing, ett tillverkningsföretag som tillverkar bilbatterier. Problemen delas av arbetarna antingen live via mikrofonindata, förinspelade som ljudfiler eller som textinmatning. Lösningen översätter ljudindata från tal till text och använder sedan textrapporterna som indata till en LLM och Prompty/Promptflow för att sammanfatta problemet och returnera resultaten i ett format som anges av lösningen.

Information om mallen finns i GitHub-lagringsplatsen summarization-openai-python-prompflow för att få åtkomst till källkoden och läsa detaljerad information om mallen.

Arkitekturdiagram för processautomatisering med tal till text och sammanfattning med AI Studio för Python.

Den här mallen visar hur dessa funktioner används.

Azure-värdlösning Tekniker AI-modeller
Azure Container Apps Azure AI Studio
Tal till text-tjänsten
Prompt Flow
Managed Integration Runtime (MIR)
GPT 3.5 Turbo

Den här mallen är ett program som använder Prompty, Langchain och Elasticsearch för att skapa en llm-sökagent (large language model). Den här agenten med RAG-teknik (Retrieval Augmented Generation) kan svara på användarfrågor baserat på tillhandahållna data genom att integrera realtidsinformationshämtning med generativa svar.

Information om mallen finns i GitHub-lagringsplatsen agent-python-openai-prompty-langchain för att få åtkomst till källkoden och läsa detaljerad information om mallen.

Arkitekturdiagram för en app med hjälp av verktyget Prompty, Langchain och Elasticsearch för att skapa en LLM-sökagent (large language model) med funktionsanrop för Python.

Den här mallen visar hur dessa funktioner används.

Azure-värdlösning Tekniker AI-modeller
Machine Learning Service Azure AI Studio
Elastisk sökning
Microsoft Entra ID
Azure Managed Identity
Azure Monitor
Azure Storage
Azure AI Studio
Managed Integration Runtime (MIR)
GPT 3.5 Turbo

Funktionsanrop med Prompty, LangChain och Pinecone

Den här mallen använder det nya prompty-verktyget Langchain och Pinecone för att skapa en LLM-sökagent (large language model). Den här agenten med RAG-teknik (Retrieval Augmented Generation) kan svara på användarfrågor baserat på tillhandahållna data genom att integrera realtidsinformationshämtning med generativa svar.

Information om mallen finns i GitHub-lagringsplatsen agent-openai-python-prompty-langchain-pinecone för att få åtkomst till källkoden och läsa detaljerad information om mallen.

Arkitekturdiagram för en OpenAI-agentapp med hjälp av Prompty, Langchain och Pinecone med Python.

Den här mallen visar hur dessa funktioner används.

Azure-värdlösning Tekniker AI-modeller
Azure Container Apps Pinecone
Microsoft Entra ID
Microsoft Managed Identity
Azure Monitor
Azure Storage
GPT 3.5 Turbo

Assistant API Analytics Copilot med Python och Azure AI Studio

Den här mallen är ett assistent-API för att chatta med tabelldata och utföra analyser på naturligt språk. Information om mallen finns i GitHub-lagringsplatsen assistant-data-openai-python-promptflow för att få åtkomst till källkoden och läsa detaljerad information om mallen.

Arkitekturdiagram för ett assistent-API för att chatta med tabelldata och utföra analys på naturligt språk.

Den här mallen visar hur dessa funktioner används.

Azure-värdlösning Tekniker AI-modeller
Machine Learning Service Azure AI-sökning
Azure AI Studio
Managed Integration Runtime (MIR)
Azure OpenAI
GPT 3.5 Turbo
GPT-4

Företagschatt med Java

Den här mallen är en komplett lösning från slutpunkt till slutpunkt som visar RAG-mönstret (Retrieval-Augmented Generation) som körs i Azure, med hjälp av Azure AI Search för hämtning och stora Azure OpenAI-språkmodeller för att driva ChatGPT-stil och Q&A-upplevelser. Det här exemplet stöder olika arkitekturformat. Den kan distribueras som fristående app ovanpå Azure App Service eller som en händelsedriven arkitektur för mikrotjänster med webbklientdel, AI-orkestrering och dokumentinmatningsappar som hanteras av Azure Container Apps eller Azure Kubernetes Service.

Information om hur du kommer igång med den här mallen finns i Komma igång med Java Enterprise-chattexemplet med HJÄLP av RAG. Information om mallen finns i GitHub-lagringsplatsen azure-search-openai-demo-java för att få åtkomst till källkoden och läsa detaljerad information om mallen.

Diagram som visar arkitektur från klient till serverdelsapp i Java.

Skärmbild av Java-chattappen i webbläsaren som visar flera förslag på chattindata och textrutan chatt för att ange en fråga.

Den här mallen visar hur dessa funktioner används.

Azure-värdlösning Tekniker AI-modeller
Azure App Service
Azure Container Apps
Azure Kubernetes Service
Azure OpenAI
Azure AI-sökning
Azure Storage
Azure Monitor

Företagschatt med JavaScript

Den här mallen är en komplett lösning från slutpunkt till slutpunkt som visar RAG-mönstret (Retrieval-Augmented Generation) som körs i Azure, med hjälp av Azure AI Search för hämtning och stora Azure OpenAI-språkmodeller för att driva ChatGPT-stil och Q&A-upplevelser.

Information om hur du kommer igång med den här mallen finns i Komma igång med JavaScript Enterprise-chattexemplet med HJÄLP av RAG. Information om mallen finns i GitHub-lagringsplatsen azure-search-openai-javascript för att komma åt källkoden och läsa detaljerad information om mallen.

Diagram som visar arkitektur från klient till serverdelsapp.

Skärmbild av chattappen i webbläsaren som visar flera förslag på chattinmatning och chatttextrutan för att ange en fråga.

Den här mallen visar hur dessa funktioner används.

Azure-värdlösning Tekniker AI-modeller
Azure Container Apps
Azure Static Web Apps
Azure OpenAI
Azure AI-sökning
Azure Storage
Azure Monitor
text-embedding-ada-002

Azure OpenAI-chattklientdel

Den här mallen är en minimal OpenAI-chattwebbkomponent som kan kopplas till alla serverdelsimplementeringar som en klient.

Information om mallen finns i GitHub-lagringsplatsen azure-openai-chat-frontend för att få åtkomst till källkoden och läsa detaljerad information om mallen.

Video som visar JavaScript-chattklientdelsprogrammet.

Den här mallen visar hur dessa funktioner används.

Azure-värdlösning Tekniker AI-modeller
Azure Static Web Apps Azure AI-sökning
Azure OpenAI
GPT 3.5 Turbo
GPT4

Serverlös AI-chatt med RAG med hjälp av LangChain.js

Mallen är en serverlös AI-chattrobot med hämtningsförhöjd generation med hjälp av LangChain.js och Azure som använder en uppsättning företagsdokument för att generera svar på användarfrågor. Det använder ett fiktivt företag som heter Contoso Real Estate, och upplevelsen gör det möjligt för kunderna att ställa supportfrågor om användningen av sina produkter. Exempeldata innehåller en uppsättning dokument som beskriver dess användarvillkor, sekretesspolicy och en supportguide.

Mer information om hur du distribuerar och kör den här mallen finns i Kom igång med serverlös AI Chat med RAG med hjälp av LangChain.js. Om du vill komma åt källkoden och läsa detaljerad information om mallen kan du läsa GitHub-lagringsplatsen serverless-chat-langchainjs .

Lär dig hur du distribuerar och kör den här JavaScript-referensmallen.

Diagram som visar arkitektur för serverlöst API med LangChainjs för att integrera med Azure OpenAI Service och Azure AI Search.

Webbläsarvideo av demonstration av JavaScript-chattapp med HJÄLP av RAG och Langchain.js

Den här mallen visar hur dessa funktioner används.

Azure-värdlösning Tekniker AI-modeller
Azure Static Web Apps
Azure Functions
Azure AI-sökning
Azure OpenAI
Azure Cosmos DB
Azure Storage
Azure Managed Identity
GPT4
Mistral
Ollama