Ocenianie modeli języka Python w czasie rzeczywistym

Container Registry
Kubernetes Service
Usługa Machine Learning
Monitor
Virtual Machines

Ta architektura referencyjna pokazuje, jak wdrożyć modele języka Python jako usługi sieci Web, aby przeprowadzać przewidywania w czasie rzeczywistym przy użyciu Azure Machine Learning.This reference architecture shows how to deploy Python models as web services to make real-time predictions using the Azure Machine Learning. Omówione są dwa scenariusze: wdrażanie zwykłych modeli Python i określonych wymagań dotyczących wdrażania modeli uczenia głębokiego.Two scenarios are covered: deploying regular Python models, and the specific requirements of deploying deep learning models. Oba scenariusze używają wyświetlonej architektury.Both scenarios use the architecture shown.

Dwa implementacje referencyjne dla tej architektury są dostępne w serwisie GitHub — jeden dla zwykłych modeli Python i jeden dla modeli uczenia głębokiego.Two reference implementations for this architecture are available on GitHub, one for regular Python models and one for deep learning models.

Diagram architektury dla oceny w czasie rzeczywistym modeli języka Python na platformie Azure

ScenariuszeScenarios

Implementacje referencyjne przedstawiają dwa scenariusze korzystające z tej architektury.The reference implementations demonstrate two scenarios using this architecture.

Scenariusz 1. często zadawane pytania.Scenario 1: FAQ matching. W tym scenariuszu przedstawiono sposób wdrażania często zadawanych pytań (FAQ) zgodnych z modelem jako usługi sieci Web, które umożliwiają prognozowanie pytań użytkowników.This scenario shows how to deploy a frequently asked questions (FAQ) matching model as a web service to provide predictions for user questions. W tym scenariuszu "dane wejściowe" w diagramie architektury odnoszą się do ciągów tekstowych zawierających pytania użytkowników, które są zgodne z listą często zadawanych pytań.For this scenario, "Input Data" in the architecture diagram refers to text strings containing user questions to match with a list of FAQs. Ten scenariusz jest przeznaczony dla scikit-uczenia maszynowego biblioteki języka Python, ale może być uogólniony do dowolnego scenariusza, który korzysta z modeli języka Python do przeprowadzania prognoz w czasie rzeczywistym.This scenario is designed for the scikit-learn machine learning library for Python, but can be generalized to any scenario that uses Python models to make real-time predictions.

W tym scenariuszu jest używany podzestaw Stack Overflow danych pytań, które zawierają oryginalne pytania oznaczone jako JavaScript, ich zduplikowane pytania i odpowiedzi.This scenario uses a subset of Stack Overflow question data that includes original questions tagged as JavaScript, their duplicate questions, and their answers. Pociąga za sobą potok scikit — uczenie się, aby przewidzieć prawdopodobieństwo dopasowania zduplikowanego pytania do każdego z oryginalnych pytań.It trains a scikit-learn pipeline to predict the match probability of a duplicate question with each of the original questions. Te przewidywania są wykonywane w czasie rzeczywistym za pomocą punktu końcowego interfejsu API REST.These predictions are made in real time using a REST API endpoint.

Przepływ aplikacji dla tej architektury jest następujący:The application flow for this architecture is as follows:

  1. Przeszkolony model jest zarejestrowany w rejestrze modelu uczenia maszynowego.The trained model is registered to the machine learning model registry.
  2. Machine Learning tworzy obraz platformy Docker, który zawiera model i skrypt oceniający.Machine Learning creates a Docker image that includes the model and scoring script.
  3. Azure Machine Learning wdraża obraz oceniania w usłudze Azure Kubernetes Service (AKS) jako usługę sieci Web.Azure Machine Learning deploys the scoring image on Azure Kubernetes Service (AKS) as a web service.
  4. Klient wysyła żądanie HTTP POST przy użyciu zakodowanych danych pytań.The client sends an HTTP POST request with the encoded question data.
  5. Usługa sieci Web utworzona przez Azure Machine Learning wyodrębnia pytanie z żądania.The web service created by Azure Machine Learning extracts the question from the request.
  6. Pytanie jest wysyłane do modelu potoku Scikit-uczyć dla cechowania i oceniania.The question is sent to the Scikit-learn pipeline model for featurization and scoring.
  7. Pasujące pytania dotyczące pytań i odpowiedzi są zwracane do klienta.The matching FAQ questions with their scores are returned to the client.

Oto zrzut ekranu przykładowej aplikacji, która wykorzystuje wyniki:Here is a screenshot of the example app that consumes the results:

Zrzut ekranu przykładowej aplikacji

Scenariusz 2: Klasyfikacja obrazu.Scenario 2: Image classification. W tym scenariuszu pokazano, jak wdrożyć model Splotowych neuronowych Network (CNN) jako usługę sieci Web, aby zapewnić przewidywania dotyczące obrazów.This scenario shows how to deploy a Convolutional Neural Network (CNN) model as a web service to provide predictions on images. W tym scenariuszu "dane wejściowe" w diagramie architektury odnoszą się do plików obrazów.For this scenario, "Input Data" in the architecture diagram refers to image files. CNNs są efektywne w przypadku wykonywania zadań, takich jak Klasyfikacja obrazu i wykrywanie obiektów.CNNs are effective in computer vision for tasks such as image classification and object detection. Ten scenariusz jest przeznaczony dla platform TensorFlow, Keras (z zapleczem TensorFlow) i PyTorch.This scenario is designed for the frameworks TensorFlow, Keras (with the TensorFlow back end), and PyTorch. Można go jednak uogólnionie do dowolnego scenariusza, który korzysta z modeli uczenia głębokiego, aby przeprowadzać przewidywania w czasie rzeczywistym.However, it can be generalized to any scenario that uses deep learning models to make real-time predictions.

W tym scenariuszu jest używany wstępnie szkolony model ResNet-152 przeszkolony na zestawach danych ImageNet-1K (1 000 Classes) do przewidywania kategorii (patrz rysunek poniżej) obrazu, do którego należy.This scenario uses a pre-trained ResNet-152 model trained on ImageNet-1K (1,000 classes) dataset to predict which category (see figure below) an image belongs to. Te przewidywania są wykonywane w czasie rzeczywistym za pomocą punktu końcowego interfejsu API REST.These predictions are made in real time using a REST API endpoint.

Przykładowe przewidywania

Przepływ aplikacji dla modelu uczenia głębokiego jest następujący:The application flow for the deep learning model is as follows:

  1. Model uczenia głębokiego jest zarejestrowany w rejestrze modelu uczenia maszynowego.The deep learning model is registered to the machine learning model registry.
  2. Azure Machine Learning tworzy obraz platformy Docker, w tym model i skrypt oceniający.Azure Machine Learning creates a docker image including the model and scoring script.
  3. Azure Machine Learning wdraża obraz oceniania w usłudze Azure Kubernetes Service (AKS) jako usługę sieci Web.Azure Machine Learning deploys the scoring image on Azure Kubernetes Service (AKS) as a web service.
  4. Klient wysyła żądanie HTTP POST z kodowanymi danymi obrazu.The client sends an HTTP POST request with the encoded image data.
  5. Usługa sieci Web utworzona przez Azure Machine Learning wstępnie przetwarza dane obrazu i wysyła je do modelu na potrzeby oceniania.The web service created by Azure Machine Learning preprocesses the image data and sends it to the model for scoring.
  6. Kategorie przewidywane ze swoimi wynikami są zwracane do klienta.The predicted categories with their scores are returned to the client.

ArchitekturaArchitecture

Niniejsza architektura zawiera następujące składniki.This architecture consists of the following components.

Azure Machine Learning to usługa w chmurze, która służy do uczenia, wdrażania i automatyzowania modeli uczenia maszynowego oraz zarządzania nimi, a wszystko to w szerokiej skali udostępnianej przez chmurę.Azure Machine Learning is a cloud service that is used to train, deploy, automate, and manage machine learning models, all at the broad scale that the cloud provides. Jest ona używana w tej architekturze do zarządzania wdrożeniem modeli oraz uwierzytelnianiem, routingiem i równoważeniem obciążenia usługi sieci Web.It is used in this architecture to manage the deployment of models as well as authentication, routing, and load balancing of the web service.

Maszyna wirtualna (VM).Virtual machine (VM). Maszyna wirtualna jest pokazywana jako przykładowe urządzenie — lokalne lub w chmurze, które może wysyłać żądanie HTTP.The VM is shown as an example of a device—local or in the cloud—that can send an HTTP request.

Usługa Azure Kubernetes Service (AKS) służy do wdrażania aplikacji w klastrze Kubernetes.Azure Kubernetes Service (AKS) is used to deploy the application on a Kubernetes cluster. AKS upraszcza wdrażanie i operacje Kubernetes.AKS simplifies the deployment and operations of Kubernetes. Klaster można skonfigurować przy użyciu maszyn wirtualnych obsługujących tylko procesor CPU dla zwykłych modeli Python lub maszyn wirtualnych z obsługą procesora GPU na potrzeby modeli uczenia głębokiego.The cluster can be configured using CPU-only VMs for regular Python models or GPU-enabled VMs for deep learning models.

Azure Container Registry umożliwia przechowywanie obrazów dla wszystkich typów wdrożeń kontenerów platformy Docker, w tym DC/OS, Docker Swarm i Kubernetes.Azure Container Registry enables storage of images for all types of Docker container deployments including DC/OS, Docker Swarm and Kubernetes. Obrazy oceniania są wdrażane jako kontenery w usłudze Azure Kubernetes i używane do uruchamiania skryptu oceniania.The scoring images are deployed as containers on Azure Kubernetes Service and used to run the scoring script. Używany tutaj obraz jest tworzony przez Machine Learning z modelu przeszkolonego i skryptu oceniania, a następnie jest wypychany do Azure Container Registry.The image used here is created by Machine Learning from the trained model and scoring script, and then is pushed to the Azure Container Registry.

Zagadnienia dotyczące wydajnościPerformance considerations

W przypadku architektur oceniania w czasie rzeczywistym wydajność przepływności jest dominującą kwestią.For real-time scoring architectures, throughput performance becomes a dominant consideration. W przypadku zwykłych modeli w języku Python ogólnie przyjmuje się, że procesor CPU wystarcza do obsługi obciążenia.For regular Python models, it's generally accepted that CPUs are sufficient to handle the workload.

Jednak w przypadku obciążeń głębokiego uczenia, gdy szybkość jest wąskim gardłem, procesory GPU zwykle zapewniają lepszą wydajność w porównaniu z procesorami CPU.However for deep learning workloads, when speed is a bottleneck, GPUs generally provide better performance compared to CPUs. Aby dopasować wydajność procesora GPU przy użyciu procesorów CPU, klaster o dużej liczbie procesorów jest zazwyczaj wymagany.To match GPU performance using CPUs, a cluster with large number of CPUs is usually needed.

Procesorów CPU można używać dla tej architektury w każdym scenariuszu, ale w przypadku modeli uczenia głębokiego procesory GPU zapewniają znacznie wyższe wartości przepływności w porównaniu z klastrem CPU o podobnym koszcie.You can use CPUs for this architecture in either scenario, but for deep learning models, GPUs provide significantly higher throughput values compared to a CPU cluster of similar cost. AKS obsługuje korzystanie z procesorów GPU, co stanowi jedną z zalet użycia AKS dla tej architektury.AKS supports the use of GPUs, which is one advantage of using AKS for this architecture. Ponadto wdrożenia głębokiej nauki zwykle korzystają z modeli o dużej liczbie parametrów.Also, deep learning deployments typically use models with a high number of parameters. Użycie procesora GPU zapobiega rywalizacji o zasoby między modelem a usługą sieci Web, co jest problemem w przypadku wdrożeń opartych tylko na procesorze.Using GPUs prevents contention for resources between the model and the web service, which is an issue in CPU-only deployments.

Zagadnienia dotyczące skalowalnościScalability considerations

W przypadku zwykłych modeli Python, w których klaster AKS jest inicjowany z maszynami wirtualnymi zawierającymi tylko procesor CPU, należy zachować ostrożność podczas skalowania liczby numerów.For regular Python models, where the AKS cluster is provisioned with CPU-only VMs, take care when scaling out the number of pods. Celem jest w pełni korzystanie z klastra.The goal is to fully utilize the cluster. Skalowanie zależy od żądań procesora CPU i limitów zdefiniowanych dla zasobników.Scaling depends on the CPU requests and limits defined for the pods. Machine Learning za pośrednictwem Kubernetes obsługuje również automatyczne skalowanie na podstawie użycia procesora CPU lub innych metryk.Machine Learning through Kubernetes also supports pod autoscaling based on CPU utilization or other metrics. Automatyczne skalowanie klastra (w wersji zapoznawczej) może skalować węzły agentów w oparciu o oczekujące zasobniki.The cluster autoscaler (in preview) can scale agent nodes based on the pending pods.

W przypadku scenariuszy uczenia głębokiego przy użyciu maszyn wirtualnych z obsługą procesora GPU limity zasobów na podstych są takie same, że jeden procesor GPU jest przypisany do jednego z nich.For deep learning scenarios, using GPU-enabled VMs, resource limits on pods are such that one GPU is assigned to one pod. W zależności od typu używanej maszyny wirtualnej należy skalować węzły klastra w celu spełnienia wymagań usługi.Depending on the type of VM used, you must scale the nodes of the cluster to meet the demand for the service. Można to łatwo zrobić przy użyciu interfejsu wiersza polecenia platformy Azure i polecenia kubectl.You can do this easily using the Azure CLI and kubectl.

Zagadnienia dotyczące monitorowania i rejestrowaniaMonitoring and logging considerations

Monitorowanie AKSAKS monitoring

Aby uzyskać wgląd w wydajność usługi AKS, użyj funkcji Azure monitor for Containers .For visibility into AKS performance, use the Azure Monitor for containers feature. Zbiera metryki pamięci i procesora z kontrolerów, węzłów i kontenerów, które są dostępne w Kubernetes za pośrednictwem interfejsu API metryk.It collects memory and processor metrics from controllers, nodes, and containers that are available in Kubernetes through the Metrics API.

Podczas wdrażania aplikacji Monitoruj klaster AKS, aby upewnić się, że działa zgodnie z oczekiwaniami, wszystkie węzły są operacyjne i wszystkie zasobniki są uruchomione.While deploying your application, monitor the AKS cluster to make sure it's working as expected, all the nodes are operational, and all pods are running. Mimo że można użyć narzędzia wiersza polecenia polecenia kubectl w celu pobrania stanu pod, Kubernetes zawiera również pulpit nawigacyjny sieci Web służący do podstawowego monitorowania stanu klastra i zarządzania nim.Although you can use the kubectl command-line tool to retrieve pod status, Kubernetes also includes a web dashboard for basic monitoring of the cluster status and management.

Zrzut ekranu przedstawiający pulpit nawigacyjny Kubernetes

Aby wyświetlić ogólny stan klastra i węzłów, przejdź do sekcji węzły na pulpicie nawigacyjnym Kubernetes.To see the overall state of the cluster and nodes, go to the Nodes section of the Kubernetes dashboard. Jeśli węzeł jest nieaktywny lub zakończył się niepowodzeniem, można wyświetlić dzienniki błędów z tej strony.If a node is inactive or has failed, you can display the error logs from that page. Podobnie, przejdź do sekcji numery i wdrożenia , aby uzyskać informacje o liczbie i stanie wdrożenia.Similarly, go to the Pods and Deployments sections for information about the number of pods and status of your deployment.

Dzienniki AKSAKS logs

AKS automatycznie rejestruje wszystkie strumienia stdout/stderr do dzienników zasobników w klastrze.AKS automatically logs all stdout/stderr to the logs of the pods in the cluster. Użyj polecenia kubectl, aby zobaczyć te, a także zdarzenia i dzienniki na poziomie węzła.Use kubectl to see these and also node-level events and logs. Aby uzyskać szczegółowe informacje, zobacz kroki wdrażania.For details, see the deployment steps.

Azure monitor kontenerów służy do zbierania metryk i dzienników za pomocą zadanej wersji agenta log Analytics Agent dla systemu Linux, który jest przechowywany w obszarze roboczym log Analytics.Use Azure Monitor for containers to collect metrics and logs through a containerized version of the Log Analytics agent for Linux, which is stored in your Log Analytics workspace.

Zagadnienia dotyczące bezpieczeństwaSecurity considerations

Skorzystaj z usługi Azure Security Center, aby uzyskać pełny widok stanu zabezpieczeń wszystkich Twoich zasobów platformy Azure.Use Azure Security Center to get a central view of the security state of your Azure resources. Security Center monitoruje potencjalne problemy z zabezpieczeniami i zapewnia kompleksowy obraz kondycji zabezpieczeń wdrożenia, chociaż nie monitoruje węzłów agenta AKS.Security Center monitors potential security issues and provides a comprehensive picture of the security health of your deployment, although it doesn't monitor AKS agent nodes. Usługa Security Center jest konfigurowana w ramach subskrypcji platformy Azure.Security Center is configured per Azure subscription. Włącz zbieranie danych zabezpieczeń zgodnie z opisem w artykule włączanie Security Center w Twoich subskrypcjach.Enable security data collection as described in Enable Security Center on your subscriptions. Po włączeniu funkcji zbierania danych usługa Security Center automatycznie skanuje wszystkie maszyny wirtualne utworzone w ramach tej subskrypcji.When data collection is enabled, Security Center automatically scans any VMs created under that subscription.

Operacje.Operations. Aby zalogować się do klastra AKS przy użyciu tokenu uwierzytelniania Azure Active Directory (Azure AD), skonfiguruj AKS do korzystania z usługi Azure AD do uwierzytelniania użytkowników.To sign in to an AKS cluster using your Azure Active Directory (Azure AD) authentication token, configure AKS to use Azure AD for user authentication. Administratorzy klastra mogą również konfigurować Kubernetes kontroli dostępu opartej na rolach (Kubernetes RBAC) na podstawie tożsamości użytkownika lub członkostwa w grupie katalogów.Cluster administrators can also configure Kubernetes role-based access control (Kubernetes RBAC) based on a user's identity or directory group membership.

Korzystaj z usługi Azure RBAC , aby kontrolować dostęp do wdrożonych zasobów platformy Azure.Use Azure RBAC to control access to the Azure resources that you deploy. Usługa Azure RBAC umożliwia przypisywanie ról autoryzacji do członków zespołu DevOps.Azure RBAC lets you assign authorization roles to members of your DevOps team. Użytkownik może być przypisany do wielu ról i można utworzyć niestandardowe role dla jeszcze bardziej szczegółowych [uprawnień].A user can be assigned to multiple roles, and you can create custom roles for even more fine-grained permissions.

Protokół https.HTTPS. Ze względów bezpieczeństwa aplikacja powinna wymuszać HTTPS i przekierować żądania HTTP.As a security best practice, the application should enforce HTTPS and redirect HTTP requests. Użyj kontrolera usług przychodzących do wdrożenia zwrotnego serwera proxy, który kończy protokół SSL i przekierowuje żądania HTTP.Use an ingress controller to deploy a reverse proxy that terminates SSL and redirects HTTP requests. Aby uzyskać więcej informacji, zobacz temat Tworzenie kontrolera protokołu HTTPS w usłudze Azure Kubernetes Service (AKS).For more information, see Create an HTTPS ingress controller on Azure Kubernetes Service (AKS).

Uwierzytelnianie.Authentication. To rozwiązanie nie ogranicza dostępu do punktów końcowych.This solution doesn't restrict access to the endpoints. Aby wdrożyć architekturę w ustawieniach przedsiębiorstwa, Zabezpiecz punkty końcowe za pomocą kluczy interfejsu API i Dodaj pewną formę uwierzytelniania użytkowników do aplikacji klienckiej.To deploy the architecture in an enterprise setting, secure the endpoints through API keys and add some form of user authentication to the client application.

Rejestr kontenerów.Container registry. To rozwiązanie używa Azure Container Registry do przechowywania obrazu platformy Docker.This solution uses Azure Container Registry to store the Docker image. Kod, od którego zależy aplikacja, oraz model są zawarte w tym obrazie.The code that the application depends on, and the model, are contained within this image. Aplikacje przedsiębiorstwa powinny używać prywatnego rejestru, aby pomóc w ochronie przed uruchomieniem złośliwego kodu i pomóc w zachowaniu bezpieczeństwa informacji wewnątrz kontenera.Enterprise applications should use a private registry to help guard against running malicious code and to help keep the information inside the container from being compromised.

Ochrona DDoS.DDoS protection. Rozważ włączenie DDoS Protection Standard.Consider enabling DDoS Protection Standard. Chociaż podstawowa ochrona DDoS jest włączona w ramach platformy Azure, usługa DDoS Protection Standard zapewnia możliwości ograniczania, które są dostosowane specjalnie do zasobów usługi Azure Virtual Network.Although basic DDoS protection is enabled as part of the Azure platform, DDoS Protection Standard provides mitigation capabilities that are tuned specifically to Azure virtual network resources.

Rejestrowanie.Logging. Przed zapisaniem danych dziennika należy stosować najlepsze rozwiązania, takie jak szybkie przeprowadzanie kontroli haseł użytkowników i inne informacje, które mogą służyć do zatwierdzania oszustw zabezpieczeń.Use best practices before storing log data, such as scrubbing user passwords and other information that could be used to commit security fraud.

Kwestie związane z kosztamiCost considerations

Oszacuj koszty przy użyciu kalkulatora cen platformy Azure .Use the Azure pricing calculator to estimate costs. Poniżej znajdują się inne zagadnienia.Here are some other considerations.

Aby uzyskać więcej informacji, zobacz sekcję Cost (koszt) w Microsoft Azure Well-Architected Framework.For more information, see the Cost section in Microsoft Azure Well-Architected Framework.

Azure Machine LearningAzure Machine Learning

W tej architekturze referencyjnej duża część kosztów jest obsługiwana przez zasoby obliczeniowe.In this reference architecture, a large portion of cost is driven by compute resources. Na potrzeby eksperymentowania i uczenia Azure Machine Learning jest bezpłatna.For the purposes of experimentation and training, Azure Machine Learning is free. Opłata jest naliczana tylko za zasoby obliczeniowe używane przez usługę sieci Web.You are only charged for the compute used by the web service. Skorzystaj z kalkulatora cen platformy Azure , aby oszacować koszty obliczeń.Use the Azure pricing calculator to estimate your compute costs.

Azure Container RegistryAzure Container Registry

Azure Container Registry oferuje warstwy Basic, Standard i Premium.Azure Container Registry offers Basic, Standard, and Premium. Wybierz warstwę w zależności od potrzebnego magazynu.Choose a tier depending on the storage you need. Wybierz opcję Premium , jeśli potrzebujesz replikacji geograficznej, lub zwiększoną przepływność w przypadku ściągania w węzłach współbieżnych.Choose Premium if you need geo replication, or you enhanced throughput for docker pulls across concurrent nodes. Ponadto stosowane są standardowe opłaty za sieć.In addition, standard networking charges apply. Aby uzyskać więcej informacji, zobacz Cennikusługi Azure Container Registry.For more information, see Azure Container Registry pricing.

Azure Kubernetes ServiceAzure Kubernetes Service

Płacisz tylko za wystąpienia maszyn wirtualnych, magazyn i zasoby sieciowe używane przez klaster Kubernetes.You only pay for the virtual machines instances, storage, and networking resources consumed by your Kubernetes cluster. Aby oszacować koszt wymaganych zasobów, zobacz Kalkulator usług kontenerów.To estimate the cost of the required resources, see the Container Services calculator.

Aby uzyskać więcej informacji, zobacz sekcję Cost (koszt) w Microsoft Azure Well-Architected Framework.For more information, see the Cost section in Microsoft Azure Well-Architected Framework.

Kwestie do rozważenia dotyczące metodyki DevOpsDevOps considerations

W tej architekturze obrazy oceniania są tworzone przez model Machine Learning i wdrażane jako kontenery w AKS.In this architecture, the scoring images are created by the Machine Learning model and deployed as containers on AKS. Całą architekturę można zintegrować z potokiem wydania na potrzeby zarządzania modelami i operacjonalizacji, w tym DevOps zadania dla testu Sanity danych, uczenie modeli w różnych celach obliczeniowych, Zarządzanie wersjami modelu, wdrażanie modeli jako usługa sieci Web w czasie rzeczywistym, wdrażanie etapowe w środowiskach pytań i odpowiedzi, testowanie integracji i testowanie funkcjonalne.You can integrate the entire architecture into a release pipeline for model management and operationalization, including DevOps tasks for data sanity test, model training on different compute targets, model version management, model deployment as a real-time web service, staged deployment to QA/production environments, integration testing, and functional testing. Usługa Machine Learning operacjonalizacji (MLOps) dla modeli języka Python wykorzystująca architekturę referencyjną Azure Machine Learning przedstawia sposób implementacji potoku ciągłej integracji (ci), ciągłego dostarczania (CD) i ponownego szkolenia dla aplikacji AI przy użyciu usług Azure DevOps i Azure Machine Learning.The Machine learning operationalization (MLOps) for Python models using Azure Machine Learning reference architecture shows how to implement a continuous integration (CI), continuous delivery (CD), and retraining pipeline for an AI application using Azure DevOps and Azure Machine Learning.

WdrożenieDeployment

Aby wdrożyć tę architekturę referencyjną, wykonaj kroki opisane w repozytoriach usługi GitHub:To deploy this reference architecture, follow the steps described in the GitHub repos: