Naslaginformatie voor het configureren van Kubernetes-cluster voor Azure Machine Learning

Dit artikel bevat naslaginformatie voor het configureren van Kubernetes met Azure Machine Learning.

Ondersteunde Kubernetes-versie en -regio

  • Kubernetes-clusters die de Azure Machine Learning-extensie installeren, hebben een versieondersteuningsvenster van 'N-2', dat is afgestemd op het ondersteuningsbeleid voor Azure Kubernetes Service (AKS), waarbij N de meest recente secundaire versie van Azure Kubernetes Service is.

    • Als AKS bijvoorbeeld vandaag 1.20.a introduceert, worden versies 1.20.a, 1.20.b, 1.19.c, 1.19.d, 1.18.e en 1.18.f ondersteund.

    • Als klanten een niet-ondersteunde Kubernetes-versie uitvoeren, wordt hen gevraagd om een upgrade uit te voeren bij het aanvragen van ondersteuning voor het cluster. Clusters waarop niet-ondersteunde Kubernetes-releases worden uitgevoerd, vallen niet onder het ondersteuningsbeleid voor de Azure Machine Learning-extensie.

  • Beschikbaarheid van azure Machine Learning-extensieregio's:

    • De Azure Machine Learning-extensie kan worden geïmplementeerd in AKS of Kubernetes met Azure Arc in ondersteunde regio's die worden vermeld in ondersteuning voor Kubernetes-regio's met Azure Arc.

Wanneer u de Azure Machine Learning-extensie implementeert, worden sommige gerelateerde services geïmplementeerd in uw Kubernetes-cluster voor Azure Machine Learning. De volgende tabel bevat de gerelateerde services en het bijbehorende resourcegebruik in het cluster:

Implementeren/Daemonset Replica # Training Deductie CPU-aanvraag(m) CPU-limiet(m) Geheugenaanvraag (Mi) Geheugenlimiet (Mi)
metrics-controller-manager 1 10 100 20 300
prometheus-operator 1 100 400 128 512
Prometheus 1 100 1000 512 4096
kube-state-metrics 1 10 100 32 256
gateway 1 50 500 256 2048
fluent-bit 1 per knooppunt 10 200 100 300
deductie-operator-controller-manager 1 N.v.t. 100 1000 128 1024
amlarc-identity-controller 1 N.v.t. 200 1000 200 1024
amlarc-identity-proxy 1 N.v.t. 200 1000 200 1024
azureml-ingress-nginx-controller 1 N.v.t. 100 1000 64 512
azureml-fe-v2 1 (voor testdoeleinden)
of
3 (voor productiedoeleinden)
N.v.t. 900 2000 800 1200
online-implementatie 1 per implementatie Door de gebruiker gemaakte N.v.t. <gebruiker definiëren> <gebruiker definiëren> <gebruiker definiëren> <gebruiker definiëren>
online-implementatie/identity-sidecar 1 per implementatie N.v.t. 10 50 100 100
aml-operator 1 N.v.t. 20 1020 124 2168
vulkaan-toegang 1 N.v.t. 10 100 64 256
vulkanencontroller 1 N.v.t. 50 500 128 512
vulkaan-schedular 1 N.v.t. 50 500 128 512

Met uitzondering van uw eigen implementaties/pods zijn de totale minimale systeembronnenvereisten als volgt:

Scenario Ingeschakelde deductie Training ingeschakeld CPU-aanvraag(m) CPU-limiet(m) Geheugenaanvraag (Mi) Geheugenlimiet (Mi) Aantal knooppunten Aanbevolen minimale VM-grootte Bijbehorende AKS VM-SKU
Voor testen N.v.t. 1780 8300 2440 12296 1 Knooppunt 2 vCPU, 7 GiB-geheugen, 6400 IOPS, 1500Mbps BW DS2v2
Voor testen N.v.t. 410 4420 1492 10960 1 Knooppunt 2 vCPU, 7 GiB-geheugen, 6400 IOPS, 1500Mbps BW DS2v2
Voor testen 1910 10420 2884 15744 1 Knooppunt 4 vCPU, 14 GiB-geheugen, 12800 IOPS, 1500Mbps BW DS3v2
Voor productie N.v.t. 3600 12700 4240 15296 3 Knooppunten 4 vCPU, 14 GiB-geheugen, 12800 IOPS, 1500Mbps BW DS3v2
Voor productie N.v.t. 410 4420 1492 10960 1 Knooppunt(en) 8 vCPU, 28GiB Memroy, 25600 IOPS, 6000Mbps BW DS4v2
Voor productie 3730 14820 4684 18744 3 Knooppunten 4 vCPU, 14 GiB-geheugen, 12800 IOPS, 1500Mbps BW DS4v2

Notitie

  • Voor testdoeleinden moet u verwijzen naar de resourceaanvraag.
  • Voor productiedoeleinden moet u verwijzen naar de resourcelimiet.

Belangrijk

Hier volgen enkele andere overwegingen ter referentie:

  • Voor hogere netwerkbandbreedte en betere I/O-prestaties van schijven raden we een grotere SKU aan.
    • Neem DV2/DSv2 als voorbeeld, met behulp van de grote SKU kan de tijd van het ophalen van installatiekopieën voor betere netwerk-/opslagprestaties verminderen.
    • Meer informatie over AKS-reservering vindt u in AKS-reservering.
  • Als u een AKS-cluster gebruikt, moet u mogelijk rekening houden met de groottelimiet voor een containerinstallatiekopieën in AKS. Meer informatie vindt u in de limiet voor AKS-containerinstallatiekopieën.

Vereisten voor ARO- of OCP-clusters

Verbeterde beveiliging uitschakelen voor Linux (SELinux)

Azure Machine Learning-gegevensset (een SDK v1-functie die wordt gebruikt in Azure Machine Learning-trainingstaken) wordt niet ondersteund op machines waarvoor SELinux is ingeschakeld. Daarom moet u alle werkrollen uitschakelen selinux om azure Machine Learning-gegevensset te kunnen gebruiken.

Bevoegde installatie voor ARO en OCP

Voor implementatie van Azure Machine Learning-extensies op ARO- of OCP-cluster verleent u bevoegde toegang tot Azure Machine Learning-serviceaccounts, voert u de opdracht uit oc edit scc privileged en voegt u de volgende serviceaccounts toe onder 'gebruikers:':

  • system:serviceaccount:azure-arc:azure-arc-kube-aad-proxy-sa
  • system:serviceaccount:azureml:{EXTENSION-NAME}-kube-state-metrics
  • system:serviceaccount:azureml:prom-admission
  • system:serviceaccount:azureml:default
  • system:serviceaccount:azureml:prom-operator
  • system:serviceaccount:azureml:load-amlarc-selinux-policy-sa
  • system:serviceaccount:azureml:azureml-fe-v2
  • system:serviceaccount:azureml:prom-prometheus
  • system:serviceaccount:{KUBERNETES-COMPUTE-NAMESPACE}:default
  • system:serviceaccount:azureml:azureml-ingress-nginx
  • system:serviceaccount:azureml:azureml-ingress-nginx-admission

Notitie

  • {EXTENSION-NAME}: is de extensienaam die is opgegeven met de az k8s-extension create --name CLI-opdracht.
  • {KUBERNETES-COMPUTE-NAMESPACE}: is de naamruimte van de Kubernetes-berekening die is opgegeven bij het koppelen van de berekening aan de Azure Machine Learning-werkruimte. Sla de configuratie over system:serviceaccount:{KUBERNETES-COMPUTE-NAMESPACE}:default als KUBERNETES-COMPUTE-NAMESPACE dat het is default.

Verzamelde logboekgegevens

Sommige logboeken over Azure Machine Learning-workloads in het cluster worden verzameld via extensieonderdelen, zoals status, metrische gegevens, levenscyclus, enzovoort. In de volgende lijst ziet u alle verzamelde logboekgegevens, inclusief het type logboeken dat wordt verzameld en waar ze zijn verzonden of opgeslagen.

Pod Resourcebeschrijving Details van logboekregistratiegegevens
amlarc-identity-controller Azure Blob/Azure Container Registry-token aanvragen en vernieuwen via beheerde identiteit. Alleen gebruikt wanneer enableInference=true deze is ingesteld bij het installeren van de extensie. Het bevat traceringslogboeken voor status bij het ophalen van identiteiten voor eindpunten voor verificatie met Azure Machine Learning Service.
amlarc-identity-proxy Azure Blob/Azure Container Registry-token aanvragen en vernieuwen via beheerde identiteit. Alleen gebruikt wanneer enableInference=true deze is ingesteld bij het installeren van de extensie. Er zijn traceringslogboeken voor de status voor het ophalen van identiteiten voor het cluster om te verifiëren met Azure Machine Learning Service.
aml-operator De levenscyclus van trainingstaken beheren. De logboeken bevatten de status van de Azure Machine Learning-trainingstaak in het cluster.
azureml-fe-v2 Het front-endonderdeel waarmee binnenkomende deductieaanvragen worden gerouteerd naar geïmplementeerde services. Toegang tot logboeken op aanvraagniveau, inclusief aanvraag-id, begintijd, antwoordcode, foutdetails en duur voor de latentie van aanvragen. Traceer logboeken voor wijzigingen in servicemetagegevens, de status van de service wordt in orde, enzovoort voor foutopsporing.
gateway De gateway wordt gebruikt om gegevens heen en weer te communiceren en te verzenden. Traceer logboeken op aanvragen van Azure Machine Learning-services naar de clusters.
statuscontrole -- De logboeken bevatten azureml de status van de naamruimteresource (Azure Machine Learning-extensie) om vast te stellen wat de extensie niet functioneel maakt.
deductie-operator-controller-manager De levenscyclus van deductie-eindpunten beheren. De logboeken bevatten azure Machine Learning-deductie-eindpunt en de status van de implementatiepod in het cluster.
metrics-controller-manager De configuratie voor Prometheus beheren. Traceer logboeken voor de status van het uploaden van trainingstaak en metrische deductie-implementatiegegevens over CPU-gebruik en geheugengebruik.
relayserver Relay-server is alleen nodig in een cluster dat is verbonden met arc en wordt niet geïnstalleerd in het AKS-cluster. Relay-server werkt met Azure Relay om te communiceren met de cloudservices. De logboeken bevatten informatie op aanvraagniveau van Azure Relay.

Azure Machine Learning-taken maken verbinding met aangepaste gegevensopslag

Persistent Volume (PV) en Persistent Volume Claim (PVC) zijn Kubernetes-concept, waardoor de gebruiker verschillende opslagresources kan leveren en gebruiken.

  1. HW maken, bijvoorbeeld NFS maken
apiVersion: v1
kind: PersistentVolume
metadata:
  name: nfs-pv 
spec:
  capacity:
    storage: 1Gi 
  accessModes:
    - ReadWriteMany 
  persistentVolumeReclaimPolicy: Retain
  storageClassName: ""
  nfs: 
    path: /share/nfs
    server: 20.98.110.84 
    readOnly: false
  1. Maak PVC in dezelfde Kubernetes-naamruimte met ML-workloads. In metadatamoet u een label ml.azure.com/pvc: "true" toevoegen dat moet worden herkend door Azure Machine Learning en een aantekening ml.azure.com/mountpath: <mount path> toevoegen om het koppelpad in te stellen.
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
  name: nfs-pvc  
  namespace: default
  labels:
    ml.azure.com/pvc: "true"
  annotations:
    ml.azure.com/mountpath: "/mnt/nfs"
spec:
  storageClassName: ""
  accessModes:
  - ReadWriteMany      
  resources:
     requests:
       storage: 1Gi

Belangrijk

  • Alleen de opdrachttaak/het onderdeel, de hyperdrive-taak/het onderdeel en de batchimplementatie ondersteunen aangepaste gegevensopslag van PVC('s). > * Het realtime online-eindpunt, de AutoML-taak en de PRS-taak bieden geen ondersteuning voor aangepaste gegevensopslag van PVC('s).
  • Bovendien worden alleen de pods in dezelfde Kubernetes-naamruimte met de PVC('s) gekoppeld aan het volume. Data scientist heeft toegang tot de mount path opgegeven in de PVC-aantekening in de taak. AutoML-taak en Prs-taak hebben geen toegang tot de PVC('s).

Ondersteunde taints en toleranties voor Azure Machine Learning

Taint en Toleration zijn Kubernetes-concepten die samenwerken om ervoor te zorgen dat pods niet worden gepland op ongepaste knooppunten.

Kubernetes-clusters die zijn geïntegreerd met Azure Machine Learning (inclusief AKS- en Arc Kubernetes-clusters) ondersteunen nu specifieke Azure Machine Learning-taints en -toleranties, zodat gebruikers specifieke Azure Machine Learning-taints kunnen toevoegen op de toegewezen Azure Machine Learning-knooppunten om te voorkomen dat niet-Azure Machine Learning-workloads worden gepland op deze toegewezen knooppunten.

We ondersteunen alleen het plaatsen van de amlarc-specifieke taints op uw knooppunten, die als volgt zijn gedefinieerd:

Taint Sleutel Weergegeven als Effect Beschrijving
algemeen amlarc ml.azure.com/amlarc true NoSchedule, NoExecute of PreferNoSchedule Alle Azure Machine Learning-workloads, waaronder pods van de extensiesysteemservice en machine learning-workloadpods, zouden deze amlarc overall taint tolereren.
amlarc-systeem ml.azure.com/amlarc-system true NoSchedule, NoExecute of PreferNoSchedule Alleen azure Machine Learning-extensiesysteemservicespods tolereren deze amlarc system taint.
amlarc-workload ml.azure.com/amlarc-workload true NoSchedule, NoExecute of PreferNoSchedule Alleen machine learning-workloadpods tolereren deze amlarc workload taint.
amlarc-resourcegroep ml.azure.com/resource-group <resourcegroepnaam> NoSchedule, NoExecute of PreferNoSchedule Alleen machine learning-workloadpods die zijn gemaakt op basis van de specifieke resourcegroep, tolereren deze amlarc resource group taint.
amlarc-werkruimte ml.azure.com/workspace <werkruimtenaam> NoSchedule, NoExecute of PreferNoSchedule Alleen machine learning-workloadpods die zijn gemaakt op basis van de specifieke werkruimte, tolereren deze amlarc workspace taint.
amlarc compute ml.azure.com/compute <compute-naam> NoSchedule, NoExecute of PreferNoSchedule Alleen machine learning-workloadpods die zijn gemaakt met het specifieke rekendoel, tolereren deze amlarc compute taint.

Tip

  1. Voor Azure Kubernetes Service (AKS) kunt u het voorbeeld volgen in aanbevolen procedures voor geavanceerde scheduler-functies in Azure Kubernetes Service (AKS) om taints toe te passen op knooppuntgroepen.
  2. Voor Arc Kubernetes-clusters, zoals on-premises Kubernetes-clusters, kunt u de opdracht gebruiken kubectl taint om taints toe te voegen aan knooppunten. Zie de Kubernetes-documentatie voor meer voorbeelden.

Aanbevolen procedures

Op basis van uw planningsvereisten van de toegewezen Azure Machine Learning-knooppunten kunt u meerdere amlarc-specifieke taints toevoegen om te beperken welke Azure Machine Learning-workloads op knooppunten kunnen worden uitgevoerd. We vermelden aanbevolen procedures voor het gebruik van amlarc taints:

  • Als u wilt voorkomen dat niet-Azure Machine Learning-workloads worden uitgevoerd op toegewezen knooppunten/knooppuntgroepen van Azure Machine Learning, kunt u de aml overall taint gewoon toevoegen aan deze knooppunten.
  • Als u wilt voorkomen dat niet-systeempods worden uitgevoerd op toegewezen knooppunten/knooppuntgroepen van Azure Machine Learning, moet u de volgende taints toevoegen:
    • amlarc overall Taint
    • amlarc system Taint
  • Als u wilt voorkomen dat niet-ml-workloads worden uitgevoerd op toegewezen knooppunten/knooppuntgroepen van Azure Machine Learning, moet u de volgende taints toevoegen:
    • amlarc overall Taint
    • amlarc workloads Taint
  • Als u wilt voorkomen dat workloads die niet zijn gemaakt vanuit werkruimte X worden uitgevoerd op toegewezen knooppunten/knooppuntgroepen van Azure Machine Learning, moet u de volgende taints toevoegen:
    • amlarc overall Taint
    • amlarc resource group (has this <workspace X>) Taint
    • amlarc <workspace X> Taint
  • Als u wilt voorkomen dat workloads die niet zijn gemaakt door rekendoel X worden uitgevoerd op toegewezen knooppunten/knooppuntgroepen van Azure Machine Learning, moet u de volgende taints toevoegen:
    • amlarc overall Taint
    • amlarc resource group (has this <workspace X>) Taint
    • amlarc workspace (has this <compute X>) Taint
    • amlarc <compute X> Taint

Andere ingangscontroller integreren met de Azure Machine Learning-extensie via HTTP of HTTPS

Naast de standaard azure Machine Learning-deductie load balancer azureml-fe kunt u ook andere load balancers integreren met de Azure Machine Learning-extensie via HTTP of HTTPS.

In deze zelfstudie leert u hoe u de Nginx-ingangscontroller of de Azure-toepassing-gateway integreert.

Vereisten

  • Implementeer de Azure Machine Learning-extensie met inferenceRouterServiceType=ClusterIP en allowInsecureConnections=True, zodat de Nginx-ingangscontroller TLS-beëindiging zelf kan verwerken in plaats van deze over te dragen aan azureml-fe wanneer de service beschikbaar is via HTTPS.
  • Voor integratie met Nginx Ingress Controller hebt u een Kubernetes-clusterinstallatie met Nginx-ingangscontroller nodig.
  • Voor integratie met Azure-toepassing Gateway hebt u een Kubernetes-clusterinstallatie met Azure-toepassing Gateway-ingangscontroller nodig.
  • Als u HTTPS voor deze toepassing wilt gebruiken, hebt u een x509-certificaat en de bijbehorende persoonlijke sleutel nodig.

Services beschikbaar maken via HTTP

Om de azureml-fe beschikbaar te maken, gebruiken we de volgende toegangsbeheerobjectresource:

# Nginx Ingress Controller example
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
  name: azureml-fe
  namespace: azureml
spec:
  ingressClassName: nginx
  rules:
  - http:
      paths:
      - path: /
        backend:
          service:
            name: azureml-fe
            port:
              number: 80
        pathType: Prefix

Met dit toegangsbeheerobject worden de azureml-fe service en de geselecteerde implementatie weergegeven als een standaardback-end van de Nginx-ingangscontroller.

# Azure Application Gateway example
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
  name: azureml-fe
  namespace: azureml
spec:
  ingressClassName: azure-application-gateway
  rules:
  - http:
      paths:
      - path: /
        backend:
          service:
            name: azureml-fe
            port:
              number: 80
        pathType: Prefix

Met dit toegangsbeheerobject worden de azureml-fe service en de geselecteerde implementatie weergegeven als een standaardback-end van application gateway.

Sla de bovenstaande toegangsbeheerresource op als ing-azureml-fe.yaml.

  1. Implementeren ing-azureml-fe.yaml door het volgende uit te voeren:

    kubectl apply -f ing-azureml-fe.yaml
    
  2. Controleer het logboek van de ingangscontroller op de implementatiestatus.

  3. azureml-fe De toepassing moet nu beschikbaar zijn. U kunt dit controleren door naar:

    • Nginx-ingangscontroller: het openbare LoadBalancer-adres van de Nginx-ingangscontroller
    • Azure-toepassing Gateway: het openbare adres van de Application Gateway.
  4. Maak een deductietaak en roep deze aan.

    Notitie

    Vervang het IP-adres in scoring_uri door het openbare LoadBalancer-adres van de Nginx-ingangscontroller voordat u het aanroept.

Services beschikbaar maken via HTTPS

  1. Voordat u inkomend verkeer implementeert, moet u een kubernetes-geheim maken om het certificaat en de persoonlijke sleutel te hosten. U kunt een kubernetes-geheim maken door het uitvoeren van

    kubectl create secret tls <ingress-secret-name> -n azureml --key <path-to-key> --cert <path-to-cert>
    
  2. Definieer het volgende inkomend verkeer. Geef in het toegangsbeheerobject de naam op van het geheim in de secretName sectie.

    # Nginx Ingress Controller example
    apiVersion: networking.k8s.io/v1
    kind: Ingress
    metadata:
      name: azureml-fe
      namespace: azureml
    spec:
      ingressClassName: nginx
      tls:
      - hosts:
        - <domain>
        secretName: <ingress-secret-name>
      rules:
      - host: <domain>
        http:
          paths:
          - path: /
            backend:
              service:
                name: azureml-fe
                port:
                  number: 80
            pathType: Prefix
    
    # Azure Application Gateway example
    apiVersion: networking.k8s.io/v1
    kind: Ingress
    metadata:
      name: azureml-fe
      namespace: azureml
    spec:
      ingressClassName: azure-application-gateway
      tls:
      - hosts:
        - <domain>
        secretName: <ingress-secret-name>
      rules:
      - host: <domain>
        http:
          paths:
          - path: /
            backend:
              service:
                name: azureml-fe
                port:
                  number: 80
            pathType: Prefix
    

    Notitie

    Vervang <domain> en vervang in <ingress-secret-name> de bovenstaande toegangsbeheerresource door het domein dat verwijst naar LoadBalancer van de Nginx-ingangscontroller/Application Gateway en de naam van uw geheim. Sla de bovenstaande toegangsbeheerresource op in een bestandsnaam ing-azureml-fe-tls.yaml.

  3. ing-azureml-fe-tls.yaml implementeren door uit te voeren

    kubectl apply -f ing-azureml-fe-tls.yaml
    
  4. Controleer het logboek van de ingangscontroller op de implementatiestatus.

  5. azureml-fe De toepassing is nu beschikbaar op HTTPS. U kunt dit controleren door naar het openbare LoadBalancer-adres van de Nginx-ingangscontroller te gaan.

  6. Maak een deductietaak en roep deze aan.

    Notitie

    Vervang het protocol en IP in scoring_uri door https en domein dat verwijst naar LoadBalancer van de Nginx-ingangscontroller of de Application Gateway voordat u aanroept.

ARM-sjabloon gebruiken om extensie te implementeren

De extensie op een beheerd cluster kan worden geïmplementeerd met een ARM-sjabloon. Een voorbeeldsjabloon vindt u in deployextension.json, met een demoparameterbestand deployextension.parameters.json

Als u de voorbeeldimplementatiesjabloon wilt gebruiken, bewerkt u het parameterbestand met de juiste waarde en voert u vervolgens de volgende opdracht uit:

az deployment group create --name <ARM deployment name> --resource-group <resource group name> --template-file deployextension.json --parameters deployextension.parameters.json

Meer informatie over het gebruik van EEN ARM-sjabloon vindt u in het ARM-sjabloondocumenten

Releasenotitie voor AzuremML-extensie

Notitie

Nieuwe functies worden uitgebracht in een tweeweekse kalender.

Date Versie Versiebeschrijving
21 november 2023 1.1.39 Beveiligingsproblemen opgelost. Verfijnd foutbericht. Verbeterde stabiliteit voor relayserver-API.
1 november 2023 1.1.37 De versie van de gegevensvlak-envoy bijwerken.
11 oktober 2023 1.1.35 Kwetsbare afbeelding herstellen. Insectenmoeilijke.
25 augustus 2023 1.1.34 Kwetsbare afbeelding herstellen. Retourneert een gedetailleerdere identiteitsfout. Insectenmoeilijke.
18 juli 2023 1.1.29 Nieuwe identiteitsoperatorfouten toevoegen. Insectenmoeilijke.
4 juni 2023 1.1.28 Verbeter de automatische schaalaanpassing om meerdere knooppuntgroepen te verwerken. Insectenmoeilijke.
18 apr 2023 1.1.26 Opgeloste fouten en beveiligingsproblemen.
27 maart 2023 1.1.25 Azure Machine Learning-taakbeperking toevoegen. Snel mislukken voor trainingstaak wanneer de SSH-installatie is mislukt. Verminder prometheus-scrapeinterval tot 30s. Foutberichten voor deductie verbeteren. Kwetsbare afbeelding herstellen.
7 maart 2023 1.1.23 Wijzig het standaardexemplarentype om 2Gi-geheugen te gebruiken. Update metrics configurations for scoring-fe that add 15s scrape_interval. Resourcespecificatie voor mdc-sidecar toevoegen. Kwetsbare afbeelding herstellen. Insectenmoeilijke.
14 februari 2023 1.1.21 Insectenmoeilijke.
7 februari 2023 1.1.19 Foutbericht voor deductie verbeteren. Werk het standaardexemplarentype bij om 2Gi-geheugenlimiet te gebruiken. Controleer de status van het cluster op status van pods, resourcequota, Kubernetes-versie en extensieversie. Opgeloste fouten
27 december 2022 1.1.17 Verplaats de Fluent-bit van DaemonSet naar sidecars. MDC-ondersteuning toevoegen. Foutberichten verfijnen. Ondersteuning voor clustermodustaken (Windows, Linux). Opgeloste fouten
29 november 2022 1.1.16 Voeg validatie van exemplaartype toe op basis van nieuwe CRD. Ondersteuningstolerantie. Verkort de SVC-naam. Werkbelastingskernuur. Meerdere bugfixes en verbeteringen.
13 sep 2022 1.1.10 Insectenmoeilijke.
29 augustus 2022 1.1.9 Verbeterde statuscontrolelogica. Insectenmoeilijke.
23 juni 2022 1.1.6 Insectenmoeilijke.
15 juni 2022 1.1.5 Training bijgewerkt om nieuwe algemene runtime te gebruiken om taken uit te voeren. Azure Relay-gebruik voor AKS-extensie verwijderd. Service Bus-gebruik verwijderd uit de extensie. Bijgewerkt gebruik van beveiligingscontext. Deductie azureml-fe bijgewerkt naar v2. Bijgewerkt om Volcano te gebruiken als trainingstaakplanner. Insectenmoeilijke.
14 oktober 2021 1.0.37 HW/PVC volume mount support in AMLArc training job.
16 september 2021 1.0.29 Nieuwe regio's beschikbaar, WestUS, CentralUS, NorthCentralUS, KoreaCentral. Uitbreidbaarheid van taakwachtrij. Zie de details van de taakwachtrij in Azure Machine Learning Workspace Studio. Beleid voor automatisch doden. Ondersteuning voor max_run_duration_seconds in ScriptRunConfig. Het systeem probeert de uitvoering automatisch te annuleren als het langer duurde dan de instellingswaarde. Prestatieverbetering voor ondersteuning voor automatisch schalen van clusters. Arc-agent- en ML-extensie-implementatie vanuit on-premises containerregister.
24 augustus 2021 1.0.28 Het type rekeninstantie wordt ondersteund in TAAK YAML. Wijs beheerde identiteit toe aan AMLArc-rekenproces.
10 augustus 2021 1.0.20 Nieuwe Kubernetes-distributieondersteuning, K3S - Lightweight Kubernetes. Implementeer de Azure Machine Learning-extensie in uw AKS-cluster zonder verbinding te maken via Azure Arc. Geautomatiseerde Machine Learning (AutoML) via Python SDK. Gebruik 2.0 CLI om het Kubernetes-cluster te koppelen aan Azure Machine Learning Workspace. Optimaliseer het gebruik van CPU-/geheugenbronnen voor Azure Machine Learning-extensieonderdelen.
2 juli 2021 1.0.13 Ondersteuning voor nieuwe Kubernetes-distributies, OpenShift Kubernetes en GKE (Google Kubernetes Engine). Ondersteuning voor automatisch schalen. Als het door de gebruiker beheerde Kubernetes-cluster automatisch kan worden geschaald, wordt het cluster automatisch uitgeschaald of ingeschaald op basis van het volume actieve uitvoeringen en implementaties. Prestatieverbetering voor het startprogramma voor taken, waardoor de uitvoeringstijd van de taak veel wordt verkort.