Installeer & CLI-extensie voor Azure Machine Learning

Belangrijk

Voor de Azure CLI-opdrachten in dit artikel is de extensie , of azure-cli-ml v1, vereist voor Azure Machine Learning. De verbeterde v2 CLI (preview) met behulp van ml de extensie is nu beschikbaar en aanbevolen. De extensies zijn niet compatibel, dus v2 CLI-opdrachten werken niet voor de stappen in dit artikel. Met machine learning werkruimten en alle onderliggende resources kan echter vanuit beide worden geinteractiviteit, wat betekent dat de ene gebruiker een werkruimte kan maken met de v1 CLI en een andere gebruiker taken naar dezelfde werkruimte kan verzenden met de v2 CLI.

Als u wilt weten welke extensies u hebt geïnstalleerd, gebruikt az extension list u . Als de lijst met extensies azure-cli-ml bevat, hebt u de juiste extensie voor de stappen in dit artikel.

Zie de volgende artikelen voor meer informatie over het installeren en gebruiken van de verschillende extensies:

De Azure Machine Learning CLI is een uitbreiding op de Azure CLI,een platformoverschrijdende opdrachtregelinterface voor het Azure-platform. Deze extensie biedt opdrachten voor het werken met Azure Machine Learning. Hiermee kunt u uw activiteiten machine learning automatiseren. De volgende lijst bevat enkele voorbeeldacties die u met de CLI-extensie kunt uitvoeren:

  • Experimenten uitvoeren om machine learning maken

  • Modellen machine learning voor klantgebruik registreren

  • De levenscyclus van uw machine learning-modellen verpakken, implementeren machine learning bijhouden

De CLI is geen vervanging voor de Azure Machine Learning SDK. Het is een aanvullend hulpprogramma dat is geoptimaliseerd voor het afhandelen van zeer geparameteriseerde taken die geschikt zijn voor automatisering.

Vereisten

  • Als u de CLI wilt gebruiken, moet u een Azure-abonnement hebben. Als u geen Azure-abonnement hebt, maakt u een gratis account voordat u begint. Probeer vandaag nog de gratis of betaalde versie van Azure Machine Learning.

  • Als u de CLI-opdrachten in dit document wilt gebruiken vanuit uw lokale omgeving, hebt u de Azure CLI nodig.

    Als u Azure Cloud Shell gebruikt, opent u de CLI via de browser en bevindt deze zich in de cloud.

Volledige referentie docs

Zoek de volledige referentie docs voor de azure-cli-ml-extensie van Azure CLI.

Verbinding maken CLI aan uw Azure-abonnement

Belangrijk

Als u de Azure Cloud Shell gebruikt, kunt u deze sectie overslaan. De Cloud Shell verifieert u automatisch met behulp van het account dat u bij uw Azure-abonnement aanmeldt.

Er zijn verschillende manieren waarop u zich kunt verifiëren bij uw Azure-abonnement vanuit de CLI. De eenvoudigste methode is interactieve verificatie met behulp van een browser. Voor interactieve verificatie opent u een opdrachtregel of terminal en gebruikt u de volgende opdracht:

az login

Als de CLI uw standaardbrowser kan openen, gebeurt dat ook en wordt er een aanmeldingspagina gedownload. Anders moet u een browser openen en de aanwijzingen op de opdrachtregel volgen. Dit omvat het bladeren naar https://aka.ms/devicelogin en het invoeren van een autorisatiecode.

Tip

Nadat u zich hebt aangemeld, ziet u een lijst met abonnementen die zijn gekoppeld aan uw Azure-account. De abonnementsgegevens met isDefault: true zijn het abonnement dat momenteel is geactiveerd voor Azure CLI-opdrachten. Dit abonnement moet gelijk zijn aan het abonnement dat uw Azure Machine Learning-werkruimte bevat. U vindt het abonnements-id via de Azure-portal, door de pagina Overzicht voor uw werkruimte te bezoeken. U kunt ook de SDK gebruiken om het abonnements-id van het werkruimteobject op te halen. Bijvoorbeeld Workspace.from_config().subscription_id.

Als u een ander abonnement wilt selecteren, gebruikt u de opdracht az account set -s <subscription name or ID> en geeft u de naam van het abonnement of het id op om over te schakelen. Zie Meerdere Azure-abonnementen gebruiken voor meer informatie over het selecteren van abonnementen.

Zie Aanmelden met Azure CLI voor andere authenticatiemethoden.

De extensie installeren

De CLI-extensie (v1) installeren:

az extension add -n azure-cli-ml

De extensie bijwerken

Gebruik de volgende opdracht om Machine Learning CLI-extensie bij te werken:

az extension update -n azure-cli-ml

De extensie verwijderen

Gebruik de volgende opdracht om de CLI-extensie te verwijderen:

az extension remove -n azure-cli-ml

Resourcebeheer

De volgende opdrachten laten zien hoe u de CLI gebruikt voor het beheren van resources die worden gebruikt door Azure Machine Learning.

  • Als u er nog geen hebt, maakt u een resourcegroep:

    az group create -n myresourcegroup -l westus2
    
  • Maak een Azure Machine Learning werkruimte:

    az ml workspace create -w myworkspace -g myresourcegroup
    

    Zie az ml workspace create voor meer informatie.

  • Koppel een werkruimteconfiguratie aan een map om contextuele kennis van CLI mogelijk te maken.

    az ml folder attach -w myworkspace -g myresourcegroup
    

    Met deze opdracht maakt u .azureml een subdirectory met voorbeeld runconfig- en conda-omgevingsbestanden. Het bevat ook een config.json bestand dat wordt gebruikt om te communiceren met uw Azure Machine Learning werkruimte.

    Zie az ml folder attach voor meer informatie.

  • Koppel een Azure Blob-container als een gegevensopslag.

    az ml datastore attach-blob  -n datastorename -a accountname -c containername
    

    Zie az ml datastore attach-blob voor meer informatie.

  • Upload naar een gegevensstore.

    az ml datastore upload  -n datastorename -p sourcepath
    

    Zie az ml datastore upload voor meer informatie.

  • Koppel een AKS-cluster als een rekendoel.

    az ml computetarget attach aks -n myaks -i myaksresourceid -g myresourcegroup -w myworkspace
    

    Zie az ml computetarget attach aks voor meer informatie

Rekenclusters

  • Maak een nieuw beheerd rekencluster.

    az ml computetarget create amlcompute -n cpu --min-nodes 1 --max-nodes 1 -s STANDARD_D3_V2
    
  • Een nieuw beheerd rekencluster maken met beheerde identiteit

    • Door de gebruiker toegewezen beheerde identiteit

      az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
      
    • Door het systeem toegewezen beheerde identiteit

      az ml computetarget create amlcompute --name cpu-cluster --vm-size Standard_NC6 --max-nodes 5 --assign-identity '[system]'
      
  • Voeg een beheerde identiteit toe aan een bestaand cluster:

    • Door de gebruiker toegewezen beheerde identiteit

      az ml computetarget amlcompute identity assign --name cpu-cluster '/subscriptions/<subcription_id>/resourcegroups/<resource_group>/providers/Microsoft.ManagedIdentity/userAssignedIdentities/<user_assigned_identity>'
      
    • Door het systeem toegewezen beheerde identiteit

      az ml computetarget amlcompute identity assign --name cpu-cluster '[system]'
      

Zie az ml computetarget create amlcompute voor meer informatie.

Notitie

Azure Machine Learning compute clusters ondersteunen slechts één door het systeem toegewezen identiteit of meerdere door de gebruiker toegewezen identiteiten, niet gelijktijdig.

Rekenproces

Reken-exemplaren beheren. In alle onderstaande voorbeelden is de naam van het reken-exemplaar CPU

Experimenten uitvoeren

  • Start een run van uw experiment. Wanneer u deze opdracht gebruikt, geeft u de naam op van het runconfig-bestand (de tekst vóór .runconfig als u naar uw bestandssysteem kijkt) op basis van de * parameter -c.

    az ml run submit-script -c sklearn -e testexperiment train.py
    

    Tip

    Met az ml folder attach de opdracht maakt u een .azureml subdirectory, die twee voorbeeld-runconfig-bestanden bevat.

    Als u een Python-script hebt dat een run configuration-object programmatisch maakt, kunt u RunConfig.save() gebruiken om het op te slaan als een runconfig-bestand.

    Het volledige runconfig-schema vindt u in dit JSON-bestand. Het schema documenteert zichzelf via de description sleutel van elk object. Daarnaast zijn er enums voor mogelijke waarden en een sjabloonfragment aan het einde.

    Zie az ml run submit-script voor meer informatie.

  • Bekijk een lijst met experimenten:

    az ml experiment list
    

    Zie az ml experiment list voor meer informatie.

HyperDrive uitvoeren

U kunt HyperDrive met Azure CLI gebruiken om uitvoeringen voor het afstemmen van parameters uit te voeren. Maak eerst een HyperDrive-configuratiebestand in de volgende indeling. Zie hyperparameters afstemmen voor uw modelartikel voor meer informatie over de afstemmingsparameterparameters van hyperparameters.

# hdconfig.yml
sampling: 
    type: random # Supported options: Random, Grid, Bayesian
    parameter_space: # specify a name|expression|values tuple for each parameter.
    - name: --penalty # The name of a script parameter to generate values for.
      expression: choice # supported options: choice, randint, uniform, quniform, loguniform, qloguniform, normal, qnormal, lognormal, qlognormal
      values: [0.5, 1, 1.5] # The list of values, the number of values is dependent on the expression specified.
policy: 
    type: BanditPolicy # Supported options: BanditPolicy, MedianStoppingPolicy, TruncationSelectionPolicy, NoTerminationPolicy
    evaluation_interval: 1 # Policy properties are policy specific. See the above link for policy specific parameter details.
    slack_factor: 0.2
primary_metric_name: Accuracy # The metric used when evaluating the policy
primary_metric_goal: Maximize # Maximize|Minimize
max_total_runs: 8 # The maximum number of runs to generate
max_concurrent_runs: 2 # The number of runs that can run concurrently.
max_duration_minutes: 100 # The maximum length of time to run the experiment before cancelling.

Voeg dit bestand toe naast de run-configuratiebestanden. Verzend vervolgens een HyperDrive-run met behulp van:

az ml run submit-hyperdrive -e <experiment> -c <runconfig> --hyperdrive-configuration-name <hdconfig> my_train.py

Let op de sectie argumenten in runconfig en parameterruimte in HyperDrive-configuratie. Ze bevatten de opdrachtregelargumenten die moeten worden doorgegeven aan het trainingsscript. De waarde in runconfig blijft voor elke iteratie hetzelfde, terwijl het bereik in de HyperDrive-configuratie wordt iterated. Geef niet hetzelfde argument op in beide bestanden.

Gegevenssetbeheer

Met de volgende opdrachten wordt gedemonstreerd hoe u met gegevenssets in Azure Machine Learning:

Omgevingsbeheer

De volgende opdrachten laten zien hoe u omgevingen voor uw werkruimte kunt maken, registreren Azure Machine Learning weergeven:

Omgevingsconfiguratieschema

Als u de opdracht hebt gebruikt, wordt er een sjabloonbestand gegenereerd dat kan worden gewijzigd en gebruikt om aangepaste az ml environment scaffold azureml_environment.json omgevingsconfiguraties te maken met de CLI. Het object op het hoogste niveau wordt losjes aan Environment de klasse in de Python-SDK toegelaten.

{
    "name": "testenv",
    "version": null,
    "environmentVariables": {
        "EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
    },
    "python": {
        "userManagedDependencies": false,
        "interpreterPath": "python",
        "condaDependenciesFile": null,
        "baseCondaEnvironment": null
    },
    "docker": {
        "enabled": false,
        "baseImage": "mcr.microsoft.com/azureml/openmpi3.1.2-ubuntu18.04:20210615.v1",
        "baseDockerfile": null,
        "sharedVolumes": true,
        "shmSize": "2g",
        "arguments": [],
        "baseImageRegistry": {
            "address": null,
            "username": null,
            "password": null
        }
    },
    "spark": {
        "repositories": [],
        "packages": [],
        "precachePackages": true
    },
    "databricks": {
        "mavenLibraries": [],
        "pypiLibraries": [],
        "rcranLibraries": [],
        "jarLibraries": [],
        "eggLibraries": []
    },
    "inferencingStackVersion": null
}

De volgende tabel bevat elk veld op het hoogste niveau in het JSON-bestand, het type en een beschrijving. Als een objecttype is gekoppeld aan een klasse van de Python SDK, is er een losse 1:1-overeenkomst tussen elk JSON-veld en de naam van de openbare variabele in de Python-klasse. In sommige gevallen kan het veld worden toe te staan aan een constructorargument in plaats van een klassevariabele. Het veld wordt bijvoorbeeld environmentVariables aan de variabele in de klasse toe te environment_variables Environment staan.

JSON-veld Type Description
name string Naam van de omgeving. Begin de naam niet met Microsoft of AzureML.
version string Versie van de omgeving.
environmentVariables {string: string} Een hash-kaart van namen en waarden van omgevingsvariabelen.
python PythonSectionhat definieert de Python-omgeving en -interpreter voor gebruik op de doelrekenresource.
docker DockerSection Hiermee definieert u instellingen voor het aanpassen van de Docker-afbeelding die is gebouwd op de specificaties van de omgeving.
spark SparkSection In de sectie worden Spark-instellingen geconfigureerd. Het wordt alleen gebruikt wanneer framework is ingesteld op PySpark.
databricks DatabricksSection Hiermee configureert u Databricks-bibliotheekafhankelijkheden.
inferencingStackVersion string Hiermee geeft u de versie van de deferencing stack toegevoegd aan de afbeelding. Laat dit veld staan om te voorkomen dat u een deferencingstack null toevoegt. Geldige waarde: 'meest recente'.

ML pijplijnbeheer

De volgende opdrachten laten zien hoe u werkt met machine learning pijplijnen:

Modelregistratie, profilering, implementatie

De volgende opdrachten laten zien hoe u een getraind model registreert en vervolgens implementeert als een productieservice:

Configuratieschema voor de deferentie

De vermeldingen in het document inferenceconfig.json zijn toegewezen aan de parameters voor de klasse InferenceConfig. In de volgende tabel wordt de toewijzing beschreven tussen de entiteiten in het JSON-document en de parameters voor de methode:

JSON-entiteit Methodeparameter Beschrijving
entryScript entry_script Pad naar een lokaal bestand dat de code bevat waarmee de installatiekopie kan worden uitgevoerd.
sourceDirectory source_directory Optioneel. Pad naar de mappen die alle bestanden bevatten waarmee de installatiekopie kan worden gemaakt, zodat u eenvoudig toegang hebt tot alle bestanden in deze map of submap. U kunt een volledige map vanaf uw lokale computer uploaden als afhankelijkheden voor de webservice. Opmerking: De paden entry_script, conda_file en extra_docker_file_steps zijn relatieve paden naar het pad source_directory.
environment environment Optioneel. Azure Machine Learning-omgeving.

U kunt de volledige specificaties van een Azure Machine Learning-omgeving opnemen in het configuratiebestand voor deductie. Als de omgeving niet aanwezig is in uw werkruimte, wordt deze door Azure Machine Learning gemaakt. Als de omgeving al bestaat, werkt Azure Machine Learning deze indien nodig bij. De volgende JSON-code is een voorbeeld:

{
    "entryScript": "score.py",
    "environment": {
        "docker": {
            "arguments": [],
            "baseDockerfile": null,
            "baseImage": "mcr.microsoft.com/azureml/intelmpi2018.3-ubuntu18.04",
            "enabled": false,
            "sharedVolumes": true,
            "shmSize": null
        },
        "environmentVariables": {
            "EXAMPLE_ENV_VAR": "EXAMPLE_VALUE"
        },
        "name": "my-deploy-env",
        "python": {
            "baseCondaEnvironment": null,
            "condaDependencies": {
                "channels": [
                    "conda-forge"
                ],
                "dependencies": [
                    "python=3.6.2",
                    {
                        "pip": [
                            "azureml-defaults",
                            "azureml-telemetry",
                            "scikit-learn==0.22.1",
                            "inference-schema[numpy-support]"
                        ]
                    }
                ],
                "name": "project_environment"
            },
            "condaDependenciesFile": null,
            "interpreterPath": "python",
            "userManagedDependencies": false
        },
        "version": "1"
    }
}

U kunt ook een bestaande Azure Machine Learning-omgeving gebruiken met aparte CLI-parameters en de omgevingssleutel uit het configuratiebestand voor deductie verwijderen. Gebruik -e voor de naam van de omgeving en --ev voor de versie van de omgeving. Als u --ev niet opgeeft, wordt de nieuwste versie gebruikt. Dit is een voorbeeld van een configuratiebestand voor deductie:

{
    "entryScript": "score.py",
    "sourceDirectory": null
}

De volgende opdracht laat zien hoe u een model implementeert met het vorige configuratiebestand voor deductie (genaamd myInferenceConfig.json).

Hierbij wordt ook de nieuwste versie van een bestaande Azure Machine Learning-omgeving (genaamd AzureML-Minimal) gebruikt.

az ml model deploy -m mymodel:1 --ic myInferenceConfig.json -e AzureML-Minimal --dc deploymentconfig.json

Implementatieconfiguratieschema

Configuratieschema voor lokale implementatie

De vermeldingen in de documenttoewijzing deploymentconfig.json voor de parameters voor LocalWebservice.deploy_configuration. In de volgende tabel wordt de toewijzing tussen de entiteiten in het JSON-document en de parameters beschreven voor de methode:

JSON-entiteit Methodeparameter Beschrijving
computeType NA Het rekendoel. Voor lokale doelen moet de waarde local zijn.
port port De lokale poort waarop het HTTP-eindpunt van de service beschikbaar wordt gemaakt.

De volgende JSON is een voorbeeld van een implementatieconfiguratie die gebruikt kan worden met de CLI:

{
    "computeType": "local",
    "port": 32267
}

Sla deze JSON op als een bestand met de naam deploymentconfig.json .

Configuratieschema voor implementatie van Azure Container Instance

De vermeldingen in de documenttoewijzing deploymentconfig.json voor de parameters voor AciWebservice.deploy_configuration. In de volgende tabel wordt de toewijzing tussen de entiteiten in het JSON-document en de parameters beschreven voor de methode:

JSON-entiteit Methodeparameter Beschrijving
computeType NA Het rekendoel. Voor ACI moet de waarde ACI zijn.
containerResourceRequirements NA Container voor de CPU en geheugenentiteiten.
  cpu cpu_cores Het aantal CPU-kernen om toe te wijzen. Standaard 0.1
  memoryInGB memory_gb De hoeveelheid geheugen in GB dat moet worden toegewezen voor deze webservice. Standaard 0.5
location location De Azure-regio om deze webservice in te implementeren. Als deze niet wordt opgegeven, wordt de werkruimtelocatie gebruikt. Meer informatie over beschikbare regio's vindt u hier: ACI-regio's
authEnabled auth_enabled Hiermee wordt aangegeven of verificatie moet worden ingeschakeld voor deze webservice. Standaard ingesteld op False.
sslEnabled ssl_enabled Hiermee wordt aangegeven of SSL moet worden ingeschakeld voor deze webservice. Standaard ingesteld op False.
appInsightsEnabled enable_app_insights Hiermee wordt aangegeven of AppInsights moet worden ingeschakeld voor deze webservice. Standaard ingesteld op False.
sslCertificate ssl_cert_pem_file Het certificaatbestand dat nodig is als SSL is ingeschakeld
sslKey ssl_key_pem_file Het sleutelbestand dat nodig is als SSL is ingeschakeld
cname ssl_cname De CNAME die nodig is als SSL is ingeschakeld
dnsNameLabel dns_name_label Het DNS-naamlabel voor het score-eindpunt. Als er geen naamlabel wordt opgegeven, wordt er een uniek DNS-naamlabel voor het score-eindpunt gegenereerd.

De volgende JSON is een voorbeeldimplementatie die gebruikt kan worden met de CLI:

{
    "computeType": "aci",
    "containerResourceRequirements":
    {
        "cpu": 0.5,
        "memoryInGB": 1.0
    },
    "authEnabled": true,
    "sslEnabled": false,
    "appInsightsEnabled": false
}

Azure Kubernetes Service implementatieconfiguratieschema configureren

De vermeldingen in de documenttoewijzing deploymentconfig.json voor de parameters voor AksWebservice.deploy_configuration. In de volgende tabel wordt de toewijzing tussen de entiteiten in het JSON-document en de parameters beschreven voor de methode:

JSON-entiteit Methodeparameter Beschrijving
computeType NA Het rekendoel. Voor AKS moet de waarde aks zijn.
autoScaler NA Bevat configuratie-elementen voor automatische schaalaanpassing. Raadpleeg de tabel voor automatische schaalaanpassing.
  autoscaleEnabled autoscale_enabled Hiermee wordt aangegeven of automatische schaalaanpassing moet worden ingeschakeld voor de webservice. Als numReplicas = 0, True; anders, False.
  minReplicas autoscale_min_replicas Het minimale aantal containers dat moet worden gebruikt wanneer deze webservice automatisch wordt geschaald. Standaard 1.
  maxReplicas autoscale_max_replicas Het maximale aantal containers dat moet worden gebruikt wanneer deze webservice automatisch wordt geschaald. Standaard 10.
  refreshPeriodInSeconds autoscale_refresh_seconds Hoe vaak de automatische schaalaanpassing probeert deze webservice te schalen. Standaard 1.
  targetUtilization autoscale_target_utilization Het doelgebruik (in procenten van 100) dat de automatische schaalaanpassing moet proberen aan te houden voor deze webservice. Standaard 70.
dataCollection NA Bevat configuratie-elementen voor gegevensverzameling.
  storageEnabled collect_model_data Hiermee wordt aangegeven of gegevensverzameling voor modellen voor de webservice moet worden ingeschakeld. Standaard False.
authEnabled auth_enabled Hiermee wordt aangegeven of sleutelverificatie voor de webservice moet worden ingeschakeld. Zowel tokenAuthEnabled als authEnabled kunnen niet True zijn. Standaard True.
tokenAuthEnabled token_auth_enabled Hiermee wordt aangegeven of tokenverificatie voor de webservice moet worden ingeschakeld. Zowel tokenAuthEnabled als authEnabled kunnen niet True zijn. Standaard False.
containerResourceRequirements NA Container voor de CPU en geheugenentiteiten.
  cpu cpu_cores Het aantal CPU-kernen dat moet worden toegewezen voor deze webservice. Standaard 0.1
  memoryInGB memory_gb De hoeveelheid geheugen in GB dat moet worden toegewezen voor deze webservice. Standaard 0.5
appInsightsEnabled enable_app_insights Hiermee wordt aangegeven of Application Insights-logboekregistratie voor de webservice moet worden ingeschakeld. Standaard False.
scoringTimeoutMs scoring_timeout_ms Een verplichte time-out voor het beoordelen van oproepen naar de webservice. Standaard 60000.
maxConcurrentRequestsPerContainer replica_max_concurrent_requests Het maximumaantal gelijktijdige aanvragen per knooppunt voor deze webservice. Standaard 1.
maxQueueWaitMs max_request_wait_time De maximale tijd dat een verzoek in de wachtrij blijft (in milliseconden) voordat een 503-fout wordt geretourneerd. Standaard 500.
numReplicas num_replicas Het aantal containers dat moet worden toegewezen voor deze webservice. Er is geen standaardwaarde. Als deze parameter niet is ingesteld, wordt automatisch schalen standaard ingeschakeld.
keys NA Bevat configuratie-elementen voor sleutels.
  primaryKey primary_key Een primaire verificatiesleutel die voor deze webservice kan worden gebruikt
  secondaryKey secondary_key Een secundaire verificatiesleutel die voor deze webservice kan worden gebruikt
gpuCores gpu_cores Het aantal GPU-kernen (per containerreplica) die voor deze webservice moet worden toegewezen. Standaard is 1. Ondersteunt allen gehele getallen.
livenessProbeRequirements NA Bevat configuratie-elementen voor activiteitstestsvereisten.
  periodSeconds period_seconds Hoe vaak (in seconden) de activiteitstest moet worden uitgevoerd. De standaardwaarde is 10 seconden. Minimumwaarde is 1.
  initialDelaySeconds initial_delay_seconds Aantal seconden nadat de container is gestart voordat de activiteitstests worden gestart. Standaardwaarde is 310
  timeoutSeconds timeout_seconds Aantal seconden waarna de activiteitstests wordt gestopt. Standaardwaarde is 2 seconden. Minimumwaarde is 1
  successThreshold success_threshold De minimale opeenvolgende successen voor de activiteitstest voordat de test succesvol of mislukt is. Standaardwaarde is 1. Minimumwaarde is 1.
  failureThreshold failure_threshold Wanneer een pod wordt gestart en de activiteitstest mislukt, probeert Kubernetes failureThreshold keer voordat hij stopt. Standaardwaarde is 3. Minimumwaarde is 1.
namespace namespace De Kubernetes-naamruimte waarin de webservice is geïmplementeerd. Maximaal 63 kleine alfanumerieke tekens ('a'-'z', '0'-'9') en streepjes ('-'). Het eerste en laatste teken kunnen geen streepjes zijn.

De volgende JSON is een voorbeeldimplementatie die gebruikt kan worden met de CLI:

{
    "computeType": "aks",
    "autoScaler":
    {
        "autoscaleEnabled": true,
        "minReplicas": 1,
        "maxReplicas": 3,
        "refreshPeriodInSeconds": 1,
        "targetUtilization": 70
    },
    "dataCollection":
    {
        "storageEnabled": true
    },
    "authEnabled": true,
    "containerResourceRequirements":
    {
        "cpu": 0.5,
        "memoryInGB": 1.0
    }
}

Volgende stappen