az ml model

Hinweis

Diese Referenz ist Teil der Azure-cli-ml-Erweiterung für die Azure CLI (Version 2.0.28 oder höher). Die Erweiterung installiert automatisch beim ersten Ausführen eines Az ml-Modellbefehls . Weitere Informationen zu Erweiterungen

Verwalten von Machine Learning-Modellen.

Befehle

az ml model delete

Löschen Sie ein Modell aus dem Arbeitsbereich.

az ml model deploy

Bereitstellen von Modell(n) aus dem Arbeitsbereich.

az ml model download

Laden Sie ein Modell aus dem Arbeitsbereich herunter.

az ml model list

Listenmodelle im Arbeitsbereich auf.

az ml model package

Packen Sie ein Modell im Arbeitsbereich.

az ml model profile

Profilmodell(n) im Arbeitsbereich.

az ml model register

Registrieren eines Modells im Arbeitsbereich.

az ml model show

Zeigen Sie ein Modell im Arbeitsbereich an.

az ml model update

Aktualisieren eines Modells im Arbeitsbereich.

az ml model delete

Löschen Sie ein Modell aus dem Arbeitsbereich.

az ml model delete --model-id
                   [--path]
                   [--resource-group]
                   [--subscription-id]
                   [--workspace-name]
                   [-v]

Erforderliche Parameter

--model-id -i

ID des zu löschenden Modells.

Optionale Parameter

--path

Pfad zu einem Projektordner. Standard: aktuelles Verzeichnis.

--resource-group -g

Ressourcengruppe, die dem bereitgestellten Arbeitsbereich entspricht.

--subscription-id

Gibt die Abonnement-ID an.

--workspace-name -w

Name des Arbeitsbereichs

-v

Verbosity-Flag.

az ml model deploy

Stellen Sie Modell(en) aus dem Arbeitsbereich bereit.

az ml model deploy --name
                   [--ae]
                   [--ai]
                   [--ar]
                   [--as]
                   [--at]
                   [--autoscale-max-replicas]
                   [--autoscale-min-replicas]
                   [--base-image]
                   [--base-image-registry]
                   [--cc]
                   [--ccl]
                   [--cf]
                   [--collect-model-data]
                   [--compute-target]
                   [--compute-type]
                   [--cuda-version]
                   [--dc]
                   [--description]
                   [--dn]
                   [--ds]
                   [--ed]
                   [--eg]
                   [--entry-script]
                   [--environment-name]
                   [--environment-version]
                   [--failure-threshold]
                   [--gb]
                   [--gbl]
                   [--gc]
                   [--ic]
                   [--id]
                   [--key-name]
                   [--key-version]
                   [--kp]
                   [--ks]
                   [--lo]
                   [--max-request-wait-time]
                   [--model]
                   [--model-metadata-file]
                   [--namespace]
                   [--no-wait]
                   [--nr]
                   [--overwrite]
                   [--path]
                   [--period-seconds]
                   [--pi]
                   [--po]
                   [--property]
                   [--replica-max-concurrent-requests]
                   [--resource-group]
                   [--rt]
                   [--sc]
                   [--scoring-timeout-ms]
                   [--sd]
                   [--se]
                   [--sk]
                   [--sp]
                   [--st]
                   [--subnet-name]
                   [--subscription-id]
                   [--tag]
                   [--timeout-seconds]
                   [--token-auth-enabled]
                   [--tp]
                   [--vault-base-url]
                   [--version-name]
                   [--vnet-name]
                   [--workspace-name]
                   [-v]

Erforderliche Parameter

--name -n

Der Name des bereitgestellten Diensts.

Optionale Parameter

--ae --auth-enabled

Gibt an, ob die Schlüsselauthentifizierung für diesen Webdienst aktiviert werden soll. Der Standardwert lautet „False“.

--ai --enable-app-insights

Gibt an, ob für diesen Webdienst AppInsights aktiviert werden soll. Der Standardwert lautet „False“.

--ar --autoscale-refresh-seconds

Gibt an, wie oft die Autoskalierung versuchen soll, diesen Webdienst zu skalieren. Der Standardwert lautet 1.

--as --autoscale-enabled

Gibt an, ob die automatische Skalierung für diesen Webdienst aktiviert werden soll. Der Standardwert ist „True“, wenn num_replicas „None“ ist.

--at --autoscale-target-utilization

Die Zielauslastung (in Prozent bis 100), die die Autoskalierung für den Webdienst nach Möglichkeit aufrechterhalten soll. Der Standardwert ist 70.

--autoscale-max-replicas --ma

Die maximale Anzahl von Containern, die bei der automatischen Skalierung dieses Webdiensts verwendet werden sollen. Der Standardwert ist 10.

--autoscale-min-replicas --mi

Die Mindestanzahl von Containern, die bei der automatischen Skalierung dieses Webdiensts verwendet werden sollen. Der Standardwert lautet 1.

--base-image --bi

Ein benutzerdefiniertes Image, das als Basisimage verwendet werden soll. Wenn kein Basisimage angegeben wird, wird das Basisimage basierend auf dem angegebenen Runtimeparameter verwendet.

--base-image-registry --ir

Imageregistrierung, die das Basisimage enthält.

--cc --cpu-cores

Die Anzahl von CPU-Kernen, die für diesen Webdienst zugeordnet werden sollen. Dabei kann es sich um eine Dezimalzahl handeln. Der Standardwert ist 0,1.

--ccl --cpu-cores-limit

Maximale Anzahl der CPU-Kerne, die dieser Webdienst verwenden darf. Kann eine Dezimalzahl sein.

--cf --conda-file

Pfad zur lokalen Datei, die eine für das Image zu verwendende Conda-Umgebungsdefinition enthält.

--collect-model-data --md

Gibt an, ob die Modelldatensammlung für diesen Webdienst aktiviert werden soll. Der Standardwert lautet „False“.

--compute-target --ct

Name des Berechnungsziels. Gilt nur für die Bereitstellung in AKS.

--compute-type --cp

Berechnen sie den Diensttyp, der bereitgestellt werden soll.

--cuda-version --cv

CUDA-Version, die für Images installiert wird, die GPU-Unterstützung benötigen. Das GPU-Image muss in Microsoft Azure-Diensten wie Azure Container Instances, Azure Machine Learning Compute, Azure Virtual Machines und Azure Kubernetes Service verwendet werden. Unterstützt werden die Versionen 9.0, 9.1 und 10.0. Wenn „enable_gpu“ festgelegt ist, wird standardmäßig „9.1“ verwendet.

--dc --deploy-config-file

Pfad zu einer JSON- oder YAML-Datei mit Bereitstellungsmetadaten.

--description

Beschreibung des bereitgestellten Diensts.

--dn --dns-name-label

Der DNS-Name für diesen Webservice.

--ds --extra-docker-file-steps

Pfad zur lokalen Datei mit zusätzlichen Docker-Schritten, die bei der Einrichtung des Images ausgeführt werden.

--ed --environment-directory

Verzeichnis für Azure Machine Learning Environment für die Bereitstellung. Es ist der gleiche Verzeichnispfad wie im Befehl "az ml environment scaffold" angegeben.

--eg --enable-gpu

Gibt an, ob die GPU-Unterstützung im Image aktiviert werden soll. Das GPU-Image muss in Microsoft Azure-Diensten wie Azure Container Instances, Azure Machine Learning Compute, Azure Virtual Machines und Azure Kubernetes Service verwendet werden. Der Standardwert lautet „False“.

--entry-script --es

Pfad zu lokaler Datei, die den Code enthält, der für den Dienst ausgeführt werden soll (relativer Pfad von source_directory, wenn eine bereitgestellt wird).

--environment-name -e

Name der Azure Machine Learning-Umgebung für die Bereitstellung.

--environment-version --ev

Version einer vorhandenen Azure Machine Learning-Umgebung für die Bereitstellung.

--failure-threshold --ft

Wenn ein Pod gestartet wird und der Liveness-Prüfpunkt fehlschlägt, versucht Kubernetes vor dem Aufgeben --Fehler-Schwellenwerte. Der Standardwert ist 3. Der Mindestwert ist 1.

--gb --memory-gb

Menge an Arbeitsspeicher (in GB), die für diesen Webdienst zugeordnet werden soll. Kann eine Dezimalzahl sein.

--gbl --memory-gb-limit

Die maximale Arbeitsspeichermenge (in GB), die von diesem Webdienst verwendet werden darf. Kann eine Dezimalzahl sein.

--gc --gpu-cores

Die Anzahl der GPU-Kerne, die für diesen Webdienst zugewiesen werden sollen. Der Standardwert ist 1.

--ic --inference-config-file

Pfad zu einer JSON- oder YAML-Datei, die eine Inferencekonfiguration enthält.

--id --initial-delay-seconds

Die Anzahl der Sekunden, die nach dem Start des Containers vergehen, bevor Livetests initiiert werden. Der Standardwert ist 310.

--key-name

Schlüsselname für Verschlüsselungseigenschaften in kundengesteuerten Schlüsseln (CMK) für ACI.

--key-version

Schlüsselversion für Verschlüsselungseigenschaften in kundengesteuerten Schlüsseln (CMK) für ACI.

--kp --primary-key

Ein primärer Authentifizierungsschlüssel, der für diesen Webdienst verwendet werden soll

--ks --secondary-key

Ein sekundärer Authentifizierungsschlüssel, der für diesen Webdienst verwendet werden soll

--lo --location

Die Azure-Region, in der dieser Webdienst bereitgestellt werden soll. Wenn keine Region angegeben ist, wird der Standort des Arbeitsbereichs verwendet. Weitere Informationen zu verfügbaren Regionen finden Sie hier: https://azure.microsoft.com/en-us/global-infrastructure/services/?regions=all&products=container-instances.

--max-request-wait-time --mr

Die maximale Zeitspanne, die eine Anforderung in der Warteschlange verbleibt (in Millisekunden), bevor der Fehler 503 zurückgegeben wird. Standardwerte auf 500.

--model -m

Die ID des zu bereitstellenden Modells. Mehrere Modelle können mit zusätzlichen -m-Argumenten angegeben werden. Modelle müssen zuerst registriert werden.

--model-metadata-file -f

Pfad zu einer JSON-Datei mit Modellregistrierungsmetadaten. Mehrere Modelle können mithilfe mehrerer -f-Parameter bereitgestellt werden.

--namespace

Kubernetes-Namespace, in dem der Dienst bereitgestellt werden soll: bis zu 63 Kleinbuchstaben ('a'-'z', '0'-'9') und Bindestriche ('-'). Als erstes und letztes Zeichen dürfen keine Bindestriche verwendet werden. Gilt nur für die Bereitstellung in AKS.

--no-wait

Flag to not wait for asynchron calls.

--nr --num-replicas

Die Anzahl von Containern, die für diesen Webdienst zugeordnet werden sollen. Für diese gibt es keinen Standardwert. Wenn dieser Parameter nicht festgelegt wird, wird die Autoskalierung automatisch aktiviert.

--overwrite

Überschreiben Sie den vorhandenen Dienst, wenn der Name konfliktet.

--path

Pfad zu einem Projektordner. Standard: aktuelles Verzeichnis.

--period-seconds --ps

Gibt an, wie häufig (in Sekunden) ein Livetest durchgeführt werden soll. Der Standardwert ist 10 Sekunden. Der Mindestwert ist 1.

--pi --profile-input

Pfad zu einer JSON-Datei, die Profilerstellungsergebnisse enthält.

--po --port

Der lokale Port, auf dem der HTTP-Endpunkt des Diensts verfügbar gemacht werden soll.

--property

Key/Value-Eigenschaft, die hinzugefügt werden soll (z. B..key=wert). Mehrere Eigenschaften können mit mehreren --Eigenschaftsoptionen angegeben werden.

--replica-max-concurrent-requests --rm

Die Anzahl der maximalen gleichzeitigen Anforderungen pro Knoten, die für diesen Webdienst zulässig sind. Der Standardwert lautet 1.

--resource-group -g

Ressourcengruppe, die dem bereitgestellten Arbeitsbereich entspricht.

--rt --runtime

Welche Laufzeit für das Bild verwendet werden soll. Aktuelle unterstützte Laufzeiten sind "spark-py" und "python"spark-py|python|python-slim.

--sc --ssl-cname

Der CNAME, wenn SSL aktiviert ist.

--scoring-timeout-ms --tm

Eine Zeitüberschreitung, die für Bewertungsaufrufe an diesen Webdienst erzwungen wird. Der Standardwert ist 60000.

--sd --source-directory

Pfad zu Ordnern, die alle Dateien zum Erstellen des Images enthalten.

--se --ssl-enabled

Gibt an, ob für diesen Webdienst SSL aktiviert werden soll. Der Standardwert lautet „False“.

--sk --ssl-key-pem-file

Die benötigte KEY-Datei, wenn SSL aktiviert ist.

--sp --ssl-cert-pem-file

Die benötigte CERT-Datei, wenn SSL aktiviert ist.

--st --success-threshold

Die Anzahl der Erfolge, die mindestens aufeinander folgen müssen, damit ein Livetest nach einem Fehler wieder als erfolgreich betrachtet wird. Der Standardwert lautet 1. Der Mindestwert ist 1.

--subnet-name

Der Name des Subnetzes innerhalb des VNet.

--subscription-id

Gibt die Abonnement-ID an.

--tag

Schlüssel-/Werttag, das hinzugefügt werden soll (z. B..key=Wert). Mehrere Tags können mit mehreren -Tag-Optionen angegeben werden.

--timeout-seconds --ts

Die Anzahl von Sekunden, nach denen das Zeitlimit für den Livetest überschritten ist. Der Standardwert ist 2 Sekunden. Der Mindestwert ist 1.

--token-auth-enabled

Gibt an, ob die Tokenauth für diesen Webdienst aktiviert werden soll. Wird ignoriert, wenn keine Bereitstellung in AKS erfolgt. Der Standardwert lautet „False“.

--tp --traffic-percentile

Die Menge des Datenverkehrs, den die Version in einem Endpunkt empfängt. Kann eine Dezimalzahl sein. Der Standardwert ist 0.

--vault-base-url

Vault-Basis-URL für Verschlüsselungseigenschaften in vom Kunden verwalteten Schlüsseln (CMK) für ACI.

--version-name --vn

Der Versionsname in einem Endpunkt. Standardwerte für den Endpunktnamen für die erste Version.

--vnet-name

Der Name des virtuellen Netzwerks.

--workspace-name -w

Name des Arbeitsbereichs

-v

Verbosity-Flag.

az ml model download

Laden Sie ein Modell aus dem Arbeitsbereich herunter.

az ml model download --model-id
                     --target-dir
                     [--overwrite]
                     [--path]
                     [--resource-group]
                     [--subscription-id]
                     [--workspace-name]
                     [-v]

Erforderliche Parameter

--model-id -i

ID des Modells.

--target-dir -t

Zielverzeichnis, in das die Modelldatei heruntergeladen werden soll.

Optionale Parameter

--overwrite

Überschreiben, wenn die gleiche Namensdatei im Zielverzeichnis vorhanden ist.

--path

Pfad zu einem Projektordner. Standard: aktuelles Verzeichnis.

--resource-group -g

Ressourcengruppe, die dem bereitgestellten Arbeitsbereich entspricht.

--subscription-id

Gibt die Abonnement-ID an.

--workspace-name -w

Name des Arbeitsbereichs, der das anzuzeigende Modell enthält.

-v

Verbosity-Flag.

az ml model list

Listenmodelle im Arbeitsbereich.

az ml model list [--dataset-id]
                 [--latest]
                 [--model-name]
                 [--path]
                 [--property]
                 [--resource-group]
                 [--run-id]
                 [--subscription-id]
                 [--tag]
                 [--workspace-name]
                 [-v]

Optionale Parameter

--dataset-id

Wenn angegeben, werden nur Modelle mit der angegebenen Dataset-ID angezeigt.

--latest -l

Wenn angegeben, werden nur Modelle mit der neuesten Version zurückgegeben.

--model-name -n

Ein optionaler Modellname zum Filtern der Liste nach.

--path

Pfad zu einem Projektordner. Standard: aktuelles Verzeichnis.

--property

Key/Value-Eigenschaft, die hinzugefügt werden soll (z. B..key=wert). Mehrere Eigenschaften können mit mehreren --Eigenschaftsoptionen angegeben werden.

--resource-group -g

Ressourcengruppe, die dem bereitgestellten Arbeitsbereich entspricht.

--run-id

Wenn angegeben, werden nur Modelle mit der angegebenen Run-ID angezeigt.

--subscription-id

Gibt die Abonnement-ID an.

--tag

Schlüssel-/Werttag, das hinzugefügt werden soll (z. B..key=Wert). Mehrere Tags können mit mehreren -Tag-Optionen angegeben werden.

--workspace-name -w

Name des Arbeitsbereichs, der Modelle enthält, die listet werden sollen.

-v

Verbosity-Flag.

az ml model package

Packen Sie ein Modell im Arbeitsbereich.

az ml model package [--cf]
                    [--ed]
                    [--entry-script]
                    [--environment-name]
                    [--environment-version]
                    [--ic]
                    [--il]
                    [--image-name]
                    [--model]
                    [--model-metadata-file]
                    [--no-wait]
                    [--output-path]
                    [--path]
                    [--resource-group]
                    [--rt]
                    [--sd]
                    [--subscription-id]
                    [--workspace-name]
                    [-v]

Optionale Parameter

--cf --conda-file

Pfad zur lokalen Datei, die eine Conda-Umgebungsdefinition enthält, die für das Paket verwendet werden soll.

--ed --environment-directory

Verzeichnis für Azure Machine Learning Environment für die Verpackung. Es ist derselbe Verzeichnispfad wie im Befehl "az ml environment scaffold" angegeben.

--entry-script --es

Pfad zur lokalen Datei, die den Code enthält, der für den Dienst ausgeführt werden soll (relativer Pfad von source_directory, wenn eine bereitgestellt wird).

--environment-name -e

Name der Azure Machine Learning-Umgebung für die Verpackung.

--environment-version --ev

Version einer vorhandenen Azure Machine Learning-Umgebung zum Verpacken.

--ic --inference-config-file

Pfad zu einer JSON- oder YAML-Datei, die die Schlussfolgerungskonfiguration enthält.

--il --image-label

Beschriftung, um dem integrierten Paketimage zu verleihen.

--image-name --in

Name, der dem integrierten Paketimage zugewiesen werden soll.

--model -m

Die ID des modells, das verpackt werden soll. Mehrere Modelle können mit zusätzlichen -m-Argumenten angegeben werden. Modelle müssen zuerst registriert werden.

--model-metadata-file -f

Pfad zu einer JSON-Datei, die Modellregistrierungsmetadaten enthält. Mehrere Modelle können mit mehreren -f-Parametern bereitgestellt werden.

--no-wait

Flag to not wait for asynchron calls.

--output-path

Ausgabepfad für Docker-Kontext. Wenn ein Ausgabepfad übergeben wird, anstatt ein Image im Arbeitsbereich ACR zu erstellen, werden eine Dockerfile und der erforderliche Buildkontext in diesen Pfad geschrieben.

--path

Pfad zu einem Projektordner. Standard: aktuelles Verzeichnis.

--resource-group -g

Ressourcengruppe, die dem bereitgestellten Arbeitsbereich entspricht.

--rt --runtime

Welche Laufzeit für das Paket verwendet werden soll. Aktuelle unterstützte Laufzeiten sind "spark-py" und "python"spark-py|python|python-slim.

--sd --source-directory

Pfad zu Ordnern, die alle Dateien zum Erstellen des Images enthalten.

--subscription-id

Gibt die Abonnement-ID an.

--workspace-name -w

Name des Arbeitsbereichs

-v

Verbosity-Flag.

az ml model profile

Profilmodell(n) im Arbeitsbereich.

az ml model profile --name
                    [--base-image]
                    [--base-image-registry]
                    [--cc]
                    [--cf]
                    [--description]
                    [--ed]
                    [--entry-script]
                    [--environment-name]
                    [--environment-version]
                    [--gb]
                    [--ic]
                    [--idi]
                    [--model]
                    [--model-metadata-file]
                    [--output-metadata-file]
                    [--resource-group]
                    [--sd]
                    [--subscription-id]
                    [--workspace-name]
                    [-v]

Erforderliche Parameter

--name -n

Der Name des Modellprofils.

Optionale Parameter

--base-image --bi

Ein benutzerdefiniertes Image, das als Basisimage verwendet werden soll. Wenn kein Basisimage angegeben wird, wird das Basisimage basierend auf dem angegebenen Runtimeparameter verwendet.

--base-image-registry --ir

Imageregistrierung, die das Basisimage enthält.

--cc --cpu-cores

Doppelter Wert für die maximale CPU, die beim Profilieren verwendet werden soll.

--cf --conda-file

Pfad zur lokalen Datei, die eine für das Image zu verwendende Conda-Umgebungsdefinition enthält.

--description

Beschreibung des Modellprofils.

--ed --environment-directory

Verzeichnis für Azure Machine Learning Environment für die Bereitstellung. Es ist derselbe Verzeichnispfad wie im Befehl "az ml environment scaffold" angegeben.

--entry-script --es

Pfad zur lokalen Datei, die den Code enthält, der für den Dienst ausgeführt werden soll (relativer Pfad von source_directory, wenn eine bereitgestellt wird).

--environment-name -e

Name der Azure Machine Learning-Umgebung für die Bereitstellung.

--environment-version --ev

Version einer vorhandenen Azure Machine Learning-Umgebung für die Bereitstellung.

--gb --memory-in-gb

Doppelter Wert für maximalen Arbeitsspeicher, der beim Profilieren verwendet werden soll.

--ic --inference-config-file

Pfad zu einer JSON- oder YAML-Datei, die die Schlussfolgerungskonfiguration enthält.

--idi --input-dataset-id

ID des Tabellarischen Datasets, das als Eingabe für das Profil verwendet werden soll.

--model -m

Die ID des zu bereitstellenden Modells. Mehrere Modelle können mit zusätzlichen -m-Argumenten angegeben werden. Modelle müssen zuerst registriert werden.

--model-metadata-file -f

Pfad zu einer JSON-Datei, die Modellregistrierungsmetadaten enthält. Mehrere Modelle können mit mehreren -f-Parametern bereitgestellt werden.

--output-metadata-file -t

Pfad zu einer JSON-Datei, in der Profilergebnissemetadaten geschrieben werden. Wird als Eingabe für die Modellbereitstellung verwendet.

--resource-group -g

Ressourcengruppe, die dem bereitgestellten Arbeitsbereich entspricht.

--sd --source-directory

Pfad zu Ordnern, die alle Dateien zum Erstellen des Images enthalten.

--subscription-id

Gibt die Abonnement-ID an.

--workspace-name -w

Name des Arbeitsbereichs

-v

Verbosity-Flag.

az ml model register

Registrieren sie ein Modell für den Arbeitsbereich.

az ml model register --name
                     [--asset-path]
                     [--cc]
                     [--description]
                     [--experiment-name]
                     [--gb]
                     [--gc]
                     [--model-framework]
                     [--model-framework-version]
                     [--model-path]
                     [--output-metadata-file]
                     [--path]
                     [--property]
                     [--resource-group]
                     [--run-id]
                     [--run-metadata-file]
                     [--sample-input-dataset-id]
                     [--sample-output-dataset-id]
                     [--subscription-id]
                     [--tag]
                     [--workspace-name]
                     [-v]

Erforderliche Parameter

--name -n

Name des zu registrierenden Modells.

Optionale Parameter

--asset-path

Der Cloudpfad, in dem die Experiement ausgeführt wird, speichert die Modelldatei.

--cc --cpu-cores

Die Standardanzahl der CPU-Kerne, die für dieses Modell zugewiesen werden sollen. Kann eine Dezimalzahl sein.

--description -d

Beschreibung des Modells.

--experiment-name

Der Name des Experiments.

--gb --memory-gb

Der Standardspeicher (in GB), der für dieses Modell zugewiesen werden soll. Kann eine Dezimalzahl sein.

--gc --gpu-cores

Die Standardnummer der GPUs, die für dieses Modell zugewiesen werden sollen.

--model-framework

Rahmen des zu registrierenden Modells. Derzeit unterstützte Frameworks: TensorFlow, ScikitLearn, Onnx, Custom, Multi.

--model-framework-version

Frameworkversion des Zu registrierenden Modells (z. B. 1.0.0, 2.4.1).

--model-path -p

Vollständiger Pfad der zu registrierenden Modelldatei.

--output-metadata-file -t

Pfad zu einer JSON-Datei, in der Modellregistrierungsmetadaten geschrieben werden. Wird als Eingabe für die Modellbereitstellung verwendet.

--path

Pfad zu einem Projektordner. Standard: aktuelles Verzeichnis.

--property

Key/Value-Eigenschaft, die hinzugefügt werden soll (z. B..key=wert). Mehrere Eigenschaften können mit mehreren --Eigenschaftsoptionen angegeben werden.

--resource-group -g

Ressourcengruppe, die dem bereitgestellten Arbeitsbereich entspricht.

--run-id -r

Die ID für die Experimentausführung, bei der das Modell registriert ist.

--run-metadata-file -f

Pfad zu einer JSON-Datei, die Experiement-Metadaten enthält.

--sample-input-dataset-id

Die ID für das Beispieleingabe-Dataset.

--sample-output-dataset-id

Die ID für das Beispielausgabe-Dataset.

--subscription-id

Gibt die Abonnement-ID an.

--tag

Schlüssel-/Werttag, das hinzugefügt werden soll (z. B..key=Wert). Mehrere Tags können mit mehreren -Tag-Optionen angegeben werden.

--workspace-name -w

Name des Arbeitsbereichs, mit dem dieses Modell registriert werden soll.

-v

Verbosity-Flag.

az ml model show

Ein Modell im Arbeitsbereich anzeigen.

az ml model show [--model-id]
                 [--model-name]
                 [--path]
                 [--resource-group]
                 [--run-id]
                 [--subscription-id]
                 [--version]
                 [--workspace-name]
                 [-v]

Optionale Parameter

--model-id -i

ID des anzuzeigenden Modells.

--model-name -n

Name des anzuzeigenden Modells.

--path

Pfad zu einem Projektordner. Standard: aktuelles Verzeichnis.

--resource-group -g

Ressourcengruppe, die dem bereitgestellten Arbeitsbereich entspricht.

--run-id

Wenn angegeben, werden nur Modelle mit der angegebenen Run-ID angezeigt.

--subscription-id

Gibt die Abonnement-ID an.

--version

Wenn angegeben, werden nur Modelle mit dem angegebenen Namen und der angegebenen Version angezeigt.

--workspace-name -w

Name des Arbeitsbereichs, der das anzuzeigende Modell enthält.

-v

Verbosity-Flag.

az ml model update

Aktualisieren eines Modells im Arbeitsbereich.

az ml model update --model-id
                   [--add-property]
                   [--add-tag]
                   [--cc]
                   [--description]
                   [--gb]
                   [--gc]
                   [--path]
                   [--remove-tag]
                   [--resource-group]
                   [--sample-input-dataset-id]
                   [--sample-output-dataset-id]
                   [--subscription-id]
                   [--workspace-name]
                   [-v]

Erforderliche Parameter

--model-id -i

ID des Modells.

Optionale Parameter

--add-property

Key/Value-Eigenschaft, die hinzugefügt werden soll (z. B..key=wert). Mehrere Eigenschaften können mit mehreren --add-property-Optionen angegeben werden.

--add-tag

Schlüssel-/Werttag, das hinzugefügt werden soll (z. B..key=Wert). Mehrere Tags können mit mehreren --add-tag-Optionen angegeben werden.

--cc --cpu-cores

Die Standardanzahl der CPU-Kerne, die für dieses Modell zugewiesen werden sollen. Kann eine Dezimalzahl sein.

--description

Beschreibung zum Aktualisieren des Modells mit. Ersetzt die aktuelle Beschreibung.

--gb --memory-gb

Der Standardspeicher (in GB), der für dieses Modell zugewiesen werden soll. Kann eine Dezimalzahl sein.

--gc --gpu-cores

Die Standardnummer der GPUs, die für dieses Modell zugewiesen werden sollen.

--path

Pfad zu einem Projektordner. Standard: aktuelles Verzeichnis.

--remove-tag

Schlüssel des zu entfernenden Tags. Mehrere Tags können mit mehreren --remove-tag-Optionen angegeben werden.

--resource-group -g

Ressourcengruppe, die dem bereitgestellten Arbeitsbereich entspricht.

--sample-input-dataset-id

Die ID für das Beispieleingabe-Dataset.

--sample-output-dataset-id

Die ID für das Beispielausgabe-Dataset.

--subscription-id

Gibt die Abonnement-ID an.

--workspace-name -w

Name des Arbeitsbereichs

-v

Verbosity-Flag.