az ml model

Uwaga

To odwołanie jest częścią rozszerzenia Azure-CLI-ml interfejsu wiersza polecenia platformy Azure i wymaga wersji 2.0.28 lub nowszej. Rozszerzenie zostanie automatycznie zainstalowane podczas pierwszego uruchomienia polecenia AZ ml model . Dowiedz się więcej o rozszerzeniach.

Zarządzaj modelami uczenia maszynowego.

Polecenia

az ml model delete

Usuń model z obszaru roboczego.

az ml model deploy

Wdróż modele z obszaru roboczego.

az ml model download

Pobierz model z obszaru roboczego.

az ml model list

Wyświetlanie listy modeli w obszarze roboczym.

az ml model package

Pakowanie modelu w obszarze roboczym.

az ml model profile

Modele profilów w obszarze roboczym.

az ml model register

Zarejestruj model w obszarze roboczym.

az ml model show

Pokaż model w obszarze roboczym.

az ml model update

Zaktualizuj model w obszarze roboczym.

az ml model delete

Usuń model z obszaru roboczego.

az ml model delete --model-id
                   [--path]
                   [--resource-group]
                   [--subscription-id]
                   [--workspace-name]
                   [-v]

Parametry wymagane

--model-id -i

Identyfikator modelu do usunięcia.

Parametry opcjonalne

--path

Ścieżka do folderu projektu. Domyślnie: bieżący katalog.

--resource-group -g

Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.

--subscription-id

Określa identyfikator subskrypcji.

--workspace-name -w

Nazwa obszaru roboczego.

-v

Flaga szczegółowości.

az ml model deploy

Wdróż modele z obszaru roboczego.

az ml model deploy --name
                   [--ae]
                   [--ai]
                   [--ar]
                   [--as]
                   [--at]
                   [--autoscale-max-replicas]
                   [--autoscale-min-replicas]
                   [--base-image]
                   [--base-image-registry]
                   [--cc]
                   [--ccl]
                   [--cf]
                   [--collect-model-data]
                   [--compute-target]
                   [--compute-type]
                   [--cuda-version]
                   [--dc]
                   [--description]
                   [--dn]
                   [--ds]
                   [--ed]
                   [--eg]
                   [--entry-script]
                   [--environment-name]
                   [--environment-version]
                   [--failure-threshold]
                   [--gb]
                   [--gbl]
                   [--gc]
                   [--ic]
                   [--id]
                   [--key-name]
                   [--key-version]
                   [--kp]
                   [--ks]
                   [--lo]
                   [--max-request-wait-time]
                   [--model]
                   [--model-metadata-file]
                   [--namespace]
                   [--no-wait]
                   [--nr]
                   [--overwrite]
                   [--path]
                   [--period-seconds]
                   [--pi]
                   [--po]
                   [--property]
                   [--replica-max-concurrent-requests]
                   [--resource-group]
                   [--rt]
                   [--sc]
                   [--scoring-timeout-ms]
                   [--sd]
                   [--se]
                   [--sk]
                   [--sp]
                   [--st]
                   [--subnet-name]
                   [--subscription-id]
                   [--tag]
                   [--timeout-seconds]
                   [--token-auth-enabled]
                   [--tp]
                   [--vault-base-url]
                   [--version-name]
                   [--vnet-name]
                   [--workspace-name]
                   [-v]

Parametry wymagane

--name -n

Nazwa wdrożonej usługi.

Parametry opcjonalne

--ae --auth-enabled

Określa, czy należy włączyć uwierzytelnianie klucza dla tej usługi sieci Web. Wartością domyślną jest false.

--ai --enable-app-insights

Określa, czy włączyć AppInsights dla tej usługi sieci Web. Wartością domyślną jest false.

--ar --autoscale-refresh-seconds

Jak często funkcja automatycznego skalowania powinna próbować skalować tę usługę sieci Web. Wartość domyślna to 1.

--as --autoscale-enabled

Określa, czy włączyć skalowanie automatyczne dla tej usługi sieci Web. Wartość domyślna to true, jeśli num_replicas ma wartość none.

--at --autoscale-target-utilization

Użycie docelowe (w procentach wynoszących 100) powinno być podejmowane przez Autoskalowanie dla tej usługi sieci Web. Wartość domyślna to 70.

--autoscale-max-replicas --ma

Maksymalna liczba kontenerów, które mają być używane podczas automatycznego skalowania tej sieci Web. Wartość domyślna to 10.

--autoscale-min-replicas --mi

Minimalna liczba kontenerów, które mają być używane podczas automatycznego skalowania tej sieci Web. Wartość domyślna to 1.

--base-image --bi

Obraz niestandardowy, który będzie używany jako obraz podstawowy. Jeśli obraz podstawowy nie zostanie określony, podstawowy obraz zostanie użyty na podstawie danego parametru środowiska uruchomieniowego.

--base-image-registry --ir

Rejestr obrazu zawierający obraz podstawowy.

--cc --cpu-cores

Liczba rdzeni procesora CPU do przydzielenia dla tej usługi sieci Web. Może być liczbą dziesiętną. Wartość domyślna to 0,1.

--ccl --cpu-cores-limit

Maksymalna liczba rdzeni procesora CPU, które mogą być używane przez tę usługę sieci Web. Może być liczbą dziesiętną.

--cf --conda-file

Ścieżka do pliku lokalnego zawierającego definicję środowiska Conda do użycia w obrazie.

--collect-model-data --md

Określa, czy włączyć zbieranie danych modelu dla tej usługi sieci Web. Wartością domyślną jest false.

--compute-target --ct

Nazwa elementu docelowego obliczeń. Dotyczy tylko w przypadku wdrażania w AKS.

--compute-type --cp

Typ obliczeniowy usługi do wdrożenia.

--cuda-version --cv

Wersja CUDA do zainstalowania dla obrazów wymagających obsługi procesora GPU. Obraz procesora GPU musi być używany w odniesieniu do usług Microsoft Azure, takich jak Azure Container Instances, Azure Machine Learning COMPUTE, Azure Virtual Machines i Azure Kubernetes Service. Obsługiwane są wersje 9,0, 9,1 i 10,0. Jeśli ustawiono wartość "enable_gpu", ta wartość domyślna to "9,1".

--dc --deploy-config-file

Ścieżka do pliku JSON lub YAML zawierającego metadane wdrożenia.

--description

Opis wdrożonej usługi.

--dn --dns-name-label

Nazwa DNS dla tej usługi sieci Web.

--ds --extra-docker-file-steps

Ścieżka do pliku lokalnego zawierającego dodatkowe kroki platformy Docker do uruchomienia podczas konfigurowania obrazu.

--ed --environment-directory

Katalog środowiska Azure Machine Learning do wdrożenia. Jest to ta sama ścieżka katalogu, co podano w poleceniu "AZ ml" szkieletu środowiska.

--eg --enable-gpu

Określa, czy włączyć obsługę procesora GPU w obrazie. Obraz procesora GPU musi być używany w odniesieniu do usług Microsoft Azure, takich jak Azure Container Instances, Azure Machine Learning COMPUTE, Azure Virtual Machines i Azure Kubernetes Service. Wartością domyślną jest false.

--entry-script --es

Ścieżka do pliku lokalnego, który zawiera kod do uruchomienia dla usługi (ścieżka względna od source_directory, jeśli została podana).

--environment-name -e

Nazwa środowiska Azure Machine Learning do wdrożenia.

--environment-version --ev

Wersja istniejącego środowiska Azure Machine Learning na potrzeby wdrożenia.

--failure-threshold --ft

Po rozpoczęciu i sondy na żywo, Kubernetes spróbuje--progów niepowodzeń przed pokazaniem. Wartość domyślna to 3. Wartość minimalna to 1.

--gb --memory-gb

Ilość pamięci (w GB) do przydzielenia dla tej usługi sieci Web. Może być liczbą dziesiętną.

--gbl --memory-gb-limit

Maksymalna ilość pamięci (w GB), która może być używana przez tę usługę sieci Web. Może być liczbą dziesiętną.

--gc --gpu-cores

Liczba rdzeni procesora GPU do przydzielenia dla tej usługi sieci Web. Domyślna wartość wynosi 1.

--ic --inference-config-file

Ścieżka do pliku JSON lub YAML zawierającego konfigurację wnioskowania.

--id --initial-delay-seconds

Liczba sekund od momentu rozpoczęcia sondowania na żywo przez kontener. Wartość domyślna to 310.

--key-name

Nazwa klucza dla właściwości szyfrowania w kluczach zarządzanych przez klienta (CMK) dla ACI.

--key-version

Wersja klucza dla właściwości szyfrowania w kluczach zarządzanych przez klienta (CMK) dla ACI.

--kp --primary-key

Podstawowy klucz uwierzytelniania, który ma być używany przez tę usługę sieci Web.

--ks --secondary-key

Pomocniczy klucz uwierzytelniania, który będzie używany przez tę usługę sieci Web.

--lo --location

Region świadczenia usługi Azure, w którym ma zostać wdrożona ta usługa sieci Web. Jeśli nie zostanie określona, zostanie użyta Lokalizacja obszaru roboczego. Więcej informacji na temat dostępnych regionów można znaleźć tutaj: https://azure.microsoft.com/en-us/global-infrastructure/services/?regions=all&products=container-instances .

--max-request-wait-time --mr

Maksymalny czas, przez jaki żądanie pozostanie w kolejce (w milisekundach) przed zwróceniem błędu 503. Wartość domyślna to 500.

--model -m

Identyfikator modelu, który ma zostać wdrożony. Można określić wiele modeli z dodatkowymi argumentami m. Należy najpierw zarejestrować modele.

--model-metadata-file -f

Ścieżka do pliku JSON zawierającego metadane rejestracji modelu. Wiele modeli można dostarczyć przy użyciu wielu parametrów języka f.

--namespace

Kubernetes przestrzeń nazw, w której ma zostać wdrożona usługa: maksymalnie 63 Małe znaki alfanumeryczne ("od-a", "0"-"9") i myślnik ("-"). Pierwszy i ostatni znak nie mogą być łącznikami. Dotyczy tylko w przypadku wdrażania w AKS.

--no-wait

Oflaguj, aby nie czekać na wywołania asynchroniczne.

--nr --num-replicas

Liczba kontenerów do przydzielenia dla tej usługi sieci Web. Brak wartości domyślnej, jeśli ten parametr nie jest ustawiony, automatyczne skalowanie jest domyślnie włączone.

--overwrite

Zastąp istniejącą usługę w przypadku wystąpienia konfliktów nazw.

--path

Ścieżka do folderu projektu. Domyślnie: bieżący katalog.

--period-seconds --ps

Jak często (w sekundach) przeprowadzenia sondy na żywo. Wartość domyślna to 10 sekund. Wartość minimalna to 1.

--pi --profile-input

Ścieżka do pliku JSON zawierającego wyniki profilowania.

--po --port

Port lokalny, na którym ma zostać ujawniony punkt końcowy HTTP usługi.

--property

Właściwość klucza/wartości do dodania (np. klucz = wartość). Wiele właściwości można określić z wieloma opcjami właściwości.

--replica-max-concurrent-requests --rm

Maksymalna liczba równoczesnych żądań na węzeł, które mają być dozwolone dla tej usługi sieci Web. Wartość domyślna to 1.

--resource-group -g

Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.

--rt --runtime

Które środowisko uruchomieniowe ma być używane na potrzeby obrazu. Bieżące obsługiwane środowiska uruchomieniowe to "Spark-pr" i "python'spark-PR | Python | Python-Slim.

--sc --ssl-cname

Rekord CNAME dla jeśli jest włączony protokół SSL.

--scoring-timeout-ms --tm

Limit czasu, który ma zostać wymuszony dla wywołań oceniania do tej usługi sieci Web. Wartość domyślna to 60000.

--sd --source-directory

Ścieżka do folderów zawierających wszystkie pliki do utworzenia obrazu.

--se --ssl-enabled

Określa, czy włączyć protokół SSL dla tej usługi sieci Web. Wartością domyślną jest false.

--sk --ssl-key-pem-file

Plik klucza wymagany w przypadku włączenia protokołu SSL.

--sp --ssl-cert-pem-file

Plik certyfikatu, który jest wymagany, jeśli jest włączony protokół SSL.

--st --success-threshold

Minimalna liczba kolejnych sukcesów sondy na żywo, które mają być uznawane za pomyślne po zakończonym niepowodzeniem. Wartość domyślna to 1. Wartość minimalna to 1.

--subnet-name

Nazwa podsieci w sieci wirtualnej.

--subscription-id

Określa identyfikator subskrypcji.

--tag

Tag klucz/wartość do dodania (np. klucz = wartość). Wiele tagów można określić z wieloma opcjami tagów.

--timeout-seconds --ts

Liczba sekund, po upływie których limit czasu sondy jest aktywny. Wartość domyślna to 2 sekundy. Wartość minimalna to 1.

--token-auth-enabled

Określa, czy włączyć uwierzytelnianie tokenu dla tej usługi sieci Web. Ignorowany, jeśli nie można wdrożyć do AKS. Wartością domyślną jest false.

--tp --traffic-percentile

Ilość ruchu pobieranego przez wersję w punkcie końcowym. Może być liczbą dziesiętną. Wartość domyślna to 0.

--vault-base-url

Podstawowy adres URL magazynu dla właściwości szyfrowania w kluczach zarządzanych przez klienta (CMK) dla ACI.

--version-name --vn

Nazwa wersji w punkcie końcowym. Domyślnie nazwa punktu końcowego dla pierwszej wersji.

--vnet-name

Nazwa sieci wirtualnej.

--workspace-name -w

Nazwa obszaru roboczego.

-v

Flaga szczegółowości.

az ml model download

Pobierz model z obszaru roboczego.

az ml model download --model-id
                     --target-dir
                     [--overwrite]
                     [--path]
                     [--resource-group]
                     [--subscription-id]
                     [--workspace-name]
                     [-v]

Parametry wymagane

--model-id -i

Identyfikator modelu.

--target-dir -t

Katalog docelowy, do którego ma zostać pobrany plik modelu.

Parametry opcjonalne

--overwrite

Zastąp, jeśli w katalogu docelowym istnieje plik o takiej samej nazwie.

--path

Ścieżka do folderu projektu. Domyślnie: bieżący katalog.

--resource-group -g

Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.

--subscription-id

Określa identyfikator subskrypcji.

--workspace-name -w

Nazwa obszaru roboczego zawierającego model do wyświetlenia.

-v

Flaga szczegółowości.

az ml model list

Wyświetlanie listy modeli w obszarze roboczym.

az ml model list [--dataset-id]
                 [--latest]
                 [--model-name]
                 [--path]
                 [--property]
                 [--resource-group]
                 [--run-id]
                 [--subscription-id]
                 [--tag]
                 [--workspace-name]
                 [-v]

Parametry opcjonalne

--dataset-id

Jeśli podano, program wyświetli tylko modele o określonym IDENTYFIKATORze zestawu danych.

--latest -l

Jeśli ta wartość jest określona, program zwróci tylko modele z najnowszą wersją.

--model-name -n

Opcjonalna nazwa modelu, według którego ma zostać przefiltrowana lista.

--path

Ścieżka do folderu projektu. Domyślnie: bieżący katalog.

--property

Właściwość klucza/wartości do dodania (np. klucz = wartość). Wiele właściwości można określić z wieloma opcjami właściwości.

--resource-group -g

Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.

--run-id

Jeśli podano, program wyświetli tylko modele o określonym IDENTYFIKATORze uruchomienia.

--subscription-id

Określa identyfikator subskrypcji.

--tag

Tag klucz/wartość do dodania (np. klucz = wartość). Wiele tagów można określić z wieloma opcjami tagów.

--workspace-name -w

Nazwa obszaru roboczego zawierającego modele do wyświetlenia.

-v

Flaga szczegółowości.

az ml model package

Pakowanie modelu w obszarze roboczym.

az ml model package [--cf]
                    [--ed]
                    [--entry-script]
                    [--environment-name]
                    [--environment-version]
                    [--ic]
                    [--il]
                    [--image-name]
                    [--model]
                    [--model-metadata-file]
                    [--no-wait]
                    [--output-path]
                    [--path]
                    [--resource-group]
                    [--rt]
                    [--sd]
                    [--subscription-id]
                    [--workspace-name]
                    [-v]

Parametry opcjonalne

--cf --conda-file

Ścieżka do pliku lokalnego zawierającego definicję środowiska Conda do użycia dla pakietu.

--ed --environment-directory

Katalog dla środowiska Azure Machine Learningego dla pakowania. Jest to ta sama ścieżka katalogu, co podano w poleceniu "AZ ml" szkieletu środowiska.

--entry-script --es

Ścieżka do pliku lokalnego, który zawiera kod do uruchomienia dla usługi (ścieżka względna od source_directory, jeśli została podana).

--environment-name -e

Nazwa środowiska Azure Machine Learninggo dla pakowania.

--environment-version --ev

Wersja istniejącego środowiska Azure Machine Learning na potrzeby pakowania.

--ic --inference-config-file

Ścieżka do pliku JSON lub YAML zawierającego konfigurację wnioskowania.

--il --image-label

Etykieta umożliwiająca wydawanie skompilowanego obrazu pakietu.

--image-name --in

Nazwa, aby nadać skompilowanemu obrazowi pakietu.

--model -m

Identyfikator modelu do spakowania. Można określić wiele modeli z dodatkowymi argumentami m. Należy najpierw zarejestrować modele.

--model-metadata-file -f

Ścieżka do pliku JSON zawierającego metadane rejestracji modelu. Wiele modeli można dostarczyć przy użyciu wielu parametrów języka f.

--no-wait

Oflaguj, aby nie czekać na wywołania asynchroniczne.

--output-path

Ścieżka wyjściowa kontekstu platformy Docker. Jeśli ścieżka wyjściowa jest przenoszona, zamiast kompilowania obrazu w obszarze roboczym ACR, pliku dockerfile i niezbędny kontekst kompilacji będą WRITEN do tej ścieżki.

--path

Ścieżka do folderu projektu. Domyślnie: bieżący katalog.

--resource-group -g

Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.

--rt --runtime

Którego środowiska uruchomieniowego użyć dla pakietu. Bieżące obsługiwane środowiska uruchomieniowe to "Spark-pr" i "python'spark-PR | Python | Python-Slim.

--sd --source-directory

Ścieżka do folderów zawierających wszystkie pliki do utworzenia obrazu.

--subscription-id

Określa identyfikator subskrypcji.

--workspace-name -w

Nazwa obszaru roboczego.

-v

Flaga szczegółowości.

az ml model profile

Modele profilów w obszarze roboczym.

az ml model profile --name
                    [--base-image]
                    [--base-image-registry]
                    [--cc]
                    [--cf]
                    [--description]
                    [--ed]
                    [--entry-script]
                    [--environment-name]
                    [--environment-version]
                    [--gb]
                    [--ic]
                    [--idi]
                    [--model]
                    [--model-metadata-file]
                    [--output-metadata-file]
                    [--resource-group]
                    [--sd]
                    [--subscription-id]
                    [--workspace-name]
                    [-v]

Parametry wymagane

--name -n

Nazwa profilu modelu.

Parametry opcjonalne

--base-image --bi

Obraz niestandardowy, który będzie używany jako obraz podstawowy. Jeśli obraz podstawowy nie zostanie określony, podstawowy obraz zostanie użyty na podstawie danego parametru środowiska uruchomieniowego.

--base-image-registry --ir

Rejestr obrazu zawierający obraz podstawowy.

--cc --cpu-cores

Podwójna wartość maksymalnego użycia procesora podczas profilowania.

--cf --conda-file

Ścieżka do pliku lokalnego zawierającego definicję środowiska Conda do użycia w obrazie.

--description

Opis profilu modelu.

--ed --environment-directory

Katalog środowiska Azure Machine Learning do wdrożenia. Jest to ta sama ścieżka katalogu, co podano w poleceniu "AZ ml" szkieletu środowiska.

--entry-script --es

Ścieżka do pliku lokalnego, który zawiera kod do uruchomienia dla usługi (ścieżka względna od source_directory, jeśli została podana).

--environment-name -e

Nazwa środowiska Azure Machine Learning do wdrożenia.

--environment-version --ev

Wersja istniejącego środowiska Azure Machine Learning na potrzeby wdrożenia.

--gb --memory-in-gb

Podwójna wartość maksymalnego użycia pamięci podczas profilowania.

--ic --inference-config-file

Ścieżka do pliku JSON lub YAML zawierającego konfigurację wnioskowania.

--idi --input-dataset-id

Identyfikator tabelarycznego zestawu danych, który ma być używany jako dane wejściowe dla profilu.

--model -m

Identyfikator modelu, który ma zostać wdrożony. Można określić wiele modeli z dodatkowymi argumentami m. Należy najpierw zarejestrować modele.

--model-metadata-file -f

Ścieżka do pliku JSON zawierającego metadane rejestracji modelu. Wiele modeli można dostarczyć przy użyciu wielu parametrów języka f.

--output-metadata-file -t

Ścieżka do pliku JSON, w którym będą zapisywane metadane wyników profilu. Używane jako dane wejściowe dla wdrożenia modelu.

--resource-group -g

Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.

--sd --source-directory

Ścieżka do folderów zawierających wszystkie pliki do utworzenia obrazu.

--subscription-id

Określa identyfikator subskrypcji.

--workspace-name -w

Nazwa obszaru roboczego.

-v

Flaga szczegółowości.

az ml model register

Zarejestruj model w obszarze roboczym.

az ml model register --name
                     [--asset-path]
                     [--cc]
                     [--description]
                     [--experiment-name]
                     [--gb]
                     [--gc]
                     [--model-framework]
                     [--model-framework-version]
                     [--model-path]
                     [--output-metadata-file]
                     [--path]
                     [--property]
                     [--resource-group]
                     [--run-id]
                     [--run-metadata-file]
                     [--sample-input-dataset-id]
                     [--sample-output-dataset-id]
                     [--subscription-id]
                     [--tag]
                     [--workspace-name]
                     [-v]

Parametry wymagane

--name -n

Nazwa modelu do zarejestrowania.

Parametry opcjonalne

--asset-path

Ścieżka w chmurze, w której działa experiement, przechowuje plik modelu.

--cc --cpu-cores

Domyślna liczba rdzeni procesora CPU do przydzielenia dla tego modelu. Może być liczbą dziesiętną.

--description -d

Opis modelu.

--experiment-name

Nazwa eksperymentu.

--gb --memory-gb

Domyślna ilość pamięci (w GB) do przydzielenia dla tego modelu. Może być liczbą dziesiętną.

--gc --gpu-cores

Domyślna liczba procesorów GPU do przydzielenia dla tego modelu.

--model-framework

Struktura modelu do zarejestrowania. Obecnie obsługiwane struktury: TensorFlow, ScikitLearn, Onnx, Custom, wiele.

--model-framework-version

Wersja struktury modelu do zarejestrowania (np. 1.0.0, 2.4.1).

--model-path -p

Pełna ścieżka pliku modelu do zarejestrowania.

--output-metadata-file -t

Ścieżka do pliku JSON, w którym będą zapisywane metadane rejestracji modelu. Używane jako dane wejściowe dla wdrożenia modelu.

--path

Ścieżka do folderu projektu. Domyślnie: bieżący katalog.

--property

Właściwość klucza/wartości do dodania (np. klucz = wartość). Wiele właściwości można określić z wieloma opcjami właściwości.

--resource-group -g

Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.

--run-id -r

Identyfikator przebiegu eksperymentu, w którym jest zarejestrowany model.

--run-metadata-file -f

Ścieżka do pliku JSON zawierającego metadane experiement Run.

--sample-input-dataset-id

Identyfikator przykładowego wejściowego zestawu danych.

--sample-output-dataset-id

Identyfikator przykładowego wyjściowego zestawu danych.

--subscription-id

Określa identyfikator subskrypcji.

--tag

Tag klucz/wartość do dodania (np. klucz = wartość). Wiele tagów można określić z wieloma opcjami tagów.

--workspace-name -w

Nazwa obszaru roboczego, w którym ma zostać zarejestrowany ten model.

-v

Flaga szczegółowości.

az ml model show

Pokaż model w obszarze roboczym.

az ml model show [--model-id]
                 [--model-name]
                 [--path]
                 [--resource-group]
                 [--run-id]
                 [--subscription-id]
                 [--version]
                 [--workspace-name]
                 [-v]

Parametry opcjonalne

--model-id -i

Identyfikator modelu do wyświetlenia.

--model-name -n

Nazwa modelu do wyświetlenia.

--path

Ścieżka do folderu projektu. Domyślnie: bieżący katalog.

--resource-group -g

Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.

--run-id

Jeśli podano, program wyświetli tylko modele o określonym IDENTYFIKATORze uruchomienia.

--subscription-id

Określa identyfikator subskrypcji.

--version

Jeśli podano, program wyświetli tylko modele o określonej nazwie i wersji.

--workspace-name -w

Nazwa obszaru roboczego zawierającego model do wyświetlenia.

-v

Flaga szczegółowości.

az ml model update

Zaktualizuj model w obszarze roboczym.

az ml model update --model-id
                   [--add-property]
                   [--add-tag]
                   [--cc]
                   [--description]
                   [--gb]
                   [--gc]
                   [--path]
                   [--remove-tag]
                   [--resource-group]
                   [--sample-input-dataset-id]
                   [--sample-output-dataset-id]
                   [--subscription-id]
                   [--workspace-name]
                   [-v]

Parametry wymagane

--model-id -i

Identyfikator modelu.

Parametry opcjonalne

--add-property

Właściwość klucza/wartości do dodania (np. klucz = wartość). Można określić wiele właściwości z wieloma opcjami właściwości-Add-Property.

--add-tag

Tag klucz/wartość do dodania (np. klucz = wartość). Można określić wiele tagów z wieloma opcjami dodawania tagów.

--cc --cpu-cores

Domyślna liczba rdzeni procesora CPU do przydzielenia dla tego modelu. Może być liczbą dziesiętną.

--description

Opis aktualizacji modelu za pomocą programu. Spowoduje zastąpienie bieżącego opisu.

--gb --memory-gb

Domyślna ilość pamięci (w GB) do przydzielenia dla tego modelu. Może być liczbą dziesiętną.

--gc --gpu-cores

Domyślna liczba procesorów GPU do przydzielenia dla tego modelu.

--path

Ścieżka do folderu projektu. Domyślnie: bieżący katalog.

--remove-tag

Klucz tagu do usunięcia. Można określić wiele tagów z wieloma opcjami--Remove-tag.

--resource-group -g

Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.

--sample-input-dataset-id

Identyfikator przykładowego wejściowego zestawu danych.

--sample-output-dataset-id

Identyfikator przykładowego wyjściowego zestawu danych.

--subscription-id

Określa identyfikator subskrypcji.

--workspace-name -w

Nazwa obszaru roboczego.

-v

Flaga szczegółowości.