az ml model
Uwaga
To odwołanie jest częścią rozszerzenia Azure-CLI-ml interfejsu wiersza polecenia platformy Azure i wymaga wersji 2.0.28 lub nowszej. Rozszerzenie zostanie automatycznie zainstalowane podczas pierwszego uruchomienia polecenia AZ ml model . Dowiedz się więcej o rozszerzeniach.
Zarządzaj modelami uczenia maszynowego.
Polecenia
az ml model delete |
Usuń model z obszaru roboczego. |
az ml model deploy |
Wdróż modele z obszaru roboczego. |
az ml model download |
Pobierz model z obszaru roboczego. |
az ml model list |
Wyświetlanie listy modeli w obszarze roboczym. |
az ml model package |
Pakowanie modelu w obszarze roboczym. |
az ml model profile |
Modele profilów w obszarze roboczym. |
az ml model register |
Zarejestruj model w obszarze roboczym. |
az ml model show |
Pokaż model w obszarze roboczym. |
az ml model update |
Zaktualizuj model w obszarze roboczym. |
az ml model delete
Usuń model z obszaru roboczego.
az ml model delete --model-id
[--path]
[--resource-group]
[--subscription-id]
[--workspace-name]
[-v]
Parametry wymagane
Identyfikator modelu do usunięcia.
Parametry opcjonalne
Ścieżka do folderu projektu. Domyślnie: bieżący katalog.
Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.
Określa identyfikator subskrypcji.
Nazwa obszaru roboczego.
Flaga szczegółowości.
Zwiększ Szczegółowość rejestrowania, aby pokazać wszystkie dzienniki debugowania.
Pokaż ten komunikat pomocy i Zakończ.
Pokaż tylko błędy, pomijając ostrzeżenia.
Format danych wyjściowych.
Ciąg zapytania JMESPath. http://jmespath.org/Aby uzyskać więcej informacji i przykładów, zobacz.
Zwiększ Szczegółowość rejestrowania. Użyj--Debug dla pełnych dzienników debugowania.
az ml model deploy
Wdróż modele z obszaru roboczego.
az ml model deploy --name
[--ae]
[--ai]
[--ar]
[--as]
[--at]
[--autoscale-max-replicas]
[--autoscale-min-replicas]
[--base-image]
[--base-image-registry]
[--cc]
[--ccl]
[--cf]
[--collect-model-data]
[--compute-target]
[--compute-type]
[--cuda-version]
[--dc]
[--description]
[--dn]
[--ds]
[--ed]
[--eg]
[--entry-script]
[--environment-name]
[--environment-version]
[--failure-threshold]
[--gb]
[--gbl]
[--gc]
[--ic]
[--id]
[--key-name]
[--key-version]
[--kp]
[--ks]
[--lo]
[--max-request-wait-time]
[--model]
[--model-metadata-file]
[--namespace]
[--no-wait]
[--nr]
[--overwrite]
[--path]
[--period-seconds]
[--pi]
[--po]
[--property]
[--replica-max-concurrent-requests]
[--resource-group]
[--rt]
[--sc]
[--scoring-timeout-ms]
[--sd]
[--se]
[--sk]
[--sp]
[--st]
[--subnet-name]
[--subscription-id]
[--tag]
[--timeout-seconds]
[--token-auth-enabled]
[--tp]
[--vault-base-url]
[--version-name]
[--vnet-name]
[--workspace-name]
[-v]
Parametry wymagane
Nazwa wdrożonej usługi.
Parametry opcjonalne
Określa, czy należy włączyć uwierzytelnianie klucza dla tej usługi sieci Web. Wartością domyślną jest false.
Określa, czy włączyć AppInsights dla tej usługi sieci Web. Wartością domyślną jest false.
Jak często funkcja automatycznego skalowania powinna próbować skalować tę usługę sieci Web. Wartość domyślna to 1.
Określa, czy włączyć skalowanie automatyczne dla tej usługi sieci Web. Wartość domyślna to true, jeśli num_replicas ma wartość none.
Użycie docelowe (w procentach wynoszących 100) powinno być podejmowane przez Autoskalowanie dla tej usługi sieci Web. Wartość domyślna to 70.
Maksymalna liczba kontenerów, które mają być używane podczas automatycznego skalowania tej sieci Web. Wartość domyślna to 10.
Minimalna liczba kontenerów, które mają być używane podczas automatycznego skalowania tej sieci Web. Wartość domyślna to 1.
Obraz niestandardowy, który będzie używany jako obraz podstawowy. Jeśli obraz podstawowy nie zostanie określony, podstawowy obraz zostanie użyty na podstawie danego parametru środowiska uruchomieniowego.
Rejestr obrazu zawierający obraz podstawowy.
Liczba rdzeni procesora CPU do przydzielenia dla tej usługi sieci Web. Może być liczbą dziesiętną. Wartość domyślna to 0,1.
Maksymalna liczba rdzeni procesora CPU, które mogą być używane przez tę usługę sieci Web. Może być liczbą dziesiętną.
Ścieżka do pliku lokalnego zawierającego definicję środowiska Conda do użycia w obrazie.
Określa, czy włączyć zbieranie danych modelu dla tej usługi sieci Web. Wartością domyślną jest false.
Nazwa elementu docelowego obliczeń. Dotyczy tylko w przypadku wdrażania w AKS.
Typ obliczeniowy usługi do wdrożenia.
Wersja CUDA do zainstalowania dla obrazów wymagających obsługi procesora GPU. Obraz procesora GPU musi być używany w odniesieniu do usług Microsoft Azure, takich jak Azure Container Instances, Azure Machine Learning COMPUTE, Azure Virtual Machines i Azure Kubernetes Service. Obsługiwane są wersje 9,0, 9,1 i 10,0. Jeśli ustawiono wartość "enable_gpu", ta wartość domyślna to "9,1".
Ścieżka do pliku JSON lub YAML zawierającego metadane wdrożenia.
Opis wdrożonej usługi.
Nazwa DNS dla tej usługi sieci Web.
Ścieżka do pliku lokalnego zawierającego dodatkowe kroki platformy Docker do uruchomienia podczas konfigurowania obrazu.
Katalog środowiska Azure Machine Learning do wdrożenia. Jest to ta sama ścieżka katalogu, co podano w poleceniu "AZ ml" szkieletu środowiska.
Określa, czy włączyć obsługę procesora GPU w obrazie. Obraz procesora GPU musi być używany w odniesieniu do usług Microsoft Azure, takich jak Azure Container Instances, Azure Machine Learning COMPUTE, Azure Virtual Machines i Azure Kubernetes Service. Wartością domyślną jest false.
Ścieżka do pliku lokalnego, który zawiera kod do uruchomienia dla usługi (ścieżka względna od source_directory, jeśli została podana).
Nazwa środowiska Azure Machine Learning do wdrożenia.
Wersja istniejącego środowiska Azure Machine Learning na potrzeby wdrożenia.
Po rozpoczęciu i sondy na żywo, Kubernetes spróbuje--progów niepowodzeń przed pokazaniem. Wartość domyślna to 3. Wartość minimalna to 1.
Ilość pamięci (w GB) do przydzielenia dla tej usługi sieci Web. Może być liczbą dziesiętną.
Maksymalna ilość pamięci (w GB), która może być używana przez tę usługę sieci Web. Może być liczbą dziesiętną.
Liczba rdzeni procesora GPU do przydzielenia dla tej usługi sieci Web. Domyślna wartość wynosi 1.
Ścieżka do pliku JSON lub YAML zawierającego konfigurację wnioskowania.
Liczba sekund od momentu rozpoczęcia sondowania na żywo przez kontener. Wartość domyślna to 310.
Nazwa klucza dla właściwości szyfrowania w kluczach zarządzanych przez klienta (CMK) dla ACI.
Wersja klucza dla właściwości szyfrowania w kluczach zarządzanych przez klienta (CMK) dla ACI.
Podstawowy klucz uwierzytelniania, który ma być używany przez tę usługę sieci Web.
Pomocniczy klucz uwierzytelniania, który będzie używany przez tę usługę sieci Web.
Region świadczenia usługi Azure, w którym ma zostać wdrożona ta usługa sieci Web. Jeśli nie zostanie określona, zostanie użyta Lokalizacja obszaru roboczego. Więcej informacji na temat dostępnych regionów można znaleźć tutaj: https://azure.microsoft.com/en-us/global-infrastructure/services/?regions=all&products=container-instances .
Maksymalny czas, przez jaki żądanie pozostanie w kolejce (w milisekundach) przed zwróceniem błędu 503. Wartość domyślna to 500.
Identyfikator modelu, który ma zostać wdrożony. Można określić wiele modeli z dodatkowymi argumentami m. Należy najpierw zarejestrować modele.
Ścieżka do pliku JSON zawierającego metadane rejestracji modelu. Wiele modeli można dostarczyć przy użyciu wielu parametrów języka f.
Kubernetes przestrzeń nazw, w której ma zostać wdrożona usługa: maksymalnie 63 Małe znaki alfanumeryczne ("od-a", "0"-"9") i myślnik ("-"). Pierwszy i ostatni znak nie mogą być łącznikami. Dotyczy tylko w przypadku wdrażania w AKS.
Oflaguj, aby nie czekać na wywołania asynchroniczne.
Liczba kontenerów do przydzielenia dla tej usługi sieci Web. Brak wartości domyślnej, jeśli ten parametr nie jest ustawiony, automatyczne skalowanie jest domyślnie włączone.
Zastąp istniejącą usługę w przypadku wystąpienia konfliktów nazw.
Ścieżka do folderu projektu. Domyślnie: bieżący katalog.
Jak często (w sekundach) przeprowadzenia sondy na żywo. Wartość domyślna to 10 sekund. Wartość minimalna to 1.
Ścieżka do pliku JSON zawierającego wyniki profilowania.
Port lokalny, na którym ma zostać ujawniony punkt końcowy HTTP usługi.
Właściwość klucza/wartości do dodania (np. klucz = wartość). Wiele właściwości można określić z wieloma opcjami właściwości.
Maksymalna liczba równoczesnych żądań na węzeł, które mają być dozwolone dla tej usługi sieci Web. Wartość domyślna to 1.
Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.
Które środowisko uruchomieniowe ma być używane na potrzeby obrazu. Bieżące obsługiwane środowiska uruchomieniowe to "Spark-pr" i "python'spark-PR | Python | Python-Slim.
Rekord CNAME dla jeśli jest włączony protokół SSL.
Limit czasu, który ma zostać wymuszony dla wywołań oceniania do tej usługi sieci Web. Wartość domyślna to 60000.
Ścieżka do folderów zawierających wszystkie pliki do utworzenia obrazu.
Określa, czy włączyć protokół SSL dla tej usługi sieci Web. Wartością domyślną jest false.
Plik klucza wymagany w przypadku włączenia protokołu SSL.
Plik certyfikatu, który jest wymagany, jeśli jest włączony protokół SSL.
Minimalna liczba kolejnych sukcesów sondy na żywo, które mają być uznawane za pomyślne po zakończonym niepowodzeniem. Wartość domyślna to 1. Wartość minimalna to 1.
Nazwa podsieci w sieci wirtualnej.
Określa identyfikator subskrypcji.
Tag klucz/wartość do dodania (np. klucz = wartość). Wiele tagów można określić z wieloma opcjami tagów.
Liczba sekund, po upływie których limit czasu sondy jest aktywny. Wartość domyślna to 2 sekundy. Wartość minimalna to 1.
Określa, czy włączyć uwierzytelnianie tokenu dla tej usługi sieci Web. Ignorowany, jeśli nie można wdrożyć do AKS. Wartością domyślną jest false.
Ilość ruchu pobieranego przez wersję w punkcie końcowym. Może być liczbą dziesiętną. Wartość domyślna to 0.
Podstawowy adres URL magazynu dla właściwości szyfrowania w kluczach zarządzanych przez klienta (CMK) dla ACI.
Nazwa wersji w punkcie końcowym. Domyślnie nazwa punktu końcowego dla pierwszej wersji.
Nazwa sieci wirtualnej.
Nazwa obszaru roboczego.
Flaga szczegółowości.
Zwiększ Szczegółowość rejestrowania, aby pokazać wszystkie dzienniki debugowania.
Pokaż ten komunikat pomocy i Zakończ.
Pokaż tylko błędy, pomijając ostrzeżenia.
Format danych wyjściowych.
Ciąg zapytania JMESPath. http://jmespath.org/Aby uzyskać więcej informacji i przykładów, zobacz.
Zwiększ Szczegółowość rejestrowania. Użyj--Debug dla pełnych dzienników debugowania.
az ml model download
Pobierz model z obszaru roboczego.
az ml model download --model-id
--target-dir
[--overwrite]
[--path]
[--resource-group]
[--subscription-id]
[--workspace-name]
[-v]
Parametry wymagane
Identyfikator modelu.
Katalog docelowy, do którego ma zostać pobrany plik modelu.
Parametry opcjonalne
Zastąp, jeśli w katalogu docelowym istnieje plik o takiej samej nazwie.
Ścieżka do folderu projektu. Domyślnie: bieżący katalog.
Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.
Określa identyfikator subskrypcji.
Nazwa obszaru roboczego zawierającego model do wyświetlenia.
Flaga szczegółowości.
Zwiększ Szczegółowość rejestrowania, aby pokazać wszystkie dzienniki debugowania.
Pokaż ten komunikat pomocy i Zakończ.
Pokaż tylko błędy, pomijając ostrzeżenia.
Format danych wyjściowych.
Ciąg zapytania JMESPath. http://jmespath.org/Aby uzyskać więcej informacji i przykładów, zobacz.
Zwiększ Szczegółowość rejestrowania. Użyj--Debug dla pełnych dzienników debugowania.
az ml model list
Wyświetlanie listy modeli w obszarze roboczym.
az ml model list [--dataset-id]
[--latest]
[--model-name]
[--path]
[--property]
[--resource-group]
[--run-id]
[--subscription-id]
[--tag]
[--workspace-name]
[-v]
Parametry opcjonalne
Jeśli podano, program wyświetli tylko modele o określonym IDENTYFIKATORze zestawu danych.
Jeśli ta wartość jest określona, program zwróci tylko modele z najnowszą wersją.
Opcjonalna nazwa modelu, według którego ma zostać przefiltrowana lista.
Ścieżka do folderu projektu. Domyślnie: bieżący katalog.
Właściwość klucza/wartości do dodania (np. klucz = wartość). Wiele właściwości można określić z wieloma opcjami właściwości.
Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.
Jeśli podano, program wyświetli tylko modele o określonym IDENTYFIKATORze uruchomienia.
Określa identyfikator subskrypcji.
Tag klucz/wartość do dodania (np. klucz = wartość). Wiele tagów można określić z wieloma opcjami tagów.
Nazwa obszaru roboczego zawierającego modele do wyświetlenia.
Flaga szczegółowości.
Zwiększ Szczegółowość rejestrowania, aby pokazać wszystkie dzienniki debugowania.
Pokaż ten komunikat pomocy i Zakończ.
Pokaż tylko błędy, pomijając ostrzeżenia.
Format danych wyjściowych.
Ciąg zapytania JMESPath. http://jmespath.org/Aby uzyskać więcej informacji i przykładów, zobacz.
Zwiększ Szczegółowość rejestrowania. Użyj--Debug dla pełnych dzienników debugowania.
az ml model package
Pakowanie modelu w obszarze roboczym.
az ml model package [--cf]
[--ed]
[--entry-script]
[--environment-name]
[--environment-version]
[--ic]
[--il]
[--image-name]
[--model]
[--model-metadata-file]
[--no-wait]
[--output-path]
[--path]
[--resource-group]
[--rt]
[--sd]
[--subscription-id]
[--workspace-name]
[-v]
Parametry opcjonalne
Ścieżka do pliku lokalnego zawierającego definicję środowiska Conda do użycia dla pakietu.
Katalog dla środowiska Azure Machine Learningego dla pakowania. Jest to ta sama ścieżka katalogu, co podano w poleceniu "AZ ml" szkieletu środowiska.
Ścieżka do pliku lokalnego, który zawiera kod do uruchomienia dla usługi (ścieżka względna od source_directory, jeśli została podana).
Nazwa środowiska Azure Machine Learninggo dla pakowania.
Wersja istniejącego środowiska Azure Machine Learning na potrzeby pakowania.
Ścieżka do pliku JSON lub YAML zawierającego konfigurację wnioskowania.
Etykieta umożliwiająca wydawanie skompilowanego obrazu pakietu.
Nazwa, aby nadać skompilowanemu obrazowi pakietu.
Identyfikator modelu do spakowania. Można określić wiele modeli z dodatkowymi argumentami m. Należy najpierw zarejestrować modele.
Ścieżka do pliku JSON zawierającego metadane rejestracji modelu. Wiele modeli można dostarczyć przy użyciu wielu parametrów języka f.
Oflaguj, aby nie czekać na wywołania asynchroniczne.
Ścieżka wyjściowa kontekstu platformy Docker. Jeśli ścieżka wyjściowa jest przenoszona, zamiast kompilowania obrazu w obszarze roboczym ACR, pliku dockerfile i niezbędny kontekst kompilacji będą WRITEN do tej ścieżki.
Ścieżka do folderu projektu. Domyślnie: bieżący katalog.
Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.
Którego środowiska uruchomieniowego użyć dla pakietu. Bieżące obsługiwane środowiska uruchomieniowe to "Spark-pr" i "python'spark-PR | Python | Python-Slim.
Ścieżka do folderów zawierających wszystkie pliki do utworzenia obrazu.
Określa identyfikator subskrypcji.
Nazwa obszaru roboczego.
Flaga szczegółowości.
Zwiększ Szczegółowość rejestrowania, aby pokazać wszystkie dzienniki debugowania.
Pokaż ten komunikat pomocy i Zakończ.
Pokaż tylko błędy, pomijając ostrzeżenia.
Format danych wyjściowych.
Ciąg zapytania JMESPath. http://jmespath.org/Aby uzyskać więcej informacji i przykładów, zobacz.
Zwiększ Szczegółowość rejestrowania. Użyj--Debug dla pełnych dzienników debugowania.
az ml model profile
Modele profilów w obszarze roboczym.
az ml model profile --name
[--base-image]
[--base-image-registry]
[--cc]
[--cf]
[--description]
[--ed]
[--entry-script]
[--environment-name]
[--environment-version]
[--gb]
[--ic]
[--idi]
[--model]
[--model-metadata-file]
[--output-metadata-file]
[--resource-group]
[--sd]
[--subscription-id]
[--workspace-name]
[-v]
Parametry wymagane
Nazwa profilu modelu.
Parametry opcjonalne
Obraz niestandardowy, który będzie używany jako obraz podstawowy. Jeśli obraz podstawowy nie zostanie określony, podstawowy obraz zostanie użyty na podstawie danego parametru środowiska uruchomieniowego.
Rejestr obrazu zawierający obraz podstawowy.
Podwójna wartość maksymalnego użycia procesora podczas profilowania.
Ścieżka do pliku lokalnego zawierającego definicję środowiska Conda do użycia w obrazie.
Opis profilu modelu.
Katalog środowiska Azure Machine Learning do wdrożenia. Jest to ta sama ścieżka katalogu, co podano w poleceniu "AZ ml" szkieletu środowiska.
Ścieżka do pliku lokalnego, który zawiera kod do uruchomienia dla usługi (ścieżka względna od source_directory, jeśli została podana).
Nazwa środowiska Azure Machine Learning do wdrożenia.
Wersja istniejącego środowiska Azure Machine Learning na potrzeby wdrożenia.
Podwójna wartość maksymalnego użycia pamięci podczas profilowania.
Ścieżka do pliku JSON lub YAML zawierającego konfigurację wnioskowania.
Identyfikator tabelarycznego zestawu danych, który ma być używany jako dane wejściowe dla profilu.
Identyfikator modelu, który ma zostać wdrożony. Można określić wiele modeli z dodatkowymi argumentami m. Należy najpierw zarejestrować modele.
Ścieżka do pliku JSON zawierającego metadane rejestracji modelu. Wiele modeli można dostarczyć przy użyciu wielu parametrów języka f.
Ścieżka do pliku JSON, w którym będą zapisywane metadane wyników profilu. Używane jako dane wejściowe dla wdrożenia modelu.
Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.
Ścieżka do folderów zawierających wszystkie pliki do utworzenia obrazu.
Określa identyfikator subskrypcji.
Nazwa obszaru roboczego.
Flaga szczegółowości.
Zwiększ Szczegółowość rejestrowania, aby pokazać wszystkie dzienniki debugowania.
Pokaż ten komunikat pomocy i Zakończ.
Pokaż tylko błędy, pomijając ostrzeżenia.
Format danych wyjściowych.
Ciąg zapytania JMESPath. http://jmespath.org/Aby uzyskać więcej informacji i przykładów, zobacz.
Zwiększ Szczegółowość rejestrowania. Użyj--Debug dla pełnych dzienników debugowania.
az ml model register
Zarejestruj model w obszarze roboczym.
az ml model register --name
[--asset-path]
[--cc]
[--description]
[--experiment-name]
[--gb]
[--gc]
[--model-framework]
[--model-framework-version]
[--model-path]
[--output-metadata-file]
[--path]
[--property]
[--resource-group]
[--run-id]
[--run-metadata-file]
[--sample-input-dataset-id]
[--sample-output-dataset-id]
[--subscription-id]
[--tag]
[--workspace-name]
[-v]
Parametry wymagane
Nazwa modelu do zarejestrowania.
Parametry opcjonalne
Ścieżka w chmurze, w której działa experiement, przechowuje plik modelu.
Domyślna liczba rdzeni procesora CPU do przydzielenia dla tego modelu. Może być liczbą dziesiętną.
Opis modelu.
Nazwa eksperymentu.
Domyślna ilość pamięci (w GB) do przydzielenia dla tego modelu. Może być liczbą dziesiętną.
Domyślna liczba procesorów GPU do przydzielenia dla tego modelu.
Struktura modelu do zarejestrowania. Obecnie obsługiwane struktury: TensorFlow, ScikitLearn, Onnx, Custom, wiele.
Wersja struktury modelu do zarejestrowania (np. 1.0.0, 2.4.1).
Pełna ścieżka pliku modelu do zarejestrowania.
Ścieżka do pliku JSON, w którym będą zapisywane metadane rejestracji modelu. Używane jako dane wejściowe dla wdrożenia modelu.
Ścieżka do folderu projektu. Domyślnie: bieżący katalog.
Właściwość klucza/wartości do dodania (np. klucz = wartość). Wiele właściwości można określić z wieloma opcjami właściwości.
Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.
Identyfikator przebiegu eksperymentu, w którym jest zarejestrowany model.
Ścieżka do pliku JSON zawierającego metadane experiement Run.
Identyfikator przykładowego wejściowego zestawu danych.
Identyfikator przykładowego wyjściowego zestawu danych.
Określa identyfikator subskrypcji.
Tag klucz/wartość do dodania (np. klucz = wartość). Wiele tagów można określić z wieloma opcjami tagów.
Nazwa obszaru roboczego, w którym ma zostać zarejestrowany ten model.
Flaga szczegółowości.
Zwiększ Szczegółowość rejestrowania, aby pokazać wszystkie dzienniki debugowania.
Pokaż ten komunikat pomocy i Zakończ.
Pokaż tylko błędy, pomijając ostrzeżenia.
Format danych wyjściowych.
Ciąg zapytania JMESPath. http://jmespath.org/Aby uzyskać więcej informacji i przykładów, zobacz.
Zwiększ Szczegółowość rejestrowania. Użyj--Debug dla pełnych dzienników debugowania.
az ml model show
Pokaż model w obszarze roboczym.
az ml model show [--model-id]
[--model-name]
[--path]
[--resource-group]
[--run-id]
[--subscription-id]
[--version]
[--workspace-name]
[-v]
Parametry opcjonalne
Identyfikator modelu do wyświetlenia.
Nazwa modelu do wyświetlenia.
Ścieżka do folderu projektu. Domyślnie: bieżący katalog.
Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.
Jeśli podano, program wyświetli tylko modele o określonym IDENTYFIKATORze uruchomienia.
Określa identyfikator subskrypcji.
Jeśli podano, program wyświetli tylko modele o określonej nazwie i wersji.
Nazwa obszaru roboczego zawierającego model do wyświetlenia.
Flaga szczegółowości.
Zwiększ Szczegółowość rejestrowania, aby pokazać wszystkie dzienniki debugowania.
Pokaż ten komunikat pomocy i Zakończ.
Pokaż tylko błędy, pomijając ostrzeżenia.
Format danych wyjściowych.
Ciąg zapytania JMESPath. http://jmespath.org/Aby uzyskać więcej informacji i przykładów, zobacz.
Zwiększ Szczegółowość rejestrowania. Użyj--Debug dla pełnych dzienników debugowania.
az ml model update
Zaktualizuj model w obszarze roboczym.
az ml model update --model-id
[--add-property]
[--add-tag]
[--cc]
[--description]
[--gb]
[--gc]
[--path]
[--remove-tag]
[--resource-group]
[--sample-input-dataset-id]
[--sample-output-dataset-id]
[--subscription-id]
[--workspace-name]
[-v]
Parametry wymagane
Identyfikator modelu.
Parametry opcjonalne
Właściwość klucza/wartości do dodania (np. klucz = wartość). Można określić wiele właściwości z wieloma opcjami właściwości-Add-Property.
Tag klucz/wartość do dodania (np. klucz = wartość). Można określić wiele tagów z wieloma opcjami dodawania tagów.
Domyślna liczba rdzeni procesora CPU do przydzielenia dla tego modelu. Może być liczbą dziesiętną.
Opis aktualizacji modelu za pomocą programu. Spowoduje zastąpienie bieżącego opisu.
Domyślna ilość pamięci (w GB) do przydzielenia dla tego modelu. Może być liczbą dziesiętną.
Domyślna liczba procesorów GPU do przydzielenia dla tego modelu.
Ścieżka do folderu projektu. Domyślnie: bieżący katalog.
Klucz tagu do usunięcia. Można określić wiele tagów z wieloma opcjami--Remove-tag.
Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.
Identyfikator przykładowego wejściowego zestawu danych.
Identyfikator przykładowego wyjściowego zestawu danych.
Określa identyfikator subskrypcji.
Nazwa obszaru roboczego.
Flaga szczegółowości.
Zwiększ Szczegółowość rejestrowania, aby pokazać wszystkie dzienniki debugowania.
Pokaż ten komunikat pomocy i Zakończ.
Pokaż tylko błędy, pomijając ostrzeżenia.
Format danych wyjściowych.
Ciąg zapytania JMESPath. http://jmespath.org/Aby uzyskać więcej informacji i przykładów, zobacz.
Zwiększ Szczegółowość rejestrowania. Użyj--Debug dla pełnych dzienników debugowania.