az ml computetarget computeinstance
Uwaga
Ta dokumentacja jest częścią rozszerzenia azure-cli-ml dla interfejsu wiersza polecenia platformy Azure (wersja 2.0.28 lub nowsza). Rozszerzenie automatycznie zainstaluje polecenie az ml computetarget computeinstance po raz pierwszy. Dowiedz się więcej o rozszerzeniach.
Polecenia wystąpienia obliczeniowego usługi AzureML.
Polecenia
| az ml computetarget computeinstance restart |
Uruchom ponownie wystąpienie obliczeniowe. |
| az ml computetarget computeinstance start |
Uruchom wystąpienie obliczeniowe. |
| az ml computetarget computeinstance stop |
Zatrzymaj wystąpienie obliczeniowe. |
az ml computetarget computeinstance restart
Uruchom ponownie wystąpienie obliczeniowe.
az ml computetarget computeinstance restart --name
[--no-wait]
[--path]
[--resource-group]
[--subscription-id]
[--workspace-name]
[-v]
Parametry wymagane
Nazwa wystąpienia obliczeniowego do ponownego uruchomienia.
Parametry opcjonalne
Flaga, aby nie czekać na wywołania asynchroniczne.
Ścieżka do folderu projektu. Ustawienie domyślne: bieżący katalog.
Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.
Określa identyfikator subskrypcji.
Nazwa obszaru roboczego zawierającego docelowy obiekt obliczeniowy do ponownego uruchomienia.
Flaga szczegółowości.
Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.
Pokaż ten komunikat pomocy i zakończ pracę.
Pokaż tylko błędy, pomijając ostrzeżenia.
Format danych wyjściowych.
Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.
Nazwa lub identyfikator subskrypcji. Możesz skonfigurować domyślną subskrypcję przy użyciu polecenia az account set -s NAME_OR_ID.
Zwiększ szczegółowość rejestrowania. Użyj polecenia --debug, aby uzyskać pełne dzienniki debugowania.
az ml computetarget computeinstance start
Uruchom wystąpienie obliczeniowe.
az ml computetarget computeinstance start --name
[--no-wait]
[--path]
[--resource-group]
[--subscription-id]
[--workspace-name]
[-v]
Parametry wymagane
Nazwa wystąpienia obliczeniowego do uruchomienia.
Parametry opcjonalne
Flaga, aby nie czekać na wywołania asynchroniczne.
Ścieżka do folderu projektu. Ustawienie domyślne: bieżący katalog.
Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.
Określa identyfikator subskrypcji.
Nazwa obszaru roboczego zawierającego docelowy obiekt obliczeniowy do uruchomienia.
Flaga szczegółowości.
Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.
Pokaż ten komunikat pomocy i zakończ pracę.
Pokaż tylko błędy, pomijając ostrzeżenia.
Format danych wyjściowych.
Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.
Nazwa lub identyfikator subskrypcji. Możesz skonfigurować domyślną subskrypcję przy użyciu polecenia az account set -s NAME_OR_ID.
Zwiększ szczegółowość rejestrowania. Użyj polecenia --debug, aby uzyskać pełne dzienniki debugowania.
az ml computetarget computeinstance stop
Zatrzymaj wystąpienie obliczeniowe.
az ml computetarget computeinstance stop --name
[--no-wait]
[--path]
[--resource-group]
[--subscription-id]
[--workspace-name]
[-v]
Parametry wymagane
Nazwa wystąpienia obliczeniowego do zatrzymania.
Parametry opcjonalne
Flaga, aby nie czekać na wywołania asynchroniczne.
Ścieżka do folderu projektu. Ustawienie domyślne: bieżący katalog.
Grupa zasobów odpowiadająca podanemu obszarowi roboczemu.
Określa identyfikator subskrypcji.
Nazwa obszaru roboczego zawierającego docelowy obiekt obliczeniowy do zatrzymania.
Flaga szczegółowości.
Zwiększ szczegółowość rejestrowania, aby wyświetlić wszystkie dzienniki debugowania.
Pokaż ten komunikat pomocy i zakończ pracę.
Pokaż tylko błędy, pomijając ostrzeżenia.
Format danych wyjściowych.
Ciąg zapytania JMESPath. Zobacz http://jmespath.org/ , aby uzyskać więcej informacji i przykładów.
Nazwa lub identyfikator subskrypcji. Możesz skonfigurować domyślną subskrypcję przy użyciu polecenia az account set -s NAME_OR_ID.
Zwiększ szczegółowość rejestrowania. Użyj polecenia --debug, aby uzyskać pełne dzienniki debugowania.