Skema YAML perintah pekerjaan CLI (v2)

BERLAKU UNTUK:Ekstensi ml Azure CLI v2 (saat ini)

Skema JSON sumber dapat ditemukan di https://azuremlschemas.azureedge.net/latest/commandJob.schema.json.

Catatan

Sintaks YAML yang dirinci dalam dokumen ini didasarkan pada skema JSON untuk versi terbaru ekstensi CLI v2 ML. Sintaks ini dijamin hanya berfungsi dengan versi terbaru ekstensi CLI v2 ML. Anda dapat menemukan skema untuk versi ekstensi yang lebih lama di https://azuremlschemasprod.azureedge.net/.

Sintaks YAML

Kunci Jenis Deskripsi Nilai yang diizinkan Nilai default
$schema string Skema YAML. Jika Anda menggunakan ekstensi Visual Studio Code Azure Machine Learning untuk menulis file YAML, termasuk $schema di bagian atas file, Anda akan dapat meminta skema dan penyelesaian sumber daya.
type const Jenis pekerjaan. command command
name string Nama pekerjaan. Harus unik di semua pekerjaan di ruang kerja. Jika dihilangkan, Azure Machine Learning akan membuat GUID secara otomatis untuk namanya.
display_name string Nama tampilan pekerjaan di antarmuka pengguna studio. Dapat berupa tidak unik di dalam ruang kerja. Jika dihilangkan, Azure Machine Learning akan secara otomatis menghasilkan pengidentifikasi kata sifat yang dapat dibaca manusia untuk nama tampilan.
experiment_name string Nama eksperimen untuk mengatur pekerjaan di bawah. Setiap rekaman eksekusi pekerjaan akan diatur di bawah eksperimen yang sesuai di tab "Eksperimen" studio. Jika dihilangkan, Azure Machine Learning akan default ke nama direktori kerja tempat pekerjaan dibuat.
description string Deskripsi pekerjaan.
tags objek Kamus tag untuk pekerjaan.
command string Diperlukan (jika tidak menggunakan bidang component). Perintah untuk menjalankan.
code string Jalur lokal ke direktori kode sumber untuk diunggah dan digunakan untuk pekerjaan itu.
environment string atau objek Diperlukan (jika tidak menggunakan bidang component). Lingkungan yang digunakan untuk pekerjaan. Ini bisa menjadi referensi ke lingkungan versi yang ada di ruang kerja atau spesifikasi lingkungan sebaris.

Untuk mereferensikan lingkungan yang ada, gunakan sintaks azureml:<environment_name>:<environment_version> atau azureml:<environment_name>@latest (untuk mereferensikan versi terbaru lingkungan).

Untuk menentukan lingkungan sebaris, silakan ikuti Skema lingkungan. Kecualikan properti name dan version karena tidak didukung untuk lingkungan sebaris.
environment_variables objek Kamus pasangan kunci-nilai variabel lingkungan untuk mengatur proses tempat perintah dijalankan.
distribution objek Konfigurasi distribusi untuk skenario pelatihan terdistribusi. Salah satu dari MpiConfiguration, PyTorchConfiguration, atau TensorFlowConfiguration.
compute string Nama target komputasi untuk menjalankan pekerjaan. Ini bisa berupa referensi ke komputasi yang ada di ruang kerja (menggunakan sintaks azureml:<compute_name>) atau local untuk menunjuk eksekusi lokal. Catatan: pekerjaan dalam alur tidak mendukung local sebagai compute local
resources.instance_count bilangan bulat Jumlah node yang digunakan untuk pekerjaan. 1
resources.instance_type string Jenis instans yang digunakan untuk pekerjaan tersebut. Berlaku untuk pekerjaan yang berjalan pada komputasi Kubernetes yang mendukung Azure Arc (di mana target komputasi yang ditentukan di bidang compute adalah dari type: kubernentes). Jika dihilangkan, ini akan default ke jenis instans default untuk kluster Kubernetes. Untuk informasi selengkapnya, lihat Membuat dan memilih jenis instans Kubernetes.
resources.shm_size string Ukuran blok memori bersama kontainer docker. Ini harus dalam format <number><unit> di mana angka harus lebih besar dari 0 dan unit dapat menjadi salah satu dari b (byte), k (kilobyte), m (megabyte), atau g (gigabyte). 2g
limits.timeout bilangan bulat Waktu maksimum dalam detik yang pekerjaan izinkan untuk dijalankan. Setelah batas ini tercapai, sistem akan membatalkan pekerjaan.
inputs objek Kamus input ke pekerjaan. Kunci adalah nama untuk input dalam konteks pekerjaan dan nilai adalah nilai input.

Input dapat direferensikan dalam command menggunakan ekspresi ${{ inputs.<input_name> }}.
inputs.<input_name> angka, bilangan bulat, boolean, string, atau objek Salah satu nilai literal (dari nomor jenis, integer, boolean, atau string) atau objek yang berisi spesifikasi data input pekerjaan.
outputs objek Kamus konfigurasi output dari pekerjaan. Kunci adalah nama untuk output dalam konteks pekerjaan dan nilai adalah konfigurasi output.

Output dapat direferensikan dalam command menggunakan ekspresi ${{ outputs.<output_name> }}.
outputs.<output_name> objek Anda dapat membiarkan objek kosong, dalam hal ini secara default output akan berjenis uri_folder dan Azure Machine Learning akan menghasilkan lokasi output untuk output. File ke direktori output akan ditulis melalui pemasangan baca-tulis. Jika Anda ingin menentukan mode yang berbeda untuk output, berikan objek yang berisi spesifikasi output pekerjaan.
identity objek Identitas digunakan untuk mengakses data. Ini dapat berupa UserIdentityConfiguration, ManagedIdentityConfiguration atau None. Jika userIdentityConfiguration, identitas pengirim pekerjaan akan digunakan untuk mengakses data input dan menulis hasil ke folder output, jika tidak, identitas terkelola dari target komputasi akan digunakan.

Konfigurasi distribusi

MpiConfiguration

Kunci Jenis Deskripsi Nilai yang diizinkan
type const Wajib diisi. Jenis distribusi. mpi
process_count_per_instance bilangan bulat Wajib diisi. Jumlah proses per node yang diluncurkan untuk pekerjaan.

PyTorchConfiguration

Kunci Jenis Deskripsi Nilai yang diizinkan Nilai default
type const Wajib diisi. Jenis distribusi. pytorch
process_count_per_instance bilangan bulat Jumlah proses per node yang diluncurkan untuk pekerjaan. 1

TensorFlowConfiguration

Kunci Jenis Deskripsi Nilai yang diizinkan Nilai default
type const Wajib diisi. Jenis distribusi. tensorflow
worker_count bilangan bulat Jumlah pekerja yang akan diluncurkan untuk pekerjaan. Default ke resources.instance_count.
parameter_server_count bilangan bulat Jumlah server paramater yang diluncurkan untuk pekerjaan. 0

Input pekerjaan

Kunci Jenis Deskripsi Nilai yang diizinkan Nilai default
type string Jenis input pekerjaan. Tentukan uri_file untuk data yang mengarah ke satu sumber file, atau uri_folder untuk data yang mengarah ke sumber folder. uri_file, uri_folder, mlflow_model, custom_model uri_folder
path string Jalur ke data yang akan digunakan sebagai input. Ini dapat ditentukan dengan beberapa cara:

- Jalur lokal ke file atau folder sumber data, misalnya path: ./iris.csv. Data akan diunggah selama pengiriman pekerjaan.

- URI jalur cloud ke file atau folder untuk digunakan sebagai input. Jenis URI yang didukung adalah azureml, https, wasbs, abfss, adl. Lihat Core yaml syntax untuk informasi selengkapnya tentang cara menggunakan format URI azureml://.

- Aset data Azure Machine Learning terdaftar yang ada untuk digunakan sebagai input. Untuk mereferensikan aset data terdaftar, gunakan sintaks azureml:<data_name>:<data_version> atau azureml:<data_name>@latest (untuk mereferensikan versi terbaru dari aset data tersebut), misalnya path: azureml:cifar10-data:1 atau path: azureml:cifar10-data@latest.
mode string Mode bagaimana data harus dikirimkan ke target komputasi.

Untuk pemasangan baca-saja (ro_mount), data akan digunakan sebagai jalur pemasangan. Folder akan dipasang sebagai folder dan file akan dipasang sebagai file. Azure Machine Learning akan menyelesaikan input ke jalur pemasangan.

Untuk mode download, data akan diunduh ke target komputasi. Azure Machine Learning akan menyelesaikan input ke jalur yang diunduh.

Jika hanya ingin URL lokasi penyimpanan artefak data daripada memasang atau mengunduh data itu sendiri, Anda dapat menggunakan mode direct. Cara ini akan meneruskan URL lokasi penyimpanan sebagai input pekerjaan. Perhatikan bahwa dalam hal ini Anda bertanggung jawab penuh untuk menangani info masuk untuk mengakses penyimpanan.

eval_mount Mode dan eval_download unik untuk MLTable, dan memasang data sebagai jalur atau mengunduh data ke target komputasi.

Untuk informasi selengkapnya tentang mode, lihat Mengakses data dalam pekerjaan
ro_mount, download, direct, eval_download, eval_mount ro_mount

Output pekerjaan

Kunci Jenis Deskripsi Nilai yang diizinkan Nilai default
type string Jenis output pekerjaan. Untuk jenis uri_folder default, output akan sesuai dengan folder. uri_folder , mlflow_model, custom_model uri_folder
mode string Mode bagaimana file output akan dikirim ke penyimpanan tujuan. Untuk mode pemasangan baca-tulis (rw_mount), direktori output akan menjadi direktori yang dipasang. Untuk mode unggah, file yang ditulis ke direktori output akan diunggah di akhir pekerjaan. rw_mount, upload rw_mount

Konfigurasi identitas

UserIdentityConfiguration

Kunci Jenis Deskripsi Nilai yang diizinkan
type const Wajib diisi. Jenis identitas. user_identity

ManagedIdentityConfiguration

Kunci Jenis Deskripsi Nilai yang diizinkan
type const Wajib diisi. Jenis identitas. managed atau managed_identity

Keterangan

Perintah az ml job dapat digunakan untuk mengelola pekerjaan Azure Machine Learning.

Contoh

Contoh tersedia di contoh repositori GitHub. Beberapa ditunjukkan di bawah ini.

YAML: halo dunia

$schema: https://azuremlschemas.azureedge.net/latest/commandJob.schema.json
command: echo "hello world"
environment:
  image: library/python:latest

YAML: nama tampilan, nama eksperimen, deskripsi, dan tag

$schema: https://azuremlschemas.azureedge.net/latest/commandJob.schema.json
command: echo "hello world"
environment:
  image: library/python:latest
tags:
  hello: world
display_name: hello-world-example
experiment_name: hello-world-example
description: |
  # Azure Machine Learning "hello world" job

  This is a "hello world" job running in the cloud via Azure Machine Learning!

  ## Description

  Markdown is supported in the studio for job descriptions! You can edit the description there or via CLI.

YAML: variabel lingkungan

$schema: https://azuremlschemas.azureedge.net/latest/commandJob.schema.json
command: echo $hello_env_var
environment:
  image: library/python:latest
environment_variables:
  hello_env_var: "hello world"

YAML: kode sumber

$schema: https://azuremlschemas.azureedge.net/latest/commandJob.schema.json
command: ls
code: src
environment:
  image: library/python:latest

YAML: input harfiah

$schema: https://azuremlschemas.azureedge.net/latest/commandJob.schema.json
command: |
  echo ${{inputs.hello_string}}
  echo ${{inputs.hello_number}}
environment:
  image: library/python:latest
inputs:
  hello_string: "hello world"
  hello_number: 42

YAML: tulis ke output default

$schema: https://azuremlschemas.azureedge.net/latest/commandJob.schema.json
command: echo "hello world" > ./outputs/helloworld.txt
environment:
  image: library/python:latest

YAML: tulis ke output data bernama

$schema: https://azuremlschemas.azureedge.net/latest/commandJob.schema.json
command: echo "hello world" > ${{outputs.hello_output}}/helloworld.txt
outputs:
  hello_output:
environment:
  image: python

YAML: input file URI datastore

$schema: https://azuremlschemas.azureedge.net/latest/commandJob.schema.json
command: |
  echo "--iris-csv: ${{inputs.iris_csv}}"
  python hello-iris.py --iris-csv ${{inputs.iris_csv}}
code: src
inputs:
  iris_csv:
    type: uri_file 
    path: azureml://datastores/workspaceblobstore/paths/example-data/iris.csv
environment: azureml://registries/azureml/environments/sklearn-1.0/labels/latest

YAML: input folder URI datastore

$schema: https://azuremlschemas.azureedge.net/latest/commandJob.schema.json
command: |
  ls ${{inputs.data_dir}}
  echo "--iris-csv: ${{inputs.data_dir}}/iris.csv"
  python hello-iris.py --iris-csv ${{inputs.data_dir}}/iris.csv
code: src
inputs:
  data_dir:
    type: uri_folder 
    path: azureml://datastores/workspaceblobstore/paths/example-data/
environment: azureml://registries/azureml/environments/sklearn-1.0/labels/latest

YAML: input file URI

$schema: https://azuremlschemas.azureedge.net/latest/commandJob.schema.json
command: |
  echo "--iris-csv: ${{inputs.iris_csv}}"
  python hello-iris.py --iris-csv ${{inputs.iris_csv}}
code: src
inputs:
  iris_csv:
    type: uri_file 
    path: https://azuremlexamples.blob.core.windows.net/datasets/iris.csv
environment: azureml://registries/azureml/environments/sklearn-1.0/labels/latest

YAML: input folder URI

$schema: https://azuremlschemas.azureedge.net/latest/commandJob.schema.json
command: |
  ls ${{inputs.data_dir}}
  echo "--iris-csv: ${{inputs.data_dir}}/iris.csv"
  python hello-iris.py --iris-csv ${{inputs.data_dir}}/iris.csv
code: src
inputs:
  data_dir:
    type: uri_folder 
    path: wasbs://datasets@azuremlexamples.blob.core.windows.net/
environment: azureml://registries/azureml/environments/sklearn-1.0/labels/latest

YAML: Notebook melalui papermill

$schema: https://azuremlschemas.azureedge.net/latest/commandJob.schema.json
command: |
  pip install ipykernel papermill
  papermill hello-notebook.ipynb outputs/out.ipynb -k python
code: src
environment:
  image: library/python:3.11.6

YAML: pelatihan model Python dasar

$schema: https://azuremlschemas.azureedge.net/latest/commandJob.schema.json
code: src
command: >-
  python main.py 
  --iris-csv ${{inputs.iris_csv}}
  --C ${{inputs.C}}
  --kernel ${{inputs.kernel}}
  --coef0 ${{inputs.coef0}}
inputs:
  iris_csv: 
    type: uri_file
    path: wasbs://datasets@azuremlexamples.blob.core.windows.net/iris.csv
  C: 0.8
  kernel: "rbf"
  coef0: 0.1
environment: azureml://registries/azureml/environments/sklearn-1.0/labels/latest
compute: azureml:cpu-cluster
display_name: sklearn-iris-example
experiment_name: sklearn-iris-example
description: Train a scikit-learn SVM on the Iris dataset.

YAML: pelatihan model R dasar dengan konteks bangun Docker lokal

$schema: https://azuremlschemas.azureedge.net/latest/commandJob.schema.json
command: >
  Rscript train.R 
  --data_folder ${{inputs.iris}}
code: src
inputs:
  iris: 
    type: uri_file
    path: https://azuremlexamples.blob.core.windows.net/datasets/iris.csv
environment:
  build:
    path: docker-context
compute: azureml:cpu-cluster
display_name: r-iris-example
experiment_name: r-iris-example
description: Train an R model on the Iris dataset.

YAML: PyTorch terdistribusi

$schema: https://azuremlschemas.azureedge.net/latest/commandJob.schema.json
code: src
command: >-
  python train.py 
  --epochs ${{inputs.epochs}}
  --learning-rate ${{inputs.learning_rate}}
  --data-dir ${{inputs.cifar}}
inputs:
  epochs: 1
  learning_rate: 0.2
  cifar: 
     type: uri_folder
     path: azureml:cifar-10-example@latest
environment: azureml:AzureML-pytorch-1.9-ubuntu18.04-py37-cuda11-gpu@latest
compute: azureml:gpu-cluster
distribution:
  type: pytorch 
  process_count_per_instance: 1
resources:
  instance_count: 2
display_name: pytorch-cifar-distributed-example
experiment_name: pytorch-cifar-distributed-example
description: Train a basic convolutional neural network (CNN) with PyTorch on the CIFAR-10 dataset, distributed via PyTorch.

YAML: TensorFlow terdistribusi

$schema: https://azuremlschemas.azureedge.net/latest/commandJob.schema.json
code: src
command: >-
  python train.py 
  --epochs ${{inputs.epochs}}
  --model-dir ${{inputs.model_dir}}
inputs:
  epochs: 1
  model_dir: outputs/keras-model
environment: azureml:AzureML-tensorflow-2.4-ubuntu18.04-py37-cuda11-gpu@latest
compute: azureml:gpu-cluster
resources:
  instance_count: 2
distribution:
  type: tensorflow
  worker_count: 2
display_name: tensorflow-mnist-distributed-example
experiment_name: tensorflow-mnist-distributed-example
description: Train a basic neural network with TensorFlow on the MNIST dataset, distributed via TensorFlow.

YAML: MPI terdistribusi

$schema: https://azuremlschemas.azureedge.net/latest/commandJob.schema.json
code: src
command: >-
  python train.py
  --epochs ${{inputs.epochs}}
inputs:
  epochs: 1
environment: azureml:AzureML-tensorflow-2.7-ubuntu20.04-py38-cuda11-gpu@latest
compute: azureml:gpu-cluster
resources:
  instance_count: 2
distribution:
  type: mpi
  process_count_per_instance: 1
display_name: tensorflow-mnist-distributed-horovod-example
experiment_name: tensorflow-mnist-distributed-horovod-example
description: Train a basic neural network with TensorFlow on the MNIST dataset, distributed via Horovod.

Langkah berikutnya