Azure Kubernetes Service (AKS) でコンピューティングを集中的に使用するワークロードに GPU を使用するUse GPUs for compute-intensive workloads on Azure Kubernetes Service (AKS)

GPU (Graphical processing units) は、多くの場合に、グラフィックや視覚化ワークロードなど、コンピューティングを集中的に使用するワークロードに使用とされます。Graphical processing units (GPUs) are often used for compute-intensive workloads such as graphics and visualization workloads. AKS では、Kubernetes でこれらのコンピューティングを集中的に使用するワークロードを実行する GPU 対応ノード プールの作成をサポートしています。AKS supports the creation of GPU-enabled node pools to run these compute-intensive workloads in Kubernetes. 使用可能な GPU 対応 VM の詳細については、Azure での GPU 最適化済み VM サイズに関する記事を参照してください。For more information on available GPU-enabled VMs, see GPU optimized VM sizes in Azure. AKS ノードには、最小サイズの Standard_NC6 をお勧めします。For AKS nodes, we recommend a minimum size of Standard_NC6.


GPU 対応 VM には、より高い価格が適用され、利用可能なリージョンが限られる特殊なハードウェアが含まれます。GPU-enabled VMs contain specialized hardware that is subject to higher pricing and region availability. 詳細については、価格ツールと利用可能なリージョンを参照してください。For more information, see the pricing tool and region availability.

現在、GPU 対応ノード プールの使用は Linux ノード プールでのみ使用できます。Currently, using GPU-enabled node pools is only available for Linux node pools.

開始する前にBefore you begin

この記事は、GPU をサポートするノードを含む AKS クラスターが既に存在していることを前提としています。This article assumes that you have an existing AKS cluster with nodes that support GPUs. AKS クラスターで Kubernetes 1.10 以降を実行している必要があります。Your AKS cluster must run Kubernetes 1.10 or later. これらの要件を満たす AKS クラスターが必要な場合は、この記事の最初のセクションを参照して、AKS クラスターを作成してください。If you need an AKS cluster that meets these requirements, see the first section of this article to create an AKS cluster.

また、Azure CLI バージョン 2.0.64 以降がインストールされ、構成されている必要もあります。You also need the Azure CLI version 2.0.64 or later installed and configured. バージョンを確認するには、az --version を実行します。Run az --version to find the version. インストールまたはアップグレードする必要がある場合は、Azure CLI のインストールに関するページを参照してください。If you need to install or upgrade, see Install Azure CLI.

AKS クラスターを作成するCreate an AKS cluster

最小要件 (GPU 対応ノードと Kubernetes バージョン 1.10 以降) を満たしている AKS クラスターが必要な場合は、次の手順を実行します。If you need an AKS cluster that meets the minimum requirements (GPU-enabled node and Kubernetes version 1.10 or later), complete the following steps. これらの要件を満たしている AKS クラスターが既にある場合は、次のセクションに進んでくださいIf you already have an AKS cluster that meets these requirements, skip to the next section.

まず、az group create コマンドを使用して、クラスターのリソース グループを作成します。First, create a resource group for the cluster using the az group create command. 次の例では、 myResourceGroup という名前のリソース グループを eastus リージョンに作成します。The following example creates a resource group name myResourceGroup in the eastus region:

az group create --name myResourceGroup --location eastus

ここで、az aks create コマンドを使用して、AKS クラスターを作成します。Now create an AKS cluster using the az aks create command. 次の例では、サイズ Standard_NC6 の 1 つのノードを含むクラスターを作成します。The following example creates a cluster with a single node of size Standard_NC6:

az aks create \
    --resource-group myResourceGroup \
    --name myAKSCluster \
    --node-vm-size Standard_NC6 \
    --node-count 1

az aks get-credentials コマンドを使用して、AKS クラスターの資格情報を取得します。Get the credentials for your AKS cluster using the az aks get-credentials command:

az aks get-credentials --resource-group myResourceGroup --name myAKSCluster

NVIDIA デバイス プラグインをインストールするInstall NVIDIA device plugin

ノード内の GPU を使用するには、NVIDIA デバイス プラグイン用の DaemonSet をデプロイしておく必要があります。Before the GPUs in the nodes can be used, you must deploy a DaemonSet for the NVIDIA device plugin. この DaemonSet により、各ノードでポッドが実行され、GPU に必要なドライバーが提供されます。This DaemonSet runs a pod on each node to provide the required drivers for the GPUs.

まず、 kubectl create namespace コマンドを使用して、名前空間 ( gpu-resources など) を作成します。First, create a namespace using the kubectl create namespace command, such as gpu-resources :

kubectl create namespace gpu-resources

nvidia-device-plugin-ds.yaml という名前のファイルを作成し、次の YAML マニフェストを貼り付けます。Create a file named nvidia-device-plugin-ds.yaml and paste the following YAML manifest. このマニフェストは、Kubernetes プロジェクト用の NVIDIA デバイス プラグインの一部として提供されます。This manifest is provided as part of the NVIDIA device plugin for Kubernetes project.

apiVersion: apps/v1
kind: DaemonSet
  name: nvidia-device-plugin-daemonset
  namespace: gpu-resources
      name: nvidia-device-plugin-ds
    type: RollingUpdate
      # Mark this pod as a critical add-on; when enabled, the critical add-on scheduler
      # reserves resources for critical add-on pods so that they can be rescheduled after
      # a failure.  This annotation works in tandem with the toleration below.
      annotations: ""
        name: nvidia-device-plugin-ds
      # Allow this pod to be rescheduled while the node is in "critical add-ons only" mode.
      # This, along with the annotation above marks this pod as a critical add-on.
      - key: CriticalAddonsOnly
        operator: Exists
      - key:
        operator: Exists
        effect: NoSchedule
      - image:
        name: nvidia-device-plugin-ctr
          allowPrivilegeEscalation: false
            drop: ["ALL"]
          - name: device-plugin
            mountPath: /var/lib/kubelet/device-plugins
        - name: device-plugin
            path: /var/lib/kubelet/device-plugins

ここで、次の出力例に示すように、kubectl apply コマンドを使用して DaemonSet を作成し、NVIDIA デバイス プラグインが正常に作成されていることを確認します。Now use the kubectl apply command to create the DaemonSet and confirm the NVIDIA device plugin is created successfully, as shown in the following example output:

$ kubectl apply -f nvidia-device-plugin-ds.yaml

daemonset "nvidia-device-plugin" created

AKS 専用 GPU イメージ (プレビュー) を使用するUse the AKS specialized GPU image (preview)

これらの手順の代わりとして、AKS からは、Kubernetes 向け NVIDIA デバイス プラグインが既に含まれる、完全構成済みの AKS イメージが提供されます。As alternative to these steps, AKS is providing a fully configured AKS image that already contains the NVIDIA device plugin for Kubernetes.


新しい AKS 専用 GPU イメージを使用し、クラスター向け NVIDIA デバイス プラグイン デーモン セットを手動インストールしないでください。You should not manually install the NVIDIA device plugin daemon set for clusters using the new AKS specialized GPU image.

GPUDedicatedVHDPreview 機能を登録します。Register the GPUDedicatedVHDPreview feature:

az feature register --name GPUDedicatedVHDPreview --namespace Microsoft.ContainerService

状態が " 登録済み " と表示されるまでに数分かかることがあります。It might take several minutes for the status to show as Registered. az feature list コマンドを使用して登録状態を確認できます。You can check the registration status by using the az feature list command:

az feature list -o table --query "[?contains(name, 'Microsoft.ContainerService/GPUDedicatedVHDPreview')].{Name:name,State:properties.state}"

状態が登録済みと表示されたら、az provider register コマンドを使用して、Microsoft.ContainerService リソース プロバイダーの登録を更新します。When the status shows as registered, refresh the registration of the Microsoft.ContainerService resource provider by using the az provider register command:

az provider register --namespace Microsoft.ContainerService

aks-preview CLI 拡張機能をインストールするには、次の Azure CLI コマンドを使用します。To install the aks-preview CLI extension, use the following Azure CLI commands:

az extension add --name aks-preview

aks-preview CLI 拡張機能を更新するには、次の Azure CLI コマンドを使用します。To update the aks-preview CLI extension, use the following Azure CLI commands:

az extension update --name aks-preview

新しいクラスターで AKS 専用 GPU イメージ (プレビュー) を使用するUse the AKS specialized GPU image on new clusters (preview)

クラスターの作成時に、AKS 専用 GPU イメージを使用するようにクラスターを構成します。Configure the cluster to use the AKS specialized GPU image when the cluster is created. AKS 専用 GPU イメージを使用するため、新しいクラスターで GPU エージェント ノードの --aks-custom-headers フラグを使用します。Use the --aks-custom-headers flag for the GPU agent nodes on your new cluster to use the AKS specialized GPU image.

az aks create --name myAKSCluster --resource-group myResourceGroup --node-vm-size Standard_NC6 --node-count 1 --aks-custom-headers UseGPUDedicatedVHD=true

通常の AKS イメージを使用してクラスターを作成する場合、カスタムの --aks-custom-headers タグを省略すると、そうすることができます。If you want to create a cluster using the regular AKS images, you can do so by omitting the custom --aks-custom-headers tag. 下のように、もっと特化した GPU ノード プールの追加を選択することもできます。You can also choose to add more specialized GPU node pools as per below.

既存のクラスターで AKS 専用 GPU イメージ (プレビュー) を使用するUse the AKS specialized GPU image on existing clusters (preview)

AKS 専用 GPU イメージを使用するように新しいノード プールを構成します。Configure a new node pool to use the AKS specialized GPU image. AKS 専用 GPU イメージを使用するため、新しいノード プールで GPU エージェント ノードの --aks-custom-headers フラグを使用します。Use the --aks-custom-headers flag flag for the GPU agent nodes on your new node pool to use the AKS specialized GPU image.

az aks nodepool add --name gpu --cluster-name myAKSCluster --resource-group myResourceGroup --node-vm-size Standard_NC6 --node-count 1 --aks-custom-headers UseGPUDedicatedVHD=true

通常の AKS イメージを使用してノード プールを作成する場合、カスタムの --aks-custom-headers タグを省略すると、そうすることができます。If you want to create a node pool using the regular AKS images, you can do so by omitting the custom --aks-custom-headers tag.


GPU SKU に第 2 世代仮想マシンが必要な場合、次のように作成できます。If your GPU sku requires generation 2 virtual machines, you can create doing:

az aks nodepool add --name gpu --cluster-name myAKSCluster --resource-group myResourceGroup --node-vm-size Standard_NC6s_v2 --node-count 1 --aks-custom-headers UseGPUDedicatedVHD=true,usegen2vm=true

GPU がスケジュール可能であることを確認するConfirm that GPUs are schedulable

AKS クラスターが作成されたら、Kubernetes で GPU がスケジュール可能であることを確認します。With your AKS cluster created, confirm that GPUs are schedulable in Kubernetes. まず、kubectl get nodes コマンドを使用して、クラスター内のノードを一覧表示します。First, list the nodes in your cluster using the kubectl get nodes command:

$ kubectl get nodes

NAME                       STATUS   ROLES   AGE   VERSION
aks-nodepool1-28993262-0   Ready    agent   13m   v1.12.7

ここで、kubectl describe node コマンドを使用して、GPU がスケジュール可能であることを確認します。Now use the kubectl describe node command to confirm that the GPUs are schedulable. Capacity セクションで、GPU は 1 と表示されているはずです。Under the Capacity section, the GPU should list as 1.

次の抜粋された例では、 aks nodepool1 18821093 0 という名前のノードで GPU が使用できることを示しています。The following condensed example shows that a GPU is available on the node named aks-nodepool1-18821093-0 :

$ kubectl describe node aks-nodepool1-28993262-0

Name:               aks-nodepool1-28993262-0
Roles:              agent
Labels:             accelerator=nvidia


 attachable-volumes-azure-disk:  24
 cpu:                            6
 ephemeral-storage:              101584140Ki
 hugepages-1Gi:                  0
 hugepages-2Mi:                  0
 memory:                         57713784Ki                 1
 pods:                           110
 attachable-volumes-azure-disk:  24
 cpu:                            5916m
 ephemeral-storage:              93619943269
 hugepages-1Gi:                  0
 hugepages-2Mi:                  0
 memory:                         51702904Ki                 1
 pods:                           110
System Info:
 Machine ID:                 b0cd6fb49ffe4900b56ac8df2eaa0376
 System UUID:                486A1C08-C459-6F43-AD6B-E9CD0F8AEC17
 Boot ID:                    f134525f-385d-4b4e-89b8-989f3abb490b
 Kernel Version:             4.15.0-1040-azure
 OS Image:                   Ubuntu 16.04.6 LTS
 Operating System:           linux
 Architecture:               amd64
 Container Runtime Version:  docker://1.13.1
 Kubelet Version:            v1.12.7
 Kube-Proxy Version:         v1.12.7
ProviderID:                  azure:///subscriptions/<guid>/resourceGroups/MC_myResourceGroup_myAKSCluster_eastus/providers/Microsoft.Compute/virtualMachines/aks-nodepool1-28993262-0
Non-terminated Pods:         (9 in total)
  Namespace                  Name                                     CPU Requests  CPU Limits  Memory Requests  Memory Limits  AGE
  ---------                  ----                                     ------------  ----------  ---------------  -------------  ---
  kube-system                nvidia-device-plugin-daemonset-bbjlq     0 (0%)        0 (0%)      0 (0%)           0 (0%)         2m39s


GPU 対応ワークロードの実行Run a GPU-enabled workload

GPU が機能していることを確認するには、適切なリソース要求を指定して GPU 対応ワークロードをスケジュールします。To see the GPU in action, schedule a GPU-enabled workload with the appropriate resource request. この例では、MNIST データセットに対して Tensorflow ジョブを実行します。In this example, let's run a Tensorflow job against the MNIST dataset.

samples-tf-mnist-demo.yaml という名前のファイルを作成し、次の YAML マニフェストを貼り付けます。Create a file named samples-tf-mnist-demo.yaml and paste the following YAML manifest. 次のジョブ マニフェストには 1 のリソース制限が含まれています。The following job manifest includes a resource limit of 1:


ドライバーを呼び出すときに、CUDA ドライバーのバージョンが CUDA ランタイムのバージョンに対して不十分であるなどのバージョン不一致エラーが発生した場合は、NVIDIA ドライバーのマトリックス互換性チャート ( を確認してください。If you receive a version mismatch error when calling into drivers, such as, CUDA driver version is insufficient for CUDA runtime version, review the NVIDIA driver matrix compatibility chart -

apiVersion: batch/v1
kind: Job
    app: samples-tf-mnist-demo
  name: samples-tf-mnist-demo
        app: samples-tf-mnist-demo
      - name: samples-tf-mnist-demo
        args: ["--max_steps", "500"]
        imagePullPolicy: IfNotPresent
      restartPolicy: OnFailure

kubectl apply コマンドを使ってジョブを実行します。Use the kubectl apply command to run the job. このコマンドは、マニフェスト ファイルを解析し、定義されている Kubernetes オブジェクトを作成します。This command parses the manifest file and creates the defined Kubernetes objects:

kubectl apply -f samples-tf-mnist-demo.yaml

GPU 対応ワークロードの状態と出力の表示View the status and output of the GPU-enabled workload

--watch 引数を指定して kubectl get jobs コマンドを使用し、ジョブの進行状況を監視します。Monitor the progress of the job using the kubectl get jobs command with the --watch argument. イメージを最初にプルし、データセットを処理するまで数分かかる可能性があります。It may take a few minutes to first pull the image and process the dataset. COMPLETIONS 列に 1/1 と表示されている場合、ジョブは正常に完了しました。When the COMPLETIONS column shows 1/1 , the job has successfully finished. Ctrl-C を使用して kubetctl --watch コマンドを終了します。Exit the kubetctl --watch command with Ctrl-C :

$ kubectl get jobs samples-tf-mnist-demo --watch

NAME                    COMPLETIONS   DURATION   AGE

samples-tf-mnist-demo   0/1           3m29s      3m29s
samples-tf-mnist-demo   1/1   3m10s   3m36s

GPU 対応ワークロードの出力を確認するには、まず kubectl get pods コマンドでポッドの名前を取得します。To look at the output of the GPU-enabled workload, first get the name of the pod with the kubectl get pods command:

$ kubectl get pods --selector app=samples-tf-mnist-demo

NAME                          READY   STATUS      RESTARTS   AGE
samples-tf-mnist-demo-mtd44   0/1     Completed   0          4m39s

ここで、kubectl logs コマンドを使用して、ポッド ログを表示します。Now use the kubectl logs command to view the pod logs. 次のポッド ログの例では、適切な GPU デバイスが検出されたことを確認します (Tesla K80)。The following example pod logs confirm that the appropriate GPU device has been discovered, Tesla K80. 独自のポッドの名前を指定します。Provide the name for your own pod:

$ kubectl logs samples-tf-mnist-demo-smnr6

2019-05-16 16:08:31.258328: I tensorflow/core/platform/] Your CPU supports instructions that this TensorFlow binary was not compiled to use: SSE4.1 SSE4.2 AVX AVX2 FMA
2019-05-16 16:08:31.396846: I tensorflow/core/common_runtime/gpu/] Found device 0 with properties: 
name: Tesla K80 major: 3 minor: 7 memoryClockRate(GHz): 0.8235
pciBusID: 2fd7:00:00.0
totalMemory: 11.17GiB freeMemory: 11.10GiB
2019-05-16 16:08:31.396886: I tensorflow/core/common_runtime/gpu/] Creating TensorFlow device (/device:GPU:0) -> (device: 0, name: Tesla K80, pci bus id: 2fd7:00:00.0, compute capability: 3.7)
2019-05-16 16:08:36.076962: I tensorflow/stream_executor/] successfully opened CUDA library locally
Successfully downloaded train-images-idx3-ubyte.gz 9912422 bytes.
Extracting /tmp/tensorflow/input_data/train-images-idx3-ubyte.gz
Successfully downloaded train-labels-idx1-ubyte.gz 28881 bytes.
Extracting /tmp/tensorflow/input_data/train-labels-idx1-ubyte.gz
Successfully downloaded t10k-images-idx3-ubyte.gz 1648877 bytes.
Extracting /tmp/tensorflow/input_data/t10k-images-idx3-ubyte.gz
Successfully downloaded t10k-labels-idx1-ubyte.gz 4542 bytes.
Extracting /tmp/tensorflow/input_data/t10k-labels-idx1-ubyte.gz
Accuracy at step 0: 0.1081
Accuracy at step 10: 0.7457
Accuracy at step 20: 0.8233
Accuracy at step 30: 0.8644
Accuracy at step 40: 0.8848
Accuracy at step 50: 0.8889
Accuracy at step 60: 0.8898
Accuracy at step 70: 0.8979
Accuracy at step 80: 0.9087
Accuracy at step 90: 0.9099
Adding run metadata for 99
Accuracy at step 100: 0.9125
Accuracy at step 110: 0.9184
Accuracy at step 120: 0.922
Accuracy at step 130: 0.9161
Accuracy at step 140: 0.9219
Accuracy at step 150: 0.9151
Accuracy at step 160: 0.9199
Accuracy at step 170: 0.9305
Accuracy at step 180: 0.9251
Accuracy at step 190: 0.9258
Adding run metadata for 199
Accuracy at step 200: 0.9315
Accuracy at step 210: 0.9361
Accuracy at step 220: 0.9357
Accuracy at step 230: 0.9392
Accuracy at step 240: 0.9387
Accuracy at step 250: 0.9401
Accuracy at step 260: 0.9398
Accuracy at step 270: 0.9407
Accuracy at step 280: 0.9434
Accuracy at step 290: 0.9447
Adding run metadata for 299
Accuracy at step 300: 0.9463
Accuracy at step 310: 0.943
Accuracy at step 320: 0.9439
Accuracy at step 330: 0.943
Accuracy at step 340: 0.9457
Accuracy at step 350: 0.9497
Accuracy at step 360: 0.9481
Accuracy at step 370: 0.9466
Accuracy at step 380: 0.9514
Accuracy at step 390: 0.948
Adding run metadata for 399
Accuracy at step 400: 0.9469
Accuracy at step 410: 0.9489
Accuracy at step 420: 0.9529
Accuracy at step 430: 0.9507
Accuracy at step 440: 0.9504
Accuracy at step 450: 0.951
Accuracy at step 460: 0.9512
Accuracy at step 470: 0.9539
Accuracy at step 480: 0.9533
Accuracy at step 490: 0.9494
Adding run metadata for 499

リソースをクリーンアップするClean up resources

この記事で作成され、関連付けられている Kubernetes オブジェクトを削除するには、次のように kubectl delete job コマンドを使用します。To remove the associated Kubernetes objects created in this article, use the kubectl delete job command as follows:

kubectl delete jobs samples-tf-mnist-demo

次のステップNext steps

Apache Spark ジョブを実行するには、AKS での Apache Spark ジョブの実行に関する記事を参照してください。To run Apache Spark jobs, see Run Apache Spark jobs on AKS.

Kubernetes での機械学習 (ML) ワークロードの実行に関する詳細については、Kubeflow ラボを参照してください。For more information about running machine learning (ML) workloads on Kubernetes, see Kubeflow Labs.