Wstępnie utworzone obrazy platformy Docker na potrzeby wnioskowania

Wstępnie utworzone obrazy kontenerów platformy Docker na potrzeby wnioskowania są używane podczas wdrażania modelu przy użyciu usługi Azure Machine Edukacja. Obrazy są wstępnie tworzone za pomocą popularnych struktur uczenia maszynowego i pakietów języka Python. Można również rozszerzyć pakiety w celu dodania innych pakietów przy użyciu jednej z następujących metod:

Dlaczego należy używać wstępnie utworzonych obrazów?

  • Zmniejsza opóźnienie wdrażania modelu
  • Poprawia współczynnik powodzenia wdrażania modelu
  • Unika niepotrzebnej kompilacji obrazu podczas wdrażania modelu
  • Zawiera tylko wymagane zależności i dostęp bezpośrednio w obrazie/kontenerze

Lista wstępnie utworzonych obrazów platformy Docker na potrzeby wnioskowania

Ważne

Lista podana w poniższej tabeli zawiera tylko obrazy platformy Docker wnioskowania obsługiwane przez usługę Azure Machine Edukacja obecnie.

  • Wszystkie obrazy platformy Docker działają jako użytkownik niebędący użytkownikiem głównym.
  • Zalecamy używanie tagu latest dla obrazów platformy Docker. Wstępnie utworzone obrazy platformy Docker na potrzeby wnioskowania są publikowane w rejestrze kontenerów firmy Microsoft (MCR). Aby uzyskać informacje na temat wykonywania zapytań dotyczących listy dostępnych tagów, zobacz repozytorium GitHub mcR.
  • Jeśli chcesz użyć określonego tagu dla dowolnego obrazu platformy Docker wnioskowania, usługa Azure Machine Edukacja obsługuje tagi z zakresu od latest do sześciu miesięcy starszych niż latest.

Wnioskowanie minimalnych obrazów podstawowych

Wersja platformy CPU/GPU Wstępnie zainstalowane pakiety Ścieżka MCR
NA Procesor CPU ND mcr.microsoft.com/azureml/minimal-ubuntu20.04-py38-cpu-inference:latest
ND Procesor GPU ND mcr.microsoft.com/azureml/minimal-ubuntu20.04-py38-cuda11.6.2-gpu-inference:latest
ND Procesor CPU ND mcr.microsoft.com/azureml/minimal-ubuntu22.04-py39-cpu-inference:latest
ND Procesor GPU NA mcr.microsoft.com/azureml/minimal-ubuntu22.04-py39-cuda11.8-gpu-inference:latest