Vad är en Azure Machine Learning-beräkningsinstans?

En Azure Machine Learning beräkningsinstans är en hanterad molnbaserad arbetsstation för dataexperter.

Beräkningsinstanser gör det enkelt att komma igång med Azure Machine Learning utveckling samt tillhandahåller hanterings- och företagsberedskapsfunktioner för IT-administratörer.

Använd en beräkningsinstans som din fullständigt konfigurerade och hanterade utvecklingsmiljö i molnet för maskininlärning. De kan också användas som beräkningsmål för träning och inferens i utvecklings- och testningssyften.

För modellträning i produktionsklass använder du Azure Machine Learning ett beräkningskluster med skalningsfunktioner för flera noder. För modelldistribution i produktionsklass använder du Azure Kubernetes Service kluster.

Se till att webbsocketkommunikationen inte är inaktiverad för att beräkningsinstansens Jupyter-funktioner ska fungera. Kontrollera att nätverket tillåter websocket-anslutningar till *.instances.azureml.net och *.instances.azureml.ms.

Viktigt

Objekt som är markerade (förhandsversion) i den här artikeln är för närvarande i allmänt tillgänglig förhandsversion. Förhandsversionen tillhandahålls utan serviceavtal och rekommenderas inte för produktionsarbetsbelastningar. Vissa funktioner kanske inte stöds eller kan vara begränsade. Mer information finns i Kompletterande villkor för användning av Microsoft Azure-förhandsversioner.

Varför ska jag använda en beräkningsinstans?

En beräkningsinstans är en helt hanterad molnbaserad arbetsstation som är optimerad för din utvecklingsmiljö för maskininlärning. Det ger följande fördelar:

Viktiga fördelar Beskrivning
Produktivitet Du kan skapa och distribuera modeller med integrerade notebook-datorer och följande verktyg i Azure Machine Learning studio:
– Jupyter
– JupyterLab
– VS Code (förhandsversion)
- RStudio (förhandsversion)
Beräkningsinstansen är helt integrerad Azure Machine Learning arbetsyta och studio. Du kan dela notebook-filer och data med andra dataexperter på arbetsytan.
Du kan också använda VS Code med beräkningsinstanser.
Hanterad & säker Minska ditt säkerhetsfotavtryck och lägg till efterlevnad av företagets säkerhetskrav. Beräkningsinstanser tillhandahåller robusta hanteringsprinciper och säkra nätverkskonfigurationer som:

– Automatisk etablering från Resource Manager mallar eller Azure Machine Learning SDK
- Rollbaserad åtkomstkontroll i Azure (Azure RBAC)
- Stöd för virtuella nätverk
– SSH-princip för att aktivera/inaktivera SSH-åtkomst
- Ingen offentlig IP-adress ger dig möjlighet att aktivera en säker anslutningslösning utan beroende av en offentlig IP-adress
– TLS 1.2 aktiverat
Förkonfigurerad   för   ML Spara tid på installationsaktiviteter med förkonfigurerade och uppdaterade ML paket, ramverk för djupinlärning och GPU-drivrutiner.
Helt anpassningsbar Ett brett stöd för typer av virtuella Azure-datorer, inklusive GPU:er och bestående anpassningar på låg nivå, till exempel installation av paket och drivrutiner, gör avancerade scenarier till en enkel miljö.

Verktyg och miljöer

Azure Machine Learning beräkningsinstans kan du skapa, träna och distribuera modeller i en helt integrerad notebook-upplevelse på din arbetsyta.

Du kan köra Jupyter Notebooks i VS Code med beräkningsinstansen som fjärrserver utan att SSH behövs. Du kan också aktivera VS Code-integrering via SSH-fjärrtillägget.

Du kan installera paket och lägga till kernels i beräkningsinstansen.

Följande verktyg och miljöer är redan installerade på beräkningsinstansen:

Allmänna verktyg & miljöer Information
Drivrutiner CUDA
cuDNN
NVIDIA
Blob FUSE
Intel MPI-bibliotek
Azure CLI
Azure Machine Learning exempel
Docker
Nginx
VIL 2.0
Protobuf
R-verktyg & miljöer Information
RStudio Server Open Source Edition (förhandsversion)
R-kernel
PYTHON-verktyg & miljöer Information
Anaconda Python
Jupyter och tillägg
Jupyterlab och tillägg
Azure Machine Learning-SDK för Python
från PyPI
Innehåller de flesta azureml-extrapaketen. Om du vill se en fullständig lista öppnar du ett terminalfönster på beräkningsinstansen och kör
conda list -n azureml_py36 azureml*
Andra PyPI-paket jupytext
tensorboard
nbconvert
notebook
Pillow
Conda-paket cython
numpy
ipykernel
scikit-learn
matplotlib
tqdm
joblib
nodejs
nb_conda_kernels
Djupinlärningspaket PyTorch
TensorFlow
Keras
Horovod
MLFlow
pandas-ml
scrapbook
ONNX-paket keras2onnx
onnx
onnxconverter-common
skl2onnx
onnxmltools
Azure Machine Learning Python-exempel

Alla Python-paket installeras i Python 3.8 – AzureML-miljön. Beräkningsinstansen har Ubuntu 18.04 som basoperativsystem.

Komma åt filer

Notebooks och R-skript lagras i standardlagringskontot för din arbetsyta i Azure-filresursen. De här filerna finns under katalogen "Användarfiler". Den här lagringen gör det enkelt att dela notebook-filer mellan beräkningsinstanser. Lagringskontot bevarar även dina notebook-filer på ett säkert sätt när du stoppar eller tar bort en beräkningsinstans.

Azure-filresurskontot för din arbetsyta monteras som en enhet på beräkningsinstansen. Den här enheten är standardarbetskatalogen för Jupyter, Jupyter Labs och RStudio. Det innebär att notebook-filer och andra filer som du skapar i Jupyter, JupyterLab eller RStudio lagras automatiskt på filresursen och kan även användas i andra beräkningsinstanser.

Filerna i filresursen är tillgängliga från alla beräkningsinstanser på samma arbetsyta. Alla ändringar av dessa filer på beräkningsinstansen bevaras på ett tillförlitligt sätt tillbaka till filresursen.

Du kan också klona de Azure Machine Learning exemplen till mappen under katalogen användarfiler i arbetsytans filresurs.

Det kan ta längre tid att skriva små filer på nätverksenheter än att skriva till den lokala disken för beräkningsinstansen. Om du skriver många små filer kan du prova att använda en katalog direkt på beräkningsinstansen, till exempel en /tmp katalog. Observera att de här filerna inte kan nås från andra beräkningsinstanser.

Lagra inte träningsdata på notebooks-filresursen. Du kan använda katalogen /tmp på beräkningsinstansen för dina tillfälliga data. Skriv dock inte särskilt stora datafiler på beräkningsinstansens OS-disk. OS-disken på beräkningsinstansen har 128 GB kapacitet. Du kan också lagra tillfälliga träningsdata på en tillfällig disk som monterats på /mnt. Tillfällig diskstorlek kan konfigureras baserat på den valda VM-storleken och kan lagra större mängder data om en virtuell dator med högre storlek väljs. Du kan också montera datalager och datauppsättningar. Alla programvarupaket som du installerar sparas på OS-disken för beräkningsinstansen. Observera att kundstyrd nyckelkryptering för närvarande inte stöds för OS-diskar. OS-disken för beräkningsinstansen krypteras med Microsoft-hanterade nycklar.

Skapa en beräkningsinstans

Som administratör kan du skapa en beräkningsinstans för andra på arbetsytan (förhandsversion).

Du kan också använda ett installationsskript (förhandsversion) för ett automatiserat sätt att anpassa och konfigurera beräkningsinstansen.

Om du vill skapa en beräkningsinstans själv använder du arbetsytan i Azure Machine Learning Studio, skapar en ny beräkningsinstans antingen från avsnittet Compute eller i avsnittet Notebooks när du är redo att köra en av dina notebook-datorer.

Du kan också skapa en instans

De dedikerade kärnorna per region per VM-familj och den totala regionala kvoten, som gäller för skapande av beräkningsinstanser, är enhetliga och delas med Azure Machine Learning träningskvot för beräkningskluster. Om du stoppar beräkningsinstansen frigörs inte kvoten för att säkerställa att du kan starta om beräkningsinstansen. Stoppa inte beräkningsinstansen via OS-terminalen genom att göra en sudo-avstängning.

Beräkningsinstansen levereras med P10 OS-disken. Den temporära disktypen beror på vilken VM-storlek som valts. För närvarande går det inte att ändra OS-disktypen.

Beräkningsmål

Beräkningsinstanser kan användas som ett träningsbearbetningsmål som liknar Azure Machine Learning beräkningsträningskluster.

En beräkningsinstans:

  • Har en jobbkö.
  • Kör jobb på ett säkert sätt i en virtuell nätverksmiljö, utan att företag behöver öppna SSH-porten. Jobbet körs i en containermiljö och paketerar dina modellberoenden i en Docker-container.
  • Kan köra flera små jobb parallellt (förhandsversion). Ett jobb per kärna kan köras parallellt medan resten av jobben köas.
  • Stöder distribuerade träningsjobb med en nod med flera GPU:er

Du kan använda beräkningsinstansen som ett lokalt inferensdistributionsmål för test-/felsökningsscenarier.

Tips

Beräkningsinstansen har en OS-disk på 120 GB. Om du får slut på diskutrymme och får ett oanvändbart tillstånd ska du rensa minst 5 GB diskutrymme på OS-disken (monterad på /) via beräkningsinstansterminalen genom att ta bort filer/mappar och sedan sudo reboot göra . Du kommer åt terminalen genom att gå till sidan med beräkningslistor eller information om beräkningsinstansen och klicka på terminallänken. Du kan kontrollera tillgängligt diskutrymme genom att df -h köra på terminalen. Rensa minst 5 GB utrymme innan du gör sudo reboot . Stoppa inte eller starta inte om beräkningsinstansen via Studio förrän 5 GB diskutrymme har rensats.

Nästa steg