Vad är en Azure Machine Learning-beräkningsinstans?
En Azure Machine Learning beräkningsinstans är en hanterad molnbaserad arbetsstation för dataexperter.
Beräkningsinstanser gör det enkelt att komma igång med Azure Machine Learning utveckling samt tillhandahåller hanterings- och företagsberedskapsfunktioner för IT-administratörer.
Använd en beräkningsinstans som din fullständigt konfigurerade och hanterade utvecklingsmiljö i molnet för maskininlärning. De kan också användas som beräkningsmål för träning och inferens i utvecklings- och testningssyften.
För modellträning i produktionsklass använder du Azure Machine Learning ett beräkningskluster med skalningsfunktioner för flera noder. För modelldistribution i produktionsklass använder du Azure Kubernetes Service kluster.
Se till att webbsocketkommunikationen inte är inaktiverad för att beräkningsinstansens Jupyter-funktioner ska fungera. Kontrollera att nätverket tillåter websocket-anslutningar till *.instances.azureml.net och *.instances.azureml.ms.
Viktigt
Objekt som är markerade (förhandsversion) i den här artikeln är för närvarande i allmänt tillgänglig förhandsversion. Förhandsversionen tillhandahålls utan serviceavtal och rekommenderas inte för produktionsarbetsbelastningar. Vissa funktioner kanske inte stöds eller kan vara begränsade. Mer information finns i Kompletterande villkor för användning av Microsoft Azure-förhandsversioner.
Varför ska jag använda en beräkningsinstans?
En beräkningsinstans är en helt hanterad molnbaserad arbetsstation som är optimerad för din utvecklingsmiljö för maskininlärning. Det ger följande fördelar:
| Viktiga fördelar | Beskrivning |
|---|---|
| Produktivitet | Du kan skapa och distribuera modeller med integrerade notebook-datorer och följande verktyg i Azure Machine Learning studio: – Jupyter – JupyterLab – VS Code (förhandsversion) - RStudio (förhandsversion) Beräkningsinstansen är helt integrerad Azure Machine Learning arbetsyta och studio. Du kan dela notebook-filer och data med andra dataexperter på arbetsytan. Du kan också använda VS Code med beräkningsinstanser. |
| Hanterad & säker | Minska ditt säkerhetsfotavtryck och lägg till efterlevnad av företagets säkerhetskrav. Beräkningsinstanser tillhandahåller robusta hanteringsprinciper och säkra nätverkskonfigurationer som: – Automatisk etablering från Resource Manager mallar eller Azure Machine Learning SDK - Rollbaserad åtkomstkontroll i Azure (Azure RBAC) - Stöd för virtuella nätverk – SSH-princip för att aktivera/inaktivera SSH-åtkomst - Ingen offentlig IP-adress ger dig möjlighet att aktivera en säker anslutningslösning utan beroende av en offentlig IP-adress– TLS 1.2 aktiverat |
| Förkonfigurerad för ML | Spara tid på installationsaktiviteter med förkonfigurerade och uppdaterade ML paket, ramverk för djupinlärning och GPU-drivrutiner. |
| Helt anpassningsbar | Ett brett stöd för typer av virtuella Azure-datorer, inklusive GPU:er och bestående anpassningar på låg nivå, till exempel installation av paket och drivrutiner, gör avancerade scenarier till en enkel miljö. |
- Skydda beräkningsinstansen utan offentlig IP-adress (förhandsversion)
- Beräkningsinstansen är också ett säkert beräkningsmål för träning som liknar beräkningskluster, men det är en enda nod.
- Du kan skapa en beräkningsinstans själv, eller så kan en administratör skapa en beräkningsinstans åt dig.
- Du kan också använda ett installationsskript (förhandsversion) för ett automatiserat sätt att anpassa och konfigurera beräkningsinstansen efter dina behov.
- Om du vill spara pengar skapar du ett schema (förhandsversion) för att automatiskt starta och stoppa beräkningsinstansen.
Verktyg och miljöer
Azure Machine Learning beräkningsinstans kan du skapa, träna och distribuera modeller i en helt integrerad notebook-upplevelse på din arbetsyta.
Du kan köra Jupyter Notebooks i VS Code med beräkningsinstansen som fjärrserver utan att SSH behövs. Du kan också aktivera VS Code-integrering via SSH-fjärrtillägget.
Du kan installera paket och lägga till kernels i beräkningsinstansen.
Följande verktyg och miljöer är redan installerade på beräkningsinstansen:
| Allmänna verktyg & miljöer | Information |
|---|---|
| Drivrutiner | CUDAcuDNNNVIDIABlob FUSE |
| Intel MPI-bibliotek | |
| Azure CLI | |
| Azure Machine Learning exempel | |
| Docker | |
| Nginx | |
| VIL 2.0 | |
| Protobuf |
| R-verktyg & miljöer | Information |
|---|---|
| RStudio Server Open Source Edition (förhandsversion) | |
| R-kernel |
| PYTHON-verktyg & miljöer | Information |
|---|---|
| Anaconda Python | |
| Jupyter och tillägg | |
| Jupyterlab och tillägg | |
| Azure Machine Learning-SDK för Pythonfrån PyPI | Innehåller de flesta azureml-extrapaketen. Om du vill se en fullständig lista öppnar du ett terminalfönster på beräkningsinstansen och kör conda list -n azureml_py36 azureml* |
| Andra PyPI-paket | jupytexttensorboardnbconvertnotebookPillow |
| Conda-paket | cythonnumpyipykernelscikit-learnmatplotlibtqdmjoblibnodejsnb_conda_kernels |
| Djupinlärningspaket | PyTorchTensorFlowKerasHorovodMLFlowpandas-mlscrapbook |
| ONNX-paket | keras2onnxonnxonnxconverter-commonskl2onnxonnxmltools |
| Azure Machine Learning Python-exempel |
Alla Python-paket installeras i Python 3.8 – AzureML-miljön. Beräkningsinstansen har Ubuntu 18.04 som basoperativsystem.
Komma åt filer
Notebooks och R-skript lagras i standardlagringskontot för din arbetsyta i Azure-filresursen. De här filerna finns under katalogen "Användarfiler". Den här lagringen gör det enkelt att dela notebook-filer mellan beräkningsinstanser. Lagringskontot bevarar även dina notebook-filer på ett säkert sätt när du stoppar eller tar bort en beräkningsinstans.
Azure-filresurskontot för din arbetsyta monteras som en enhet på beräkningsinstansen. Den här enheten är standardarbetskatalogen för Jupyter, Jupyter Labs och RStudio. Det innebär att notebook-filer och andra filer som du skapar i Jupyter, JupyterLab eller RStudio lagras automatiskt på filresursen och kan även användas i andra beräkningsinstanser.
Filerna i filresursen är tillgängliga från alla beräkningsinstanser på samma arbetsyta. Alla ändringar av dessa filer på beräkningsinstansen bevaras på ett tillförlitligt sätt tillbaka till filresursen.
Du kan också klona de Azure Machine Learning exemplen till mappen under katalogen användarfiler i arbetsytans filresurs.
Det kan ta längre tid att skriva små filer på nätverksenheter än att skriva till den lokala disken för beräkningsinstansen. Om du skriver många små filer kan du prova att använda en katalog direkt på beräkningsinstansen, till exempel en /tmp katalog. Observera att de här filerna inte kan nås från andra beräkningsinstanser.
Lagra inte träningsdata på notebooks-filresursen. Du kan använda katalogen /tmp på beräkningsinstansen för dina tillfälliga data. Skriv dock inte särskilt stora datafiler på beräkningsinstansens OS-disk. OS-disken på beräkningsinstansen har 128 GB kapacitet. Du kan också lagra tillfälliga träningsdata på en tillfällig disk som monterats på /mnt. Tillfällig diskstorlek kan konfigureras baserat på den valda VM-storleken och kan lagra större mängder data om en virtuell dator med högre storlek väljs. Du kan också montera datalager och datauppsättningar. Alla programvarupaket som du installerar sparas på OS-disken för beräkningsinstansen. Observera att kundstyrd nyckelkryptering för närvarande inte stöds för OS-diskar. OS-disken för beräkningsinstansen krypteras med Microsoft-hanterade nycklar.
Skapa en beräkningsinstans
Som administratör kan du skapa en beräkningsinstans för andra på arbetsytan (förhandsversion).
Du kan också använda ett installationsskript (förhandsversion) för ett automatiserat sätt att anpassa och konfigurera beräkningsinstansen.
Om du vill skapa en beräkningsinstans själv använder du arbetsytan i Azure Machine Learning Studio, skapar en ny beräkningsinstans antingen från avsnittet Compute eller i avsnittet Notebooks när du är redo att köra en av dina notebook-datorer.
Du kan också skapa en instans
- Direkt från den integrerade notebook-upplevelsen
- I Azure Portal
- Från Azure Resource Manager mall. Ett exempel på en mall finns i skapa en Azure Machine Learning för beräkningsinstanser.
- Med Azure Machine Learning SDK
- Från CLI-tillägget för Azure Machine Learning
De dedikerade kärnorna per region per VM-familj och den totala regionala kvoten, som gäller för skapande av beräkningsinstanser, är enhetliga och delas med Azure Machine Learning träningskvot för beräkningskluster. Om du stoppar beräkningsinstansen frigörs inte kvoten för att säkerställa att du kan starta om beräkningsinstansen. Stoppa inte beräkningsinstansen via OS-terminalen genom att göra en sudo-avstängning.
Beräkningsinstansen levereras med P10 OS-disken. Den temporära disktypen beror på vilken VM-storlek som valts. För närvarande går det inte att ändra OS-disktypen.
Beräkningsmål
Beräkningsinstanser kan användas som ett träningsbearbetningsmål som liknar Azure Machine Learning beräkningsträningskluster.
En beräkningsinstans:
- Har en jobbkö.
- Kör jobb på ett säkert sätt i en virtuell nätverksmiljö, utan att företag behöver öppna SSH-porten. Jobbet körs i en containermiljö och paketerar dina modellberoenden i en Docker-container.
- Kan köra flera små jobb parallellt (förhandsversion). Ett jobb per kärna kan köras parallellt medan resten av jobben köas.
- Stöder distribuerade träningsjobb med en nod med flera GPU:er
Du kan använda beräkningsinstansen som ett lokalt inferensdistributionsmål för test-/felsökningsscenarier.
Tips
Beräkningsinstansen har en OS-disk på 120 GB. Om du får slut på diskutrymme och får ett oanvändbart tillstånd ska du rensa minst 5 GB diskutrymme på OS-disken (monterad på /) via beräkningsinstansterminalen genom att ta bort filer/mappar och sedan sudo reboot göra . Du kommer åt terminalen genom att gå till sidan med beräkningslistor eller information om beräkningsinstansen och klicka på terminallänken. Du kan kontrollera tillgängligt diskutrymme genom att df -h köra på terminalen. Rensa minst 5 GB utrymme innan du gör sudo reboot . Stoppa inte eller starta inte om beräkningsinstansen via Studio förrän 5 GB diskutrymme har rensats.
Nästa steg
- Skapa och hantera en beräkningsinstans
- Självstudie: Träna din ML modell visar hur du använder en beräkningsinstans med en integrerad notebook-dator.