Sdílet prostřednictvím


Úložiště pro energetická prostředí PROSTŘEDÍ HPC

Rozsáhlé úlohy prostředí HPC mají požadavky na ukládání dat a přístup, které překračují možnosti tradičních cloudových systémů souborů.

Níže jsou uvedené faktory, které byste měli zvážit, a identifikovat požadavky vaší aplikace, abyste se mohli rozhodnout, jaké řešení úložiště použít.

  • Latence
  • IOPS
  • Propustnost
  • Velikosti a počet souborů,
  • Doba běhu úlohy
  • Náklady přidružené
  • Spřažení pro umístění úložiště – místní vs. Azure

Další informace o faktorech, které ovlivňují úložiště HPC vybrané v Azure, najdete v tématu Vysvětlení faktorů, které ovlivňují výběr úložiště PROSTŘEDÍ HPC v Azure.

Rozhodovací strom pro konkrétní volbu systému úložiště HPC.

Diagram znázorňující rozhodovací strom důležitých aspektů při výběru řešení úložiště

Aspekty návrhu prostředí HPC

Ropné a plynárenské společnosti musí být schopny efektivně spravovat a ukládat exabajty seismických dat, dobře dat, map, zapůjčení a další. Aby tato data mohli používat, potřebují vysoce výkonnou infrastrukturu, která dokáže zpracovávat a dodávat analýzy v reálném čase, aby pomohla optimalizovat výrobu, snížit rizika životního prostředí a zlepšit provozní bezpečnost.

Úložiště dat a přístup se značně liší v závislosti na škálování úloh. podpora Azure několik přístupů ke správě rychlosti a kapacity aplikací HPC.

Rozsáhlé úlohy Batch a HPC v energetickém průmyslu mají požadavky na ukládání dat a přístup, které překračují možnosti tradičních cloudových systémů souborů. Požadavky na vysokovýkonné vstupně-výstupní operace a rozsáhlé potřeby škálovatelnosti vysokovýkonného výpočetního prostředí (HPC) představují jedinečné výzvy pro ukládání dat a přístup.

HpC se používá k řešení složitých problémů, jako je simulace seismických a nádrží a modelování, které nejsou praktické nebo nákladově efektivní pro zpracování s tradičními výpočetními technikami. Dělá to prostřednictvím kombinace paralelního zpracování a masivní škálovatelnosti k rychlému, efektivnímu a spolehlivému provádění rozsáhlých a komplikovaných výpočetních úloh.

Výpočetní uzly v clusterech Azure HPC jsou navíc virtuální počítače, které je možné podle potřeby rozsunout, aby prováděly úlohy, které cluster přiřadil. Tyto uzly šíří výpočetní úlohy napříč clusterem, aby bylo možné dosáhnout vysoce výkonného paralelního zpracování potřebného k řešení složitých problémů, na které se používá prostředí HPC. Výpočetní uzly musí při provádění úloh provádět operace čtení a zápisu ve sdíleném pracovním úložišti. Způsob, jakým uzly přistupují k tomuto úložišti, spadá do kontinua mezi těmito dvěma scénáři:

  • Jedna sada dat pro mnoho výpočetních uzlů – v tomto scénáři je v síti jeden zdroj dat, ke kterému mají přístup všechny výpočetní uzly pro pracovní data. I když jsou strukturálně jednoduché, všechny vstupně-výstupní operace jsou omezené kapacitou vstupně-výstupních operací úložiště.
  • Mnoho sad dat na mnoho výpočetních uzlů – v tomto scénáři je v síti jeden zdroj dat, ke kterému mají přístup všechny výpočetní uzly pro pracovní data. I když jsou strukturálně jednoduché, všechny vstupně-výstupní operace jsou omezené kapacitou vstupně-výstupních operací úložiště.

Doporučení k návrhu prostředí HPC

Vyberte řešení, které nejlépe vyhovuje vašim jedinečným požadavkům na vstupně-výstupní operace a kapacitu.

Systém souborů NFS (Network File System)

Systém souborů NFS se běžně používá k poskytování přístupu ke sdíleným umístěním úložiště. V případě systému souborů NFS sdílí serverový virtuální počítač svůj místní systém souborů, který je v případě Azure uložený na jednom nebo více virtuálních pevných discích hostovaných ve službě Azure Storage. Klienti pak můžou připojit sdílené soubory serveru a přistupovat ke sdílenému umístění přímo.

Systém souborů NFS (Network File System) se často používá pro domovské adresáře a prostor projektu připojený napříč všemi uzly. Může také často poskytnout prostor pro výzkumné skupiny sdílejí data. Obecně platí, že úlohy propustnosti jsou horizontálně škálovatelné s malou závislostí mezi jednotlivými úlohami. Plánovače úloh rozdělují práci napříč uzly a koordinují aktivitu. NFS je typické sdílené úložiště napříč uzly, ke kterým se přistupuje přes sítě TCP/IP.

Systém souborů NFS má výhodu snadného nastavení a údržby a je podporován v operačních systémech Linux i Windows. K rozložení úložiště v síti je možné použít několik serverů NFS, ale jednotlivé soubory jsou přístupné pouze prostřednictvím jednoho serveru.

U úloh s nízkým škálováním zvažte spuštění systému souborů NFS na hlavním uzlu pomocí virtuálního počítače optimalizovaného pro úložiště s velkými dočasnými disky nebo virtuální počítače řady D-series s Azure Premium Storage v závislosti na vašich požadavcích. Toto řešení vyhovuje úlohám s 500 jádry nebo méně.

Ve scénářích PROSTŘEDÍ HPC může souborový server často sloužit jako kritický bod, omezování celkového výkonu. Pokusy o přístup k necachedovaným datům z jednoho serveru NFS s rychlostí vyšší, než je zdokumentovaný maximální počet IOPS a propustnost jednotlivých virtuálních počítačů, způsobí omezování.

Ve scénáři, kdy se desítky klientů pokoušejí pracovat na datech uložených na jednom serveru NFS, je možné tyto limity snadno dosáhnout, což způsobí, že dojde k omezení výkonu celé aplikace. Čím blíž k čistému scénáři 1:N vaše aplikace PROSTŘEDÍ HPC používá, tím dříve narazíte na tato omezení.

Paralelní systémy souborů v Azure

Paralelní systémy souborů distribuují úložiště na úrovni bloků napříč několika síťovými uzly úložiště. Data souborů se mezi těmito uzly šíří, což znamená, že data souborů se šíří mezi několik úložných zařízení. Tento fond všech jednotlivých požadavků na vstupně-výstupní operace úložiště napříč několika uzly úložiště, které jsou přístupné prostřednictvím společného oboru názvů.

K zajištění vysokého stupně paralelismu se využívá více úložných zařízení a více cest k datům, což snižuje kritické body způsobené přístupem pouze k jednomu uzlu najednou. Paralelní vstupně-výstupní operace ale může být obtížné koordinovat a optimalizovat, pokud pracujete přímo na úrovni rozhraní API nebo rozhraní POSIX pro vstupně-výstupní operace. Díky zavedení mezilehlých vrstev přístupu k datům a koordinaci poskytují paralelní systémy souborů vývojářům aplikací rozhraní vysoké úrovně mezi aplikační vrstvou a V/V vrstvou.

Úlohy MPI energie mají jedinečné požadavky s potřebou komunikace s nízkou latencí mezi uzly. Uzly jsou připojené prostřednictvím vysokorychlostního propojení a není možné je sdílet s jinými úlohami. Aplikace MPI využívají celé vysoce výkonné propojení pomocí předávacího režimu ve virtualizovaných prostředích. Úložiště pro uzly MPI je obvykle paralelní systém souborů, jako je Lustre, také přístupný prostřednictvím vysokorychlostního propojení. Lustre/BeeGFS se obvykle používá ke zpracování velkých požadavků na propustnost primárně seismického zpracování (ale také simulace nádrží).

Paralelní systémy souborů, jako je Lustre, se používají pro energetické úlohy PROSTŘEDÍ HPC, které vyžadují přístup k velkým souborům, souběžný přístup z více výpočetních uzlů a obrovské objemy dat. Implementace paralelních systémů souborů usnadňuje škálování z hlediska schopností a výkonu. Tyto systémy souborů využívají přenosy RDMA s velkou šířkou pásma a nižším využitím procesoru. Paralelní systém souborů se obvykle používá jako pomocné místo a je určený pro práci, která vyžaduje optimalizované vstupně-výstupní operace. Mezi příklady patří nastavení úloh, předběžné zpracování, spuštění a následné zpracování.

Použití orchestrované paralelní souborové služby, jako je Azure Managed Lustre, funguje pro 50 000 nebo více jader s rychlostí čtení a zápisu až 500 GB/s a 2,5 PB úložiště.

Další informace o paralelním virtuálním systému souborů v Azure najdete v tématu Paralelní virtuální systémy souborů v Microsoft Azure – část 1: Přehled – Technická komunita Microsoftu.

  • Azure NetApp Files a místní disky se obvykle používají ke zpracování větší latence nebo citlivých úloh IOPS, jako je seismická interpretace, příprava modelu a vizualizace. Zvažte použití pro úlohy s až 4 000 jádry s propustností až 6,5 GiB/s a úlohami, které využívají náš přístup k jedné sadě dat s víceprotokolovými funkcemi (NFS/SMB).
  • Spravovaná lustre Azure poskytuje rychlejší a vyšší kapacitní úložiště pro úlohy HPC. Toto řešení funguje pro úlohy střední až velmi velké a může podporovat 50 000 nebo více jader s propustností až 500 GB/s a kapacitou úložiště až 2,5 PiB.
  • Objekt blob úrovně Standard nebo Premium představuje nákladově efektivní nabídku cloudu s nejnižšími náklady. Tato služba poskytuje škálování exabajtů, vysokou propustnost, přístup s nízkou latencí v případě potřeby, známý systém souborů a přístup s více protokoly (REST, HDFS, NFS). Systém souborů NFS v3.0 můžete využít v koncovém bodu služby Blob Service pro vysokou propustnost a čtení náročných úloh. Náklady můžete optimalizovat přechodem na chladnější úrovně s možností provádět správu životního cyklu s poslední aktualizací nebo časem posledního přístupu, inteligentní vrstvení s přizpůsobitelnými zásadami.
  • Úlohy týkající se ropy a plynu mohou také vyžadovat přenos velkých objemů dat a objemů z místního prostředí do cloudu a naopak, které lze dosáhnout
    • Offline – migrace na základě zařízení (DataBox)
    • Online – migrace přes síť (ExpressRoute).

Další kroky

Následující seznam článků vás provede pokyny, které najdete v konkrétních bodech na cestě přechodu na cloud, abyste mohli být úspěšní ve scénáři přechodu na cloud pro energetická prostředí HPC.