Volumi NFS v4.1 in Azure NetApp Files per SAP HANA

Azure NetApp Files fornisce condivisioni NFS native che è possibile usare per i volumi /hana/shared, /hana/data e /hana/log. Per usare le condivisioni NFS basate su Azure NetApp Files per i volumi/hana/data e /hana/log, è necessario il protocollo NFS v4.1. Se le condivisioni sono basate su Azure NetApp Files, l’uso del protocollo NFS v3 non è supportato per i volumi /hana/data e /hana/log.

Importante

L’uso protocollo NFS v3 implementato in Azure NetApp Files non è supportato per i volumi /hana/data e /hana/log. Da un punto di vista funzionale, per i volumi /hana/data e /hana/logè obbligatorio l’utilizzo del protocollo di NFS 4.1. Da un punto di vista funzionale, per il volume /hana/shared è invece possibile usare il protocollo NFS v3 o NFS v4.1.

Considerazioni importanti

Quando si prende in considerazione Azure NetApp Files per SAP NetWeaver e SAP HANA, tenere presente le considerazioni importanti seguenti:

  • Il pool di capacità minimo è 4 TiB

  • Le dimensioni minime del volume sono di 100 GiB.

  • Condivisioni NFS basate su ANF e le macchine virtuali che montano tali condivisioni devono trovarsi nella stessa Rete virtuale di Azure o nelle reti virtuali con peering nella stessa area

  • La rete virtuale selezionata deve avere una subnet delegata ad Azure NetApp Files. Per il carico di lavoro SAP, è consigliabile configurare un intervallo /25 per la subnet delegata ad ANF.

  • È importante che le macchine virtuali abbiano distribuito una sufficiente prossimità all'archiviazione di Azure NetApp per una latenza più bassa, ad esempio richiesta da SAP HANA per le scritture di log di rollforward.

    • Azure NetApp Files offre nel frattempo funzionalità per distribuire volumi NFS in specifici zone di disponibilità di Azure. Tale prossimità di zona sarà sufficiente nella maggior parte dei casi per ottenere una latenza inferiore a 1 millisecondo. La funzionalità è disponibile in anteprima pubblica e descritta nell'articolo Gestire il posizionamento del volume della zona di disponibilità per Azure NetApp Files. Questa funzionalità non richiede alcun processo interattivo con Microsoft per raggiungere la prossimità tra la macchina virtuale e i volumi NFS allocati.
    • Per ottenere la massima prossimità ottimale, è disponibile la funzionalità dei gruppi di volumi di applicazioni. Questa funzionalità non è solo alla ricerca della prossimità ottimale, ma per il posizionamento ottimale dei volumi NFS, in modo che i volumi di dati e di rollforward di HANA vengano gestiti da controller diversi. Lo svantaggio è che questo metodo richiede un processo interattivo con Microsoft per aggiungere le macchine virtuali.
  • Assicurarsi che la latenza dal server di database al volume ANF sia misurata e inferiore a 1 millisecondo

  • La velocità effettiva di un volume di Azure NetApp è una funzione della quota del volume e del livello di servizio, come documentato in Livelli di servizio per Azure NetApp Files. Quando si ridimensionano i volumi di Azure NetApp di HANA, verificare che la velocità effettiva risultante soddisfi i requisiti di sistema HANA. In alternativa, prendere in considerazione l'uso di un pool di capacità QoS manuale in cui la capacità del volume e la velocità effettiva possono essere configurate e ridimensionate in modo indipendente (in questo documento sono riportati esempi specifici di SAP HANA

  • Provare a "consolidare" i volumi per ottenere prestazioni più elevate in un volume più grande, ad esempio usare un volume per /sapmnt, /usr/sap/trans, ... se possibile

  • Azure NetApp Files offre criteri di esportazione: è possibile controllare i client consentiti, il tipo di accesso, come ad esempio lettura e scrittura, sola lettura e così via.

  • L'ID utente per sidadm e l'ID gruppo per sapsys nelle macchine virtuali devono corrispondere alla configurazione in Azure NetApp Files.

  • Implementare i parametri del sistema operativo Linux indicati nella nota SAP 3024346

Importante

Per carichi di lavoro SAP HANA, è fondamentale una bassa latenza. Collaborare con il rappresentante Microsoft per assicurarsi che le macchine virtuali e i volumi Azure NetApp Files vengano distribuiti in prossimità.

Importante

Se si verifica una mancata corrispondenza tra l'ID utente per sidadm e l'ID gruppo per sapsys tra la macchina virtuale e la configurazione di Azure NetApp, le autorizzazioni per i file nei volumi Di Azure NetApp montate nella macchina virtuale verranno visualizzate come nobody. Assicurarsi di specificare l'ID utente corretto per sidadm e l'ID gruppo per sapsys quando si acquisisce un nuovo sistema in Azure NetApp Files.

Opzione di montaggio NCONNECT

Nconnect è un'opzione di montaggio per i volumi NFS ospitati in ANF che consente al client NFS di aprire più sessioni su un singolo volume NFS. L'uso di nconnect con un valore maggiore di 1 attiva anche il client NFS per l'uso di più sessioni RPC sul lato client (nel sistema operativo guest) per gestire il traffico tra il sistema operativo guest e i volumi NFS montati. L'utilizzo di più sessioni che gestiscono il traffico di un volume NFS, ma anche l'utilizzo di più sessioni RPC può gestire scenari di prestazioni e velocità effettiva come:

  • Montaggio di più volumi NFS ospitati da ANF con livelli di servizio diversi in una macchina virtuale
  • La velocità effettiva di scrittura massima per un volume e una singola sessione Linux è compresa tra 1,2 e 1,4 GB/s. La presenza di più sessioni su un volume NFS ospitato in ANF può aumentare la velocità effettiva

Per le versioni del sistema operativo Linux che supportano nconnect come opzione di montaggio e alcune importanti considerazioni sulla configurazione di nconnect, in particolare con endpoint server NFS diversi, leggere il documento Procedure consigliate per le opzioni di montaggio NFS linux per Azure NetApp Files.

Dimensionamento per il database HANA in Azure NetApp Files

La velocità effettiva di un volume di Azure NetApp è una funzione delle dimensioni del volume e del livello di servizio, come documentato in Livelli di servizio per Azure NetApp Files.

È importante comprendere che la relazione tra le prestazioni è la dimensione e che esistono limiti fisici per un endpoint di archiviazione del servizio. Ogni endpoint di archiviazione verrà inserito dinamicamente nella subnet delegata di Azure NetApp Files al momento della creazione del volume e riceverà un indirizzo IP. I volumi di Azure NetApp Files possono, a seconda della capacità disponibile e della logica di distribuzione, condividere un endpoint di archiviazione

La tabella seguente dimostra che potrebbe avere senso creare un volume "Standard" di grandi dimensioni per archiviare i backup e che non ha senso creare un volume "Ultra" maggiore di 12 TB perché la capacità massima della larghezza di banda fisica di un singolo volume verrebbe superata.

Se è necessaria più della velocità effettiva di scrittura massima per il volume /hana/data rispetto a una singola sessione Linux, è anche possibile usare il partizionamento del volume di dati SAP HANA come alternativa. Il partizionamento del volume di dati SAP HANA esegue lo striping dell'attività di I/O durante il ricaricamento dei dati o i punti di salvataggio HANA in più file di dati HANA che si trovano in più condivisioni NFS. Per altri dettagli sullo striping del volume di dati HANA, vedere gli articoli seguenti:

Dimensione Velocità effettiva Standard Velocità effettiva Premium Velocità effettiva Ultra
1 TB 16 MB/sec 64 MB/sec 128 MB/sec
2 TB 32 MB/sec 128 MB/sec 256 MB/sec
4 TB 64 MB/sec 256 MB/sec 512 MB/sec
10 TB 160 MB/sec 640 MB/sec 1.280 MB/sec
15 TB 240 MB/sec 960 MB/sec 1.400 MB/sec1
20 TB 320 MB/sec 1.280 MB/sec 1.400 MB/sec1
40 TB 640 MB/sec 1.400 MB/sec1 1.400 MB/sec1

1: limiti di velocità effettiva di lettura di scrittura o singola sessione (nel caso in cui l'opzione di montaggio NFS nconnect non venga usata)

È importante comprendere che i dati sono scritti negli stessi SSD nel back-end di archiviazione. La quota di prestazioni del pool di capacità è stata creata per poter gestire l'ambiente. Gli indicatori KPI dell'archiviazione sono uguali per tutte le dimensioni del database HANA. In quasi tutti i casi, questo presupposto non rispecchia la realtà e le aspettative del cliente. Le dimensioni dei sistemi HANA non implicano necessariamente che un sistema di piccole dimensioni richiede una velocità effettiva di archiviazione ridotta e un sistema di grandi dimensioni richiede una velocità effettiva di archiviazione elevata. In genere, tuttavia, è possibile prevedere requisiti di velocità effettiva più elevati per le istanze di database HANA di dimensioni maggiori. A causa delle regole di dimensionamento di SAP per l'hardware sottostante, le istanze di HANA più grandi prevedono anche più risorse di CPU e un parallelismo superiore in attività come il caricamento dei dati dopo il riavvio di istanze. Di conseguenza, le dimensioni del volume devono essere adottate in base alle aspettative e ai requisiti dei clienti. e non basate unicamente sui requisiti di capacità.

Durante la progettazione dell'infrastruttura per SAP in Azure, è necessario tenere presente alcuni requisiti minimi di velocità effettiva di archiviazione (per i sistemi di produzione) da SAP. Questi requisiti si traducono in caratteristiche minime della velocità effettiva di:

Tipo di volume e di I/O Indicatore KPI minimo imposto da SAM Livello di servizio Premium Livello di servizio Ultra
Scrittura nel volume di log 250 MB/sec 4 TB 2 TB
Scrittura nel volume di dati 250 MB/sec 4 TB 2 TB
Lettura dal volume di dati 400 MB/sec 6,3 TB 3,2 TB

Poiché tutti e tre gli indicatore KPI sono obbligatori, il volume /hana/data deve essere dimensionato per la capacità più ampia, in modo da soddisfare i requisiti minimi di lettura. se si usano pool di capacità QoS manuali, le dimensioni e la velocità effettiva dei volumi possono essere definite in modo indipendente. Poiché sia la capacità che la velocità effettiva vengono prelevate dallo stesso pool di capacità, il livello di servizio e le dimensioni del pool devono essere sufficientemente grandi per offrire le prestazioni totali (vedere l'esempio qui)

Per i sistemi HANA, che non richiedono una larghezza di banda elevata, la velocità effettiva del volume ANF può essere ridotta a una dimensione del volume inferiore o, usando QoS manuale, regolando direttamente la velocità effettiva. Nel caso in cui un sistema HANA richieda una maggiore velocità effettiva, il volume potrebbe essere adattato ridimensionando la capacità online. Per i volumi di backup non sono definiti indicatori KPI. Tuttavia, la velocità effettiva del volume di backup è essenziale per un ambiente con prestazioni buone. Le prestazioni del volume di dati e di log devono essere progettate in base alle aspettative dei clienti.

Importante

Indipendentemente dalla capacità distribuita in un singolo volume NFS, la velocità effettiva dovrebbe raggiungere l'intervallo di larghezza di banda di 1,2-1,4 GB/sec utilizzata da un consumer in una singola sessione. Questo dipende dall'architettura sottostante dell'offerta di Azure NetApp Files e dai limiti della sessione Linux correlata in base a NFS. I numeri relativi a prestazioni e velocità effettiva, come documentato nell'articolo Risultati dei test di benchmark delle prestazioni per Azure NetApp Files sono stati eseguiti su un volume NFS condiviso con più macchine virtuali client e, di conseguenza, più sessioni. Questo scenario è diverso dallo scenario misurato in SAP dove misuriamo la velocità effettiva da una singola VM a un volume NFS Ospitato in ANF.

Per soddisfare i requisiti di velocità effettiva minima di SAP per dati e log e in base alle linee guida per /hana/shared, le dimensioni consigliate sono le seguenti:

Volume Dimensione
Livello Archiviazione Premium
Dimensione
Livello Archiviazione Ultra
Protocollo NFS supportato
/hana/log/ 4 TiB 2 TiB v4.1
/hana/data 6,3 TiB 3,2 TiB v4.1
/hana/shared (aumento) Min(1 TB, 1 x RAM) Min(1 TB, 1 x RAM) v3 o v4.1
/hana/shared (ampliamento) 1 x RAM del nodo di lavoro
per quattro nodi di lavoro
1 x RAM del nodo di lavoro
per quattro nodi di lavoro
v3 o v4.1
/hana/logbackup 3 RAM 3 RAM v3 o v4.1
/hana/backup 2 RAM 2 RAM v3 o v4.1

Per tutti i volumi, è consigliabile usare NFS v4.1.
Esaminare attentamente le considerazioni relative al dimensionamento di /hana/shared, in base alle dimensioni appropriate del volume /hana/shared contribuisce alla stabilità del sistema.

Le dimensioni per i volumi di backup sono stime. È necessario definire requisiti esatti in base ai processi di carichi di lavoro e operazioni. Per i backup, è possibile consolidare molti volumi per istanze di SAP HANA diverse in uno o due volumi di dimensioni maggiori, che potrebbero avere un livello di servizio ANF inferiore.

Nota

Le raccomandazioni per il dimensionamento di Azure NetApp Files riportate in questo documento fanno riferimento ai requisiti minimi definiti da SAP per i provider di infrastruttura. Nelle distribuzioni reali dei clienti e negli scenari di carico di lavoro, questo potrebbe non essere sufficiente. Considerare quindi queste indicazioni come punto di inizio e adattarle in base ai requisiti del carico di lavoro specifico.

È pertanto possibile prendere in considerazione la distribuzione di una velocità effettiva simile per i volumi Azure NetApp Files, come elencato già per l'archiviazione su disco Ultra. Prendere in considerazione anche le dimensioni elencate per i volumi per i diversi SKU di VM, come già fatto nelle tabelle del disco Ultra.

Suggerimento

È possibile ridimensionare i volumi Azure NetApp Files in modo dinamico, senza dover eseguire l'operazione unmount per i volumi, arrestare le macchine virtuali o SAP HANA. Questo consente la flessibilità di soddisfare le esigenze di velocità effettiva previste e non previste per le applicazioni.

La documentazione su come distribuire una configurazione con scalabilità orizzontale di SAP HANA con nodo standby con volumi NFS v4.1 basati su ANF viene pubblicata in SAP HANA con scalabilità orizzontale sap HANA con nodo standby in macchine virtuali di Azure con Azure NetApp Files su SU edizione Standard Linux Enterprise Server.

Impostazioni kernel Linux

Per distribuire correttamente SAP HANA in ANF, è necessario implementare le impostazioni del kernel Linux in base alla nota SAP 3024346.

Per i sistemi che usano la disponibilità elevata usando pacemaker e Azure Load Balancer, è necessario implementare le impostazioni seguenti nel file /etc/sysctl.d/91-NetApp-HANA.conf

net.core.rmem_max = 16777216
net.core.wmem_max = 16777216
net.ipv4.tcp_rmem = 4096 131072 16777216
net.ipv4.tcp_wmem = 4096 16384 16777216
net.core.netdev_max_backlog = 300000
net.ipv4.tcp_slow_start_after_idle=0
net.ipv4.tcp_no_metrics_save = 1
net.ipv4.tcp_moderate_rcvbuf = 1
net.ipv4.tcp_window_scaling = 1
net.ipv4.tcp_timestamps = 0
net.ipv4.tcp_sack = 1

I sistemi in esecuzione senza pacemaker e Azure Load Balancer devono implementare queste impostazioni in /etc/sysctl.d/91-NetApp-HANA.conf

net.core.rmem_max = 16777216
net.core.wmem_max = 16777216
net.ipv4.tcp_rmem = 4096 131072 16777216
net.ipv4.tcp_wmem = 4096 16384 16777216
net.core.netdev_max_backlog = 300000
net.ipv4.tcp_slow_start_after_idle=0
net.ipv4.tcp_no_metrics_save = 1
net.ipv4.tcp_moderate_rcvbuf = 1
net.ipv4.tcp_window_scaling = 1
net.ipv4.tcp_timestamps = 1
net.ipv4.tcp_sack = 1

Distribuzione con prossimità di zona

Per ottenere una prossimità di zona dei volumi e delle macchine virtuali NFS, è possibile seguire le istruzioni descritte in Gestire il posizionamento dei volumi di zona di disponibilità per Azure NetApp Files. Con questo metodo, le macchine virtuali e i volumi NFS si trovano nella stessa zona di disponibilità di Azure. Nella maggior parte delle aree di Azure questo tipo di prossimità deve essere sufficiente per ottenere una latenza inferiore a 1 millisecondo per le scritture di rollforward del log di rollforward per SAP HANA. Questo metodo non richiede alcun lavoro interattivo con Microsoft per inserire e aggiungere macchine virtuali in un data center specifico. Di conseguenza, è possibile modificare le dimensioni e le famiglie di macchine virtuali all'interno di tutti i tipi e le famiglie di macchine virtuali offerti nella zona di disponibilità distribuita. Pertanto, è possibile reagire in modo flessibile in condizioni di chanign o spostarsi più velocemente in dimensioni o famiglie di macchine virtuali più convenienti. È consigliabile usare questo metodo per sistemi non di produzione e sistemi di produzione che possono funzionare con latenze di log di rollforward che sono più vicine a 1 millisecondo. La funzionalità è attualmente disponibile in anteprima pubblica.

Distribuzione tramite il gruppo di volumi di applicazioni di Azure NetApp Files per SAP HANA (AVG)

Per distribuire volumi ANF con prossimità alla macchina virtuale, è stata sviluppata una nuova funzionalità denominata gruppo di volumi di applicazioni azure NetApp Files per SAP HANA (AVG). Sono disponibili una serie di articoli che documentano le funzionalità. È consigliabile iniziare con l'articolo Informazioni sul gruppo di volumi di applicazioni azure NetApp Files per SAP HANA. Durante la lettura degli articoli, diventa chiaro che anche l'uso dei gruppi di disponibilità per la prossimità di Azure implica l'uso dei gruppi di posizionamento di prossimità di Azure. I gruppi di posizionamento di prossimità vengono usati dalla nuova funzionalità per collegarsi ai volumi che vengono creati. Per garantire che nel corso della durata del sistema HANA, le macchine virtuali non verranno spostate dai volumi ANF, è consigliabile usare una combinazione di Avset/PPG per ognuna delle zone in cui si esegue la distribuzione. L'ordine di distribuzione sarà simile al seguente:

  • Usando il modulo è necessario richiedere l'aggiunta dell'AvSet vuoto a un HW di calcolo per assicurarsi che le macchine virtuali non vengano spostate
  • Assegnare un gruppo di disponibilità al set di disponibilità e avviare una macchina virtuale assegnata a questo set di disponibilità
  • Usare il gruppo di volumi dell'applicazione Azure NetApp Files per la funzionalità SAP HANA per distribuire i volumi HANA

La configurazione del gruppo di posizionamento di prossimità per l'uso dei gruppi di disponibilità in modo ottimale sarà simile alla seguente:

Architettura del gruppo di volumi di applicazioni ANF e ppg

Il diagramma mostra che si userà un gruppo di posizionamento di prossimità di Azure per il livello DBMS. Quindi, che può essere usato insieme ai gruppi di disponibilità. È consigliabile includere solo le macchine virtuali che eseguono le istanze HANA nel gruppo di posizionamento di prossimità. Il gruppo di posizionamento di prossimità è necessario, anche se viene usata una sola macchina virtuale con una singola istanza HANA, affinché avg identifichi la prossimità più vicina dell'hardware ANF. E per allocare il volume NFS in ANF il più vicino possibile alle macchine virtuali che usano i volumi NFS.

Questo metodo genera i risultati più ottimali in relazione alla bassa latenza. Non solo ottenendo i volumi NFS e le macchine virtuali il più vicino possibile. Tuttavia, vengono prese in considerazione anche le considerazioni relative all'inserimento dei dati e dei volumi di log di rollforward in controller diversi nel back-end NetApp. Tuttavia, lo svantaggio è che la distribuzione della macchina virtuale viene aggiunta a un data center. Con questa flessibilità si perde la flessibilità nella modifica dei tipi e delle famiglie di macchine virtuali. Di conseguenza, è consigliabile limitare questo metodo ai sistemi che richiedono assolutamente una latenza di archiviazione così bassa. Per tutti gli altri sistemi, è consigliabile tentare la distribuzione con una distribuzione di zona tradizionale della macchina virtuale e anf. Nella maggior parte dei casi questo è sufficiente in termini di bassa latenza. In questo modo si garantisce anche una manutenzione e un'amministrazione semplificate della macchina virtuale e di ANF.

Disponibilità

Gli aggiornamenti e gli aggiornamenti del sistema ANF vengono applicati senza influire sull'ambiente del cliente. Il contratto di servizio definito è 99,99%.

Volumi e indirizzi IP e pool di capacità

Con ANF, è importante comprendere come viene compilata l'infrastruttura sottostante. Un pool di capacità è solo un costrutto, che fornisce un budget di capacità e prestazioni e un'unità di fatturazione, in base al livello di servizio del pool di capacità. Un pool di capacità non ha alcuna relazione fisica con l'infrastruttura sottostante. Quando si crea un volume nel servizio, viene creato un endpoint di archiviazione. A questo endpoint di archiviazione viene assegnato un singolo indirizzo IP per fornire l'accesso ai dati al volume. Se si creano diversi volumi, tutti i volumi vengono distribuiti tra la flotta bare metal sottostante, associata a questo endpoint di archiviazione. ANF ha una logica che distribuisce automaticamente i carichi di lavoro dei clienti una volta che i volumi o/e la capacità dell'archiviazione configurata raggiungono un livello predefinito interno. È possibile notare questi casi perché un nuovo endpoint di archiviazione, con un nuovo indirizzo IP, viene creato automaticamente per accedere ai volumi. Il servizio ANF non fornisce il controllo del cliente su questa logica di distribuzione.

Volume di log e volume di backup del log

Il "volume di log" (/hana/log) viene usato per scrivere il log di rollforward online. Pertanto, ci sono file aperti che si trovano in questo volume e non ha senso creare uno snapshot di questo volume. I file di log di rollforward online vengono archiviati o sottoposti a backup nel volume di backup del log dopo che il file di log di rollforward online è pieno o viene eseguito un backup del log di rollforward. Per garantire prestazioni di backup ragionevoli, il volume di backup del log richiede una buona velocità effettiva. Per ottimizzare i costi di archiviazione, può essere utile consolidare il volume di backup del log di più istanze HANA. In questo modo più istanze di HANA usano lo stesso volume e scrivono i backup in directory diverse. Usando un consolidamento di questo tipo, è possibile ottenere una maggiore velocità effettiva perché è necessario aumentare il volume.

Lo stesso vale per il volume in cui si usano backup completi del database HANA in scrittura.

Backup

Oltre ai backup di streaming e al servizio Back di Azure che esegue il backup di database SAP HANA, come descritto nell'articolo Guida al backup per SAP HANA in Azure Macchine virtuali, Azure NetApp Files apre la possibilità di eseguire backup snapshot basati sull'archiviazione.

SAP HANA supporta:

  • supporto del backup di snapshot basato su Archiviazione per un singolo sistema di contenitori con SAP HANA 1.0 SPS7 e versioni successive
  • Archiviazione supporto del backup di snapshot basato su più ambienti HANA (Multi Database Container) con un singolo tenant con SAP HANA 2.0 SPS1 e versioni successive
  • supporto del backup di snapshot basato su Archiviazione per ambienti HANA multi-database (MDC) con più tenant con SAP HANA 2.0 SPS4 e versioni successive

La creazione di backup snapshot basati sull'archiviazione è una semplice procedura in quattro passaggi,

  1. Creazione di uno snapshot del database HANA (interno): un'attività che è necessario eseguire
  2. SAP HANA scrive i dati nei file di dati per creare uno stato coerente nell'archiviazione: HANA esegue questo passaggio in seguito alla creazione di uno snapshot HANA
  3. Creare uno snapshot nel volume /hana/data nella risorsa di archiviazione. È necessario eseguire un passaggio o strumenti. Non è necessario eseguire uno snapshot nel volume /hana/log
  4. Eliminare lo snapshot del database HANA (interno) e riprendere il normale funzionamento: un passaggio da eseguire

Avviso

Manca l'ultimo passaggio o non riesce a eseguire l'ultimo passaggio ha un impatto grave sulla domanda di memoria di SAP HANA e può causare un arresto di SAP HANA

BACKUP DATA FOR FULL SYSTEM CREATE SNAPSHOT COMMENT 'SNAPSHOT-2019-03-18:11:00';

Backup di snapshot ANF per SAP HANA

az netappfiles snapshot create -g mygroup --account-name myaccname --pool-name mypoolname --volume-name myvolname --name mysnapname 

Backup di snapshot ANF per SAP HANA part2

BACKUP DATA FOR FULL SYSTEM CLOSE SNAPSHOT BACKUP_ID 47110815 SUCCESSFUL SNAPSHOT-2020-08-18:11:00';

Questa procedura di backup dello snapshot può essere gestita in vari modi, usando vari strumenti. Un esempio è lo script Python "ntaphana_azure.py" disponibile in GitHub https://github.com/netapp/ntaphana Questo è il codice di esempio, fornito "così come è" senza manutenzione o supporto.

Attenzione

Uno snapshot in sé non è un backup protetto perché si trova nella stessa risorsa di archiviazione fisica del volume di cui è stato appena creato uno snapshot. È obbligatorio "proteggere" almeno uno snapshot al giorno in una posizione diversa. Questa operazione può essere eseguita nello stesso ambiente, in un'area di Azure remota o in Archiviazione BLOB di Azure.

Soluzioni disponibili per il backup coerente con l'applicazione basata su snapshot di archiviazione:

  • Microsoft What is app Azure lication Consistent Snapshot tool è uno strumento da riga di comando che consente la protezione dei dati per i database di terze parti. Gestisce tutte le orchestrazioni necessarie per inserire i database in uno stato coerente con l'applicazione prima di acquisire uno snapshot di archiviazione. Dopo l'acquisizione dello snapshot di archiviazione, lo strumento restituisce i database a uno stato operativo. AzAcSnap supporta i backup basati su snapshot per istanze Large di HANA e Azure NetApp Files. Per altre informazioni, vedere l'articolo Che cos'è app Azure strumento snapshot coerente con la app Azure
  • Per gli utenti dei prodotti di backup Commvault, un'altra opzione è Commvault IntelliSnap V.11.21 e versioni successive. Questa o versioni successive di Commvault offrono supporto per gli snapshot di Azure NetApp Files. L'articolo Commvault IntelliSnap 11.21 fornisce altre informazioni.

Eseguire il backup dello snapshot usando l'archiviazione BLOB di Azure

Il backup nell'archiviazione BLOB di Azure è un metodo conveniente e rapido per risparmiare backup di snapshot di archiviazione del database HANA basati su ANF. Per salvare gli snapshot nell'archivio BLOB di Azure, è preferibile usare lo strumento AzCopy. Scaricare la versione più recente di questo strumento e installarla, ad esempio, nella directory bin in cui è installato lo script Python da GitHub. Scaricare lo strumento AzCopy più recente:

root # wget -O azcopy_v10.tar.gz https://aka.ms/downloadazcopy-v10-linux && tar -xf azcopy_v10.tar.gz --strip-components=1
Saving to: ‘azcopy_v10.tar.gz’

La funzionalità più avanzata è l'opzione SYNC. Se si usa l'opzione SYNC, azcopy mantiene sincronizzata l'origine e la directory di destinazione. L'utilizzo del parametro --delete-destination è importante. Senza questo parametro, azcopy non elimina i file nel sito di destinazione e l'utilizzo dello spazio sul lato di destinazione aumenta. Creare un contenitore BLOB in blocchi nell'account di archiviazione di Azure. Creare quindi la chiave di firma di accesso condiviso per il contenitore BLOB e sincronizzare la cartella snapshot con il contenitore BLOB di Azure.

Ad esempio, se uno snapshot giornaliero deve essere sincronizzato con il contenitore BLOB di Azure per proteggere i dati. E solo uno snapshot deve essere mantenuto, è possibile usare il comando seguente.

root # > azcopy sync '/hana/data/SID/mnt00001/.snapshot' 'https://azacsnaptmytestblob01.blob.core.windows.net/abc?sv=2021-02-02&ss=bfqt&srt=sco&sp=rwdlacup&se=2021-02-04T08:25:26Z&st=2021-02-04T00:25:26Z&spr=https&sig=abcdefghijklmnopqrstuvwxyz' --recursive=true --delete-destination=true

Passaggi successivi

Leggi l'articolo: