Disponibilità elevata di SAP HANA scalabilità verticale con Azure NetApp Files in Red Hat Enterprise LinuxHigh availability of SAP HANA Scale-up with Azure NetApp Files on Red Hat Enterprise Linux

Questo articolo descrive come configurare la replica di sistema SAP HANA in una distribuzione con scalabilità verticale, quando i file System HANA sono montati tramite NFS, usando Azure NetApp Files (e).This article describes how to configure SAP HANA System Replication in Scale-up deployment, when the HANA file systems are mounted via NFS, using Azure NetApp Files (ANF). Nelle configurazioni e nei comandi di installazione di esempio, vengono usati il numero di istanza 03 e l'ID di sistema Hana HN1 .In the example configurations and installation commands, instance number 03, and HANA System ID HN1 are used. La replica SAP HANA è costituita da un nodo primario e da almeno un nodo secondario.SAP HANA Replication consists of one primary node and at least one secondary node.

Quando i passaggi descritti in questo documento sono contrassegnati con i prefissi seguenti, il significato è il seguente:When steps in this document are marked with the following prefixes, the meaning is as follows:

  • [A]: il passaggio si applica a tutti i nodi[A]: The step applies to all nodes
  • [1]: il passaggio si applica solo a node1[1]: The step applies to node1 only
  • [2]: il passaggio si applica solo a node2[2]: The step applies to node2 only

Leggere prima di tutto i documenti e le note SAP seguenti:Read the following SAP Notes and papers first:

PanoramicaOverview

Tradizionalmente nell'ambiente con scalabilità verticale tutti i file System per SAP HANA vengono montati dalla risorsa di archiviazione locale.Traditionally in scale-up environment all file systems for SAP HANA are mounted from local storage. La configurazione della disponibilità elevata della replica di sistema SAP HANA in Red Hat Enterprise Linux è pubblicata nella Guida configurare SAP Hana la replica di sistema in RHELSetting up High Availability of SAP HANA System Replication on Red Hat Enterprise Linux is published in guide Set up SAP HANA System Replication on RHEL

Per ottenere SAP HANA disponibilità elevata del sistema di scalabilità verticale nelle condivisioni NFS Azure NetApp files , è necessaria una configurazione aggiuntiva delle risorse nel cluster, per consentire il ripristino delle risorse Hana, quando un nodo perde l'accesso alle condivisioni NFS in e.In order to achieve SAP HANA High Availability of scale-up system on Azure NetApp Files NFS shares, we need some additional resource configuration in the cluster, in order for HANA resources to recover, when one node loses access to the NFS shares on ANF. Il cluster gestisce i montaggi NFS, consentendo il monitoraggio dell'integrità delle risorse.The cluster manages the NFS mounts, allowing it to monitor the health of the resources. Vengono applicate le dipendenze tra il file system i montaggi e le risorse SAP HANA.The dependencies between the file system mounts and the SAP HANA resources are enforced.

SAP HANA con scalabilità verticale in e

SAP HANA i filesystem sono montati in condivisioni NFS usando Azure NetApp Files in ogni nodo.SAP HANA filesystems are mounted on NFS shares using Azure NetApp Files on each node. I file System/Hana/data,/Hana/log e/Hana/Shared sono univoci per ogni nodo.File systems /hana/data, /hana/log, and /hana/shared are unique to each node.

Montato in Node1 (hanadb1)Mounted on node1 (hanadb1)

  • 10.32.2.4:/hanadb1-data-mnt00001 su/Hana/data10.32.2.4:/hanadb1-data-mnt00001 on /hana/data
  • 10.32.2.4:/hanadb1-log-mnt00001 su/Hana/log10.32.2.4:/hanadb1-log-mnt00001 on /hana/log
  • 10.32.2.4:/hanadb1-Shared-mnt00001 su/Hana/Shared10.32.2.4:/hanadb1-shared-mnt00001 on /hana/shared

Montato in Node2 (hanadb2)Mounted on node2 (hanadb2)

  • 10.32.2.4:/hanadb2-data-mnt00001 su/Hana/data10.32.2.4:/hanadb2-data-mnt00001 on /hana/data
  • 10.32.2.4:/hanadb2-log-mnt00001 su/Hana/log10.32.2.4:/hanadb2-log-mnt00001 on /hana/log
  • 10.32.2.4:/hanadb2-Shared-mnt00001 su/Hana/Shared10.32.2.4:/hanadb2-shared-mnt00001 on /hana/shared

Nota

I file System/Hana/Shared,/Hana/data e/Hana/log non sono condivisi tra i due nodi.File systems /hana/shared, /hana/data and /hana/log are not shared between the two nodes. Ogni nodo del cluster dispone di file System distinti.Each cluster node has its own, separate file systems.

La configurazione della replica di sistema SAP HANA usa un nome host virtuale dedicato e indirizzi IP virtuali.The SAP HANA System Replication configuration uses a dedicated virtual hostname and virtual IP addresses. Per usare un indirizzo IP virtuale in Azure, occorre il bilanciamento del carico.On Azure, a load balancer is required to use a virtual IP address. L'elenco seguente mostra la configurazione del servizio di bilanciamento del carico:The following list shows the configuration of the load balancer:

  • Configurazione front-end: indirizzo IP 10.32.0.10 per HN1-DBFront-end configuration: IP address 10.32.0.10 for hn1-db
  • Configurazione back-end: Connessione a interfacce di rete primarie di tutte le macchine virtuali che devono far parte della replica del sistema HANABack-end configuration: Connected to primary network interfaces of all virtual machines that should be part of HANA System Replication
  • Porta probe: Porta 62503Probe Port: Port 62503
  • Regole di bilanciamento del carico: 30313 TCP, 30315 TCP, 30317 TCP, 30340 TCP, 30341 TCP, 30342 TCP (se si usa il servizio di bilanciamento del carico di Azure Basic)Load-balancing rules: 30313 TCP, 30315 TCP, 30317 TCP, 30340 TCP, 30341 TCP, 30342 TCP (if using Basic Azure Load balancer)

Configurare l'infrastruttura file di Azure NetAppSet up the Azure NetApp File infrastructure

Prima di procedere con la configurazione per l'infrastruttura Azure NetApp Files, acquisire familiarità con la documentazione dei filedi Azure NetApp.Before you proceed with the set up for Azure NetApp Files infrastructure, familiarize yourself with the Azure NetApp Files documentation.

Azure NetApp Files è disponibile in diverse aree di Azure.Azure NetApp Files is available in several Azure regions. Verificare se l'area di Azure selezionata offre Azure NetApp Files.Check to see whether your selected Azure region offers Azure NetApp Files.

Per informazioni sulla disponibilità di Azure NetApp Files dall'area di Azure, vedere Azure NetApp files disponibilità per area di Azure.For information about the availability of Azure NetApp Files by Azure region, see Azure NetApp Files Availability by Azure Region.

Prima di distribuire Azure NetApp Files, richiedere l'onboarding per Azure NetApp Files eseguendo la registrazione per istruzioni Azure NetApp files.Before you deploy Azure NetApp Files, request onboarding to Azure NetApp Files by going to Register for Azure NetApp Files instructions.

Distribuire le risorse di Azure NetApp FilesDeploy Azure NetApp Files resources

Le istruzioni seguenti presuppongono che la rete virtuale di Azuresia già stata distribuita.The following instructions assume that you've already deployed your Azure virtual network. Le risorse Azure NetApp Files e le macchine virtuali in cui verranno montate le risorse di Azure NetApp Files devono essere distribuite nella stessa rete virtuale di Azure o in reti virtuali di Azure con peering.The Azure NetApp Files resources and VMs, where the Azure NetApp Files resources will be mounted, must be deployed in the same Azure virtual network or in peered Azure virtual networks.

  1. Se le risorse non sono già state distribuite, richiedere l' onboarding per Azure NetApp files.If you haven't already deployed the resources, request onboarding to Azure NetApp Files.

  2. Per creare un account NetApp nell'area di Azure selezionata, seguire le istruzioni riportate in creare un account NetApp.Create a NetApp account in your selected Azure region by following the instructions in Create a NetApp account.

  3. Configurare un pool di capacità Azure NetApp Files seguendo le istruzioni riportate in configurare un pool di capacità Azure NetApp files.Set up an Azure NetApp Files capacity pool by following the instructions in Set up an Azure NetApp Files capacity pool.

    L'architettura HANA presentata in questo articolo usa un singolo pool di capacità Azure NetApp Files al livello di servizio ultra .The HANA architecture presented in this article uses a single Azure NetApp Files capacity pool at the Ultra Service level. Per i carichi di lavoro HANA in Azure, è consigliabile usare un livello di servizioAzure NetApp files ultra o Premium .For HANA workloads on Azure, we recommend using an Azure NetApp Files Ultra or Premium service Level.

  4. Delegare una subnet a Azure NetApp Files, come descritto nelle istruzioni in delegare una subnet a Azure NetApp files.Delegate a subnet to Azure NetApp Files, as described in the instructions in Delegate a subnet to Azure NetApp Files.

  5. Distribuire Azure NetApp Files volumi seguendo le istruzioni riportate in creare un volume NFS per Azure NetApp files.Deploy Azure NetApp Files volumes by following the instructions in Create an NFS volume for Azure NetApp Files.

    Quando si distribuiscono i volumi, assicurarsi di selezionare la versione NFSv 4.1.As you are deploying the volumes, be sure to select the NFSv4.1 version. Distribuire i volumi nella subnet di Azure NetApp Files designata.Deploy the volumes in the designated Azure NetApp Files subnet. Gli indirizzi IP dei volumi di Azure NetApp vengono assegnati automaticamente.The IP addresses of the Azure NetApp volumes are assigned automatically.

    Tenere presente che le risorse Azure NetApp Files e le macchine virtuali di Azure devono trovarsi nella stessa rete virtuale di Azure o in reti virtuali di Azure con peering.Keep in mind that the Azure NetApp Files resources and the Azure VMs must be in the same Azure virtual network or in peered Azure virtual networks. Ad esempio, hanadb1-data-mnt00001, hanadb1-log-mnt00001 e così via, sono i nomi di volume e nfs://10.32.2.4/hanadb1-data-mnt00001, nfs://10.32.2.4/hanadb1-log-mnt00001 e così via, sono i percorsi di file per i volumi Azure NetApp Files.For example, hanadb1-data-mnt00001, hanadb1-log-mnt00001, and so on, are the volume names and nfs://10.32.2.4/hanadb1-data-mnt00001, nfs://10.32.2.4/hanadb1-log-mnt00001, and so on, are the file paths for the Azure NetApp Files volumes.

    In hanadb1On hanadb1

    • Volume hanadb1-data-mnt00001 (nfs://10.32.2.4:/hanadb1-data-mnt00001)Volume hanadb1-data-mnt00001 (nfs://10.32.2.4:/hanadb1-data-mnt00001)
    • Volume hanadb1-log-mnt00001 (nfs://10.32.2.4:/hanadb1-log-mnt00001)Volume hanadb1-log-mnt00001 (nfs://10.32.2.4:/hanadb1-log-mnt00001)
    • Volume hanadb1-Shared-mnt00001 (nfs://10.32.2.4:/hanadb1-shared-mnt00001)Volume hanadb1-shared-mnt00001 (nfs://10.32.2.4:/hanadb1-shared-mnt00001)

    In hanadb2On hanadb2

    • Volume hanadb2-data-mnt00001 (nfs://10.32.2.4:/hanadb2-data-mnt00001)Volume hanadb2-data-mnt00001 (nfs://10.32.2.4:/hanadb2-data-mnt00001)
    • Volume hanadb2-log-mnt00001 (nfs://10.32.2.4:/hanadb2-log-mnt00001)Volume hanadb2-log-mnt00001 (nfs://10.32.2.4:/hanadb2-log-mnt00001)
    • Volume hanadb2-Shared-mnt00001 (nfs://10.32.2.4:/hanadb2-shared-mnt00001)Volume hanadb2-shared-mnt00001 (nfs://10.32.2.4:/hanadb2-shared-mnt00001)

Considerazioni importantiImportant considerations

Quando si crea la Azure NetApp Files per SAP HANA sistemi di scalabilità verticale, tenere presente quanto segue:As you are creating your Azure NetApp Files for SAP HANA Scale-up systems, be aware of the following consideration:

  • Il pool di capacità minimo è 4 TB (TiB).The minimum capacity pool is 4 tebibytes (TiB).
  • La dimensione minima del volume è 100 gibibyte (GiB).The minimum volume size is 100 gibibytes (GiB).
  • Azure NetApp Files e tutte le macchine virtuali in cui verranno montati i volumi di Azure NetApp Files devono trovarsi nella stessa rete virtuale di Azure o in reti virtuali con peering nella stessa area.Azure NetApp Files and all virtual machines where the Azure NetApp Files volumes will be mounted must be in the same Azure virtual network or in peered virtual networks in the same region.
  • La rete virtuale selezionata deve avere una subnet delegata a Azure NetApp Files.The selected virtual network must have a subnet that is delegated to Azure NetApp Files.
  • La velocità effettiva di un volume Azure NetApp Files è una funzione della quota del volume e del livello di servizio, come documentato nel livello di servizio per Azure NetApp files.The throughput of an Azure NetApp Files volume is a function of the volume quota and service level, as documented in Service level for Azure NetApp Files. Quando si ridimensionano i volumi di Azure NetApp di HANA, assicurarsi che la velocità effettiva risultante soddisfi i requisiti di sistema HANA.When you are sizing the HANA Azure NetApp volumes, make sure that the resulting throughput meets the HANA system requirements.
  • Con i criteri di esportazioneAzure NetApp files, è possibile controllare i client consentiti, il tipo di accesso (lettura/scrittura, sola lettura e così via).With the Azure NetApp Files export policy, you can control the allowed clients, the access type (read-write, read only, and so on).
  • La funzionalità Azure NetApp Files non è ancora in grado di riconoscere la zona.The Azure NetApp Files feature is not zone-aware yet. Attualmente, la funzionalità non è distribuita in tutte le zone di disponibilità in un'area di Azure.Currently, the feature is not deployed in all availability zones in an Azure region. Tenere presente le implicazioni di latenza potenziali in alcune aree di Azure.Be aware of the potential latency implications in some Azure regions.

Importante

Per carichi di lavoro SAP HANA, è fondamentale una bassa latenza.For SAP HANA workloads, low latency is critical. Collaborare con il rappresentante Microsoft per assicurarsi che le macchine virtuali e i volumi Azure NetApp Files vengano distribuiti in prossimità.Work with your Microsoft representative to ensure that the virtual machines and the Azure NetApp Files volumes are deployed in proximity.

Dimensionamento del database HANA in Azure NetApp FilesSizing of HANA database on Azure NetApp Files

La velocità effettiva di un volume Azure NetApp Files è una funzione delle dimensioni del volume e del livello di servizio, come documentato nel livello di servizio per Azure NetApp files.The throughput of an Azure NetApp Files volume is a function of the volume size and service level, as documented in Service level for Azure NetApp Files.

Quando si progetta l'infrastruttura per SAP in Azure, tenere presenti alcuni requisiti minimi di archiviazione da parte di SAP, che si traduce in caratteristiche di velocità effettiva minime:As you design the infrastructure for SAP in Azure, be aware of some minimum storage requirements by SAP, which translate into minimum throughput characteristics:

  • Lettura/scrittura su/Hana/log di 250 megabyte al secondo (MB/s) con dimensioni di I/O di 1 MB.Read-write on /hana/log of 250 megabytes per second (MB/s) with 1-MB I/O sizes.
  • Attività di lettura di almeno 400 MB/s per/Hana/data per le dimensioni di I/O di 16 MB e 64 MB.Read activity of at least 400 MB/s for /hana/data for 16-MB and 64-MB I/O sizes.
  • Attività di scrittura di almeno 250 MB/s per/Hana/data con dimensioni di I/O di 16 MB e 64 MB.Write activity of at least 250 MB/s for /hana/data with 16-MB and 64-MB I/O sizes.

I limiti di velocità effettiva di Azure NetApp Files per 1 TiB della quota del volume sono:The Azure NetApp Files throughput limits per 1 TiB of volume quota are:

  • Livello di archiviazione Premium-64 MiB/s.Premium Storage tier - 64 MiB/s.
  • Livello di archiviazione Ultra-128 MiB/s.Ultra Storage tier - 128 MiB/s.

Per soddisfare i requisiti di velocità effettiva minima SAP per/Hana/data e/Hana/log e le linee guida per/Hana/Shared, le dimensioni consigliate sono:To meet the SAP minimum throughput requirements for /hana/data and /hana/log, and the guidelines for /hana/shared, the recommended sizes would be:

VolumeVolume Dimensioni del livello di archiviazione PremiumSize of Premium Storage Tier Dimensioni del livello di archiviazione UltraSize of Ultra Storage Tier Protocollo NFS supportatoSupported NFS Protocol
/hana/log/hana/log 4 TiB4 TiB 2 TiB2 TiB v4.1v4.1
/hana/data/hana/data 6,3 TiB6.3 TiB 3,2 TiB3.2 TiB v4.1v4.1
/hana/shared/hana/shared 1 x RAM1 x RAM 1 x RAM1 x RAM v3 o v4.1v3 or v4.1

Nota

Le indicazioni relative al dimensionamento Azure NetApp Files indicate di seguito sono destinate a soddisfare i requisiti minimi consigliati da SAP per i provider di infrastruttura.The Azure NetApp Files sizing recommendations stated here are targeted to meet the minimum requirements that SAP recommends for their infrastructure providers. Nelle distribuzioni reali dei clienti e negli scenari di carico di lavoro, queste dimensioni potrebbero non essere sufficienti.In real customer deployments and workload scenarios, these sizes may not be sufficient. Considerare quindi queste indicazioni come punto di inizio e adattarle in base ai requisiti del carico di lavoro specifico.Use these recommendations as a starting point and adapt, based on the requirements of your specific workload.

Suggerimento

È possibile ridimensionare Azure NetApp Files volumi in modo dinamico, senza dover smontare i volumi, arrestare le macchine virtuali o arrestare SAP Hana.You can resize Azure NetApp Files volumes dynamically, without having to unmount the volumes, stop the virtual machines, or stop SAP HANA. Questo approccio offre la flessibilità necessaria per soddisfare le esigenze di velocità effettiva prevista e non prevista dell'applicazione.This approach allows flexibility to meet both the expected and unforeseen throughput demands of your application.

Nota

Tutti i comandi per montare/Hana/Shared in questo articolo sono presentati per i volumi NFSv 4.1/Hana/Shared.All commands to mount /hana/shared in this article are presented for NFSv4.1 /hana/shared volumes. Se i volumi/Hana/Shared sono stati distribuiti come volumi NFSv3, non dimenticare di modificare i comandi di montaggio per/Hana/Shared per NFSv3.If you deployed the /hana/shared volumes as NFSv3 volumes, don't forget to adjust the mount commands for /hana/shared for NFSv3.

Distribuire una macchina virtuale Linux tramite portale di AzureDeploy Linux virtual machine via Azure portal

Per prima cosa è necessario creare i volumi Azure NetApp Files.First you need to create the Azure NetApp Files volumes. Eseguire quindi i passaggi seguenti:Then do the following steps:

  1. Creare un gruppo di risorse.Create a resource group.
  2. Creare una rete virtuale.Create a virtual network.
  3. Creare un set di disponibilità.Create an availability set. Impostare il numero massimo di domini di aggiornamento.Set the max update domain.
  4. Creare un servizio di bilanciamento del carico (interno).Create a load balancer (internal). Si consiglia di usare Load Balancer Standard.We recommend standard load balancer. Selezionare la rete virtuale creata nel passaggio 2.Select the virtual network created in step 2.
  5. Creazione della macchina virtuale 1 (hanadb1).Create Virtual Machine 1 (hanadb1).
  6. Creazione della macchina virtuale 2 (hanadb2).Create Virtual Machine 2 (hanadb2).
  7. Durante la creazione della macchina virtuale, non verrà aggiunto alcun disco, perché tutti i punti di montaggio si troveranno sulle condivisioni NFS da Azure NetApp Files.While creating virtual machine, we will not be adding any disk as all our mount points will be on NFS shares from Azure NetApp Files.

Importante

L'IP mobile non è supportato in una configurazione IP secondaria di NIC negli scenari di bilanciamento del carico.Floating IP is not supported on a NIC secondary IP configuration in load-balancing scenarios. Per informazioni dettagliate, vedere limitazioni del servizio di bilanciamento del carico di Azure.For details see Azure Load balancer Limitations. Se è necessario un indirizzo IP aggiuntivo per la macchina virtuale, distribuire una seconda scheda di interfaccia di rete.If you need additional IP address for the VM, deploy a second NIC.

Nota

Se vengono inserite macchine virtuali senza indirizzi IP pubblici nel pool back-end di Load Balancer Standard interno ad Azure (nessun indirizzo IP pubblico), non sarà presente alcuna connettività Internet in uscita, a meno che non venga eseguita una configurazione aggiuntiva per consentire il routing a endpoint pubblici.When VMs without public IP addresses are placed in the backend pool of internal (no public IP address) Standard Azure load balancer, there will be no outbound internet connectivity, unless additional configuration is performed to allow routing to public end points. Per informazioni dettagliate su come ottenere la connettività in uscita, vedere Connettività degli endpoint pubblici per le macchine virtuali usando Load Balancer Standard di Azure negli scenari a disponibilità elevata SAP.For details on how to achieve outbound connectivity see Public endpoint connectivity for Virtual Machines using Azure Standard Load Balancer in SAP high-availability scenarios.

  1. Se si usa Load Balancer standard, seguire questa procedura di configurazione:If using standard load balancer, follow these configuration steps:

    1. Prima, creare il pool di indirizzi IP front-end:First, create a front-end IP pool:
      1. Aprire il servizio di bilanciamento del carico, selezionare Pool di indirizzi IP front-end e quindi Aggiungi.Open the load balancer, select frontend IP pool, and select Add.
      2. Immettere il nome del nuovo pool di indirizzi IP front-end (ad esempio, hana-frontend).Enter the name of the new front-end IP pool (for example, hana-frontend).
      3. Impostare l' assegnazione su statico e immettere l'indirizzo IP (ad esempio, 10.32.0.10).Set the Assignment to Static and enter the IP address (for example, 10.32.0.10).
      4. Selezionare OK.Select OK.
      5. Dopo aver creato il nuovo pool di indirizzi IP front-end, annotare l'indirizzo IP del pool.After the new front-end IP pool is created, note the pool IP address.
    2. Creare quindi un pool back-end:Next, create a back-end pool:
      1. Aprire il servizio di bilanciamento del carico, selezionare Pool back-end e quindi Aggiungi.Open the load balancer, select backend pools, and select Add.
      2. Immettere il nome del nuovo pool back-end (ad esempio, hana-backend).Enter the name of the new back-end pool (for example, hana-backend).
      3. Selezionare Aggiungi una macchina virtuale.Select Add a virtual machine.
      4. Selezionare Macchina virtuale.Select ** Virtual machine**.
      5. Selezionare le macchine virtuali del cluster SAP HANA e il rispettivo indirizzo IP.Select the virtual machines of the SAP HANA cluster and their IP addresses.
      6. Selezionare Aggiungi.Select Add.
    3. Creare quindi un probe di integrità:Next, create a health probe:
      1. Aprire il servizio di bilanciamento del carico, selezionare Probe integrità e quindi Aggiungi.Open the load balancer, select health probes, and select Add.
      2. Immettere il nome del nuovo probe di integrità (ad esempio, hana-hp).Enter the name of the new health probe (for example, hana-hp).
      3. Selezionare TCP come protocollo e la porta 625 03.Select TCP as the protocol and port 625 03. Lasciare il valore di Intervallo impostato su 5 e il valore di Soglia di non integrità impostato su 2.Keep the Interval value set to 5, and the Unhealthy threshold value set to 2.
      4. Selezionare OK.Select OK.
    4. Successivamente, creare le regole del servizio di bilanciamento del carico:Next, create the load-balancing rules:
      1. Aprire il servizio di bilanciamento del carico, selezionare Regole di bilanciamento del carico e quindi Aggiungi.Open the load balancer, select load balancing rules, and select Add.
      2. Immettere il nome della nuova regola di bilanciamento del carico (ad esempio, hana-lb).Enter the name of the new load balancer rule (for example, hana-lb).
      3. Selezionare l'indirizzo IP front-end, il pool back-end e il probe di integrità creati in precedenza (ad esempio, hana-frontend, hana-backend e hana-hp).Select the front-end IP address, the back-end pool, and the health probe that you created earlier (for example, hana-frontend, hana-backend and hana-hp).
      4. Selezionare Porte a disponibilità elevata.Select HA Ports.
      5. Aumentare il valore di Timeout di inattività a 30 minuti.Increase the idle timeout to 30 minutes.
      6. Assicurarsi di selezionare Abilita l'indirizzo IP mobile.Make sure to enable Floating IP.
      7. Selezionare OK.Select OK.
  2. In alternativa, se lo scenario prevede l'uso del servizio di bilanciamento del carico di base, seguire questa procedura di configurazione:Alternatively, if your scenario dictates using basic load balancer, follow these configuration steps:

    1. Configurare il servizio di bilanciamento del carico.Configure the load balancer. Prima, creare il pool di indirizzi IP front-end:First, create a front-end IP pool:
      1. Aprire il servizio di bilanciamento del carico, selezionare Pool di indirizzi IP front-end e quindi Aggiungi.Open the load balancer, select frontend IP pool, and select Add.
      2. Immettere il nome del nuovo pool di indirizzi IP front-end (ad esempio, hana-frontend).Enter the name of the new front-end IP pool (for example, hana-frontend).
      3. Impostare l' assegnazione su statico e immettere l'indirizzo IP (ad esempio, 10.32.0.10).Set the Assignment to Static and enter the IP address (for example, 10.32.0.10).
      4. Selezionare OK.Select OK.
      5. Dopo aver creato il nuovo pool di indirizzi IP front-end, annotare l'indirizzo IP del pool.After the new front-end IP pool is created, note the pool IP address.
    2. Creare quindi un pool back-end:Next, create a back-end pool:
      1. Aprire il servizio di bilanciamento del carico, selezionare Pool back-end e quindi Aggiungi.Open the load balancer, select backend pools, and select Add.
      2. Immettere il nome del nuovo pool back-end (ad esempio, hana-backend).Enter the name of the new back-end pool (for example, hana-backend).
      3. Selezionare Aggiungi una macchina virtuale.Select Add a virtual machine.
      4. Selezionare il set di disponibilità creato nel passaggio 3.Select the availability set created in step 3.
      5. Selezionare le macchine virtuali del cluster SAP HANA.Select the virtual machines of the SAP HANA cluster.
      6. Selezionare OK.Select OK.
    3. Creare quindi un probe di integrità:Next, create a health probe:
      1. Aprire il servizio di bilanciamento del carico, selezionare Probe integrità e quindi Aggiungi.Open the load balancer, select health probes, and select Add.
      2. Immettere il nome del nuovo probe di integrità (ad esempio, hana-hp).Enter the name of the new health probe (for example, hana-hp).
      3. Selezionare TCP come protocollo e la porta 625 03.Select TCP as the protocol and port 625 03. Lasciare il valore di Intervallo impostato su 5 e il valore di Soglia di non integrità impostato su 2.Keep the Interval value set to 5, and the Unhealthy threshold value set to 2.
      4. Selezionare OK.Select OK.
    4. Per SAP HANA 1.0, creare le regole di bilanciamento del carico:For SAP HANA 1.0, create the load-balancing rules:
      1. Aprire il servizio di bilanciamento del carico, selezionare Regole di bilanciamento del carico e quindi Aggiungi.Open the load balancer, select load balancing rules, and select Add.
      2. Immettere il nome della nuova regola di bilanciamento del carico (ad esempio, hana-lb-3 03 15).Enter the name of the new load balancer rule (for example, hana-lb-3 03 15).
      3. Selezionare l'indirizzo IP front-end, il pool back-end e il probe di integrità creati in precedenza (ad esempio, hana-frontend).Select the front-end IP address, the back-end pool, and the health probe that you created earlier (for example, hana-frontend).
      4. Lasciare il valore di Protocollo impostato su TCP e immettere la porta 3 03 15.Keep the Protocol set to TCP, and enter port 3 03 15.
      5. Aumentare il valore di Timeout di inattività a 30 minuti.Increase the idle timeout to 30 minutes.
      6. Assicurarsi di selezionare Abilita l'indirizzo IP mobile.Make sure to enable Floating IP.
      7. Selezionare OK.Select OK.
      8. Ripetere questi passaggi per la porta 3 03 17.Repeat these steps for port 3 03 17.
    5. Per SAP HANA 2.0, creare le regole di bilanciamento del carico per il database di sistema:For SAP HANA 2.0, create the load-balancing rules for the system database:
      1. Aprire il servizio di bilanciamento del carico, selezionare Regole di bilanciamento del carico e quindi Aggiungi.Open the load balancer, select load balancing rules, and select Add.
      2. Immettere il nome della nuova regola di bilanciamento del carico (ad esempio, hana-lb-3 03 13).Enter the name of the new load balancer rule (for example, hana-lb-3 03 13).
      3. Selezionare l'indirizzo IP front-end, il pool back-end e il probe di integrità creati in precedenza (ad esempio, hana-frontend).Select the front-end IP address, the back-end pool, and the health probe that you created earlier (for example, hana-frontend).
      4. Lasciare il valore di Protocollo impostato su TCP e immettere la porta 3 03 13.Keep the Protocol set to TCP, and enter port 3 03 13.
      5. Aumentare il valore di Timeout di inattività a 30 minuti.Increase the idle timeout to 30 minutes.
      6. Assicurarsi di selezionare Abilita l'indirizzo IP mobile.Make sure to enable Floating IP.
      7. Selezionare OK.Select OK.
      8. Ripetere questi passaggi per la porta 3 03 14.Repeat these steps for port 3 03 14.
    6. Per SAP HANA 2.0, creare prima le regole di bilanciamento del carico per il database tenant:For SAP HANA 2.0, first create the load-balancing rules for the tenant database:
      1. Aprire il servizio di bilanciamento del carico, selezionare Regole di bilanciamento del carico e quindi Aggiungi.Open the load balancer, select load balancing rules, and select Add.
      2. Immettere il nome della nuova regola di bilanciamento del carico (ad esempio, hana-lb-3 03 40).Enter the name of the new load balancer rule (for example, hana-lb-3 03 40).
      3. Selezionare l'indirizzo IP front-end, il pool back-end e il probe di integrità creati in precedenza (ad esempio, hana-frontend).Select the frontend IP address, backend pool, and health probe you created earlier (for example, hana-frontend).
      4. Lasciare il valore di Protocollo impostato su TCP e immettere la porta 3 03 40.Keep the Protocol set to TCP, and enter port 3 03 40.
      5. Aumentare il valore di Timeout di inattività a 30 minuti.Increase the idle timeout to 30 minutes.
      6. Assicurarsi di selezionare Abilita l'indirizzo IP mobile.Make sure to enable Floating IP.
      7. Selezionare OK.Select OK.
      8. Ripetere questi passaggi per le porte 3 03 41 e 3 03 42.Repeat these steps for ports 3 03 41 and 3 03 42.

Per ulteriori informazioni sulle porte necessarie per SAP HANA, vedere il capitolo connessioni ai database tenant nella Guida ai database tenant di SAP Hana o la nota SAP 2388694.For more information about the required ports for SAP HANA, read the chapter Connections to Tenant Databases in the SAP HANA Tenant Databases guide or SAP Note 2388694.

Importante

Non abilitare i timestamp TCP nelle macchine virtuali di Azure che si trovano dietro Azure Load Balancer.Do not enable TCP timestamps on Azure VMs placed behind Azure Load Balancer. Se si abilitano i timestamp TCP, i probe di integrità avranno esito negativo.Enabling TCP timestamps will cause the health probes to fail. Impostare il parametro net.ipv4.tcp_timestamps su 0.Set parameter net.ipv4.tcp_timestamps to 0. Per informazioni dettagliate, vedere Probe di integrità di Load Balancer.For details see Load Balancer health probes. Vedere anche la nota SAP 2382421.See also SAP note 2382421.

Montare il volume Azure NetApp FilesMount the Azure NetApp Files volume

  1. [A] creare punti di montaggio per i volumi del database Hana.[A] Create mount points for the HANA database volumes.

    mkdir -p /hana/data
    mkdir -p /hana/log
    mkdir -p /hana/shared
    
  2. [A] verificare l'impostazione del dominio NFS.[A] Verify the NFS domain setting. Verificare che il dominio sia configurato come predefinito Azure NetApp Files dominio, ad esempio defaultv4iddomain.com e che il mapping sia impostato su nessuno.Make sure that the domain is configured as the default Azure NetApp Files domain, i.e. defaultv4iddomain.com and the mapping is set to nobody.

    sudo cat /etc/idmapd.conf
    # Example
    [General]
    Domain = defaultv4iddomain.com
    [Mapping]
    Nobody-User = nobody
    Nobody-Group = nobody
    

    Importante

    Assicurarsi di impostare il dominio NFS in/etc/idmapd.conf nella macchina virtuale in modo che corrisponda alla configurazione del dominio predefinito su Azure NetApp Files: defaultv4iddomain.com.Make sure to set the NFS domain in /etc/idmapd.conf on the VM to match the default domain configuration on Azure NetApp Files: defaultv4iddomain.com. Se si verifica una mancata corrispondenza tra la configurazione del dominio nel client NFS (ovvero la macchina virtuale) e il server NFS, ad esempio la configurazione di Azure NetApp, le autorizzazioni per i file nei volumi NetApp di Azure montate nelle VM verranno visualizzate come nessuno.If there's a mismatch between the domain configuration on the NFS client (i.e. the VM) and the NFS server, i.e. the Azure NetApp configuration, then the permissions for files on Azure NetApp volumes that are mounted on the VMs will be displayed as nobody.

  3. [1] montare i volumi specifici del nodo in Node1 (hanadb1)[1] Mount the node-specific volumes on node1 (hanadb1)

    sudo mount -o rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 10.32.2.4:/hanadb1-shared-mnt00001 /hana/shared
    sudo mount -o rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 10.32.2.4:/hanadb1-log-mnt00001 /hana/log
    sudo mount -o rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 10.32.2.4:/hanadb1-data-mnt00001 /hana/data
    
  4. [2] montare i volumi specifici del nodo in Node2 (hanadb2)[2] Mount the node-specific volumes on node2 (hanadb2)

    sudo mount -o rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 10.32.2.4:/hanadb2-shared-mnt00001 /hana/shared
    sudo mount -o rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 10.32.2.4:/hanadb2-log-mnt00001 /hana/log
    sudo mount -o rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 10.32.2.4:/hanadb2-data-mnt00001 /hana/data
    
  5. [A] verificare che tutti i volumi Hana siano montati con il protocollo NFS versione NFSv4.[A] Verify that all HANA volumes are mounted with NFS protocol version NFSv4.

    sudo nfsstat -m
    
    # Verify that flag vers is set to 4.1 
    # Example from hanadb1
    
    /hana/log from 10.32.2.4:/hanadb1-log-mnt00001
    Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.32.0.4,local_lock=none,addr=10.32.2.4
    /hana/data from 10.32.2.4:/hanadb1-data-mnt00001
    Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.32.0.4,local_lock=none,addr=10.32.2.4
    /hana/shared from 10.32.2.4:/hanadb1-shared-mnt00001
    Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.32.0.4,local_lock=none,addr=10.32.2.4
    
  6. [A] verificare nfs4_disable_idmapping.[A] Verify nfs4_disable_idmapping. Deve essere impostato su Y. Per creare la struttura di directory in cui si trova nfs4_disable_idmapping , eseguire il comando mount.It should be set to Y. To create the directory structure where nfs4_disable_idmapping is located, execute the mount command. Non sarà possibile creare manualmente la directory in/sys/modules, perché l'accesso è riservato per il kernel/driver.You won't be able to manually create the directory under /sys/modules, because access is reserved for the kernel / drivers.

    # Check nfs4_disable_idmapping 
    cat /sys/module/nfs/parameters/nfs4_disable_idmapping
    
    # If you need to set nfs4_disable_idmapping to Y
    echo "Y" > /sys/module/nfs/parameters/nfs4_disable_idmapping
    
    # Make the configuration permanent
    echo "options nfs nfs4_disable_idmapping=Y" >> /etc/modprobe.d/nfs.conf
    

    Per ulteriori informazioni su come modificare nfs_disable_idmapping parametro, vedere https://access.redhat.com/solutions/1749883 .For more details on how to change nfs_disable_idmapping parameter, see https://access.redhat.com/solutions/1749883.

Installazione di SAP HANASAP HANA installation

  1. [T] Configurare la risoluzione dei nomi host per tutti gli host.[A] Set up host name resolution for all hosts.

    È possibile usare un server DNS o modificare il file /etc/hosts in tutti i nodi.You can either use a DNS server or modify the /etc/hosts file on all nodes. Questo esempio mostra come usare il file /etc/hosts.This example shows you how to use the /etc/hosts file. Sostituire l'indirizzo IP e il nome host nei comandi seguenti:Replace the IP address and the hostname in the following commands:

    sudo vi /etc/hosts
    # Insert the following lines in the /etc/hosts file. Change the IP address and hostname to match your environment  
    10.32.0.4   hanadb1
    10.32.0.5   hanadb2
    
  2. [A] RHEL per la configurazione Hana[A] RHEL for HANA Configuration

    Configurare RHEL come descritto nella nota SAP seguente basata sulla versione di RHELConfigure RHEL as described in below SAP Note based on your RHEL version

  3. [T] Installare SAP HANA[A] Install the SAP HANA

    Avviato con HANA 2,0 SPS 01, MDC è l'opzione predefinita.Started with HANA 2.0 SPS 01, MDC is the default option. Quando si installa HANA System, SYSTEMDB e un tenant con lo stesso SID verranno creati insieme.When you install HANA system, SYSTEMDB and a tenant with same SID will be created together. In alcuni casi non si vuole usare il tenant predefinito.In some case you do not want the default tenant. In caso contrario, se non si vuole creare un tenant iniziale insieme all'installazione, è possibile seguire la nota SAP 2629711In case, if you don’t want to create initial tenant along with the installation you can follow SAP Note 2629711

    Eseguire il programma hdblcm dal DVD di HANA.Run the hdblcm program from the HANA DVD. Immettere i valori seguenti al prompt:Enter the following values at the prompt:
    Scegliere l'installazione: immettere 1 (per l'installazione)Choose installation: Enter 1 (for install)
    Selezionare i componenti aggiuntivi per l'installazione: Immettere 1.Select additional components for installation: Enter 1.
    Immettere il percorso di installazione [/Hana/Shared]: premere INVIO per accettare il valore predefinitoEnter Installation Path [/hana/shared]: press Enter to accept the default
    Immettere il nome host locale [..]: premere INVIO per accettare il valore predefinitoEnter Local Host Name [..]: Press Enter to accept the default
    Aggiungere altri host al sistema?Do you want to add additional hosts to the system? (s/n) [n]: n(y/n) [n]: n
    Immettere SAP HANA ID sistema: immettere HN1.Enter SAP HANA System ID: Enter HN1.
    Immettere il numero di istanza [00]: immettere 03Enter Instance Number [00]: Enter 03
    Selezione modalità database/immettere l'indice [1]: premere INVIO per accettare il valore predefinitoSelect Database Mode / Enter Index [1]: press Enter to accept the default
    Seleziona utilizzo sistema/immettere l'indice [4]: immettere 4 (per personalizzato)Select System Usage / Enter Index [4]: enter 4 (for custom)
    Immettere il percorso dei volumi di dati [/Hana/data]: premere INVIO per accettare il valore predefinitoEnter Location of Data Volumes [/hana/data]: press Enter to accept the default
    Immettere il percorso dei volumi di log [/Hana/log]: premere INVIO per accettare il valore predefinitoEnter Location of Log Volumes [/hana/log]: press Enter to accept the default
    Limitare l'allocazione massima della memoria?Restrict maximum memory allocation? [n]: premere INVIO per accettare il valore predefinito
    Immettere il nome host del certificato per l'host '.. .' [...]: premere INVIO per accettare il valore predefinitoEnter Certificate Host Name For Host '...' [...]: press Enter to accept the default
    Immettere la password dell'utente agente host SAP (sapadm): immettere la password utente dell'agente hostEnter SAP Host Agent User (sapadm) Password: Enter the host agent user password
    Confermare la password dell'utente agente host SAP (sapadm): immettere di nuovo la password dell'utente dell'agente host per confermareConfirm SAP Host Agent User (sapadm) Password: Enter the host agent user password again to confirm
    Immettere la password dell'amministratore di sistema (hn1adm): immettere la password dell'amministratore di sistemaEnter System Administrator (hn1adm) Password: Enter the system administrator password
    Confermare la password dell'amministratore di sistema (hn1adm): immettere di nuovo la password dell'amministratore di sistema per confermareConfirm System Administrator (hn1adm) Password: Enter the system administrator password again to confirm
    Immettere la home directory dell'amministratore di sistema [/usr/sap/HN1/home]: premere INVIO per accettare il valore predefinitoEnter System Administrator Home Directory [/usr/sap/HN1/home]: press Enter to accept the default
    Immettere la shell di accesso dell'amministratore di sistema [/bin/sh]: premere INVIO per accettare il valore predefinitoEnter System Administrator Login Shell [/bin/sh]: press Enter to accept the default
    Immettere l'ID utente dell'amministratore di sistema [1001]: premere INVIO per accettare il valore predefinitoEnter System Administrator User ID [1001]: press Enter to accept the default
    Immettere l'ID del gruppo utenti (sapsys) [79]: premere INVIO per accettare il valore predefinitoEnter ID of User Group (sapsys) [79]: press Enter to accept the default
    Immettere la password dell'utente del database (SYSTEM): immettere la password dell'utente del databaseEnter Database User (SYSTEM) Password: Enter the database user password
    Conferma password utente database (sistema): immettere di nuovo la password dell'utente del database per confermareConfirm Database User (SYSTEM) Password: Enter the database user password again to confirm
    Riavviare il sistema dopo il riavvio della macchina?Restart system after machine reboot? [n]: premere INVIO per accettare il valore predefinito
    Continuare?Do you want to continue? (y/n): Convalidare il riepilogo.(y/n): Validate the summary. Immettere y per continuareEnter y to continue

  4. [A] Aggiornare l'agente host SAP[A] Upgrade SAP Host Agent

    Scaricare l'archivio dell'agente host SAP più recente dal sito SAP Software Center ed eseguire il comando seguente per aggiornare l'agente.Download the latest SAP Host Agent archive from the SAP Software Center and run the following command to upgrade the agent. Sostituire il percorso dell'archivio in modo da puntare al file scaricato:Replace the path to the archive to point to the file that you downloaded:

    sudo /usr/sap/hostctrl/exe/saphostexec -upgrade -archive <path to SAP Host Agent SAR>
    
  5. [T] Configurare il firewall[A] Configure firewall

    Creare la regola del firewall per la porta probe di Azure Load Balancer.Create the firewall rule for the Azure load balancer probe port.

    sudo firewall-cmd --zone=public --add-port=62503/tcp
    sudo firewall-cmd --zone=public --add-port=62503/tcp –permanent
    

Configure SAP HANA system replication (Configurare la replica di sistema SAP HANA)Configure SAP HANA system replication

Eseguire la procedura descritta in configurare SAP Hana la replica di sistema per configurare SAP Hana la replica di sistema.Follow the steps in Set up SAP HANA System Replication to configure SAP HANA System Replication.

Configurazione del clusterCluster configuration

In questa sezione vengono descritti i passaggi necessari per il funzionamento uniforme del cluster quando SAP HANA viene installato nelle condivisioni NFS tramite Azure NetApp Files.This section describes necessary steps required for cluster to operate seamlessly when SAP HANA is installed on NFS shares using Azure NetApp Files.

Creare un cluster PacemakerCreate a Pacemaker cluster

Seguire i passaggi descritti in configurazione di pacemaker in Red Hat Enterprise Linux in Azure per creare un cluster Pacemaker di base per questo server Hana.Follow the steps in Setting up Pacemaker on Red Hat Enterprise Linux in Azure to create a basic Pacemaker cluster for this HANA server.

Configurare le risorse filesystemConfigure filesystem resources

In questo esempio ogni nodo del cluster ha i propri filesystem HANA NFS/Hana/Shared,/Hana/data e/Hana/log.In this example each cluster node has its own HANA NFS filesystems /hana/shared, /hana/data, and /hana/log.

  1. [1] impostare il cluster in modalità manutenzione.[1] Put the cluster in maintenance mode.

    pcs property set maintenance-mode=true
    
  2. [1] creare le risorse del file System per i montaggi hanadb1 .[1] Create the Filesystem resources for the hanadb1 mounts.

    pcs resource create hana_data1 ocf:heartbeat:Filesystem device=10.32.2.4:/hanadb1-data-mnt00001 directory=/hana/data fstype=nfs options=rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys op monitor interval=20s on-fail=fence timeout=40s OCF_CHECK_LEVEL=20 --group hanadb1_nfs
    pcs resource create hana_log1 ocf:heartbeat:Filesystem device=10.32.2.4:/hanadb1-log-mnt00001 directory=/hana/log fstype=nfs options=rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys op monitor interval=20s on-fail=fence timeout=40s OCF_CHECK_LEVEL=20 --group hanadb1_nfs
    pcs resource create hana_shared1 ocf:heartbeat:Filesystem device=10.32.2.4:/hanadb1-shared-mnt00001 directory=/hana/shared fstype=nfs options=rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys op monitor interval=20s on-fail=fence timeout=40s OCF_CHECK_LEVEL=20 --group hanadb1_nfs
    
  3. [2] creare le risorse del file System per i montaggi hanadb2 .[2] Create the Filesystem resources for the hanadb2 mounts.

    pcs resource create hana_data2 ocf:heartbeat:Filesystem device=10.32.2.4:/hanadb2-data-mnt00001 directory=/hana/data fstype=nfs options=rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys op monitor interval=20s on-fail=fence timeout=40s OCF_CHECK_LEVEL=20 --group hanadb2_nfs
    pcs resource create hana_log2 ocf:heartbeat:Filesystem device=10.32.2.4:/hanadb2-log-mnt00001 directory=/hana/log fstype=nfs options=rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys op monitor interval=20s on-fail=fence timeout=40s OCF_CHECK_LEVEL=20 --group hanadb2_nfs
    pcs resource create hana_shared2 ocf:heartbeat:Filesystem device=10.32.2.4:/hanadb2-shared-mnt00001 directory=/hana/shared fstype=nfs options=rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys op monitor interval=20s on-fail=fence timeout=40s OCF_CHECK_LEVEL=20 --group hanadb2_nfs
    

    OCF_CHECK_LEVEL=20 l'attributo viene aggiunto all'operazione di monitoraggio in modo che ogni monitoraggio esegua un test di lettura/scrittura sul file System.OCF_CHECK_LEVEL=20 attribute is added to the monitor operation so that each monitor performs a read/write test on the filesystem. Senza questo attributo, l'operazione di monitoraggio verifica solo che il file System sia montato.Without this attribute, the monitor operation only verifies that the filesystem is mounted. Questo può costituire un problema perché, in caso di perdita della connettività, il file System può rimanere montato nonostante non sia accessibile.This can be a problem because when connectivity is lost, the filesystem may remain mounted despite being inaccessible.

    on-fail=fence l'attributo viene aggiunto anche all'operazione di monitoraggio.on-fail=fence attribute is also added to the monitor operation. Con questa opzione, se l'operazione di monitoraggio ha esito negativo in un nodo, il nodo viene immediatamente recintato.With this option, if the monitor operation fails on a node, that node is immediately fenced. Senza questa opzione, il comportamento predefinito prevede l'arresto di tutte le risorse che dipendono dalla risorsa non riuscita, quindi il riavvio della risorsa non riuscita, quindi l'avvio di tutte le risorse che dipendono dalla risorsa che ha avuto esito negativo.Without this option, the default behavior is to stop all resources that depend on the failed resource, then restart the failed resource, then start all the resources that depend on the failed resource. Questo comportamento non solo può richiedere molto tempo quando una risorsa SAPHana dipende dalla risorsa che ha avuto esito negativo, ma può anche avere esito negativo.Not only can this behavior take a long time when an SAPHana resource depends on the failed resource, but it also can fail altogether. La risorsa SAPHana non può arrestarsi correttamente se il server NFS che contiene i file eseguibili HANA non è accessibile.The SAPHana resource cannot stop successfully if the NFS server holding the HANA executables is inaccessible.

  4. [1] configurazione di vincoli di percorso[1] Configuring Location Constraints

    Configurare i vincoli di posizione per assicurarsi che le risorse che gestiscono i montaggi univoci di hanadb1 non possano mai essere eseguite in hanadb2 e viceversa.Configure location constraints to ensure that the resources that manage hanadb1 unique mounts can never run on hanadb2, and vice-versa.

    pcs constraint location hanadb1_nfs rule score=-INFINITY resource-discovery=never \#uname eq hanadb2
    pcs constraint location hanadb2_nfs rule score=-INFINITY resource-discovery=never \#uname eq hanadb1
    

    L' resource-discovery=never opzione è impostata perché i montaggi univoci per ogni nodo condividono lo stesso punto di montaggio.The resource-discovery=never option is set because the unique mounts for each node share the same mount point. Ad esempio, hana_data1 Usa il punto di montaggio /hana/data e hana_data2 usa anche il punto di montaggio /hana/data .For example, hana_data1 uses mount point /hana/data, and hana_data2 also uses mount point /hana/data. Questo può causare un falso positivo per un'operazione Probe, quando lo stato della risorsa viene verificato all'avvio del cluster e questo può a sua volta causare un comportamento di recupero non necessario.This can cause a false positive for a probe operation, when resource state is checked at cluster startup, and this can in turn cause unnecessary recovery behavior. Questo problema può essere evitato impostando resource-discovery=neverThis can be avoided by setting resource-discovery=never

  5. [1] configurazione delle risorse degli attributi[1] Configuring Attribute Resources

    Configurare le risorse degli attributi.Configure attribute resources. Questi attributi verranno impostati su true se vengono montati tutti i montaggi NFS di un nodo (/Hana/data,/Hana/log e/Hana/Data) e verranno impostati su false in caso contrario.These attributes will be set to true if all of a node's NFS mounts (/hana/data, /hana/log, and /hana/data) are mounted and will be set to false otherwise.

    pcs resource create hana_nfs1_active ocf:pacemaker:attribute active_value=true inactive_value=false name=hana_nfs1_active
    pcs resource create hana_nfs2_active ocf:pacemaker:attribute active_value=true inactive_value=false name=hana_nfs2_active
    
  6. [1] configurazione di vincoli di percorso[1] Configuring Location Constraints

    Configurare i vincoli di percorso per assicurarsi che la risorsa dell'attributo hanadb1's non venga mai eseguita in hanadb2 e viceversa.Configure location constraints to ensure that hanadb1’s attribute resource never runs on hanadb2, and vice-versa.

    pcs constraint location hana_nfs1_active avoids hanadb2
    pcs constraint location hana_nfs2_active avoids hanadb1
    
  7. [1] creazione di vincoli di ordinamento[1] Creating Ordering Constraints

    Configurare i vincoli di ordinamento in modo che le risorse degli attributi di un nodo vengano avviate solo dopo l'installazione di tutti i montaggi NFS del nodo.Configure ordering constraints so that a node's attribute resources start only after all of the node's NFS mounts are mounted.

    pcs constraint order hanadb1_nfs then hana_nfs1_active
    pcs constraint order hanadb2_nfs then hana_nfs2_active
    

    Suggerimento

    Se la configurazione include file System, all'esterno del gruppo hanadb1_nfs o hanadb2_nfs , includere l' sequential=false opzione, in modo che non esistano dipendenze di ordinamento tra i file System.If your configuration includes file systems, outside of group hanadb1_nfs or hanadb2_nfs, then include the sequential=false option, so that there are no ordering dependencies among the file systems. Tutti i file System devono iniziare prima hana_nfs1_active , ma non devono essere avviati in alcun ordine.All file systems must start before hana_nfs1_active, but they do not need to start in any order relative to each other. Per altri dettagli, vedere ricerca per categorie configurare la replica del sistema SAP Hana in Scale-Up in un cluster pacemaker quando i filesystem Hana si trovano su condivisioni NFSFor more details see How do I configure SAP HANA System Replication in Scale-Up in a Pacemaker cluster when the HANA filesystems are on NFS shares

Configurare SAP HANA risorse clusterConfigure SAP HANA cluster resources

  1. Per creare le risorse SAP HANA nel cluster, seguire la procedura descritta in creare SAP Hana risorse del cluster .Follow the steps in Create SAP HANA cluster resources to create the SAP HANA Resources in the cluster. Una volta create le risorse di SAP HANA, è necessario creare un vincolo della regola di posizione tra SAP HANA risorse e i filesystem (montaggi NFS)Once SAP HANA resources are created, we need to create a location rule constraint between SAP HANA resources and Filesystems (NFS Mounts)

  2. [1] configurare i vincoli tra le risorse SAP HANA e i montaggi NFS[1] Configure constraints between the SAP HANA resources and the NFS mounts

    I vincoli della regola di percorso verranno impostati in modo che le risorse SAP HANA possano essere eseguite su un nodo solo se sono montati tutti i montaggi NFS del nodo.Location rule constraints will be set so that the SAP HANA resources can run on a node only if all of the node's NFS mounts are mounted.

    pcs constraint location SAPHanaTopology_HN1_03-clone rule score=-INFINITY hana_nfs1_active ne true and hana_nfs2_active ne true
    # On RHEL 7.x
    pcs constraint location SAPHana_HN1_03-master rule score=-INFINITY hana_nfs1_active ne true and hana_nfs2_active ne true
    # On RHEL 8.x
    pcs constraint location SAPHana_HN1_03-clone rule score=-INFINITY hana_nfs1_active ne true and hana_nfs2_active ne true
    # Take the cluster out of maintenance mode
    sudo pcs property set maintenance-mode=false
    

    Verificare lo stato del cluster e tutte le risorseCheck the status of cluster and all the resources

    Nota

    Questo articolo contiene riferimenti al termine slave, un termine che Microsoft non usa più.This article contains references to the term slave, a term that Microsoft no longer uses. Quando il termine verrà rimosso dal software, verrà rimosso anche dall'articolo.When the term is removed from the software, we’ll remove it from this article.

    sudo pcs status
    
    Online: [ hanadb1 hanadb2 ]
    
    Full list of resources:
    
    rsc_hdb_azr_agt(stonith:fence_azure_arm):  Started hanadb1
    
    Resource Group: hanadb1_nfs
    hana_data1 (ocf::heartbeat:Filesystem):Started hanadb1
    hana_log1  (ocf::heartbeat:Filesystem):Started hanadb1
    hana_shared1   (ocf::heartbeat:Filesystem):Started hanadb1
    
    Resource Group: hanadb2_nfs
    hana_data2 (ocf::heartbeat:Filesystem):Started hanadb2
    hana_log2  (ocf::heartbeat:Filesystem):Started hanadb2
    hana_shared2   (ocf::heartbeat:Filesystem):Started hanadb2
    
    hana_nfs1_active   (ocf::pacemaker:attribute): Started hanadb1
    hana_nfs2_active   (ocf::pacemaker:attribute): Started hanadb2
    
    Clone Set: SAPHanaTopology_HN1_03-clone [SAPHanaTopology_HN1_03]
    Started: [ hanadb1 hanadb2 ]
    
    Master/Slave Set: SAPHana_HN1_03-master [SAPHana_HN1_03]
    Masters: [ hanadb1 ]
    Slaves: [ hanadb2 ]
    
    Resource Group: g_ip_HN1_03
    nc_HN1_03  (ocf::heartbeat:azure-lb):  Started hanadb1
    vip_HN1_03 (ocf::heartbeat:IPaddr2):   Started hanadb1
    

Configurare la replica di sistema HANA Active/Read Enabled nel cluster PacemakerConfigure HANA active/read enabled system replication in Pacemaker cluster

A partire da SAP HANA 2,0 SPS 01 SAP consente le configurazioni abilitate per la replica del sistema SAP HANA, attive o in lettura, in cui i sistemi secondari di SAP HANA la replica di sistema possono essere usati attivamente per carichi di lavoro di lettura intensa.Starting with SAP HANA 2.0 SPS 01 SAP allows Active/Read-Enabled setups for SAP HANA System Replication, where the secondary systems of SAP HANA system replication can be used actively for read-intense workloads. Per supportare tale configurazione in un cluster, è necessario un secondo indirizzo IP virtuale che consente ai client di accedere al database di SAP HANA abilitato per la lettura secondario.To support such setup in a cluster a second virtual IP address is required which allows clients to access the secondary read-enabled SAP HANA database. Per assicurarsi che sia ancora possibile accedere al sito di replica secondaria dopo che si è verificata un'acquisizione, il cluster deve spostare l'indirizzo IP virtuale intorno al database secondario della risorsa SAPHana.To ensure that the secondary replication site can still be accessed after a takeover has occurred the cluster needs to move the virtual IP address around with the secondary of the SAPHana resource.

La configurazione aggiuntiva, necessaria per gestire la replica di sistema abilitata per Active/Read HANA in un cluster a disponibilità elevata di Red Hat con il secondo indirizzo IP virtuale, è descritta in configurare la replica di sistema di Hana Active/Read Enabled nel cluster Pacemaker.The additional configuration, required to manage HANA Active/Read enabled system replication in a Red Hat high availability cluster with second virtual IP is described in Configure HANA Active/Read Enabled System Replication in Pacemaker cluster.

Prima di procedere, assicurarsi di avere configurato completamente il cluster a disponibilità elevata di Red Hat gestendo SAP HANA database come descritto nei segmenti precedenti della documentazione.Before proceeding further, make sure you have fully configured Red Hat High Availability Cluster managing SAP HANA database as described in above segments of the documentation.

Testare la configurazione del clusterTest the cluster setup

Questa sezione descrive come testare la configurazione.This section describes how you can test your setup.

  1. Prima di avviare un test, assicurarsi che pacemaker non abbia un'azione non riuscita (tramite lo stato dei PC), non vi sono vincoli di posizione imprevisti (ad esempio, avanzi di un test di migrazione) e che la replica di sistema HANA è stato di sincronizzazione, ad esempio con systemReplicationStatus:Before you start a test, make sure that Pacemaker does not have any failed action (via pcs status), there are no unexpected location constraints (for example leftovers of a migration test) and that HANA system replication is sync state, for example with systemReplicationStatus:

    sudo su - hn1adm -c "python /usr/sap/HN1/HDB03/exe/python_support/systemReplicationStatus.py"
    
  2. Verificare la configurazione del cluster per uno scenario di errore quando un nodo perde l'accesso alla condivisione NFS (/Hana/Shared)Verify the cluster configuration for a failure scenario when a node loses access to the NFS share (/hana/shared)

    Gli agenti di risorse SAP HANA dipendono dai file binari, archiviati in /hana/shared per eseguire operazioni durante il failover.The SAP HANA resource agents depend on binaries, stored on /hana/shared to perform operations during failover. Il file System /hana/shared viene montato su NFS nello scenario presentato.File system /hana/shared is mounted over NFS in the presented scenario.
    È difficile simulare un errore, in cui uno dei server perde l'accesso alla condivisione NFS.It is difficult to simulate a failure, where one of the servers loses access to the NFS share. Un test che può essere eseguito consiste nel rimontare il file system come di sola lettura.A test that can be performed is to re-mount the file system as read-only. Questo approccio consente di verificare che il cluster sia in grado di eseguire il failover, se l'accesso a /hana/shared viene perso nel nodo attivo.This approach validates that the cluster will be able to failover, if access to /hana/shared is lost on the active node.

    Risultato previsto: Quando si effettua la /hana/shared file System di sola lettura, l' OCF_CHECK_LEVEL attributo della risorsa hana_shared1 che esegue l'operazione di lettura/scrittura su file System avrà esito negativo perché non è in grado di scrivere alcun elemento nel file System ed eseguirà il failover delle risorse Hana.Expected Result: On making /hana/shared as read-only file system, the OCF_CHECK_LEVEL attribute of the resource hana_shared1 which performs read/write operation on file system will fail as it is not able to write anything on the file system and will perform HANA resource failover. Lo stesso risultato è previsto quando il nodo HANA perde l'accesso alle condivisioni NFS.The same result is expected when your HANA node loses access to the NFS shares.

    Stato delle risorse prima dell'avvio del test:Resource state before starting the test:

    sudo pcs status
    # Example output
    Full list of resources:
     rsc_hdb_azr_agt        (stonith:fence_azure_arm):      Started hanadb1
    
     Resource Group: hanadb1_nfs
         hana_data1 (ocf::heartbeat:Filesystem):    Started hanadb1
         hana_log1  (ocf::heartbeat:Filesystem):    Started hanadb1
         hana_shared1       (ocf::heartbeat:Filesystem):    Started hanadb1
    
    Resource Group: hanadb2_nfs
         hana_data2 (ocf::heartbeat:Filesystem):    Started hanadb2
         hana_log2  (ocf::heartbeat:Filesystem):    Started hanadb2
         hana_shared2       (ocf::heartbeat:Filesystem):    Started hanadb2
    
     hana_nfs1_active       (ocf::pacemaker:attribute):     Started hanadb1
     hana_nfs2_active       (ocf::pacemaker:attribute):     Started hanadb2
    
     Clone Set: SAPHanaTopology_HN1_03-clone [SAPHanaTopology_HN1_03]
         Started: [ hanadb1 hanadb2 ]
    
     Master/Slave Set: SAPHana_HN1_03-master [SAPHana_HN1_03]
         Masters: [ hanadb1 ]
         Slaves: [ hanadb2 ]
    
     Resource Group: g_ip_HN1_03
         nc_HN1_03  (ocf::heartbeat:azure-lb):      Started hanadb1
         vip_HN1_03 (ocf::heartbeat:IPaddr2):       Started hanadb1
    

    È possibile inserire/Hana/Shared in modalità di sola lettura nel nodo del cluster attivo, usando il comando seguente:You can place /hana/shared in read-only mode on the active cluster node, using below command:

    sudo mount -o ro 10.32.2.4:/hanadb1-shared-mnt00001 /hana/shared
    

    hanadb1 viene riavviato o spento in base al set di azioni in STONITH ( pcs property show stonith-action ).hanadb1 will either reboot or poweroff based on the action set on stonith (pcs property show stonith-action). Quando il server (hanadb1) è inattivo, la risorsa HANA viene spostata in hanadb2.Once the server (hanadb1) is down, HANA resource move to hanadb2. È possibile controllare lo stato del cluster da hanadb2.You can check the status of cluster from hanadb2.

    pcs status
    
    Full list of resources:
    
     rsc_hdb_azr_agt        (stonith:fence_azure_arm):      Started hanadb2
    
     Resource Group: hanadb1_nfs
         hana_data1 (ocf::heartbeat:Filesystem):    Stopped
         hana_log1  (ocf::heartbeat:Filesystem):    Stopped
         hana_shared1       (ocf::heartbeat:Filesystem):    Stopped
    
     Resource Group: hanadb2_nfs
         hana_data2 (ocf::heartbeat:Filesystem):    Started hanadb2
         hana_log2  (ocf::heartbeat:Filesystem):    Started hanadb2
         hana_shared2       (ocf::heartbeat:Filesystem):    Started hanadb2
    
     hana_nfs1_active       (ocf::pacemaker:attribute):     Stopped
     hana_nfs2_active       (ocf::pacemaker:attribute):     Started hanadb2
    
     Clone Set: SAPHanaTopology_HN1_03-clone [SAPHanaTopology_HN1_03]
         Started: [ hanadb2 ]
         Stopped: [ hanadb1 ]
    
     Master/Slave Set: SAPHana_HN1_03-master [SAPHana_HN1_03]
         Masters: [ hanadb2 ]
         Stopped: [ hanadb1 ]
    
     Resource Group: g_ip_HN1_03
         nc_HN1_03  (ocf::heartbeat:azure-lb):      Started hanadb2
         vip_HN1_03 (ocf::heartbeat:IPaddr2):       Started hanadb2
    

    Si consiglia di testare accuratamente la configurazione del cluster di SAP HANA, eseguendo anche i test descritti in installazione SAP Hana la replica di sistema in RHEL.We recommend to thoroughly test the SAP HANA cluster configuration, by also performing the tests described in Setup SAP HANA System Replication on RHEL.

Passaggi successiviNext steps