Disponibilità elevata di macchine virtuali di Azure per SAP NetWeaver in Red Hat Enterprise Linux con Azure NetApp Files per le applicazioni SAPAzure Virtual Machines high availability for SAP NetWeaver on Red Hat Enterprise Linux with Azure NetApp Files for SAP applications

Questo articolo descrive come distribuire le macchine virtuali, configurare le macchine virtuali, installare il framework del cluster e installare un sistema SAP NetWeaver 7.50 a disponibilità elevata mediante Azure NetApp Files.This article describes how to deploy the virtual machines, configure the virtual machines, install the cluster framework, and install a highly available SAP NetWeaver 7.50 system, using Azure NetApp Files. Nelle configurazioni di esempio, i comandi di installazione e così via. L'istanza di ASC è il numero 00, l'istanza ERS è il numero 01, l'istanza dell'applicazione primaria (PAS) è 02 e l'istanza dell'applicazione (AAS) è 03.In the example configurations, installation commands etc. ASCS instance is number 00, the ERS instance is number 01, Primary Application instance (PAS) is 02 and the Application instance (AAS) is 03. Viene usato l'ID del sistema SAP QAS.SAP System ID QAS is used.

Il livello del database non è descritto in dettaglio in questo articolo.The database layer isn't covered in detail in this article.

Leggere prima di tutto i documenti e le note SAP seguenti:Read the following SAP Notes and papers first:

PanoramicaOverview

La disponibilità elevata per SAP NetWeaver Central Services richiede l'archiviazione condivisa.High availability(HA) for SAP Netweaver central services requires shared storage. A tale scopo, in Red Hat Linux finora era necessario compilare un cluster GlusterFS a disponibilità elevata separato.To achieve that on Red Hat Linux so far it was necessary to build separate highly available GlusterFS cluster.

È ora possibile ottenere la disponibilità elevata di SAP NetWeaver usando l'archiviazione condivisa, distribuita in Azure NetApp Files.Now it is possible to achieve SAP Netweaver HA by using shared storage, deployed on Azure NetApp Files. L'uso di Azure NetApp Files per l'archiviazione condivisa Elimina la necessità di un altro cluster GlusterFS.Using Azure NetApp Files for the shared storage eliminates the need for additional GlusterFS cluster. Pacemaker è ancora necessario per la disponibilità elevata di SAP Netweaver Central Services (ASCS/SCS).Pacemaker is still needed for HA of the SAP Netweaver central services(ASCS/SCS).

Panoramica della disponibilità elevata di SAP NetWeaver

SAP NetWeaver ASCS, SAP NetWeaver SCS, SAP NetWeaver ERS e il database SAP HANA usano un nome host virtuale e indirizzi IP virtuali.SAP NetWeaver ASCS, SAP NetWeaver SCS, SAP NetWeaver ERS, and the SAP HANA database use virtual hostname and virtual IP addresses. Per usare un indirizzo IP virtuale in Azure, occorre il bilanciamento del carico.On Azure, a load balancer is required to use a virtual IP address. È consigliabile usare Load Balancer Standard.We recommend using Standard load balancer. L'elenco seguente mostra la configurazione del servizio di bilanciamento del carico con IP front-end distinti per (A) SCS e ERS.The following list shows the configuration of the load balancer with separate front-end IPs for (A)SCS and ERS.

(A)SCS(A)SCS

  • Configurazione front-endFrontend configuration
    • Indirizzo IP 192.168.14.9IP address 192.168.14.9
  • Porta probeProbe Port
    • Porta 620<nr>Port 620<nr>
  • Regole di bilanciamento del caricoLoad-balancing rules
    • Se si usa Load Balancer Standard, selezionare Porte a disponibilità elevataIf using Standard Load Balancer, select HA ports
    • 32<nr> TCP32<nr> TCP
    • 36<nr> TCP36<nr> TCP
    • 39<nr> TCP39<nr> TCP
    • 81<nr> TCP81<nr> TCP
    • 5<nr>13 TCP5<nr>13 TCP
    • 5<nr>14 TCP5<nr>14 TCP
    • 5<nr>16 TCP5<nr>16 TCP

ERSERS

  • Configurazione front-endFrontend configuration

    • Indirizzo IP 192.168.14.10IP address 192.168.14.10
  • Porta probeProbe Port

    • Porta 621<nr>Port 621<nr>
  • Regole di bilanciamento del caricoLoad-balancing rules

    • Se si usa Load Balancer Standard, selezionare Porte a disponibilità elevataIf using Standard Load Balancer, select HA ports
    • 32<nr> TCP32<nr> TCP
    • 33<nr> TCP33<nr> TCP
    • 5<nr>13 TCP5<nr>13 TCP
    • 5<nr>14 TCP5<nr>14 TCP
    • 5<nr>16 TCP5<nr>16 TCP
  • Configurazione back-endBackend configuration

    • Connessione alle interfacce di rete primarie di tutte le macchine virtuali che devono far parte del cluster (A)SCS/ERSConnected to primary network interfaces of all virtual machines that should be part of the (A)SCS/ERS cluster

Configurazione dell'infrastruttura Azure NetApp FilesSetting up the Azure NetApp Files infrastructure

SAP NetWeaver richiede un'archiviazione condivisa per la directory di trasporto e del profilo.SAP NetWeaver requires shared storage for the transport and profile directory. Prima di procedere con la configurazione dell'infrastruttura Azure NetApp Files, acquisire familiarità con la documentazione di Azure NetApp Files.Before proceeding with the setup for Azure NetApp files infrastructure, familiarize yourself with the Azure NetApp Files documentation. Controllare se l'area di Azure selezionata offre Azure NetApp Files.Check if your selected Azure region offers Azure NetApp Files. Il collegamento seguente mostra la disponibilità di Azure NetApp Files per area di Azure: Disponibilità di Azure NetApp Files per area di Azure.The following link shows the availability of Azure NetApp Files by Azure region: Azure NetApp Files Availability by Azure Region.

I file di Azure NetApp sono disponibili in diverse aree di Azure.Azure NetApp files are available in several Azure regions. Prima di distribuire Azure NetApp Files, richiedere l'onboarding in Azure NetApp Files, seguendo le istruzioni di registrazione per Azure NetApp Files.Before deploying Azure NetApp Files, request onboarding to Azure NetApp Files, following the Register for Azure NetApp files instructions.

Distribuire le risorse di Azure NetApp FilesDeploy Azure NetApp Files resources

I passaggi presuppongono che sia già stata eseguita la distribuzione di Rete virtuale di Azure.The steps assume that you have already deployed Azure Virtual Network. Le risorse di Azure NetApp Files e tutte le macchine virtuali, in cui le risorse di Azure NetApp Files verranno montate, devono essere distribuite nella stessa istanza di Rete virtuale di Azure o in reti virtuali di Azure con peering.The Azure NetApp Files resources and the VMs, where the Azure NetApp Files resources will be mounted must be deployed in the same Azure Virtual Network or in peered Azure Virtual Networks.

  1. Se non è già stato fatto, richiedere l'onboarding in Azure NetApp Files.If you haven't done that already, request onboarding to Azure NetApp Files.

  2. Creare l'account NetApp nell'area di Azure selezionata, seguendo le istruzioni per creare un account NetApp.Create the NetApp account in the selected Azure region, following the instructions to create NetApp Account.

  3. Configurare il pool di capacità di Azure NetApp Files, seguendo le istruzioni su come configurare pool di capacità Azure NetApp Files.Set up Azure NetApp Files capacity pool, following the instructions on how to set up Azure NetApp Files capacity pool.
    L'architettura di SAP NetWeaver presentata in questo articolo usa un singolo pool di capacità di Azure NetApp Files, SKU Premium.The SAP Netweaver architecture presented in this article uses single Azure NetApp Files capacity pool, Premium SKU. Lo SKU Premium di Azure NetApp Files è consigliabile per il carico di lavoro dell'applicazione SAP NetWeaver in Azure.We recommend Azure NetApp Files Premium SKU for SAP Netweaver application workload on Azure.

  4. Delegare una subnet ai file di Azure NetApp come descritto nelle istruzioni per delegare una subnet a Azure NetApp Files.Delegate a subnet to Azure NetApp files as described in the instructions Delegate a subnet to Azure NetApp Files.

  5. Distribuire volumi di Azure NetApp Files, seguendo le istruzioni per creare un volume per Azure NetApp Files.Deploy Azure NetApp Files volumes, following the instructions to create a volume for Azure NetApp Files. Distribuire i volumi nella subnet di Azure NetApp Files designata.Deploy the volumes in the designated Azure NetApp Files subnet. Gli indirizzi IP dei volumi di Azure NetApp vengono assegnati automaticamente.The IP addresses of the Azure NetApp volumes are assigned automatically. Le risorse di Azure NetApp Files e le macchine virtuali di Azure devono trovarsi nella stessa istanza di Rete virtuale di Azure o in reti virtuali di Azure con peering.Keep in mind that the Azure NetApp Files resources and the Azure VMs must be in the same Azure Virtual Network or in peered Azure Virtual Networks. In questo esempio vengono usati due volumi Azure NetApp Files: SAPQAS e transSAP.In this example we use two Azure NetApp Files volumes: sapQAS and transSAP. I percorsi dei file montati nei punti di montaggio corrispondenti sono/usrsapQAS/sapmntQAS,/usrsap QAS/usrsap QASsys ecosì via.The file paths that are mounted to the corresponding mount points are /usrsapqas/sapmntQAS, /usrsapqas/usrsapQASsys, etc.

    1. volume SAPQAS (NFS://192.168.24.5/usrsapQAS/sapmntQAS)volume sapQAS (nfs://192.168.24.5/usrsapqas/sapmntQAS)
    2. volume SAPQAS (NFS://192.168.24.5/usrsapQAS/usrsapQASASC)volume sapQAS (nfs://192.168.24.5/usrsapqas/usrsapQASascs)
    3. volume SAPQAS (NFS://192.168.24.5/usrsapQAS/usrsapQASsys)volume sapQAS (nfs://192.168.24.5/usrsapqas/usrsapQASsys)
    4. volume SAPQAS (NFS://192.168.24.5/usrsapQAS/usrsapQASERS)volume sapQAS (nfs://192.168.24.5/usrsapqas/usrsapQASers)
    5. volume transSAP (nfs://192.168.24.4/transSAP)volume transSAP (nfs://192.168.24.4/transSAP)
    6. volume SAPQAS (NFS://192.168.24.5/usrsapQAS/usrsapQASpas)volume sapQAS (nfs://192.168.24.5/usrsapqas/usrsapQASpas)
    7. volume SAPQAS (NFS://192.168.24.5/usrsapQAS/usrsapQASAAS)volume sapQAS (nfs://192.168.24.5/usrsapqas/usrsapQASaas)

In questo esempio è stato usato Azure NetApp Files per tutti i file system di SAP NetWeaver per dimostrare come è possibile usare Azure NetApp Files.In this example, we used Azure NetApp Files for all SAP Netweaver file systems to demonstrate how Azure NetApp Files can be used. I file system SAP che non devono essere montati tramite NFS possono anche essere distribuiti come archiviazione su disco di Azure.The SAP file systems that don't need to be mounted via NFS can also be deployed as Azure disk storage . In questo esempio a-e deve trovarsi in Azure NetApp Files e f-g (ovvero /usr/sap/QAS/D02, /usr/sap/QAS/D03) può essere distribuito come archiviazione su disco di Azure.In this example a-e must be on Azure NetApp Files and f-g (that is, /usr/sap/QAS/D02, /usr/sap/QAS/D03) could be deployed as Azure disk storage.

Considerazioni importantiImportant considerations

Quando si prende in considerazione Azure NetApp Files per SAP Netweaver sull'architettura a disponibilità elevata SUSE, tenere presenti le considerazioni importanti seguenti:When considering Azure NetApp Files for the SAP Netweaver on SUSE High Availability architecture, be aware of the following important considerations:

  • La capacità minima del pool è di 4 TiB.The minimum capacity pool is 4 TiB. È possibile aumentare le dimensioni del pool di capacità con incrementi di 1 TiB.The capacity pool size can be increased in 1 TiB increments.
  • Il volume minimo è di 100 GiB.The minimum volume is 100 GiB
  • Azure NetApp Files e tutte le macchine virtuali in cui verranno montati i volumi Azure NetApp Files devono trovarsi nella stessa istanza di Rete virtuale di Azure o in reti virtuali con peering nella stessa area.Azure NetApp Files and all virtual machines, where Azure NetApp Files volumes will be mounted, must be in the same Azure Virtual Network or in peered virtual networks in the same region. L'accesso ad Azure NetApp Files mediante peering VNET nella stessa area è ora supportato.Azure NetApp Files access over VNET peering in the same region is supported now. L'accesso a NetApp di Azure mediante peering globale non è ancora supportato.Azure NetApp access over global peering is not yet supported.
  • La rete virtuale selezionata deve avere una subnet delegata ad Azure NetApp Files.The selected virtual network must have a subnet, delegated to Azure NetApp Files.
  • Azure NetApp Files offre criteri di esportazione: è possibile controllare i client consentiti, il tipo di accesso, ad esempio lettura e scrittura, sola lettura e così via.Azure NetApp Files offers export policy: you can control the allowed clients, the access type (Read&Write, Read Only, etc.).
  • La funzionalità Azure NetApp Files non è ancora in grado di riconoscere la zona.Azure NetApp Files feature isn't zone aware yet. Attualmente la funzionalità Azure NetApp Files non viene distribuita in tutte le zone di disponibilità in un'area di Azure.Currently Azure NetApp Files feature isn't deployed in all Availability zones in an Azure region. Tenere presente le implicazioni di latenza potenziali in alcune aree di Azure.Be aware of the potential latency implications in some Azure regions.
  • I volumi Azure NetApp Files possono essere distribuiti come volumi NFSv3 o NFSv4.1.Azure NetApp Files volumes can be deployed as NFSv3 or NFSv4.1 volumes. Entrambi i protocolli sono supportati per il livello applicazione SAP (server di applicazione SAP, ASCS/ERS).Both protocols are supported for the SAP application layer (ASCS/ERS, SAP application servers).

Configurazione di (A)SCSSetting up (A)SCS

In questo esempio, le risorse sono state distribuite manualmente tramite il portale di Azure.In this example, the resources were deployed manually via the Azure portal.

Distribuire Linux manualmente tramite il portale di AzureDeploy Linux manually via Azure portal

Per prima cosa è necessario creare i volumi Azure NetApp Files.First you need to create the Azure NetApp Files volumes. Distribuire le macchine virtuali.Deploy the VMs. Creare quindi un servizio di bilanciamento del carico e usare le macchine virtuali nei pool back-end.Afterwards, you create a load balancer and use the virtual machines in the backend pool.

  1. Creare un bilanciamento del carico (interno, standard).Create load balancer (internal, standard):
    1. Creare gli indirizzi IP front-endCreate the frontend IP addresses
      1. Indirizzo IP 192.168.14.9 per ASCIP address 192.168.14.9 for the ASCS
        1. Aprire il servizio di bilanciamento del carico, selezionare Pool di indirizzi IP front-end e fare clic su AggiungiOpen the load balancer, select frontend IP pool, and click Add
        2. Immettere il nome del nuovo pool di indirizzi IP front-end, ad esempio frontend.QAS.ASCSEnter the name of the new frontend IP pool (for example frontend.QAS.ASCS)
        3. Impostare l'assegnazione su statico e immettere l'indirizzo IP (ad esempio 192.168.14.9)Set the Assignment to Static and enter the IP address (for example 192.168.14.9)
        4. Scegliere OKClick OK
      2. Indirizzo IP 192.168.14.10 per ASC ERSIP address 192.168.14.10 for the ASCS ERS
        • Ripetere i passaggi precedenti in "a" per creare un indirizzo IP per ERS, ad esempio 192.168.14.10 e front- end. QAS. ERS)Repeat the steps above under "a" to create an IP address for the ERS (for example 192.168.14.10 and frontend.QAS.ERS)
    2. Creare il pool back-endCreate the backend pool
      1. Aprire il servizio di bilanciamento del carico, selezionare Pool back-end e fare clic su AggiungiOpen the load balancer, select backend pools, and click Add
      2. Immettere il nome del nuovo pool back-end, ad esempio backend.QASEnter the name of the new backend pool (for example backend.QAS)
      3. Fare clic su Aggiungi una macchina virtuale.Click Add a virtual machine.
      4. Selezionare macchina virtuale.Select Virtual machine.
      5. Selezionare le macchine virtuali del cluster (A)SCS e il rispettivo indirizzo IP.Select the virtual machines of the (A)SCS cluster and their IP addresses.
      6. Fare clic su Aggiungi.Click Add
    3. Creare i probe di integritàCreate the health probes
      1. Porta 620 00 per ASCSPort 620 00 for ASCS
        1. Aprire il servizio di bilanciamento del carico, selezionare Probe integrità e fare clic su AggiungiOpen the load balancer, select health probes, and click Add
        2. Immettere il nome del nuovo probe di integrità, ad esempio health.QAS.ASCSEnter the name of the new health probe (for example health.QAS.ASCS)
        3. Selezionare TCP come protocollo, la porta 620 00, mantenere 5 per Intervallo e impostare Soglia di non integrità su 2Select TCP as protocol, port 620 00, keep Interval 5 and Unhealthy threshold 2
        4. Fare clic su OK.Click OK
      2. Porta 621 01 per ASCS ERSPort 621 01 for ASCS ERS
        • Ripetere i passaggi precedenti in "c" per creare un probe di integrità per ERS, ad esempio 621 01 e health.QAS.ERSRepeat the steps above under "c" to create a health probe for the ERS (for example 621 01 and health.QAS.ERS)
    4. Regole di bilanciamento del caricoLoad-balancing rules
      1. Regole di bilanciamento del carico per ASCLoad-balancing rules for ASCS
        1. Aprire il servizio di bilanciamento del carico, selezionare regole di bilanciamento del carico e fare clic su Aggiungi.Open the load balancer, select Load-balancing rules, and click Add
        2. Immettere il nome della nuova regola di bilanciamento del carico, ad esempio lb.QAS.ASCSEnter the name of the new load balancer rule (for example lb.QAS.ASCS)
        3. Selezionare l'indirizzo IP front-end per ASCS, il pool back-end e il probe di integrità creati in precedenza, ad esempio frontend.QAS.ASCS, backend.QAS e health.QAS.ASCSSelect the frontend IP address for ASCS, backend pool, and health probe you created earlier (for example frontend.QAS.ASCS, backend.QAS and health.QAS.ASCS)
        4. Selezionare Porte a disponibilità elevataSelect HA ports
        5. Aumentare il timeout di inattività a 30 minutiIncrease idle timeout to 30 minutes
        6. Assicurarsi di abilitare l'indirizzo IP mobileMake sure to enable Floating IP
        7. Fare clic su OK.Click OK
        • Ripetere i passaggi precedenti per creare regole di bilanciamento del carico per ERS, ad esempio lb.QAS.ERSRepeat the steps above to create load balancing rules for ERS (for example lb.QAS.ERS)
  2. In alternativa, se lo scenario richiede Load Balancer Basic (interno), seguire questa procedura:Alternatively, if your scenario requires basic load balancer (internal), follow these steps:
    1. Creare gli indirizzi IP front-endCreate the frontend IP addresses

      1. Indirizzo IP 192.168.14.9 per ASCIP address 192.168.14.9 for the ASCS
        1. Aprire il servizio di bilanciamento del carico, selezionare Pool di indirizzi IP front-end e fare clic su AggiungiOpen the load balancer, select frontend IP pool, and click Add
        2. Immettere il nome del nuovo pool di indirizzi IP front-end, ad esempio frontend.QAS.ASCSEnter the name of the new frontend IP pool (for example frontend.QAS.ASCS)
        3. Impostare l'assegnazione su statico e immettere l'indirizzo IP (ad esempio 192.168.14.9)Set the Assignment to Static and enter the IP address (for example 192.168.14.9)
        4. Scegliere OKClick OK
      2. Indirizzo IP 192.168.14.10 per ASC ERSIP address 192.168.14.10 for the ASCS ERS
        • Ripetere i passaggi precedenti in "a" per creare un indirizzo IP per ERS, ad esempio 192.168.14.10 e front- end. QAS. ERS)Repeat the steps above under "a" to create an IP address for the ERS (for example 192.168.14.10 and frontend.QAS.ERS)
    2. Creare il pool back-endCreate the backend pool

      1. Aprire il servizio di bilanciamento del carico, selezionare Pool back-end e fare clic su AggiungiOpen the load balancer, select backend pools, and click Add
      2. Immettere il nome del nuovo pool back-end, ad esempio backend.QASEnter the name of the new backend pool (for example backend.QAS)
      3. Fare clic su Aggiungi una macchina virtuale.Click Add a virtual machine.
      4. Selezionare il set di disponibilità creato in precedenza per ASCSSelect the Availability Set you created earlier for ASCS
      5. Selezionare le macchine virtuali del cluster (A)SCSSelect the virtual machines of the (A)SCS cluster
      6. Fare clic su OK.Click OK
    3. Creare i probe di integritàCreate the health probes

      1. Porta 620 00 per ASCSPort 620 00 for ASCS
        1. Aprire il servizio di bilanciamento del carico, selezionare Probe integrità e fare clic su AggiungiOpen the load balancer, select health probes, and click Add
        2. Immettere il nome del nuovo probe di integrità, ad esempio health.QAS.ASCSEnter the name of the new health probe (for example health.QAS.ASCS)
        3. Selezionare TCP come protocollo, la porta 620 00, mantenere 5 per Intervallo e impostare Soglia di non integrità su 2Select TCP as protocol, port 620 00, keep Interval 5 and Unhealthy threshold 2
        4. Fare clic su OK.Click OK
      2. Porta 621 01 per ASCS ERSPort 621 01 for ASCS ERS
        • Ripetere i passaggi precedenti in "c" per creare un probe di integrità per ERS, ad esempio 621 01 e health.QAS.ERSRepeat the steps above under "c" to create a health probe for the ERS (for example 621 01 and health.QAS.ERS)
    4. Regole di bilanciamento del caricoLoad-balancing rules

      1. TCP 32 00 per ASCS32 00 TCP for ASCS
        1. Aprire il servizio di bilanciamento del carico, selezionare regole di bilanciamento del carico e fare clic su Aggiungi.Open the load balancer, select Load-balancing rules, and click Add
        2. Immettere il nome della nuova regola di bilanciamento del carico, ad esempio lb.QAS.ASCS.3200Enter the name of the new load balancer rule (for example lb.QAS.ASCS.3200)
        3. Selezionare l'indirizzo IP front-end per ASCS, il pool back-end e il probe di integrità creati in precedenza, ad esempio frontend.QAS.ASCSSelect the frontend IP address for ASCS, backend pool, and health probe you created earlier (for example frontend.QAS.ASCS)
        4. Mantenere il protocollo TCP, immettere la porta 3200Keep protocol TCP, enter port 3200
        5. Aumentare il timeout di inattività a 30 minutiIncrease idle timeout to 30 minutes
        6. Assicurarsi di abilitare l'indirizzo IP mobileMake sure to enable Floating IP
        7. Fare clic su OK.Click OK
      2. Porte aggiuntive per ASCSAdditional ports for the ASCS
        • Ripetere i passaggi precedenti per le porte 36 00, 39 00, 81 00, 5 00 13, 5 00 14, 5 00 16 e TCP per ASCSRepeat the steps above under "d" for ports 36 00, 39 00, 81 00, 5 00 13, 5 00 14, 5 00 16 and TCP for the ASCS
      3. Porte aggiuntive per ASCS ERSAdditional ports for the ASCS ERS
        • Ripetere i passaggi precedenti per le porte 32 01, 33 01, 5 01 13, 5 01 14, 5 01 16 e TCP per ASCS ERSRepeat the steps above under "d" for ports 32 01, 33 01, 5 01 13, 5 01 14, 5 01 16 and TCP for the ASCS ERS

      Importante

      L'IP mobile non è supportato in una configurazione IP secondaria di NIC negli scenari di bilanciamento del carico.Floating IP is not supported on a NIC secondary IP configuration in load-balancing scenarios. Per informazioni dettagliate, vedere limitazioni del servizio di bilanciamento del carico di Azure.For details see Azure Load balancer Limitations. Se è necessario un indirizzo IP aggiuntivo per la macchina virtuale, distribuire una seconda scheda di interfaccia di rete.If you need additional IP address for the VM, deploy a second NIC.

      Nota

      Se vengono inserite macchine virtuali senza indirizzi IP pubblici nel pool back-end di Load Balancer Standard interno ad Azure (nessun indirizzo IP pubblico), non sarà presente alcuna connettività Internet in uscita, a meno che non venga eseguita una configurazione aggiuntiva per consentire il routing a endpoint pubblici.When VMs without public IP addresses are placed in the backend pool of internal (no public IP address) Standard Azure load balancer, there will be no outbound internet connectivity, unless additional configuration is performed to allow routing to public end points. Per informazioni dettagliate su come ottenere la connettività in uscita, vedere Connettività degli endpoint pubblici per le macchine virtuali usando Load Balancer Standard di Azure negli scenari a disponibilità elevata SAP.For details on how to achieve outbound connectivity see Public endpoint connectivity for Virtual Machines using Azure Standard Load Balancer in SAP high-availability scenarios.

      Importante

      Non abilitare i timestamp TCP nelle macchine virtuali di Azure che si trovano dietro Azure Load Balancer.Do not enable TCP timestamps on Azure VMs placed behind Azure Load Balancer. Se si abilitano i timestamp TCP, i probe di integrità avranno esito negativo.Enabling TCP timestamps will cause the health probes to fail. Impostare il parametro net.ipv4.tcp_timestamps su 0.Set parameter net.ipv4.tcp_timestamps to 0. Per informazioni dettagliate, vedere Probe di integrità di Load Balancer.For details see Load Balancer health probes.

Disabilitare il mapping degli ID (se si usa NFSv4.1)Disable ID mapping (if using NFSv4.1)

Le istruzioni riportate in questa sezione sono applicabili solo se si usano volumi Azure NetApp Files con il protocollo NFSv4.1.The instructions in this section are only applicable, if using Azure NetApp Files volumes with NFSv4.1 protocol. Eseguire la configurazione su tutte le macchine virtuali, in cui verranno montati volumi Azure NetApp Files NFSv4.1.Perform the configuration on all VMs, where Azure NetApp Files NFSv4.1 volumes will be mounted.

  1. Verificare l'impostazione del dominio NFS.Verify the NFS domain setting. Verificare che il dominio sia configurato come dominio di Azure NetApp Files predefinito, ad esempio defaultv4iddomain.com , e che il mapping sia impostato su nobody (nessuno).Make sure that the domain is configured as the default Azure NetApp Files domain, i.e. defaultv4iddomain.com and the mapping is set to nobody.

    Importante

    Verificare di impostare il dominio NFS in /etc/idmapd.conf sulla macchina virtuale in modo che corrisponda alla configurazione del dominio predefinito in Azure NetApp Files: defaultv4iddomain.com .Make sure to set the NFS domain in /etc/idmapd.conf on the VM to match the default domain configuration on Azure NetApp Files: defaultv4iddomain.com. In caso di mancata corrispondenza tra la configurazione del dominio nel client NFS (ovvero la macchina virtuale) e nel server NFS, ad esempio la configurazione di Azure NetApp, le autorizzazioni per i file nei volumi Azure NetApp montati nelle VM verranno visualizzate come nobody.If there's a mismatch between the domain configuration on the NFS client (i.e. the VM) and the NFS server, i.e. the Azure NetApp configuration, then the permissions for files on Azure NetApp volumes that are mounted on the VMs will be displayed as nobody.

    
     sudo cat /etc/idmapd.conf
     # Example
     [General]
     Domain = defaultv4iddomain.com
     [Mapping]
     Nobody-User = nobody
     Nobody-Group = nobody
     
  2. [A] Verificare nfs4_disable_idmapping.[A] Verify nfs4_disable_idmapping. Il valore deve essere impostato su Y. Per creare la struttura di directory in cui si trova nfs4_disable_idmapping, eseguire il comando mount.It should be set to Y. To create the directory structure where nfs4_disable_idmapping is located, execute the mount command. Non sarà possibile creare manualmente la directory in/sys/modules, perché l'accesso è riservato per il kernel/driver.You won't be able to manually create the directory under /sys/modules, because access is reserved for the kernel / drivers.

    
     # Check nfs4_disable_idmapping 
     cat /sys/module/nfs/parameters/nfs4_disable_idmapping
     # If you need to set nfs4_disable_idmapping to Y
     mkdir /mnt/tmp
     mount 192.168.24.5:/sapQAS
     umount  /mnt/tmp
     echo "Y" > /sys/module/nfs/parameters/nfs4_disable_idmapping
     # Make the configuration permanent
     echo "options nfs nfs4_disable_idmapping=Y" >> /etc/modprobe.d/nfs.conf
     

    Per ulteriori informazioni su come modificare i nfs4_disable_idmapping parametri, vedere https://access.redhat.com/solutions/1749883 .For more details on how to change nfs4_disable_idmapping parameter see https://access.redhat.com/solutions/1749883.

Creare un cluster PacemakerCreate Pacemaker cluster

Seguire i passaggi della procedura di configurazione di Pacemaker in Red Hat Enterprise Linux in Azure per creare un cluster Pacemaker di base per questo server (A)SCS.Follow the steps in Setting up Pacemaker on Red Hat Enterprise Linux in Azure to create a basic Pacemaker cluster for this (A)SCS server.

Prepararsi per l'installazione di SAP NetWeaverPrepare for SAP NetWeaver installation

Gli elementi seguenti sono preceduti dall'indicazione [A] - applicabile a tutti i nodi, [1] - applicabile solo al nodo 1 o [2] - applicabile solo al nodo 2.The following items are prefixed with either [A] - applicable to all nodes, [1] - only applicable to node 1 or [2] - only applicable to node 2.

  1. [A] Configurare la risoluzione dei nomi host[A] Setup host name resolution

    È possibile usare un server DNS o modificare /etc/hosts in tutti i nodi.You can either use a DNS server or modify the /etc/hosts on all nodes. Questo esempio mostra come usare il file /etc/hosts.This example shows how to use the /etc/hosts file. Sostituire l'indirizzo IP e il nome host nei comandi seguentiReplace the IP address and the hostname in the following commands

    sudo vi /etc/hosts
    

    Inserire le righe seguenti in /etc/hosts.Insert the following lines to /etc/hosts. Modificare l'indirizzo IP e il nome host in base all'ambienteChange the IP address and hostname to match your environment

    # IP address of cluster node 1
    192.168.14.5    anftstsapcl1
    # IP address of cluster node 2
    192.168.14.6     anftstsapcl2
    # IP address of the load balancer frontend configuration for SAP Netweaver ASCS
    192.168.14.9    anftstsapvh
    # IP address of the load balancer frontend configuration for SAP Netweaver ERS
    192.168.14.10    anftstsapers
    
  2. [1] Creare directory SAP nel volume Azure NetApp Files.[1] Create SAP directories in the Azure NetApp Files volume.
    Montare temporaneamente il volume Azure NetApp Files in una delle macchine virtuali e creare le directory SAP (percorsi di file).Mount temporarily the Azure NetApp Files volume on one of the VMs and create the SAP directories(file paths).

     # mount temporarily the volume
     sudo mkdir -p /saptmp
     # If using NFSv3
     sudo mount -t nfs -o rw,hard,rsize=65536,wsize=65536,vers=3,tcp 192.168.24.5:/sapQAS /saptmp
     # If using NFSv4.1
     sudo mount -t nfs -o rw,hard,rsize=65536,wsize=65536,vers=4.1,sec=sys,tcp 192.168.24.5:/sapQAS /saptmp
     # create the SAP directories
     sudo cd /saptmp
     sudo mkdir -p sapmntQAS
     sudo mkdir -p usrsapQASascs
     sudo mkdir -p usrsapQASers
     sudo mkdir -p usrsapQASsys
     sudo mkdir -p usrsapQASpas
     sudo mkdir -p usrsapQASaas
     # unmount the volume and delete the temporary directory
     sudo cd ..
     sudo umount /saptmp
     sudo rmdir /saptmp
    
  3. [A] Creare le directory condivise[A] Create the shared directories

    sudo mkdir -p /sapmnt/QAS
    sudo mkdir -p /usr/sap/trans
    sudo mkdir -p /usr/sap/QAS/SYS
    sudo mkdir -p /usr/sap/QAS/ASCS00
    sudo mkdir -p /usr/sap/QAS/ERS01
    
    sudo chattr +i /sapmnt/QAS
    sudo chattr +i /usr/sap/trans
    sudo chattr +i /usr/sap/QAS/SYS
    sudo chattr +i /usr/sap/QAS/ASCS00
    sudo chattr +i /usr/sap/QAS/ERS01
    
  4. [A] installare il client NFS e altri requisiti[A] Install NFS client and other requirements

    sudo yum -y install nfs-utils resource-agents resource-agents-sap
    
  5. [A] Controllare la versione di resource-agents-sap[A] Check version of resource-agents-sap

    Assicurarsi che la versione del pacchetto resource-agents-sap installato sia almeno 3.9.5-124.el7Make sure that the version of the installed resource-agents-sap package is at least 3.9.5-124.el7

    sudo yum info resource-agents-sap
    
    # Loaded plugins: langpacks, product-id, search-disabled-repos
    # Repodata is over 2 weeks old. Install yum-cron? Or run: yum makecache fast
    # Installed Packages
    # Name        : resource-agents-sap
    # Arch        : x86_64
    # Version     : 3.9.5
    # Release     : 124.el7
    # Size        : 100 k
    # Repo        : installed
    # From repo   : rhel-sap-for-rhel-7-server-rpms
    # Summary     : SAP cluster resource agents and connector script
    # URL         : https://github.com/ClusterLabs/resource-agents
    # License     : GPLv2+
    # Description : The SAP resource agents and connector script interface with
    #          : Pacemaker to allow SAP instances to be managed in a cluster
    #          : environment.
    
  6. [A] Aggiungere le voci di montaggio[A] Add mount entries

    Se si usa NFSv3:If using NFSv3:

    sudo vi /etc/fstab
    
    # Add the following lines to fstab, save and exit
     192.168.24.5:/sapQAS/sapmntQAS /sapmnt/QAS nfs rw,hard,rsize=65536,wsize=65536,vers=3
     192.168.24.5:/sapQAS/usrsapQASsys /usr/sap/QAS/SYS nfs rw,hard,rsize=65536,wsize=65536,vers=3
     192.168.24.4:/transSAP /usr/sap/trans nfs rw,hard,rsize=65536,wsize=65536,vers=3
    

    Se si usa NFSv 4.1:If using NFSv4.1:

    sudo vi /etc/fstab
    
    # Add the following lines to fstab, save and exit
     192.168.24.5:/sapQAS/sapmntQAS /sapmnt/QAS nfs rw,hard,rsize=65536,wsize=65536,vers=4.1,sec=sys
     192.168.24.5:/sapQAS/usrsapQASsys /usr/sap/QAS/SYS nfs rw,hard,rsize=65536,wsize=65536,vers=4.1,sec=sys
     192.168.24.4:/transSAP /usr/sap/trans nfs rw,hard,rsize=65536,wsize=65536,vers=4.1,sec=sys
    

    Nota

    Assicurarsi di associare la versione del protocollo NFS dei volumi Azure NetApp Files, durante il montaggio dei volumi.Make sure to match the NFS protocol version of the Azure NetApp Files volumes, when mounting the volumes. Se i volumi Azure NetApp Files vengono creati come volumi NFSv3, usare la configurazione NFSv3 corrispondente.If the Azure NetApp Files volumes are created as NFSv3 volumes, use the corresponding NFSv3 configuration. Se i volumi Azure NetApp Files vengono creati come volumi NFSv4.1, seguire le istruzioni per disabilitare il mapping degli ID e assicurarsi di usare la configurazione NFSv4.1 corrispondente.If the Azure NetApp Files volumes are created as NFSv4.1 volumes, follow the instructions to disable ID mapping and make sure to use the corresponding NFSv4.1 configuration. In questo esempio i volumi Azure NetApp Files sono stati creati come volumi NFSv3.In this example the Azure NetApp Files volumes were created as NFSv3 volumes.

    Montare le nuove condivisioniMount the new shares

    sudo mount -a  
    
  7. [A] Configurare il file SWAP[A] Configure SWAP file

    sudo vi /etc/waagent.conf
    
    # Set the property ResourceDisk.EnableSwap to y
    # Create and use swapfile on resource disk.
    ResourceDisk.EnableSwap=y
    
    # Set the size of the SWAP file with property ResourceDisk.SwapSizeMB
    # The free space of resource disk varies by virtual machine size. Make sure that you do not set a value that is too big. You can check the SWAP space with command swapon
    # Size of the swapfile.
    ResourceDisk.SwapSizeMB=2000
    

    Riavviare l'agente per attivare la modificaRestart the Agent to activate the change

    sudo service waagent restart
    
  8. [A] Configurazione di RHEL[A] RHEL configuration

    Configurare RHEL come descritto nella nota SAP 2002167Configure RHEL as described in SAP Note 2002167

Installazione di SAP NetWeaver ASCS/ERSInstalling SAP NetWeaver ASCS/ERS

  1. [1] Creare una risorsa IP virtuale e un probe di integrità per l'istanza di ASCS[1] Create a virtual IP resource and health-probe for the ASCS instance

    sudo pcs node standby anftstsapcl2
    # If using NFSv3
    sudo pcs resource create fs_QAS_ASCS Filesystem device='192.168.24.5:/sapQAS/usrsapQASascs' \
      directory='/usr/sap/QAS/ASCS00' fstype='nfs' force_unmount=safe \
      op start interval=0 timeout=60 op stop interval=0 timeout=120 op monitor interval=200 timeout=40 \
      --group g-QAS_ASCS
    
    # If using NFSv4.1
    sudo pcs resource create fs_QAS_ASCS Filesystem device='192.168.24.5:/sapQAS/usrsapQASascs' \
      directory='/usr/sap/QAS/ASCS00' fstype='nfs' force_unmount=safe options='sec=sys,vers=4.1' \
      op start interval=0 timeout=60 op stop interval=0 timeout=120 op monitor interval=200 timeout=40 \
      --group g-QAS_ASCS
    
    sudo pcs resource create vip_QAS_ASCS IPaddr2 \
      ip=192.168.14.9 cidr_netmask=24 \
      --group g-QAS_ASCS
    
    sudo pcs resource create nc_QAS_ASCS azure-lb port=62000 \
      --group g-QAS_ASCS
    

    Assicurarsi che lo stato del cluster sia corretto e che tutte le risorse siano avviate.Make sure that the cluster status is ok and that all resources are started. Non è importante il nodo su cui sono in esecuzione le risorse.It is not important on which node the resources are running.

    sudo pcs status
    
    # Node anftstsapcl2: standby
    # Online: [ anftstsapcl1 ]
    #
    # Full list of resources:
    #
    # rsc_st_azure    (stonith:fence_azure_arm):      Started anftstsapcl1
    #  Resource Group: g-QAS_ASCS
    #      fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
    #      nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
    #      vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
    
  2. [1] Installare SAP NetWeaver ASCS[1] Install SAP NetWeaver ASCS

    Installare SAP NetWeaver ASC come root nel primo nodo usando un nome host virtuale mappato all'indirizzo IP della configurazione front-end del servizio di bilanciamento del carico per ASC, ad esempio anftstsapvh, 192.168.14.9 e il numero di istanza usato per il probe del servizio di bilanciamento del carico, ad esempio 00.Install SAP NetWeaver ASCS as root on the first node using a virtual hostname that maps to the IP address of the load balancer frontend configuration for the ASCS, for example anftstsapvh, 192.168.14.9 and the instance number that you used for the probe of the load balancer, for example 00.

    È possibile usare il parametro sapinst SAPINST_REMOTE_ACCESS_USER per consentire a un utente non ROOT di connettersi a sapinst.You can use the sapinst parameter SAPINST_REMOTE_ACCESS_USER to allow a non-root user to connect to sapinst.

    # Allow access to SWPM. This rule is not permanent. If you reboot the machine, you have to run the command again.
    sudo firewall-cmd --zone=public  --add-port=4237/tcp
    
    sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin SAPINST_USE_HOSTNAME=<virtual_hostname>
    

    Se l'installazione non riesce a creare una sottocartella in/usr/SAP/QAS/ASCS 00, provare a impostare il proprietario e il gruppo della cartella ASC 00 e riprovare.If the installation fails to create a subfolder in /usr/sap/QAS/ASCS 00, try setting the owner and group of the ASCS 00 folder and retry.

    sudo chown qasadm /usr/sap/QAS/ASCS00
    sudo chgrp sapsys /usr/sap/QAS/ASCS00
    
  3. [1] Creare una risorsa IP virtuale e un probe di integrità per l'istanza di ERS[1] Create a virtual IP resource and health-probe for the ERS instance

    sudo pcs node unstandby anftstsapcl2
    sudo pcs node standby anftstsapcl1
    
    # If using NFSv3
    sudo pcs resource create fs_QAS_AERS Filesystem device='192.168.24.5:/sapQAS/usrsapQASers' \
      directory='/usr/sap/QAS/ERS01' fstype='nfs' force_unmount=safe \
      op start interval=0 timeout=60 op stop interval=0 timeout=120 op monitor interval=200 timeout=40 \
     --group g-QAS_AERS
    
    # If using NFSv4.1
    sudo pcs resource create fs_QAS_AERS Filesystem device='192.168.24.5:/sapQAS/usrsapQASers' \
      directory='/usr/sap/QAS/ERS01' fstype='nfs' force_unmount=safe options='sec=sys,vers=4.1' \
      op start interval=0 timeout=60 op stop interval=0 timeout=120 op monitor interval=200 timeout=40 \
     --group g-QAS_AERS
    
    sudo pcs resource create vip_QAS_AERS IPaddr2 \
      ip=192.168.14.10 cidr_netmask=24 \
     --group g-QAS_AERS
    
    sudo pcs resource create nc_QAS_AERS azure-lb port=62101 \
     --group g-QAS_AERS
    

    Assicurarsi che lo stato del cluster sia corretto e che tutte le risorse siano avviate.Make sure that the cluster status is ok and that all resources are started. Non è importante il nodo su cui sono in esecuzione le risorse.It is not important on which node the resources are running.

    sudo pcs status
    
    # Node anftstsapcl1: standby
    # Online: [ anftstsapcl2 ]
    #
    # Full list of resources:
    #
    # rsc_st_azure    (stonith:fence_azure_arm):      Started anftstsapcl2
    #  Resource Group: g-QAS_ASCS
    #      fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
    #      nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2<
    #      vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
    #  Resource Group: g-QAS_AERS
    #      fs_QAS_AERS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
    #      nc_QAS_AERS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
    #      vip_QAS_AERS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
    
  4. [2] Installare SAP NetWeaver ERS[2] Install SAP NetWeaver ERS

    Installare SAP NetWeaver ERS come root nel secondo nodo usando un nome host virtuale mappato all'indirizzo IP della configurazione front-end del servizio di bilanciamento del carico per ERS, ad esempio anftstsapers, 192.168.14.10 e il numero di istanza usato per il probe del servizio di bilanciamento del carico, ad esempio 01.Install SAP NetWeaver ERS as root on the second node using a virtual hostname that maps to the IP address of the load balancer frontend configuration for the ERS, for example anftstsapers, 192.168.14.10 and the instance number that you used for the probe of the load balancer, for example 01.

    È possibile usare il parametro sapinst SAPINST_REMOTE_ACCESS_USER per consentire a un utente non ROOT di connettersi a sapinst.You can use the sapinst parameter SAPINST_REMOTE_ACCESS_USER to allow a non-root user to connect to sapinst.

    # Allow access to SWPM. This rule is not permanent. If you reboot the machine, you have to run the command again.
    sudo firewall-cmd --zone=public  --add-port=4237/tcp
    
    sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin SAPINST_USE_HOSTNAME=<virtual_hostname>
    

    Se durante l'installazione non viene creata una sottocartella in /usr/sap/QAS/ERS 01, provare a impostare il proprietario e il gruppo della cartella ERS 01 e riprovare.If the installation fails to create a subfolder in /usr/sap/QAS/ERS 01, try setting the owner and group of the ERS 01 folder and retry.

    sudo chown qaadm /usr/sap/QAS/ERS01
    sudo chgrp sapsys /usr/sap/QAS/ERS01
    
  5. [1] Adattare i profili di istanza ASCS/SCS e ERS[1] Adapt the ASCS/SCS and ERS instance profiles

    • Profilo ASCS/SCSASCS/SCS profile
    sudo vi /sapmnt/QAS/profile/QAS_ASCS00_anftstsapvh
    
    # Change the restart command to a start command
    #Restart_Program_01 = local $(_EN) pf=$(_PF)
    Start_Program_01 = local $(_EN) pf=$(_PF)
    
    # Add the keep alive parameter, if using ENSA1
    enque/encni/set_so_keepalive = true
    

    Per ENSA1 e ENSA2, assicurarsi che i parametri del keepalive sistema operativo siano impostati come descritto nella nota SAP 1410736.For both ENSA1 and ENSA2, make sure that the keepalive OS parameters are set as described in SAP note 1410736.

    • Profilo ERSERS profile
    sudo vi /sapmnt/QAS/profile/QAS_ERS01_anftstsapers
    
    # Change the restart command to a start command
    #Restart_Program_00 = local $(_ER) pf=$(_PFL) NR=$(SCSID)
    Start_Program_00 = local $(_ER) pf=$(_PFL) NR=$(SCSID)
    
    # remove Autostart from ERS profile
    # Autostart = 1
    
  6. [A] Configurare keep-alive[A] Configure Keep Alive

    Le comunicazioni tra il server applicazioni SAP NetWeaver e ASCS/SCS vengono instradate tramite un servizio di bilanciamento del carico software.The communication between the SAP NetWeaver application server and the ASCS/SCS is routed through a software load balancer. Il servizio di bilanciamento del carico disconnette le connessioni inattive dopo un timeout configurabile.The load balancer disconnects inactive connections after a configurable timeout. Per evitare questo problema, è necessario impostare un parametro nel profilo ASC/SCS di SAP NetWeaver, se si usa ENSA1 e modificare le impostazioni di sistema di Linux keepalive in tutti i server SAP per ENSA1/ENSA2.To prevent this, you need to set a parameter in the SAP NetWeaver ASCS/SCS profile, if using ENSA1, and change the Linux system keepalive settings on all SAP servers for both ENSA1/ENSA2. Per altre informazioni, leggere la nota SAP 1410736.Read SAP Note 1410736 for more information.

    # Change the Linux system configuration
    sudo sysctl net.ipv4.tcp_keepalive_time=300
    
  7. [A] Aggiornare il file /usr/sap/sapservices[A] Update the /usr/sap/sapservices file

    Per impedire l'avvio delle istanze per lo script di avvio sapinit, tutte le istanze gestite da Pacemaker devono essere impostate come commento nel file /usr/sap/sapservices.To prevent the start of the instances by the sapinit startup script, all instances managed by Pacemaker must be commented out from /usr/sap/sapservices file. Non impostare come commento l'istanza di SAP HANA se verrà usata con HANA SR.Do not comment out the SAP HANA instance if it will be used with HANA SR.

    sudo vi /usr/sap/sapservices
    
    # On the node where you installed the ASCS, comment out the following line
    # LD_LIBRARY_PATH=/usr/sap/QAS/ASCS00/exe:$LD_LIBRARY_PATH; export LD_LIBRARY_PATH; /usr/sap/QAS/ASCS00/exe/sapstartsrv pf=/usr/sap/QAS/SYS/profile/QAS_ASCS00_anftstsapvh -D -u qasadm
    
    # On the node where you installed the ERS, comment out the following line
    # LD_LIBRARY_PATH=/usr/sap/QAS/ERS01/exe:$LD_LIBRARY_PATH; export LD_LIBRARY_PATH; /usr/sap/QAS/ERS01/exe/sapstartsrv pf=/usr/sap/QAS/ERS01/profile/QAS_ERS01_anftstsapers -D -u qasadm
    
  8. [1] Creare le risorse del cluster SAP[1] Create the SAP cluster resources

    Se si usa l'architettura del server di accodamento 1 (ENSA1), definire le risorse nel modo seguente:If using enqueue server 1 architecture (ENSA1), define the resources as follows:

    sudo pcs property set maintenance-mode=true
    
     sudo pcs resource create rsc_sap_QAS_ASCS00 SAPInstance \
     InstanceName=QAS_ASCS00_anftstsapvh START_PROFILE="/sapmnt/QAS/profile/QAS_ASCS00_anftstsapvh" \
     AUTOMATIC_RECOVER=false \
     meta resource-stickiness=5000 migration-threshold=1 failure-timeout=60 \
     op monitor interval=20 on-fail=restart timeout=60 \
     op start interval=0 timeout=600 op stop interval=0 timeout=600 \
     --group g-QAS_ASCS
    
     sudo pcs resource create rsc_sap_QAS_ERS01 SAPInstance \
     InstanceName=QAS_ERS01_anftstsapers START_PROFILE="/sapmnt/QAS/profile/QAS_ERS01_anftstsapers" \
     AUTOMATIC_RECOVER=false IS_ERS=true \
     op monitor interval=20 on-fail=restart timeout=60 op start interval=0 timeout=600 op stop interval=0 timeout=600 \
     --group g-QAS_AERS
    
     sudo pcs constraint colocation add g-QAS_AERS with g-QAS_ASCS -5000
     sudo pcs constraint location rsc_sap_QAS_ASCS00 rule score=2000 runs_ers_QAS eq 1
     sudo pcs constraint order g-QAS_ASCS then g-QAS_AERS kind=Optional symmetrical=false
    
     sudo pcs node unstandby anftstsapcl1
     sudo pcs property set maintenance-mode=false
    

    SAP ha introdotto il supporto per il server di accodamento 2, inclusa la replica, a partire da SAP NW 7.52.SAP introduced support for enqueue server 2, including replication, as of SAP NW 7.52. A partire dalla piattaforma ABAP 1809, il server di accodamento 2 viene installato per impostazione predefinita.Starting with ABAP Platform 1809, enqueue server 2 is installed by default. Vedere la nota SAP 2630416 per il supporto del server di accodamento 2.See SAP note 2630416 for enqueue server 2 support. Se si usa l'architettura di Accodamento server 2 (ENSA2), installare Resource Agent Resource-Agents-SAP-4.1.1-12.EL7.x86_64 o versione successiva e definire le risorse come segue:If using enqueue server 2 architecture (ENSA2), install resource agent resource-agents-sap-4.1.1-12.el7.x86_64 or newer and define the resources as follows:

    sudo pcs property set maintenance-mode=true
    
    sudo pcs resource create rsc_sap_QAS_ASCS00 SAPInstance \
    InstanceName=QAS_ASCS00_anftstsapvh START_PROFILE="/sapmnt/QAS/profile/QAS_ASCS00_anftstsapvh" \
    AUTOMATIC_RECOVER=false \
    meta resource-stickiness=5000 migration-threshold=1 failure-timeout=60 \
    op monitor interval=20 on-fail=restart timeout=60 \
    op start interval=0 timeout=600 op stop interval=0 timeout=600 \
    --group g-QAS_ASCS
    
    sudo pcs resource create rsc_sap_QAS_ERS01 SAPInstance \
    InstanceName=QAS_ERS01_anftstsapers START_PROFILE="/sapmnt/QAS/profile/QAS_ERS01_anftstsapers" \
    AUTOMATIC_RECOVER=false IS_ERS=true \
    op monitor interval=20 on-fail=restart timeout=60 op start interval=0 timeout=600 op stop interval=0 timeout=600 \
    --group g-QAS_AERS
    
    sudo pcs constraint colocation add g-QAS_AERS with g-QAS_ASCS -5000
    sudo pcs constraint order g-QAS_ASCS then g-QAS_AERS kind=Optional symmetrical=false
    sudo pcs constraint order start g-QAS_ASCS then stop g-QAS_AERS symmetrical=false
    
    sudo pcs node unstandby anftstsapcl1
    sudo pcs property set maintenance-mode=false
    

    Se si esegue l'aggiornamento da una versione precedente e si passa al server di Accodamento 2, vedere la nota SAP 2641322.If you are upgrading from an older version and switching to enqueue server 2, see SAP note 2641322.

    Nota

    I timeout nella configurazione precedente sono solo esempi e possono essere adattati alla configurazione specifica di SAP.The timeouts in the above configuration are just examples and may need to be adapted to the specific SAP setup.

    Assicurarsi che lo stato del cluster sia corretto e che tutte le risorse siano avviate.Make sure that the cluster status is ok and that all resources are started. Non è importante il nodo su cui sono in esecuzione le risorse.It is not important on which node the resources are running.

    sudo pcs status
    
    # Online: [ anftstsapcl1 anftstsapcl2 ]
    #
    # Full list of resources:
    #
    # rsc_st_azure    (stonith:fence_azure_arm):      Started anftstsapcl2
    #  Resource Group: g-QAS_ASCS
    #      fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
    #      nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
    #      vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
    #      rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    #  Resource Group: g-QAS_AERS
    #      fs_QAS_AERS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
    #      nc_QAS_AERS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
    #      vip_QAS_AERS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
    #      rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    
  9. [A] aggiungere regole del firewall per ASC e ERS in entrambi i nodi aggiungere le regole del firewall per ASC e ERS in entrambi i nodi.[A] Add firewall rules for ASCS and ERS on both nodes Add the firewall rules for ASCS and ERS on both nodes.

    # Probe Port of ASCS
    sudo firewall-cmd --zone=public --add-port=62000/tcp --permanent
    sudo firewall-cmd --zone=public --add-port=62000/tcp
    sudo firewall-cmd --zone=public --add-port=3200/tcp --permanent
    sudo firewall-cmd --zone=public --add-port=3200/tcp
    sudo firewall-cmd --zone=public --add-port=3600/tcp --permanent
    sudo firewall-cmd --zone=public --add-port=3600/tcp
    sudo firewall-cmd --zone=public --add-port=3900/tcp --permanent
    sudo firewall-cmd --zone=public --add-port=3900/tcp
    sudo firewall-cmd --zone=public --add-port=8100/tcp --permanent
    sudo firewall-cmd --zone=public --add-port=8100/tcp
    sudo firewall-cmd --zone=public --add-port=50013/tcp --permanent
    sudo firewall-cmd --zone=public --add-port=50013/tcp
    sudo firewall-cmd --zone=public --add-port=50014/tcp --permanent
    sudo firewall-cmd --zone=public --add-port=50014/tcp
    sudo firewall-cmd --zone=public --add-port=50016/tcp --permanent
    sudo firewall-cmd --zone=public --add-port=50016/tcp
    # Probe Port of ERS
    sudo firewall-cmd --zone=public --add-port=62101/tcp --permanent
    sudo firewall-cmd --zone=public --add-port=62101/tcp
    sudo firewall-cmd --zone=public --add-port=3201/tcp --permanent
    sudo firewall-cmd --zone=public --add-port=3201/tcp
    sudo firewall-cmd --zone=public --add-port=3301/tcp --permanent
    sudo firewall-cmd --zone=public --add-port=3301/tcp
    sudo firewall-cmd --zone=public --add-port=50113/tcp --permanent
    sudo firewall-cmd --zone=public --add-port=50113/tcp
    sudo firewall-cmd --zone=public --add-port=50114/tcp --permanent
    sudo firewall-cmd --zone=public --add-port=50114/tcp
    sudo firewall-cmd --zone=public --add-port=50116/tcp --permanent
    sudo firewall-cmd --zone=public --add-port=50116/tcp
    

Preparazione del server applicazioni di SAP NetWeaverSAP NetWeaver application server preparation

Alcuni database richiedono che l'installazione dell'istanza di database venga eseguita in un server applicazioni.Some databases require that the database instance installation is executed on an application server. Preparare le macchine virtuali del server applicazioni da poter usare in questi casi.Prepare the application server virtual machines to be able to use them in these cases.

I passaggi seguenti presuppongono che il server applicazioni venga installato in un server diverso dai server ASCS/SCS e HANA.The steps bellow assume that you install the application server on a server different from the ASCS/SCS and HANA servers. Diversamente, alcuni dei passaggi seguenti non sono necessari, ad esempio la configurazione della risoluzione dei nomi host.Otherwise some of the steps below (like configuring host name resolution) are not needed.

Gli elementi seguenti sono preceduti dall'indicazione [A] , applicabile a PAS e AAS, [P] , applicabile solo a PAS o [S] , applicabile solo a AAS.The following items are prefixed with either [A] - applicable to both PAS and AAS, [P] - only applicable to PAS or [S] - only applicable to AAS.

  1. [A] configurare la risoluzione dei nomi host è possibile usare un server DNS o modificare i/o/o in tutti i nodi.[A] Setup host name resolution You can either use a DNS server or modify the /etc/hosts on all nodes. Questo esempio mostra come usare il file /etc/hosts.This example shows how to use the /etc/hosts file. Sostituire l'indirizzo IP e il nome host nei comandi seguenti:Replace the IP address and the hostname in the following commands:

    sudo vi /etc/hosts
    

    Inserire le righe seguenti in /etc/hosts.Insert the following lines to /etc/hosts. Modificare l'indirizzo IP e il nome host in modo che corrispondano all'ambiente.Change the IP address and hostname to match your environment.

    # IP address of the load balancer frontend configuration for SAP NetWeaver ASCS
    192.168.14.9 anftstsapvh
    # IP address of the load balancer frontend configuration for SAP NetWeaver ASCS ERS
    192.168.14.10 anftstsapers
    192.168.14.7 anftstsapa01
    192.168.14.8 anftstsapa02
    
  2. [A] creare la directory sapmnt creare la directory sapmnt.[A] Create the sapmnt directory Create the sapmnt directory.

    sudo mkdir -p /sapmnt/QAS
    sudo mkdir -p /usr/sap/trans
    
    sudo chattr +i /sapmnt/QAS
    sudo chattr +i /usr/sap/trans
    
  3. [A] installare il client NFS e altri requisiti[A] Install NFS client and other requirements

    sudo yum -y install nfs-utils uuidd
    
  4. [A] Aggiungere le voci di montaggio[A] Add mount entries
    Se si usa NFSv3:If using NFSv3:

    sudo vi /etc/fstab
    
    # Add the following lines to fstab, save and exit
    192.168.24.5:/sapQAS/sapmntQAS /sapmnt/QAS nfs rw,hard,rsize=65536,wsize=65536,vers=3
    192.168.24.4:/transSAP /usr/sap/trans nfs rw,hard,rsize=65536,wsize=65536,vers=3
    

    Se si usa NFSv 4.1:If using NFSv4.1:

    sudo vi /etc/fstab
    
    # Add the following lines to fstab, save and exit
    192.168.24.5:/sapQAS/sapmntQAS /sapmnt/QAS nfs rw,hard,rsize=65536,wsize=65536,vers=4.1,sec=sys
    192.168.24.4:/transSAP /usr/sap/trans nfs rw,hard,rsize=65536,wsize=65536,vers=4.1,sec=sys
    

    Montare le nuove condivisioniMount the new shares

    sudo mount -a
    
  5. [P] creare e montare la directory pas[P] Create and mount the PAS directory
    Se si usa NFSv3:If using NFSv3:

    sudo mkdir -p /usr/sap/QAS/D02
    sudo chattr +i /usr/sap/QAS/D02
    
    sudo vi /etc/fstab
    # Add the following line to fstab
    92.168.24.5:/sapQAS/usrsapQASpas /usr/sap/QAS/D02 nfs rw,hard,rsize=65536,wsize=65536,vers=3
    
    # Mount
    sudo mount -a
    

    Se si usa NFSv 4.1:If using NFSv4.1:

    sudo mkdir -p /usr/sap/QAS/D02
    sudo chattr +i /usr/sap/QAS/D02
    
    sudo vi /etc/fstab
    # Add the following line to fstab
    92.168.24.5:/sapQAS/usrsapQASpas /usr/sap/QAS/D02 nfs rw,hard,rsize=65536,wsize=65536,vers=4.1,sec=sys
    
    # Mount
    sudo mount -a
    
  6. [S] creare e montare la directory AAS[S] Create and mount the AAS directory
    Se si usa NFSv3:If using NFSv3:

    sudo mkdir -p /usr/sap/QAS/D03
    sudo chattr +i /usr/sap/QAS/D03
    
    sudo vi /etc/fstab
    # Add the following line to fstab
    92.168.24.5:/sapQAS/usrsapQASaas /usr/sap/QAS/D03 nfs rw,hard,rsize=65536,wsize=65536,vers=3
    
    # Mount
    sudo mount -a
    

    Se si usa NFSv 4.1:If using NFSv4.1:

    sudo mkdir -p /usr/sap/QAS/D03
    sudo chattr +i /usr/sap/QAS/D03
    
    sudo vi /etc/fstab
    # Add the following line to fstab
    92.168.24.5:/sapQAS/usrsapQASaas /usr/sap/QAS/D03 nfs rw,hard,rsize=65536,wsize=65536,vers=4.1,sec=sys
    
    # Mount
    sudo mount -a
    
  7. [A] Configurare il file SWAP[A] Configure SWAP file

    sudo vi /etc/waagent.conf
    
    # Set the property ResourceDisk.EnableSwap to y
    # Create and use swapfile on resource disk.
    ResourceDisk.EnableSwap=y
    
    # Set the size of the SWAP file with property ResourceDisk.SwapSizeMB
    # The free space of resource disk varies by virtual machine size. Make sure that you do not set a value that is too big. You can check the SWAP space with command swapon
    # Size of the swapfile.
    ResourceDisk.SwapSizeMB=2000
    

    Riavviare l'agente per attivare la modificaRestart the Agent to activate the change

    sudo service waagent restart
    

Installare il databaseInstall database

In questo esempio, SAP NetWeaver è installato in SAP HANA.In this example, SAP NetWeaver is installed on SAP HANA. Per questa installazione è possibile usare qualsiasi database supportato.You can use every supported database for this installation. Per altre informazioni su come installare SAP HANA in Azure, vedere disponibilità elevata di SAP Hana in macchine virtuali di Azure in Red Hat Enterprise Linux . For a list of supported databases, see SAP Note 1928533 .For more information on how to install SAP HANA in Azure, see High availability of SAP HANA on Azure VMs on Red Hat Enterprise Linux. For a list of supported databases, see SAP Note 1928533.

  1. Eseguire l'installazione dell'istanza del database SAPRun the SAP database instance installation

    Installare l'istanza del database di SAP NetWeaver come radice usando un nome host virtuale mappato all'indirizzo IP della configurazione front-end di bilanciamento del carico per il database.Install the SAP NetWeaver database instance as root using a virtual hostname that maps to the IP address of the load balancer frontend configuration for the database.

    È possibile usare il parametro sapinst SAPINST_REMOTE_ACCESS_USER per consentire a un utente non ROOT di connettersi a sapinst.You can use the sapinst parameter SAPINST_REMOTE_ACCESS_USER to allow a non-root user to connect to sapinst.

    sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin
    

Installazione del server applicazioni di SAP NetWeaverSAP NetWeaver application server installation

Per installare il server applicazioni SAP, seguire questi passaggi.Follow these steps to install an SAP application server.

  1. Preparare il server applicazioniPrepare application server

    Per preparare il server applicazioni, seguire la procedura descritta nel capitolo Preparazione del server applicazioni di SAP NetWeaver sopra riportato.Follow the steps in the chapter SAP NetWeaver application server preparation above to prepare the application server.

  2. Installare il server applicazioni di SAP NetWeaverInstall SAP NetWeaver application server

    Installare un server applicazioni di SAP NetWeaver primario o aggiuntivo.Install a primary or additional SAP NetWeaver applications server.

    È possibile usare il parametro sapinst SAPINST_REMOTE_ACCESS_USER per consentire a un utente non ROOT di connettersi a sapinst.You can use the sapinst parameter SAPINST_REMOTE_ACCESS_USER to allow a non-root user to connect to sapinst.

    sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin
    
  3. Aggiornare l'archivio sicuro di SAP HANAUpdate SAP HANA secure store

    Aggiornare l'archivio sicuro di SAP HANA in modo che punti al nome virtuale della configurazione della replica di sistema di SAP HANA.Update the SAP HANA secure store to point to the virtual name of the SAP HANA System Replication setup.

    Eseguire il comando seguente per elencare le voci come <sapsid> admRun the following command to list the entries as <sapsid>adm

    hdbuserstore List
    

    Viene visualizzato un elenco di tutte le voci, che avrà un aspetto simile al seguenteThis should list all entries and should look similar to

    DATA FILE       : /home/qasadm/.hdb/anftstsapa01/SSFS_HDB.DAT
    KEY FILE        : /home/qasadm/.hdb/anftstsapa01/SSFS_HDB.KEY
    
    KEY DEFAULT
      ENV : 192.168.14.4:30313
      USER: SAPABAP1
      DATABASE: QAS
    

    L'output mostra che l'indirizzo IP della voce predefinita fa riferimento alla macchina virtuale e non all'indirizzo IP del bilanciamento del carico.The output shows that the IP address of the default entry is pointing to the virtual machine and not to the load balancer's IP address. Questa voce deve essere modificata in modo che faccia riferimento al nome host virtuale del bilanciamento del carico.This entry needs to be changed to point to the virtual hostname of the load balancer. Verificare di usare la stessa porta (30313 nell'output precedente) e lo stesso nome del database (QAS nell'output precedente).Make sure to use the same port (30313 in the output above) and database name (QAS in the output above)!

    su - qasadm
    hdbuserstore SET DEFAULT qasdb:30313@QAS SAPABAP1 <password of ABAP schema>
    

Testare la configurazione del clusterTest the cluster setup

  1. Eseguire la migrazione manuale dell'istanza ASCSManually migrate the ASCS instance

    Stato delle risorse prima dell'avvio del test:Resource state before starting the test:

     rsc_st_azure    (stonith:fence_azure_arm):      Started anftstsapcl1
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
     Resource Group: g-QAS_AERS
         fs_QAS_AERS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_AERS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_AERS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    

    Eseguire i comandi seguenti come radice per la migrazione dell'istanza ASCS.Run the following commands as root to migrate the ASCS instance.

    [root@anftstsapcl1 ~]# pcs resource move rsc_sap_QAS_ASCS00
    
    [root@anftstsapcl1 ~]# pcs resource clear rsc_sap_QAS_ASCS00
    
    # Remove failed actions for the ERS that occurred as part of the migration
    [root@anftstsapcl1 ~]# pcs resource cleanup rsc_sap_QAS_ERS01
    

    Stato delle risorse dopo il test:Resource state after the test:

    rsc_st_azure    (stonith:fence_azure_arm):      Started anftstsapcl1
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
     Resource Group: g-QAS_AERS
         fs_QAS_AERS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_AERS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_AERS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    
  2. Simulare l'arresto anomalo del nodoSimulate node crash

    Stato delle risorse prima dell'avvio del test:Resource state before starting the test:

    rsc_st_azure    (stonith:fence_azure_arm):      Started anftstsapcl1
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
     Resource Group: g-QAS_AERS
         fs_QAS_AERS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_AERS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_AERS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    

    Eseguire i comandi seguenti come radice nel nodo di cui è in esecuzione l'istanza di ASCSRun the following command as root on the node where the ASCS instance is running

    [root@anftstsapcl2 ~]# echo b > /proc/sysrq-trigger
    

    Lo stato dopo il riavvio del nodo dovrebbe essere simile al seguente.The status after the node is started again should look like this.

    Online: [ anftstsapcl1 anftstsapcl2 ]
    
    Full list of resources:
    
    rsc_st_azure    (stonith:fence_azure_arm):      Started anftstsapcl1
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
     Resource Group: g-QAS_AERS
         fs_QAS_AERS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_AERS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_AERS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    
    Failed Actions:
    * rsc_sap_QAS_ERS01_monitor_11000 on anftstsapcl1 'not running' (7): call=45, status=complete, exitreason='',
    

    Eseguire il comando seguente per pulire le risorse con errori.Use the following command to clean the failed resources.

    [root@anftstsapcl1 ~]# pcs resource cleanup rsc_sap_QAS_ERS01
    

    Stato delle risorse dopo il test:Resource state after the test:

    rsc_st_azure    (stonith:fence_azure_arm):      Started anftstsapcl1
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
     Resource Group: g-QAS_AERS
         fs_QAS_AERS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_AERS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_AERS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    
  3. Terminare il processo server messaggiKill message server process

    Stato delle risorse prima dell'avvio del test:Resource state before starting the test:

    rsc_st_azure    (stonith:fence_azure_arm):      Started anftstsapcl1
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
     Resource Group: g-QAS_AERS
         fs_QAS_AERS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_AERS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_AERS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    

    Eseguire i comandi seguenti come radice per identificare il processo del server messaggi e terminarlo.Run the following commands as root to identify the process of the message server and kill it.

    [root@anftstsapcl1 ~]# pgrep -f ms.sapQAS | xargs kill -9
    

    Terminando il server messaggi una sola volta, questo verrà riavviato da sapstart.If you only kill the message server once, it will be restarted by sapstart. Terminandolo un numero di volte sufficiente, Pacemaker sposterà infine l'istanza ASCS in un altro nodo.If you kill it often enough, Pacemaker will eventually move the ASCS instance to the other node. Eseguire i comandi seguenti come radice per pulire lo stato della risorsa dell'istanza ASCS ed ERS dopo il test.Run the following commands as root to clean up the resource state of the ASCS and ERS instance after the test.

    [root@anftstsapcl1 ~]# pcs resource cleanup rsc_sap_QAS_ASCS00
    [root@anftstsapcl1 ~]# pcs resource cleanup rsc_sap_QAS_ERS01
    

    Stato delle risorse dopo il test:Resource state after the test:

    rsc_st_azure    (stonith:fence_azure_arm):      Started anftstsapcl1
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
     Resource Group: g-QAS_AERS
         fs_QAS_AERS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_AERS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_AERS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    
  4. Terminare il processo server di accodamentoKill enqueue server process

    Stato delle risorse prima dell'avvio del test:Resource state before starting the test:

    rsc_st_azure    (stonith:fence_azure_arm):      Started anftstsapcl1
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
     Resource Group: g-QAS_AERS
         fs_QAS_AERS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_AERS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_AERS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    

    Eseguire i comandi seguenti come radice nel nodo di cui è in esecuzione l'istanza di ASCS per terminare il server di accodamento.Run the following commands as root on the node where the ASCS instance is running to kill the enqueue server.

    #If using ENSA1
    [root@anftstsapcl2 ~]# pgrep -f en.sapQAS | xargs kill -9
    #If using ENSA2
    [root@anftstsapcl2 ~]# pgrep -f enq.sapQAS | xargs kill -9
    

    L'istanza ASCS deve eseguire immediatamente il failover in un altro nodo.The ASCS instance should immediately fail over to the other node. Anche l'istanza ERS deve eseguire il failover dopo l'avvio dell'istanza ASCS.The ERS instance should also fail over after the ASCS instance is started. Eseguire i comandi seguenti come radice per pulire lo stato della risorsa dell'istanza ASCS ed ERS dopo il test.Run the following commands as root to clean up the resource state of the ASCS and ERS instance after the test.

    [root@anftstsapcl2 ~]# pcs resource cleanup rsc_sap_QAS_ASCS00
    [root@anftstsapcl2 ~]# pcs resource cleanup rsc_sap_QAS_ERS01
    

    Stato delle risorse dopo il test:Resource state after the test:

    rsc_st_azure    (stonith:fence_azure_arm):      Started anftstsapcl1
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
     Resource Group: g-QAS_AERS
         fs_QAS_AERS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_AERS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_AERS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    
  5. Terminare il processo del server di replica dell'accodamentoKill enqueue replication server process

    Stato delle risorse prima dell'avvio del test:Resource state before starting the test:

    rsc_st_azure    (stonith:fence_azure_arm):      Started anftstsapcl1
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
     Resource Group: g-QAS_AERS
         fs_QAS_AERS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_AERS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_AERS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    

    Eseguire i comandi seguenti come radice nel nodo in cui è in esecuzione l'istanza ERS per terminare il processo del server di replica dell'accodamento.Run the following command as root on the node where the ERS instance is running to kill the enqueue replication server process.

    #If using ENSA1
    [root@anftstsapcl2 ~]# pgrep -f er.sapQAS | xargs kill -9
    #If using ENSA2
    [root@anftstsapcl2 ~]# pgrep -f enqr.sapQAS | xargs kill -9
    

    Se si esegue il comando una sola volta, sapstart riavvierà il processo.If you only run the command once, sapstart will restart the process. Se lo si esegue un numero di volte sufficiente, sapstart non riavvierà il processo e la risorsa sarà in stato arrestato.If you run it often enough, sapstart will not restart the process and the resource will be in a stopped state. Eseguire i comandi seguenti come radice per pulire lo stato della risorsa dell'istanza ERS dopo il test.Run the following commands as root to clean up the resource state of the ERS instance after the test.

    [root@anftstsapcl2 ~]# pcs resource cleanup rsc_sap_QAS_ERS01
    

    Stato delle risorse dopo il test:Resource state after the test:

    rsc_st_azure    (stonith:fence_azure_arm):      Started anftstsapcl1
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
     Resource Group: g-QAS_AERS
         fs_QAS_AERS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_AERS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_AERS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    
  6. Terminare il processo di accodamento sapstartsrvKill enqueue sapstartsrv process

    Stato delle risorse prima dell'avvio del test:Resource state before starting the test:

    rsc_st_azure    (stonith:fence_azure_arm):      Started anftstsapcl1
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
     Resource Group: g-QAS_AERS
         fs_QAS_AERS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_AERS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_AERS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    

    Eseguire i comandi seguenti come radice nel nodo di cui è in esecuzione ASCS.Run the following commands as root on the node where the ASCS is running.

    [root@anftstsapcl1 ~]# pgrep -fl ASCS00.*sapstartsrv
    # 59545 sapstartsrv
    
    [root@anftstsapcl1 ~]# kill -9 59545
    

    Il processo sapstartsrv deve sempre essere riavviato dall'agente delle risorse Pacemaker come parte del monitoraggio.The sapstartsrv process should always be restarted by the Pacemaker resource agent as part of the monitoring. Stato delle risorse dopo il test:Resource state after the test:

    rsc_st_azure    (stonith:fence_azure_arm):      Started anftstsapcl1
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
     Resource Group: g-QAS_AERS
         fs_QAS_AERS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_AERS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_AERS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    

Passaggi successiviNext steps