Hoge beschikbaarheid voor SAP NetWeaver op azure-VM's op SUSE Linux Enterprise Server met Azure NetApp Files voor SAP-toepassingen

In dit artikel wordt beschreven hoe u de virtuele machines implementeert, de virtuele machines configureert, het cluster-framework installeert en een SAP NetWeaver 7.50-systeem met hoge beschikbare Azure NetApp Files. In de voorbeeldconfiguraties, installatieopdrachten, enzovoort, is het ASCS-exemplaar nummer 00, het ERS-exemplaarnummer 01, het primaire toepassings exemplaar (PAS) 02 en het exemplaar van de toepassing (AAS) 03. SAP-systeem-id QAS wordt gebruikt.

In dit artikel wordt uitgelegd hoe u hoge beschikbaarheid bereikt voor de SAP NetWeaver-toepassing met Azure NetApp Files. De databaselaag wordt in dit artikel niet in detail behandeld.

Lees eerst de volgende SAP-opmerkingen en -documenten:

Overzicht

Hoge beschikbaarheid (HA) voor centrale SAP Netweaver-services vereist gedeelde opslag. Om dat te bereiken in SUSE Linux was het tot nu toe nodig om een afzonderlijk NFS-cluster met hoge beschikbare gegevens te bouwen.

Het is nu mogelijk om SAP Netweaver HA te bereiken met behulp van gedeelde opslag, geïmplementeerd op Azure NetApp Files. Als Azure NetApp Files voor de gedeelde opslag gebruikt, is er geen extra NFS-cluster meer nodig. Pacemaker is nog steeds nodig voor de ha van de centrale SAP Netweaver-services (ASCS/SCS).

Overzicht van SAP NetWeaver Hoge beschikbaarheid

SAP NetWeaver ASCS, SAP NetWeaver SCS, SAP NetWeaver ERS en de SAP HANA-database gebruiken virtuele hostnaam en virtuele IP-adressen. In Azure is een load balancer vereist voor het gebruik van een virtueel IP-adres. U wordt aangeraden Standard load balancer. In de volgende lijst ziet u de configuratie van de (A)SCS- en ERS-load balancer.

(A)SCS

  • Front-endconfiguratie
    • IP-adres 10.1.1.20
  • Testpoort
    • Poort 620 < nr. >
  • Taakverdelingsregels
    • Als u Standard Load Balancer, selecteert u HA-poorten
    • Als u Basic Load Balancer, maakt u taakverdelingsregels voor de volgende poorten
      • 32 < nr. > TCP
      • 36 < nr. > TCP
      • 39 < nr. > TCP
      • 81 < nr. > TCP
      • 5 < nr. > 13 TCP
      • 5 < nr. > 14 TCP
      • 5 < nr. > 16 TCP

ERS

  • Front-endconfiguratie

    • IP-adres 10.1.1.21
  • Testpoort

    • Nr. poort < > 621
  • Taakverdelingsregels

    • Als u Standard Load Balancer, selecteert u HA-poorten
    • Als u Basic Load Balancer, maakt u taakverdelingsregels voor de volgende poorten
      • 32 < nr. > TCP
      • 33 < nr. > TCP
      • 5 < nr. > 13 TCP
      • 5 < nr. > 14 TCP
      • 5 < nr. > 16 TCP
  • Back-endconfiguratie

    • Verbonden met primaire netwerkinterfaces van alle virtuele machines die deel moeten uitmaken van het (A)SCS/ERS-cluster

De infrastructuur voor Azure NetApp Files instellen

VOOR SAP NetWeaver is gedeelde opslag vereist voor de transport- en profielmap. Voordat u doorgaat met de installatie van de Azure NetApp-bestandsinfrastructuur, moet u zich vertrouwd maken met de Azure NetApp Files documentatie. Controleer of uw geselecteerde Azure-regio een Azure NetApp Files. De volgende koppeling toont de beschikbaarheid van Azure NetApp Files per Azure-regio: Azure NetApp Files Beschikbaarheid per Azure-regio.

Azure NetApp-bestanden zijn beschikbaar in verschillende Azure-regio's.

Uw Azure NetApp Files implementeren

Bij de stappen wordt ervan uitgenomen dat u Azure al hebt Virtual Network. De Azure NetApp Files-resources en de virtuele machines, waar de Azure NetApp Files-resources worden bevestigd, moeten worden geïmplementeerd in dezelfde Azure-Virtual Network of in peering van virtuele Azure-netwerken.

  1. Maak het NetApp-account in de geselecteerde Azure-regio door de instructies te volgen voor het maken van NetApp-account.

  2. Stel Azure NetApp Files capaciteitspool in met de instructies voor het instellen van Azure NetApp Files capaciteitspool.
    De SAP Netweaver-architectuur die in dit artikel wordt gepresenteerd, maakt gebruik Azure NetApp Files capaciteitspool met één Premium SKU. We raden u Azure NetApp Files Premium SKU te gebruiken voor de sap Netweaver-toepassingsworkload in Azure.

  3. Delegeer een subnet aan Azure NetApp-bestanden, zoals beschreven in de instructies Een subnet delegeren aan Azure NetApp Files.

  4. Implementeer Azure NetApp Files volumes volgens de instructies voor het maken van een volume voor Azure NetApp Files. Implementeer de volumes in het Azure NetApp Files subnet. De IP-adressen van de Azure NetApp-volumes worden automatisch toegewezen. Houd er rekening mee dat de Azure NetApp Files resources en azure-VM's zich in dezelfde Azure-Virtual Network of in peered Virtuele Azure-netwerken moeten hebben. In dit voorbeeld gebruiken we twee Azure NetApp Files volumes: sapQAS en trans. De bestandspaden die zijn bevestigd aan de bijbehorende mount points zijn /usrsapqas/sapmntQAS,/usrsapqas/usrsapQASsys, enzovoort.

    1. volume sapQAS (nfs://10.1.0.4/usrsapqas/sapmntQAS)
    2. volume sapQAS (nfs://10.1.0.4/usrsapqas/usrsapQASascs)
    3. volume sapQAS (nfs://10.1.0.4/usrsapqas/usrsapQASsys)
    4. volume sapQAS (nfs://10.1.0.4/usrsapqas/usrsapQASers)
    5. volumetrans (nfs://10.1.0.4/trans)
    6. volume sapQAS (nfs://10.1.0.4/usrsapqas/usrsapQASpas)
    7. volume sapQAS (nfs://10.1.0.4/usrsapqas/usrsapQASaas)

In dit voorbeeld hebben we Azure NetApp Files alle SAP Netweaver-bestandssystemen gebruikt om te laten zien hoe Azure NetApp Files kunnen worden gebruikt. De SAP-bestandssystemen die niet via NFS hoeven te worden bevestigd, kunnen ook worden geïmplementeerd als Azure-schijfopslag. In dit voorbeeld moet a-e zich op Azure NetApp Files en f-g (dat wil zeggen /usr/sap/QAS/D02, /usr/sap/QAS/D03) kunnen worden geïmplementeerd als Azure-schijfopslag.

Belangrijke overwegingen

Wanneer u Azure NetApp Files voor de architectuur van SAP Netweaver op SUSE met hoge beschikbaarheid, moet u rekening houden met de volgende belangrijke overwegingen:

  • De minimale capaciteitspool is 4 TiB. De grootte van de capaciteitspool kan in stappen van 1 TiB worden verhoogd.
  • Het minimale volume is 100 GiB
  • Azure NetApp Files en alle virtuele machines, waarbij Azure NetApp Files-volumes worden bevestigd, moeten zich in dezelfde Azure-Virtual Network of in peered virtuele netwerken in dezelfde regio. Azure NetApp Files toegang via VNET-peering in dezelfde regio wordt nu ondersteund. Azure NetApp-toegang via wereldwijde peering wordt nog niet ondersteund.
  • Het geselecteerde virtuele netwerk moet een subnet hebben dat is gedelegeerd Azure NetApp Files.
  • Azure NetApp Files biedt exportbeleid:u kunt de toegestane clients, het toegangstype (Lezen&Schrijven, Alleen-lezen, enzovoort) bepalen.
  • Azure NetApp Files functie is nog niet zonebewust. Momenteel Azure NetApp Files functie niet geïmplementeerd in alle beschikbaarheidszones in een Azure-regio. Let op de mogelijke gevolgen voor latentie in sommige Azure-regio's.
  • Azure NetApp Files kunnen worden geïmplementeerd als NFSv3- of NFSv4.1-volumes. Beide protocollen worden ondersteund voor de SAP-toepassingslaag (ASCS/ERS, SAP-toepassingsservers).

Virtuele Linux-VM's handmatig implementeren via Azure Portal

Eerst moet u de volumes Azure NetApp Files maken. Implementeer de VM's. Daarna maakt u een load balancer en gebruikt u de virtuele machines in de back-endpools.

  1. Een resourcegroep maken
  2. Een Virtual Network maken
  3. Een beschikbaarheidsset voor ASCS maken
    Maximaal updatedomein instellen
  4. Virtuele machine maken 1
    Gebruik ten minste SLES4SAP 12 SP3. In dit voorbeeld wordt de SLES4SAP 12 SP3-afbeelding gebruikt
    Selecteer Beschikbaarheidsset die u eerder hebt gemaakt voor ASCS
  5. Virtuele machine maken 2
    Gebruik ten minste SLES4SAP 12 SP3. In dit voorbeeld wordt de SLES4SAP 12 SP3-afbeelding gebruikt
    Selecteer Beschikbaarheidsset die u eerder hebt gemaakt voor ASCS
  6. Een beschikbaarheidsset maken voor de SAP-toepassings instances (PAS, AAS)
    Maximaal updatedomein instellen
  7. Virtuele machine maken 3
    Gebruik ten minste SLES4SAP 12 SP3. In dit voorbeeld wordt de SLES4SAP 12 SP3-afbeelding gebruikt
    Selecteer Beschikbaarheidsset die u eerder hebt gemaakt voor PAS/AAS
  8. Virtuele machine maken 4
    Gebruik ten minste SLES4SAP 12 SP3. In dit voorbeeld wordt de SLES4SAP 12 SP3-afbeelding gebruikt
    Selecteer Beschikbaarheidsset die u eerder hebt gemaakt voor PAS/AAS

Id-toewijzing uitschakelen (als NFSv4.1 wordt gebruikt)

De instructies in deze sectie zijn alleen van toepassing als u Azure NetApp Files met NFSv4.1-protocol. Voer de configuratie uit op alle VM's, Azure NetApp Files NFSv4.1-volumes worden bevestigd.

  1. Controleer de NFS-domeininstelling. Zorg ervoor dat het domein is geconfigureerd als het standaarddomein Azure NetApp Files, dat wil zeggen en dat de toewijzing defaultv4iddomain.com is ingesteld op niemand.

    Belangrijk

    Zorg ervoor dat u het NFS-domein in op de VM zo in stelt dat deze overeenkomen met de standaarddomeinconfiguratie /etc/idmapd.conf op Azure NetApp Files: defaultv4iddomain.com . Als er een verschil is tussen de domeinconfiguratie op de NFS-client (dat wil zeggen de VM) en de NFS-server, dat wil zeggen de Azure NetApp-configuratie, worden de machtigingen voor bestanden op Azure NetApp-volumes die zijn bevestigd op de VM's weergegeven als nobody .

    
     sudo cat /etc/idmapd.conf
     # Example
     [General]
     Verbosity = 0
     Pipefs-Directory = /var/lib/nfs/rpc_pipefs
     Domain = defaultv4iddomain.com
     [Mapping]
     Nobody-User = nobody
     Nobody-Group = nobody
     
  2. [A] Controleer nfs4_disable_idmapping . Deze moet worden ingesteld op Y. Als u de mapstructuur wilt maken waar nfs4_disable_idmapping zich bevindt, voert u de mount-opdracht uit. U kunt de map niet handmatig maken onder /sys/modules, omdat toegang is gereserveerd voor de kernel/stuurprogramma's.

    
     # Check nfs4_disable_idmapping 
     cat /sys/module/nfs/parameters/nfs4_disable_idmapping
     # If you need to set nfs4_disable_idmapping to Y
     mkdir /mnt/tmp
     mount 10.1.0.4:/sapmnt/qas /mnt/tmp
     umount  /mnt/tmp
     echo "Y" > /sys/module/nfs/parameters/nfs4_disable_idmapping
     # Make the configuration permanent
     echo "options nfs nfs4_disable_idmapping=Y" >> /etc/modprobe.d/nfs.conf
     

(A)SCS instellen

In dit voorbeeld zijn de resources handmatig geïmplementeerd via de Azure Portal .

Uw Azure Load Balancer handmatig implementeren via Azure Portal

Eerst moet u de volumes Azure NetApp Files maken. Implementeer de VM's. Daarna maakt u een load balancer en gebruikt u de virtuele machines in de back-endpool.

  1. Maak load balancer (intern, standaard):
    1. De front-end-IP-adressen maken
      1. IP-adres 10.1.1.20 voor de ASCS
        1. Open de load balancer, selecteer front-end-IP-adresgroep en klik op Toevoegen
        2. Voer de naam van de nieuwe front-end-IP-adresgroep in (bijvoorbeeld front-end. QAS. ASCS)
        3. Stel toewijzing in op Statisch en voer het IP-adres in (bijvoorbeeld 10.1.1.20)
        4. Klik op OK
      2. IP-adres 10.1.1.21 voor de ASCS ERS
        • Herhaal de bovenstaande stappen onder 'a' om een IP-adres te maken voor de ERS (bijvoorbeeld 10.1.1.21 en front-end. QAS. ERS)
    2. Back-endpool maken
      1. Open de load balancer, selecteer back-endpools en klik op Toevoegen
      2. Voer de naam van de nieuwe back-endpool in (bijvoorbeeld back-end. QAS)
      3. Klik op Een virtuele machine toevoegen.
      4. Virtuele machine selecteren
      5. Selecteer de virtuele machines van het (A)SCS-cluster en hun IP-adressen.
      6. Klik op Add.
    3. De statustests maken
      1. Poort 620 00 voor ASCS
        1. Open het load balancer, selecteer statustests en klik op Toevoegen
        2. Voer de naam van de nieuwe statustest in (bijvoorbeeld status. QAS. ASCS)
        3. Selecteer TCP als protocol, poort 620 00, houd Interval 5 en drempelwaarde voor onjuiste status 2
        4. Klik op OK
      2. Poort 621 01 voor ASCS ERS
        • Herhaal de bovenstaande stappen onder c om een statustest voor de ERS te maken (bijvoorbeeld 621 01 en status. QAS. ERS)
    4. Taakverdelingsregels
      1. Een back-endpool maken voor de ASCS
        1. Open het load balancer, selecteer Taakverdelingsregels en klik op Toevoegen
        2. Voer de naam van de nieuwe load balancer in (bijvoorbeeld lb. QAS. ASCS)
        3. Selecteer het front-end-IP-adres voor ASCS, de back-adresgroep en de statustest die u eerder hebt gemaakt (bijvoorbeeld front-end. QAS. ASCS, back-en. QAS en status. QAS. ASCS)
        4. Ha-poorten selecteren
        5. Zorg ervoor dat zwevend IP-adres is ingeschakeld
        6. Klik op OK
        • Herhaal de bovenstaande stappen om taakverdelingsregels te maken voor ERS (bijvoorbeeld lb. QAS. ERS)
  2. Als voor uw scenario basiskennis van load balancer (intern) is vereist, volgt u deze stappen:
    1. De front-end-IP-adressen maken

      1. IP-adres 10.1.1.20 voor de ASCS
        1. Open de load balancer, selecteer front-end-IP-adresgroep en klik op Toevoegen
        2. Voer de naam van de nieuwe front-end-IP-adresgroep in (bijvoorbeeld front-end. QAS. ASCS)
        3. Stel toewijzing in op Statisch en voer het IP-adres in (bijvoorbeeld 10.1.1.20)
        4. Klik op OK
      2. IP-adres 10.1.1.21 voor de ASCS ERS
        • Herhaal de bovenstaande stappen onder 'a' om een IP-adres te maken voor de ERS (bijvoorbeeld 10.1.1.21 en front-end. QAS. ERS)
    2. Back-endpool maken

      1. Open de load balancer, selecteer back-endpools en klik op Toevoegen
      2. Voer de naam van de nieuwe back-endpool in (bijvoorbeeld back-end. QAS)
      3. Klik op Een virtuele machine toevoegen.
      4. Selecteer de beschikbaarheidsset die u eerder hebt gemaakt voor ASCS
      5. Selecteer de virtuele machines van het (A)SCS-cluster
      6. Klik op OK
    3. De statustests maken

      1. Poort 620 00 voor ASCS
        1. Open de load balancer, selecteer statustests en klik op Toevoegen
        2. Voer de naam van de nieuwe statustest in (bijvoorbeeld status. QAS. ASCS)
        3. Selecteer TCP als protocol, poort 620 00, houd Interval 5 en drempelwaarde voor onjuiste status 2
        4. Klik op OK
      2. Poort 621 01 voor ASCS ERS
        • Herhaal de bovenstaande stappen onder c om een statustest voor de ERS te maken (bijvoorbeeld 621 01 en status. QAS. ERS)
    4. Taakverdelingsregels

      1. 32 00 TCP voor ASCS
        1. Open het load balancer, selecteer Taakverdelingsregels en klik op Toevoegen
        2. Voer de naam van de nieuwe load balancer in (bijvoorbeeld lb. QAS. ASCS.3200)
        3. Selecteer het front-end-IP-adres voor ASCS, de back-adresgroep en de statustest die u eerder hebt gemaakt (bijvoorbeeld front-end. QAS. ASCS)
        4. Protocol TCP behouden, poort 3200 invoeren
        5. Time-out voor inactief verhogen naar 30 minuten
        6. Zorg ervoor dat zwevend IP-adres is ingeschakeld
        7. Klik op OK
      2. Aanvullende poorten voor de ASCS
        • Herhaal de bovenstaande stappen onder 'd' voor poorten 36 00, 39 00, 81 00, 5 00 13, 5 00 14, 5 00 16 en TCP voor de ASCS
      3. Aanvullende poorten voor ASCS ERS
        • Herhaal de bovenstaande stappen onder 'd' voor poorten 32 01, 33 01, 5 01 13,5 01 14, 5 01 16 en TCP voor de ASCS ERS

      Belangrijk

      Zwevend IP wordt niet ondersteund op een secundaire IP-configuratie van een NIC in taakverdelingsscenario's. Zie Beperkingen voor Azure Load Balancer voor meer informatie. Als u een extra IP-adres voor de VM nodig hebt, implementeert u een tweede NIC.

      Notitie

      Wanneer VM's zonder openbare IP-adressen in de back-endpool van interne (geen openbaar IP-adres) Standard Azure load balancer worden geplaatst, is er geen uitgaande internetverbinding, tenzij er aanvullende configuratie wordt uitgevoerd om routering naar openbare eindpunten toe te staan. Zie Public endpoint connectivity for Virtual Machines using Azure Standard Load Balancer in SAP high-availability scenarios(Openbare eindpuntconnectiviteit voor Virtual Machines met behulp van Azure Standard Load Balancer in SAP-scenario's voor hoge beschikbaarheid) voor meer informatie over het bereiken van uitgaande connectiviteit.

      Belangrijk

      Schakel TCP-tijdstempels niet in op Virtuele Azure-VM's die achter de Azure Load Balancer. Als u TCP-tijdstempels inschakelen, mislukken de statustests. Stel parameter net.ipv4.tcp_timestamps in op 0. Zie statustests Load Balancer voor meer informatie.

Pacemaker-cluster maken

Volg de stappen in Pacemaker instellen op SUSE Linux Enterprise Server in Azure om een eenvoudig Pacemaker-cluster voor deze (A)SCS-server te maken.

Installatie

De volgende items hebben het voorvoegsel [A] - van toepassing op alle knooppunten, [1] - alleen van toepassing op knooppunt 1 of [2] - alleen van toepassing op knooppunt 2.

  1. [A] SUSE-connector installeren

    sudo zypper install sap-suse-cluster-connector
    

    Notitie

    Het bekende probleem met het gebruik van een streepje in hostnamen is opgelost met versie 3.1.1 van package sap-suse-cluster-connector. Zorg ervoor dat u ten minste versie 3.1.1 van package sap-suse-cluster-connector gebruikt als u clusterknooppunten met streepje in de hostnaam gebruikt. Anders werkt uw cluster niet.

    Zorg ervoor dat u de nieuwe versie van de SAP SUSE-clusterconnector hebt geïnstalleerd. Het oude werd sap_suse_cluster_connector en de nieuwe heet sap-suse-cluster-connector.

    sudo zypper info sap-suse-cluster-connector
    
     # Information for package sap-suse-cluster-connector:
     # ---------------------------------------------------
     # Repository     : SLE-12-SP3-SAP-Updates
     # Name           : sap-suse-cluster-connector
     # Version        : 3.1.0-8.1
     # Arch           : noarch
     # Vendor         : SUSE LLC <https://www.suse.com/>
     # Support Level  : Level 3
     # Installed Size : 45.6 KiB
     # Installed      : Yes
     # Status         : up-to-date
     # Source package : sap-suse-cluster-connector-3.1.0-8.1.src
     # Summary        : SUSE High Availability Setup for SAP Products
    
  2. [A] SAP-resourceagents bijwerken

    Er is een patch voor het resourceagentpakket vereist om de nieuwe configuratie te kunnen gebruiken, zoals beschreven in dit artikel. U kunt controleren of de patch al is geïnstalleerd met de volgende opdracht

    sudo grep 'parameter name="IS_ERS"' /usr/lib/ocf/resource.d/heartbeat/SAPInstance
    

    De uitvoer moet er ongeveer als

    <parameter name="IS_ERS" unique="0" required="0">
    

    Als de grep-opdracht de parameter IS_ERS vinden, moet u de patch installeren die wordt vermeld op de SUSE-downloadpagina

    # example for patch for SLES 12 SP1
    sudo zypper in -t patch SUSE-SLE-HA-12-SP1-2017-885=1
    # example for patch for SLES 12 SP2
    sudo zypper in -t patch SUSE-SLE-HA-12-SP2-2017-886=1
    
  3. [A] Hostnaamoplossing instellen

    U kunt een DNS-server gebruiken of de /etc/hosts op alle knooppunten wijzigen. In dit voorbeeld ziet u hoe u het bestand /etc/hosts gebruikt. Vervang het IP-adres en de hostnaam in de volgende opdrachten

    sudo vi /etc/hosts
    

    Voeg de volgende regels toe aan /etc/hosts. Wijzig het IP-adres en de hostnaam in uw omgeving

    
    # IP address of cluster node 1
    10.1.1.18    anftstsapcl1
    # IP address of cluster node 2
    10.1.1.6     anftstsapcl2
    # IP address of the load balancer frontend configuration for SAP Netweaver ASCS
    10.1.1.20    anftstsapvh
    # IP address of the load balancer frontend configuration for SAP Netweaver ERS
    10.1.1.21    anftstsapers
    
  4. [1] Sap-directories maken in het Azure NetApp Files volume.
    Tijdelijk het Azure NetApp Files volume aan een van de VM's en maak de SAP-directories (bestandspaden).

     # mount temporarily the volume
     sudo mkdir -p /saptmp
     # If using NFSv3
     sudo mount -t nfs -o rw,hard,rsize=65536,wsize=65536,vers=3,tcp 10.1.0.4:/sapQAS /saptmp
     # If using NFSv4.1
     sudo mount -t nfs -o rw,hard,rsize=65536,wsize=65536,vers=4.1,sec=sys,tcp 10.1.0.4:/sapQAS /saptmp
     # create the SAP directories
     sudo cd /saptmp
     sudo mkdir -p sapmntQAS
     sudo mkdir -p usrsapQASascs
     sudo mkdir -p usrsapQASers
     sudo mkdir -p usrsapQASsys
     sudo mkdir -p usrsapQASpas
     sudo mkdir -p usrsapQASaas
     # unmount the volume and delete the temporary directory
     sudo cd ..
     sudo umount /saptmp
     sudo rmdir /saptmp
    

Voorbereidingen voor de installatie van SAP NetWeaver

  1. [A] De gedeelde map maken

    sudo mkdir -p /sapmnt/QAS
    sudo mkdir -p /usr/sap/trans
    sudo mkdir -p /usr/sap/QAS/SYS
    sudo mkdir -p /usr/sap/QAS/ASCS00
    sudo mkdir -p /usr/sap/QAS/ERS01
    
    sudo chattr +i /sapmnt/QAS
    sudo chattr +i /usr/sap/trans
    sudo chattr +i /usr/sap/QAS/SYS
    sudo chattr +i /usr/sap/QAS/ASCS00
    sudo chattr +i /usr/sap/QAS/ERS01
    
  2. [A] Configurerenautofs

    
    sudo vi /etc/auto.master
    # Add the following line to the file, save and exit
    /- /etc/auto.direct
    

    Als u NFSv3 gebruikt, maakt u een bestand met:

    
    sudo vi /etc/auto.direct
    # Add the following lines to the file, save and exit
    /sapmnt/QAS -nfsvers=3,nobind 10.1.0.4:/usrsapqas/sapmntQAS
    /usr/sap/trans -nfsvers=3,nobind 10.1.0.4:/trans
    /usr/sap/QAS/SYS -nfsvers=3,nobind 10.1.0.4:/usrsapqas/usrsapQASsys
    

    Als u NFSv4.1 gebruikt, maakt u een bestand met:

    
    sudo vi /etc/auto.direct
    # Add the following lines to the file, save and exit
    /sapmnt/QAS -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/sapmntQAS
    /usr/sap/trans -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/trans
    /usr/sap/QAS/SYS -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/usrsapQASsys
    

    Notitie

    Zorg ervoor dat de NFS-protocolversie van de Azure NetApp Files volumes komt, wanneer u de volumes koppelt. Als de Azure NetApp Files volumes worden gemaakt als NFSv3-volumes, gebruikt u de bijbehorende NFSv3-configuratie. Als de Azure NetApp Files volumes zijn gemaakt als NFSv4.1-volumes, volgt u de instructies om id-toewijzing uit te schakelen en ervoor te zorgen dat u de bijbehorende NFSv4.1-configuratie gebruikt. In dit voorbeeld zijn Azure NetApp Files volumes gemaakt als NFSv3-volumes.

    Start opnieuw autofs op om de nieuwe shares te maken

    
       sudo systemctl enable autofs
       sudo service autofs restart
      
  3. [A] SWAP-bestand configureren

    sudo vi /etc/waagent.conf
    
    # Set the property ResourceDisk.EnableSwap to y
    # Create and use swapfile on resource disk.
    ResourceDisk.EnableSwap=y
    
    # Set the size of the SWAP file with property ResourceDisk.SwapSizeMB
    # The free space of resource disk varies by virtual machine size. Make sure that you do not set a value that is too big. You can check the SWAP space with command swapon
    # Size of the swapfile.
    ResourceDisk.SwapSizeMB=2000
    

    Start de agent opnieuw op om de wijziging te activeren

    sudo service waagent restart
    

SAP NetWeaver ASCS/ERS installeren

  1. [1] Maak een virtuele IP-resource en statustest voor het ASCS-exemplaar

    Belangrijk

    Uit recente tests zijn situaties gebleken waarin netcat niet meer reageert op aanvragen vanwege achterstand en de beperking van het verwerken van slechts één verbinding. De netcat-resource luistert niet meer naar de Azure Load Balancer-aanvragen en het zwevende IP-adres is niet meer beschikbaar.
    Voor bestaande Pacemaker-clusters is het in het verleden aanbevolen om netcat te vervangen door socat. Momenteel wordt u aangeraden azure-lb resource agent te gebruiken, die deel uitmaakt van package resource-agents, met de volgende pakketversievereisten:

    • Voor SLES 12 SP4/SP5 moet de versie ten minste resource-agents-4.3.018.a7fb5035-3.30.1 zijn.
    • Voor SLES 15/15 SP1 moet de versie ten minste resource-agents-4.3.0184.6ee15eb2-4.13.1 zijn.

    Houd er rekening mee dat de wijziging korte downtime vereist.
    Als de configuratie voor bestaande Pacemaker-clusters al is gewijzigd voor het gebruik van socat, zoals beschreven in Azure Load-Balancer Detection Hardening,is het niet nodig om onmiddellijk over te schakelen naar de azure-lb-resourceagent.

    sudo crm node standby anftstsapcl2
    # If using NFSv3
    sudo crm configure primitive fs_QAS_ASCS Filesystem device='10.1.0.4/usrsapqas/usrsapQASascs' directory='/usr/sap/QAS/ASCS00' fstype='nfs' \
      op start timeout=60s interval=0 \
      op stop timeout=60s interval=0 \
      op monitor interval=20s timeout=40s
    
    # If using NFSv4.1
    sudo crm configure primitive fs_QAS_ASCS Filesystem device='10.1.0.4:/usrsapqas/usrsapQASascs' directory='/usr/sap/QAS/ASCS00' fstype='nfs' options='sec=sys,vers=4.1' \
      op start timeout=60s interval=0 \
      op stop timeout=60s interval=0 \
      op monitor interval=20s timeout=40s
    
    sudo crm configure primitive vip_QAS_ASCS IPaddr2 \
      params ip=10.1.1.20 cidr_netmask=24 \
      op monitor interval=10 timeout=20
    
    sudo crm configure primitive nc_QAS_ASCS azure-lb port=62000
    
    sudo crm configure group g-QAS_ASCS fs_QAS_ASCS nc_QAS_ASCS vip_QAS_ASCS \
       meta resource-stickiness=3000
    

    Zorg ervoor dat de status van het cluster ok is en dat alle resources zijn gestart. Het is niet belangrijk op welk knooppunt de resources worden uitgevoerd.

    sudo crm_mon -r
    
    # Node anftstsapcl2: standby
    # Online: [ anftstsapcl1 ]
    # 
    # Full list of resources:
    #
    # Resource Group: g-QAS_ASCS
    #     fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
    #     nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
    #     vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
    # stonith-sbd     (stonith:external/sbd): Started anftstsapcl2
    
  2. [1] SAP NetWeaver ASCS installeren

    Installeer SAP NetWeaver ASCS als root op het eerste knooppunt met behulp van een virtuele hostnaam die is toe te staan aan het IP-adres van de load balancer-front-endconfiguratie voor de ASCS, bijvoorbeeld anftstsapvh, 10.1.1.20 en het exemplaarnummer dat u hebt gebruikt voor de test van de load balancer, bijvoorbeeld 00.

    U kunt de parameter sapinst gebruiken om SAPINST_REMOTE_ACCESS_USER niet-hoofdgebruiker verbinding te laten maken met sapinst. U kunt parameternamen gebruiken SAPINST_USE_HOSTNAME SAP te installeren met behulp van de virtuele hostnaam.

    sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin SAPINST_USE_HOSTNAME=virtual_hostname
    

    Als de installatie geen submap kan maken in /usr/sap/QAS/ASCS 00, probeert u de eigenaar en groep van de map ASCS 00 in te stellen en probeert u het opnieuw.

    
    chown qasadm /usr/sap/QAS/ASCS00
    chgrp sapsys /usr/sap/QAS/ASCS00
    
  3. [1] Een virtuele IP-resource en statustest maken voor het ERS-exemplaar

    
    sudo crm node online anftstsapcl2
    sudo crm node standby anftstsapcl1
    # If using NFSv3
    sudo crm configure primitive fs_QAS_ERS Filesystem device='10.1.0.4:/usrsapqas/usrsapQASers' directory='/usr/sap/QAS/ERS01' fstype='nfs' \
      op start timeout=60s interval=0 \
      op stop timeout=60s interval=0 \
      op monitor interval=20s timeout=40s
    
    # If using NFSv4.1
    sudo crm configure primitive fs_QAS_ERS Filesystem device='10.1.0.4:/usrsapqas/usrsapQASers' directory='/usr/sap/QAS/ERS01' fstype='nfs' options='sec=sys,vers=4.1' \
      op start timeout=60s interval=0 \
      op stop timeout=60s interval=0 \
      op monitor interval=20s timeout=40s
    
    sudo crm configure primitive vip_QAS_ERS IPaddr2 \
      params ip=10.1.1.21 cidr_netmask=24 \
      op monitor interval=10 timeout=20
    
    sudo crm configure primitive nc_QAS_ERS azure-lb port=62101
    
    sudo crm configure group g-QAS_ERS fs_QAS_ERS nc_QAS_ERS vip_QAS_ERS
    

    Zorg ervoor dat de status van het cluster ok is en dat alle resources zijn gestart. Het is niet belangrijk op welk knooppunt de resources worden uitgevoerd.

    sudo crm_mon -r
    
    # Node anftstsapcl1: standby
    # Online: [ anftstsapcl2 ]
    # 
    # Full list of resources:
    #
    # stonith-sbd     (stonith:external/sbd): Started anftstsapcl2
    #  Resource Group: g-QAS_ASCS
    #      fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
    #      nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
    #      vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
    #  Resource Group: g-QAS_ERS
    #      fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl2
    #      nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl2
    #      vip_QAS_ERS  (ocf::heartbeat:IPaddr2):     Started anftstsapcl2
    
  4. [2] SAP NetWeaver ERS installeren

    Installeer SAP NetWeaver ERS als root op het tweede knooppunt met behulp van een virtuele hostnaam die is toe te staan aan het IP-adres van de front-load balancer-configuratie voor de ERS, bijvoorbeeld anftstsapers, 10.1.1.21 en het exemplaarnummer dat u hebt gebruikt voor de test van de load balancer, bijvoorbeeld 01.

    U kunt de parameter sapinst gebruiken om SAPINST_REMOTE_ACCESS_USER niet-hoofdgebruiker verbinding te laten maken met sapinst. U kunt parameternamen gebruiken SAPINST_USE_HOSTNAME SAP te installeren met behulp van de virtuele hostnaam.

    sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin SAPINST_USE_HOSTNAME=virtual_hostname
    

    Notitie

    Gebruik SWPM SP 20 PL 05 of hoger. Bij lagere versies worden de machtigingen niet correct ingesteld en mislukt de installatie.

    Als de installatie geen submap kan maken in /usr/sap/QAS /ERS****01, probeert u de eigenaar en groep van de map ERS 01 in te stellen en probeert u het opnieuw.

    
    chown qasadm /usr/sap/QAS/ERS01
    chgrp sapsys /usr/sap/QAS/ERS01
    
  5. [1] De ASCS/SCS- en ERS-exemplaarprofielen aanpassen

    • ASCS/SCS-profiel
    
    sudo vi /sapmnt/QAS/profile/QAS_ASCS00_anftstsapvh
    
    # Change the restart command to a start command
    #Restart_Program_01 = local $(_EN) pf=$(_PF)
    Start_Program_01 = local $(_EN) pf=$(_PF)
    
    # Add the following lines
    service/halib = $(DIR_CT_RUN)/saphascriptco.so
    service/halib_cluster_connector = /usr/bin/sap_suse_cluster_connector
    
    # Add the keep alive parameter, if using ENSA1
    enque/encni/set_so_keepalive = true
    

    Voor zowel ENSA1 als ENSA2 moet u ervoor zorgen dat de besturingssysteemparameters zijn ingesteld zoals beschreven keepalive in SAP-notitie 1410736.

    • ERS-profiel
    
    sudo vi /sapmnt/QAS/profile/QAS_ERS01_anftstsapers
    
    # Change the restart command to a start command
    #Restart_Program_00 = local $(_ER) pf=$(_PFL) NR=$(SCSID)
    Start_Program_00 = local $(_ER) pf=$(_PFL) NR=$(SCSID)
    
    # Add the following lines
    service/halib = $(DIR_CT_RUN)/saphascriptco.so
    service/halib_cluster_connector = /usr/bin/sap_suse_cluster_connector
    
    # remove Autostart from ERS profile
    # Autostart = 1
    
  6. [A] Keep Alive configureren

    De communicatie tussen de SAP NetWeaver-toepassingsserver en de ASCS/SCS wordt gerouteerd via een software-load balancer. De load balancer inactieve verbindingen verbroken na een configureerbare time-out. Om dit te voorkomen, moet u een parameter instellen in het SAP NetWeaver ASCS/SCS-profiel, als u ENSA1 gebruikt, en de Linux-systeeminstellingen op alle keepalive SAP-servers voor zowel ENSA1/ENSA2 wijzigen. Lees SAP Note 1410736 voor meer informatie.

    
    # Change the Linux system configuration
    sudo sysctl net.ipv4.tcp_keepalive_time=300
    
  7. [A] De SAP-gebruikers configureren na de installatie

    
    # Add sidadm to the haclient group
    sudo usermod -aG haclient qasadm
    
  8. [1] Voeg de ASCS- en ERS SAP-services toe aan het sapservice bestand

    Voeg de ASCS-service-vermelding toe aan het tweede knooppunt en kopieer de ERS-service-vermelding naar het eerste knooppunt.

    
    cat /usr/sap/sapservices | grep ASCS00 | sudo ssh anftstsapcl2 "cat >>/usr/sap/sapservices"
    sudo ssh anftstsapcl2 "cat /usr/sap/sapservices" | grep ERS01 | sudo tee -a /usr/sap/sapservices
    
  9. [1] De SAP-clusterbronnen maken

Als u enqueue server 1 architecture (ENSA1) gebruikt, definieert u de resources als volgt:

sudo crm configure property maintenance-mode="true"
   
   sudo crm configure primitive rsc_sap_QAS_ASCS00 SAPInstance \
    operations \$id=rsc_sap_QAS_ASCS00-operations \
    op monitor interval=11 timeout=60 on-fail=restart \
    params InstanceName=QAS_ASCS00_anftstsapvh START_PROFILE="/sapmnt/QAS/profile/QAS_ASCS00_anftstsapvh" \
    AUTOMATIC_RECOVER=false \
    meta resource-stickiness=5000 failure-timeout=60 migration-threshold=1 priority=10
   
   sudo crm configure primitive rsc_sap_QAS_ERS01 SAPInstance \
    operations \$id=rsc_sap_QAS_ERS01-operations \
    op monitor interval=11 timeout=60 on-fail=restart \
    params InstanceName=QAS_ERS01_anftstsapers START_PROFILE="/sapmnt/QAS/profile/QAS_ERS01_anftstsapers" AUTOMATIC_RECOVER=false IS_ERS=true \
    meta priority=1000
   
   sudo crm configure modgroup g-QAS_ASCS add rsc_sap_QAS_ASCS00
   sudo crm configure modgroup g-QAS_ERS add rsc_sap_QAS_ERS01
   
   sudo crm configure colocation col_sap_QAS_no_both -5000: g-QAS_ERS g-QAS_ASCS
   sudo crm configure location loc_sap_QAS_failover_to_ers rsc_sap_QAS_ASCS00 rule 2000: runs_ers_QAS eq 1
   sudo crm configure order ord_sap_QAS_first_start_ascs Optional: rsc_sap_QAS_ASCS00:start rsc_sap_QAS_ERS01:stop symmetrical=false
   
   sudo crm node online anftstsapcl1
   sudo crm configure property maintenance-mode="false"
   

SAP heeft vanaf SAP NW 7.52 ondersteuning geïntroduceerd voor enqueue server 2, inclusief replicatie. Vanaf ABAP Platform 1809 is enqueue server 2 standaard geïnstalleerd. Zie SAP note 2630416 for enqueue server 2 support (SAP-2630416 voor ondersteuning van enqueue server 2. Als u enqueue server 2 architecture(ENSA2)gebruikt, definieert u de resources als volgt:

sudo crm configure property maintenance-mode="true"
   
   sudo crm configure primitive rsc_sap_QAS_ASCS00 SAPInstance \
    operations \$id=rsc_sap_QAS_ASCS00-operations \
    op monitor interval=11 timeout=60 on-fail=restart \
    params InstanceName=QAS_ASCS00_anftstsapvh START_PROFILE="/sapmnt/QAS/profile/QAS_ASCS00_anftstsapvh" \
    AUTOMATIC_RECOVER=false \
    meta resource-stickiness=5000
   
   sudo crm configure primitive rsc_sap_QAS_ERS01 SAPInstance \
    operations \$id=rsc_sap_QAS_ERS01-operations \
    op monitor interval=11 timeout=60 on-fail=restart \
    params InstanceName=QAS_ERS01_anftstsapers START_PROFILE="/sapmnt/QAS/profile/QAS_ERS01_anftstsapers" AUTOMATIC_RECOVER=false IS_ERS=true
   
   sudo crm configure modgroup g-QAS_ASCS add rsc_sap_QAS_ASCS00
   sudo crm configure modgroup g-QAS_ERS add rsc_sap_QAS_ERS01
   
   sudo crm configure colocation col_sap_QAS_no_both -5000: g-QAS_ERS g-QAS_ASCS
   sudo crm configure order ord_sap_QAS_first_start_ascs Optional: rsc_sap_QAS_ASCS00:start rsc_sap_QAS_ERS01:stop symmetrical=false
   
   sudo crm node online anftstsapcl1
   sudo crm configure property maintenance-mode="false"
   

Zie SAP-opmerking als u een upgrade van een oudere versie en overschakelt naar server 2 in de 2641019.

Zorg ervoor dat de status van het cluster ok is en dat alle resources zijn gestart. Het is niet belangrijk op welk knooppunt de resources worden uitgevoerd.

sudo crm_mon -r
   # Full list of resources:
   #
   # stonith-sbd     (stonith:external/sbd): Started anftstsapcl2
   #  Resource Group: g-QAS_ASCS
   #      fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
   #      nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
   #      vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
   #      rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
   #  Resource Group: g-QAS_ERS
   #      fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl2
   #      nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl2
   #      vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
   #      rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
   

Sap NetWeaver-toepassingsservervoorbereiding

Sommige databases vereisen dat de installatie van het database-exemplaar wordt uitgevoerd op een toepassingsserver. Bereid de virtuele machines van de toepassingsserver voor om ze in deze gevallen te kunnen gebruiken.

Bij de stappen wordt ervan uitgenomen dat u de toepassingsserver installeert op een andere server dan de ASCS/SCS- en HANA-servers. Anders zijn sommige van de onderstaande stappen (zoals het configureren van hostnaamresolutie) niet nodig.

De volgende items hebben het voorvoegsel [A] - van toepassing op zowel PAS als AAS, [P] - alleen van toepassing op PAS of [S] - alleen van toepassing op AAS.

  1. [A] Besturingssysteem configureren

    Verklein de grootte van de vervuilde cache. Zie Low write performance on SLES 11/12 servers with large RAM (Lage schrijfprestaties op SLES 11/12-servers met grote RAM-geheugen) voor meer informatie.

    
    sudo vi /etc/sysctl.conf
    # Change/set the following settings
    vm.dirty_bytes = 629145600
    vm.dirty_background_bytes = 314572800
    
  2. [A] Hostnaamoplossing instellen

    U kunt een DNS-server gebruiken of de /etc/hosts op alle knooppunten wijzigen. In dit voorbeeld ziet u hoe u het bestand /etc/hosts gebruikt. Vervang het IP-adres en de hostnaam in de volgende opdrachten

    sudo vi /etc/hosts
    

    Voeg de volgende regels toe aan /etc/hosts. Wijzig het IP-adres en de hostnaam in uw omgeving

    
    # IP address of the load balancer frontend configuration for SAP NetWeaver ASCS/SCS
    10.1.1.20 anftstsapvh
    # IP address of the load balancer frontend configuration for SAP NetWeaver ERS
    10.1.1.21 anftstsapers
    # IP address of all application servers
    10.1.1.15 anftstsapa01
    10.1.1.16 anftstsapa02
    
  3. [A] De sapmnt-map maken

    
    sudo mkdir -p /sapmnt/QAS
    sudo mkdir -p /usr/sap/trans
    
    sudo chattr +i /sapmnt/QAS
    sudo chattr +i /usr/sap/trans
    
  4. [P] De PAS-directory maken

    
    sudo mkdir -p /usr/sap/QAS/D02
    sudo chattr +i /usr/sap/QAS/D02
    
  5. [S] De AAS-directory maken

    
    sudo mkdir -p /usr/sap/QAS/D03
    sudo chattr +i /usr/sap/QAS/D03
    
  6. [P] Configureren autofs op PAS

    sudo vi /etc/auto.master
    
    # Add the following line to the file, save and exit
    /- /etc/auto.direct
    

    Als u NFSv3 gebruikt, maakt u een nieuw bestand met:

    
    sudo vi /etc/auto.direct
    # Add the following lines to the file, save and exit
    /sapmnt/QAS -nfsvers=3,nobind 10.1.0.4:/usrsapqas/sapmntQAS
    /usr/sap/trans -nfsvers=3,nobind 10.1.0.4:/trans
    /usr/sap/QAS/D02 -nfsvers=3,nobind 10.1.0.4:/usrsapqas/usrsapQASpas
    

    Als u NFSv4.1 gebruikt, maakt u een nieuw bestand met:

    
    sudo vi /etc/auto.direct
    # Add the following lines to the file, save and exit
    /sapmnt/QAS -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/sapmntQAS
    /usr/sap/trans -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/trans
    /usr/sap/QAS/D02 -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/usrsapQASpas
    

    Start opnieuw autofs op om de nieuwe shares te maken

    
    sudo systemctl enable autofs
    sudo service autofs restart
    
  7. [P] Configureren autofs op AAS

    sudo vi /etc/auto.master
    
    # Add the following line to the file, save and exit
    /- /etc/auto.direct
    

    Als u NFSv3 gebruikt, maakt u een nieuw bestand met:

    
    sudo vi /etc/auto.direct
    # Add the following lines to the file, save and exit
    /sapmnt/QAS -nfsvers=3,nobind 10.1.0.4:/usrsapqas/sapmntQAS
    /usr/sap/trans -nfsvers=3,nobind 10.1.0.4:/trans
    /usr/sap/QAS/D03 -nfsvers=3,nobind 10.1.0.4:/usrsapqas/usrsapQASaas
    

    Als u NFSv4.1 gebruikt, maakt u een nieuw bestand met:

    
    sudo vi /etc/auto.direct
    # Add the following lines to the file, save and exit
    /sapmnt/QAS -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/sapmntQAS
    /usr/sap/trans -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/trans
    /usr/sap/QAS/D03 -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/usrsapQASaas
    

    Start opnieuw autofs op om de nieuwe shares te maken

    
    sudo systemctl enable autofs
    sudo service autofs restart
    
  8. [A] SWAP-bestand configureren

    
    sudo vi /etc/waagent.conf
    
    # Set the property ResourceDisk.EnableSwap to y
    # Create and use swapfile on resource disk.
    ResourceDisk.EnableSwap=y
    
    # Set the size of the SWAP file with property ResourceDisk.SwapSizeMB
    # The free space of resource disk varies by virtual machine size. Make sure that you do not set a value that is too big. You can check the SWAP space with command swapon
    # Size of the swapfile.
    ResourceDisk.SwapSizeMB=2000
    

    Start de agent opnieuw op om de wijziging te activeren

    sudo service waagent restart
    

Database installeren

In dit voorbeeld wordt SAP NetWeaver geïnstalleerd op SAP HANA. U kunt elke ondersteunde database voor deze installatie gebruiken. Zie Hoge beschikbaarheid van SAP HANA in Azure voor meer informatie over het installeren van SAP HANA in Azure Virtual Machines (VM's). Zie SAP Note 1928533 voor een lijst met ondersteunde databases.

  • De installatie van het SAP-database-exemplaar uitvoeren

    Installeer het SAP NetWeaver-database-exemplaar als hoofdmap met behulp van een virtuele hostnaam die is toe te staan aan het IP-adres van de load balancer front-endconfiguratie voor de database.

    U kunt de parameter sapinst gebruiken om SAPINST_REMOTE_ACCESS_USER niet-hoofdgebruiker verbinding te laten maken met sapinst.

    sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin
    

Installatie van SAP NetWeaver-toepassingsserver

Volg deze stappen om een SAP-toepassingsserver te installeren.

  1. [A] Toepassingsserver voorbereiden Volg de stappen in het hoofdstuk Sap NetWeaver-toepassingsservervoorbereiding hierboven om de toepassingsserver voor te bereiden.

  2. [A] SAP NetWeaver-toepassingsserver installeren Installeer een primaire of aanvullende SAP NetWeaver-toepassingsserver.

    U kunt de parameter sapinst gebruiken om SAPINST_REMOTE_ACCESS_USER niet-hoofdgebruiker verbinding te laten maken met sapinst.

    sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin
    
  3. [A] Beveiligde opslag SAP HANA bijwerken

    Werk het beveiligde SAP HANA bij om te wijzen naar de virtuele naam van de installatie van SAP HANA systeemreplicatie.

    Voer de volgende opdracht uit om de vermeldingen weer te geven

    
    hdbuserstore List
    

    Hiermee worden alle vermeldingen weergegeven en moeten deze er ongeveer uitzien als

    
    DATA FILE       : /home/qasadm/.hdb/anftstsapa01/SSFS_HDB.DAT
    KEY FILE        : /home/qasadm/.hdb/anftstsapa01/SSFS_HDB.KEY
    
    KEY DEFAULT
      ENV : 10.1.1.5:30313
      USER: SAPABAP1
      DATABASE: QAS
    

    In de uitvoer ziet u dat het IP-adres van de standaardinvoer verwijst naar de virtuele machine en niet naar load balancer IP-adres van de virtuele machine. Deze vermelding moet worden gewijzigd om te wijzen naar de virtuele hostnaam van de load balancer. Zorg ervoor dat u dezelfde poort (30313 in de bovenstaande uitvoer) en databasenaam (QAS in de bovenstaande uitvoer) gebruikt.

    
    su - qasadm
    hdbuserstore SET DEFAULT qasdb:30313@QAS SAPABAP1 <password of ABAP schema>
    

De clusterinstallatie testen

De volgende tests zijn een kopie van de test cases in de best practices-handleidingen van SUSE. Ze worden voor uw gemak gekopieerd. Lees altijd ook de handleidingen met best practices en voer alle aanvullende tests uit die mogelijk zijn toegevoegd.

  1. HAGetFailoverConfig, HACheckConfig en HACheckFailoverConfig testen

    Voer de volgende opdrachten uit als <sapsid> adm op het knooppunt waarop het ASCS-exemplaar momenteel wordt uitgevoerd. Als de opdrachten mislukken met FAIL: Onvoldoende geheugen, kan dit worden veroorzaakt door streepjes in uw hostnaam. Dit is een bekend probleem en wordt opgelost door SUSE in het pakket sap-suse-cluster-connector.

    
    anftstsapcl1:qasadm 52> sapcontrol -nr 00 -function HAGetFailoverConfig
    07.03.2019 20:08:59
    HAGetFailoverConfig
    OK
    HAActive: TRUE
    HAProductVersion: SUSE Linux Enterprise Server for SAP Applications 12 SP3
    HASAPInterfaceVersion: SUSE Linux Enterprise Server for SAP Applications 12 SP3 (sap_suse_cluster_connector 3.1.0)
    HADocumentation: https://www.suse.com/products/sles-for-sap/resource-library/sap-best-practices/
    HAActiveNode: anftstsapcl1
    HANodes: anftstsapcl1, anftstsapcl2
    
    anftstsapcl1:qasadm 54> sapcontrol -nr 00 -function HACheckConfig
    07.03.2019 23:28:29
    HACheckConfig
    OK
    state, category, description, comment
    SUCCESS, SAP CONFIGURATION, Redundant ABAP instance configuration, 2 ABAP instances detected
    SUCCESS, SAP CONFIGURATION, Redundant Java instance configuration, 0 Java instances detected
    SUCCESS, SAP CONFIGURATION, Enqueue separation, All Enqueue server separated from application server
    SUCCESS, SAP CONFIGURATION, MessageServer separation, All MessageServer separated from application server
    SUCCESS, SAP CONFIGURATION, ABAP instances on multiple hosts, ABAP instances on multiple hosts detected
    SUCCESS, SAP CONFIGURATION, Redundant ABAP SPOOL service configuration, 2 ABAP instances with SPOOL service detected
    SUCCESS, SAP STATE, Redundant ABAP SPOOL service state, 2 ABAP instances with active SPOOL service detected
    SUCCESS, SAP STATE, ABAP instances with ABAP SPOOL service on multiple hosts, ABAP instances with active ABAP SPOOL service on multiple hosts detected
    SUCCESS, SAP CONFIGURATION, Redundant ABAP BATCH service configuration, 2 ABAP instances with BATCH service detected
    SUCCESS, SAP STATE, Redundant ABAP BATCH service state, 2 ABAP instances with active BATCH service detected
    SUCCESS, SAP STATE, ABAP instances with ABAP BATCH service on multiple hosts, ABAP instances with active ABAP BATCH service on multiple hosts detected
    SUCCESS, SAP CONFIGURATION, Redundant ABAP DIALOG service configuration, 2 ABAP instances with DIALOG service detected
    SUCCESS, SAP STATE, Redundant ABAP DIALOG service state, 2 ABAP instances with active DIALOG service detected
    SUCCESS, SAP STATE, ABAP instances with ABAP DIALOG service on multiple hosts, ABAP instances with active ABAP DIALOG service on multiple hosts detected
    SUCCESS, SAP CONFIGURATION, Redundant ABAP UPDATE service configuration, 2 ABAP instances with UPDATE service detected
    SUCCESS, SAP STATE, Redundant ABAP UPDATE service state, 2 ABAP instances with active UPDATE service detected
    SUCCESS, SAP STATE, ABAP instances with ABAP UPDATE service on multiple hosts, ABAP instances with active ABAP UPDATE service on multiple hosts detected
    SUCCESS, SAP STATE, SCS instance running, SCS instance status ok
    SUCCESS, SAP CONFIGURATION, SAPInstance RA sufficient version (anftstsapvh_QAS_00), SAPInstance includes is-ers patch
    SUCCESS, SAP CONFIGURATION, Enqueue replication (anftstsapvh_QAS_00), Enqueue replication enabled
    SUCCESS, SAP STATE, Enqueue replication state (anftstsapvh_QAS_00), Enqueue replication active
    
    anftstsapcl1:qasadm 55> sapcontrol -nr 00 -function HACheckFailoverConfig
    07.03.2019 23:30:48
    HACheckFailoverConfig
    OK
    state, category, description, comment
    SUCCESS, SAP CONFIGURATION, SAPInstance RA sufficient version, SAPInstance includes is-ers patch
    
  2. Het ASCS-exemplaar handmatig migreren

    Resourcetoestand voordat u de test start:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rscsap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Starting anftstsapcl1
    

    Voer de volgende opdrachten uit als root om het ASCS-exemplaar te migreren.

    
    anftstsapcl1:~ # crm resource migrate rsc_sap_QAS_ASCS00 force
    INFO: Move constraint created for rsc_sap_QAS_ASCS00
    
    anftstsapcl1:~ # crm resource unmigrate rsc_sap_QAS_ASCS00
    INFO: Removed migration constraints for rsc_sap_QAS_ASCS00
    
    # Remove failed actions for the ERS that occurred as part of the migration
    anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ERS01
    

    Resourcetoestand na de test:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    
  3. HAFailoverToNode testen

    Resourcetoestand voordat u de test start:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    

    Voer de volgende opdrachten uit als <sapsid> adm om het ASCS-exemplaar te migreren.

    
    anftstsapcl1:qasadm 53> sapcontrol -nr 00 -host anftstsapvh -user qasadm <password> -function HAFailoverToNode ""
    
    # run as root
    # Remove failed actions for the ERS that occurred as part of the migration
    anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ERS01
    # Remove migration constraints
    anftstsapcl1:~ # crm resource clear rsc_sap_QAS_ASCS00
    #INFO: Removed migration constraints for rsc_sap_QAS_ASCS00
    

    Resourcetoestand na de test:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    
  4. Knooppuntcrash simuleren

    Resourcetoestand voordat u de test start:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    

    Voer de volgende opdracht uit als hoofdmap op het knooppunt waarop het ASCS-exemplaar wordt uitgevoerd

    anftstsapcl2:~ # echo b > /proc/sysrq-trigger
    

    Als u SBD gebruikt, zou Pacemaker niet automatisch moeten starten op het knooppunt dat wordt omgebracht. De status nadat het knooppunt opnieuw is gestart, moet er als deze uitzien.

    Online:
    Online: [ anftstsapcl1 ]
    OFFLINE: [ anftstsapcl2 ]
    
    Full list of resources:
    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    
    Failed Actions:
    * rsc_sap_QAS_ERS01_monitor_11000 on anftstsapcl1 'not running' (7): call=166, status=complete, exitreason='',
     last-rc-change='Fri Mar  8 18:26:10 2019', queued=0ms, exec=0ms
    

    Gebruik de volgende opdrachten om Pacemaker te starten op het uitgevallen knooppunt, de SBD-berichten op te schonen en de mislukte resources op te schonen.

    
    # run as root
    # list the SBD device(s)
    anftstsapcl2:~ # cat /etc/sysconfig/sbd | grep SBD_DEVICE=
    # SBD_DEVICE="/dev/disk/by-id/scsi-36001405b730e31e7d5a4516a2a697dcf;/dev/disk/by-id/scsi-36001405f69d7ed91ef54461a442c676e;/dev/disk/by-id/scsi-360014058e5f335f2567488882f3a2c3a"
    
    anftstsapcl2:~ # sbd -d /dev/disk/by-id/scsi-36001405772fe8401e6240c985857e11 -d /dev/disk/by-id/scsi-36001405f69d7ed91ef54461a442c676e -d /dev/disk/by-id/scsi-360014058e5f335f2567488882f3a2c3a message anftstsapcl2 clear
    
    anftstsapcl2:~ # systemctl start pacemaker
    anftstsapcl2:~ # crm resource cleanup rsc_sap_QAS_ASCS00
    anftstsapcl2:~ # crm resource cleanup rsc_sap_QAS_ERS01
    

    Resourcetoestand na de test:

    
    Full list of resources:
    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    
  5. Handmatig opnieuw opstarten van ASCS-exemplaar testen

    Resourcetoestand voordat u de test start:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    

    Maak een enqueue-vergrendeling door, bijvoorbeeld een gebruiker bewerken in transactie su01. Voer de volgende opdrachten uit als <sapsid adm op het > knooppunt waarop het ASCS-exemplaar wordt uitgevoerd. De opdrachten stoppen het ASCS-exemplaar en starten het opnieuw. Als u de architectuur van enqueue server 1 gebruikt, gaat de vergrendeling in dequeu naar verwachting verloren in deze test. Als u server 2-architectuur in dequeuue gebruikt, blijft de enqueue behouden.

    anftstsapcl2:qasadm 51> sapcontrol -nr 00 -function StopWait 600 2
    

    Het ASCS-exemplaar moet nu worden uitgeschakeld in Pacemaker

      rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Stopped (disabled)
    

    Start het ASCS-exemplaar opnieuw op hetzelfde knooppunt.

    anftstsapcl2:qasadm 52> sapcontrol -nr 00 -function StartWait 600 2
    

    De enqueue-vergrendeling van transactie su01 moet verloren gaan als het gebruik van de architectuur voor serverreplicatie 1 en de back-end opnieuw moet zijn ingesteld. Resourcetoestand na de test:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    
  6. Proces berichtserver killen

    Resourcetoestand voordat u de test start:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    

    Voer de volgende opdrachten uit als root om het proces van de berichtenserver te identificeren en te killen.

    anftstsapcl2:~ # pgrep ms.sapQAS | xargs kill -9
    

    Als u de berichtenserver slechts één keer afmeldt, wordt deze opnieuw gestart door sapstart . Als u het vaak genoeg afmaak, verplaatst Pacemaker het ASCS-exemplaar uiteindelijk naar het andere knooppunt. Voer de volgende opdrachten uit als root om de resourcetoestand van het ASCS- en ERS-exemplaar na de test op te schonen.

    
    anftstsapcl2:~ # crm resource cleanup rsc_sap_QAS_ASCS00
    anftstsapcl2:~ # crm resource cleanup rsc_sap_QAS_ERS01
    

    Resourcetoestand na de test:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    
  7. Serverproces voor het in dequequen zetten van gegevens

    Resourcetoestand voordat u de test start:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    

    Voer de volgende opdrachten uit als root op het knooppunt waarop het ASCS-exemplaar wordt uitgevoerd om de server voor het in dequeueren te killen.

    
    #If using ENSA1
    anftstsapcl1:~ # pgrep en.sapQAS | xargs kill -9
    #If using ENSA2
    anftstsapcl1:~ # pgrep -f enq.sapQAS | xargs kill -9
    

    In het geval van ENSA1 moet er onmiddellijk een fail over naar het andere knooppunt worden overgeslagen. Nadat het ASCS-exemplaar is gestart, moet er ook een fail-over voor het ERS-exemplaar worden gebruikt. Voer de volgende opdrachten uit als root om de resourcetoestand van het ASCS- en ERS-exemplaar na de test op te schonen.

    
    anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ASCS00
    anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ERS01
    

    Resourcetoestand na de test:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    
  8. Het proces van de replicatieserver voor het in dequequen zetten van gegevens

    Resourcetoestand voordat u de test start:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    

    Voer de volgende opdracht uit als hoofdmap op het knooppunt waarop het ERS-exemplaar wordt uitgevoerd om het proces van de replicatieserver voor het in de rij plaatsen te voltooien.

    anftstsapcl1:~ # pgrep er.sapQAS | xargs kill -9
    

    Als u de opdracht slechts eenmaal uit te voeren, sapstart wordt het proces opnieuw gestart. Als u het proces vaak genoeg hebt uitgevoerd, wordt het proces niet opnieuw gestart en heeft de sapstart resource de status Gestopt. Voer de volgende opdrachten uit als root om de resourcetoestand van het ERS-exemplaar na de test op te schonen.

    anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ERS01
    

    Resourcetoestand na de test:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    
  9. Het sapstartsrv-proces voor het in dequequen inschrijven van gegevens in een kill-omgeving

    Resourcetoestand voordat u de test start:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    

    Voer de volgende opdrachten uit als root op het knooppunt waarop de ASCS wordt uitgevoerd.

    
    anftstsapcl2:~ # pgrep -fl ASCS00.*sapstartsrv
    #67625 sapstartsrv
    
    anftstsapcl2:~ # kill -9 67625
    

    Het sapstartsrv-proces moet altijd opnieuw worden gestart door de Pacemaker-resourceagent. Resourcetoestand na de test:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:azure-lb):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:azure-lb):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    

Volgende stappen