Hoge beschikbaarheid voor SAP NetWeaver op azure-VM's op SUSE Linux Enterprise Server met Azure NetApp Files voor SAP-toepassingen
In dit artikel wordt beschreven hoe u de virtuele machines implementeert, de virtuele machines configureert, het cluster-framework installeert en een SAP NetWeaver 7.50-systeem met hoge beschikbare Azure NetApp Files. In de voorbeeldconfiguraties, installatieopdrachten, enzovoort, is het ASCS-exemplaar nummer 00, het ERS-exemplaarnummer 01, het primaire toepassings exemplaar (PAS) 02 en het exemplaar van de toepassing (AAS) 03. SAP-systeem-id QAS wordt gebruikt.
In dit artikel wordt uitgelegd hoe u hoge beschikbaarheid bereikt voor de SAP NetWeaver-toepassing met Azure NetApp Files. De databaselaag wordt in dit artikel niet in detail behandeld.
Lees eerst de volgende SAP-opmerkingen en -documenten:
- Azure NetApp Files documentatie
- SAP-1928533,met:
- Lijst met Azure VM-grootten die worden ondersteund voor de implementatie van SAP-software
- Belangrijke capaciteitsinformatie voor Azure VM-grootten
- Ondersteunde combinaties van SAP-software en besturingssysteem (besturingssysteem) en database
- Vereiste SAP-kernelversie voor Windows linux op Microsoft Azure
- Sap Note 2015553 vereisten voor SAP-ondersteunde SAP-software-implementaties in Azure.
- SAP-2205917 heeft aanbevolen besturingssysteeminstellingen voor SUSE Linux Enterprise Server voor SAP-toepassingen
- SAP Note 1944799 heeft SAP HANA richtlijnen voor SUSE Linux Enterprise Server voor SAP-toepassingen
- SAP Note 2178632 gedetailleerde informatie over alle metrische bewakingsgegevens die zijn gerapporteerd voor SAP in Azure.
- SAP Opmerking 2191498 de vereiste versie van de SAP-hostagent voor Linux in Azure heeft.
- SAP Note 2243692 informatie over SAP-licenties op Linux in Azure.
- SAP Note 1984787 algemene informatie over SUSE Linux Enterprise Server 12.
- SAP Note 1999351 aanvullende informatie over probleemoplossing voor de Verbeterde bewakingsextensie van Azure voor SAP.
- SAP Community WIKI]( https://wiki.scn.sap.com/wiki/display/HOME/SAPonLinuxNotes) heeft alle vereiste SAP-notities voor Linux.
- Azure Virtual Machines en implementatie voor SAP on Linux
- Azure Virtual Machines-implementatie voor SAP op Linux
- Azure Virtual Machines DBMS-implementatie voor SAP op Linux
- Best practice-handleidingen voor SUSE SAP HA De handleidingen bevatten alle vereiste informatie voor het instellen van Netweaver HA en SAP HANA-premises systeemreplicatie. Gebruik deze handleidingen als algemene basislijn. Ze bieden veel meer gedetailleerde informatie.
- Opmerkingen bij de release van SUSE High Availability Extension 12 SP3
- NetApp SAP-toepassingen op Microsoft Azure met Azure NetApp Files
Overzicht
Hoge beschikbaarheid (HA) voor centrale SAP Netweaver-services vereist gedeelde opslag. Om dat te bereiken in SUSE Linux was het tot nu toe nodig om een afzonderlijk NFS-cluster met hoge beschikbare gegevens te bouwen.
Het is nu mogelijk om SAP Netweaver HA te bereiken met behulp van gedeelde opslag, geïmplementeerd op Azure NetApp Files. Als Azure NetApp Files voor de gedeelde opslag gebruikt, is er geen extra NFS-cluster meer nodig. Pacemaker is nog steeds nodig voor de ha van de centrale SAP Netweaver-services (ASCS/SCS).

SAP NetWeaver ASCS, SAP NetWeaver SCS, SAP NetWeaver ERS en de SAP HANA-database gebruiken virtuele hostnaam en virtuele IP-adressen. In Azure is een load balancer vereist voor het gebruik van een virtueel IP-adres. U wordt aangeraden Standard load balancer. In de volgende lijst ziet u de configuratie van de (A)SCS- en ERS-load balancer.
(A)SCS
- Front-endconfiguratie
- IP-adres 10.1.1.20
- Testpoort
- Poort 620 < nr. >
- Taakverdelingsregels
- Als u Standard Load Balancer, selecteert u HA-poorten
- Als u Basic Load Balancer, maakt u taakverdelingsregels voor de volgende poorten
- 32 < nr. > TCP
- 36 < nr. > TCP
- 39 < nr. > TCP
- 81 < nr. > TCP
- 5 < nr. > 13 TCP
- 5 < nr. > 14 TCP
- 5 < nr. > 16 TCP
ERS
Front-endconfiguratie
- IP-adres 10.1.1.21
Testpoort
- Nr. poort < > 621
Taakverdelingsregels
- Als u Standard Load Balancer, selecteert u HA-poorten
- Als u Basic Load Balancer, maakt u taakverdelingsregels voor de volgende poorten
- 32 < nr. > TCP
- 33 < nr. > TCP
- 5 < nr. > 13 TCP
- 5 < nr. > 14 TCP
- 5 < nr. > 16 TCP
Back-endconfiguratie
- Verbonden met primaire netwerkinterfaces van alle virtuele machines die deel moeten uitmaken van het (A)SCS/ERS-cluster
De infrastructuur voor Azure NetApp Files instellen
VOOR SAP NetWeaver is gedeelde opslag vereist voor de transport- en profielmap. Voordat u doorgaat met de installatie van de Azure NetApp-bestandsinfrastructuur, moet u zich vertrouwd maken met de Azure NetApp Files documentatie. Controleer of uw geselecteerde Azure-regio een Azure NetApp Files. De volgende koppeling toont de beschikbaarheid van Azure NetApp Files per Azure-regio: Azure NetApp Files Beschikbaarheid per Azure-regio.
Azure NetApp-bestanden zijn beschikbaar in verschillende Azure-regio's.
Uw Azure NetApp Files implementeren
Bij de stappen wordt ervan uitgenomen dat u Azure al hebt Virtual Network. De Azure NetApp Files-resources en de virtuele machines, waar de Azure NetApp Files-resources worden bevestigd, moeten worden geïmplementeerd in dezelfde Azure-Virtual Network of in peering van virtuele Azure-netwerken.
Maak het NetApp-account in de geselecteerde Azure-regio door de instructies te volgen voor het maken van NetApp-account.
Stel Azure NetApp Files capaciteitspool in met de instructies voor het instellen van Azure NetApp Files capaciteitspool.
De SAP Netweaver-architectuur die in dit artikel wordt gepresenteerd, maakt gebruik Azure NetApp Files capaciteitspool met één Premium SKU. We raden u Azure NetApp Files Premium SKU te gebruiken voor de sap Netweaver-toepassingsworkload in Azure.Delegeer een subnet aan Azure NetApp-bestanden, zoals beschreven in de instructies Een subnet delegeren aan Azure NetApp Files.
Implementeer Azure NetApp Files volumes volgens de instructies voor het maken van een volume voor Azure NetApp Files. Implementeer de volumes in het Azure NetApp Files subnet. De IP-adressen van de Azure NetApp-volumes worden automatisch toegewezen. Houd er rekening mee dat de Azure NetApp Files resources en azure-VM's zich in dezelfde Azure-Virtual Network of in peered Virtuele Azure-netwerken moeten hebben. In dit voorbeeld gebruiken we twee Azure NetApp Files volumes: sapQAS en trans. De bestandspaden die zijn bevestigd aan de bijbehorende mount points zijn /usrsapqas/sapmntQAS,/usrsapqas/usrsapQASsys, enzovoort.
- volume sapQAS (nfs://10.1.0.4/usrsapqas/sapmntQAS)
- volume sapQAS (nfs://10.1.0.4/usrsapqas/usrsapQASascs)
- volume sapQAS (nfs://10.1.0.4/usrsapqas/usrsapQASsys)
- volume sapQAS (nfs://10.1.0.4/usrsapqas/usrsapQASers)
- volumetrans (nfs://10.1.0.4/trans)
- volume sapQAS (nfs://10.1.0.4/usrsapqas/usrsapQASpas)
- volume sapQAS (nfs://10.1.0.4/usrsapqas/usrsapQASaas)
In dit voorbeeld hebben we Azure NetApp Files alle SAP Netweaver-bestandssystemen gebruikt om te laten zien hoe Azure NetApp Files kunnen worden gebruikt. De SAP-bestandssystemen die niet via NFS hoeven te worden bevestigd, kunnen ook worden geïmplementeerd als Azure-schijfopslag. In dit voorbeeld moet a-e zich op Azure NetApp Files en f-g (dat wil zeggen /usr/sap/QAS/D02, /usr/sap/QAS/D03) kunnen worden geïmplementeerd als Azure-schijfopslag.
Belangrijke overwegingen
Wanneer u Azure NetApp Files voor de architectuur van SAP Netweaver op SUSE met hoge beschikbaarheid, moet u rekening houden met de volgende belangrijke overwegingen:
- De minimale capaciteitspool is 4 TiB. De grootte van de capaciteitspool kan in stappen van 1 TiB worden verhoogd.
- Het minimale volume is 100 GiB
- Azure NetApp Files en alle virtuele machines, waarbij Azure NetApp Files-volumes worden bevestigd, moeten zich in dezelfde Azure-Virtual Network of in peered virtuele netwerken in dezelfde regio. Azure NetApp Files toegang via VNET-peering in dezelfde regio wordt nu ondersteund. Azure NetApp-toegang via wereldwijde peering wordt nog niet ondersteund.
- Het geselecteerde virtuele netwerk moet een subnet hebben dat is gedelegeerd Azure NetApp Files.
- Azure NetApp Files biedt exportbeleid:u kunt de toegestane clients, het toegangstype (Lezen&Schrijven, Alleen-lezen, enzovoort) bepalen.
- Azure NetApp Files functie is nog niet zonebewust. Momenteel Azure NetApp Files functie niet geïmplementeerd in alle beschikbaarheidszones in een Azure-regio. Let op de mogelijke gevolgen voor latentie in sommige Azure-regio's.
- Azure NetApp Files kunnen worden geïmplementeerd als NFSv3- of NFSv4.1-volumes. Beide protocollen worden ondersteund voor de SAP-toepassingslaag (ASCS/ERS, SAP-toepassingsservers).
Virtuele Linux-VM's handmatig implementeren via Azure Portal
Eerst moet u de volumes Azure NetApp Files maken. Implementeer de VM's. Daarna maakt u een load balancer en gebruikt u de virtuele machines in de back-endpools.
- Een resourcegroep maken
- Een Virtual Network maken
- Een beschikbaarheidsset voor ASCS maken
Maximaal updatedomein instellen - Virtuele machine maken 1
Gebruik ten minste SLES4SAP 12 SP3. In dit voorbeeld wordt de SLES4SAP 12 SP3-afbeelding gebruikt
Selecteer Beschikbaarheidsset die u eerder hebt gemaakt voor ASCS - Virtuele machine maken 2
Gebruik ten minste SLES4SAP 12 SP3. In dit voorbeeld wordt de SLES4SAP 12 SP3-afbeelding gebruikt
Selecteer Beschikbaarheidsset die u eerder hebt gemaakt voor ASCS - Een beschikbaarheidsset maken voor de SAP-toepassings instances (PAS, AAS)
Maximaal updatedomein instellen - Virtuele machine maken 3
Gebruik ten minste SLES4SAP 12 SP3. In dit voorbeeld wordt de SLES4SAP 12 SP3-afbeelding gebruikt
Selecteer Beschikbaarheidsset die u eerder hebt gemaakt voor PAS/AAS - Virtuele machine maken 4
Gebruik ten minste SLES4SAP 12 SP3. In dit voorbeeld wordt de SLES4SAP 12 SP3-afbeelding gebruikt
Selecteer Beschikbaarheidsset die u eerder hebt gemaakt voor PAS/AAS
Id-toewijzing uitschakelen (als NFSv4.1 wordt gebruikt)
De instructies in deze sectie zijn alleen van toepassing als u Azure NetApp Files met NFSv4.1-protocol. Voer de configuratie uit op alle VM's, Azure NetApp Files NFSv4.1-volumes worden bevestigd.
Controleer de NFS-domeininstelling. Zorg ervoor dat het domein is geconfigureerd als het standaarddomein Azure NetApp Files, dat wil zeggen en dat de toewijzing
defaultv4iddomain.comis ingesteld op niemand.Belangrijk
Zorg ervoor dat u het NFS-domein in op de VM zo in stelt dat deze overeenkomen met de standaarddomeinconfiguratie
/etc/idmapd.confop Azure NetApp Files:defaultv4iddomain.com. Als er een verschil is tussen de domeinconfiguratie op de NFS-client (dat wil zeggen de VM) en de NFS-server, dat wil zeggen de Azure NetApp-configuratie, worden de machtigingen voor bestanden op Azure NetApp-volumes die zijn bevestigd op de VM's weergegeven alsnobody.sudo cat /etc/idmapd.conf # Example [General] Verbosity = 0 Pipefs-Directory = /var/lib/nfs/rpc_pipefs Domain = defaultv4iddomain.com [Mapping] Nobody-User = nobody Nobody-Group = nobody[A] Controleer
nfs4_disable_idmapping. Deze moet worden ingesteld op Y. Als u de mapstructuur wilt maken waarnfs4_disable_idmappingzich bevindt, voert u de mount-opdracht uit. U kunt de map niet handmatig maken onder /sys/modules, omdat toegang is gereserveerd voor de kernel/stuurprogramma's.# Check nfs4_disable_idmapping cat /sys/module/nfs/parameters/nfs4_disable_idmapping # If you need to set nfs4_disable_idmapping to Y mkdir /mnt/tmp mount 10.1.0.4:/sapmnt/qas /mnt/tmp umount /mnt/tmp echo "Y" > /sys/module/nfs/parameters/nfs4_disable_idmapping # Make the configuration permanent echo "options nfs nfs4_disable_idmapping=Y" >> /etc/modprobe.d/nfs.conf
(A)SCS instellen
In dit voorbeeld zijn de resources handmatig geïmplementeerd via de Azure Portal .
Uw Azure Load Balancer handmatig implementeren via Azure Portal
Eerst moet u de volumes Azure NetApp Files maken. Implementeer de VM's. Daarna maakt u een load balancer en gebruikt u de virtuele machines in de back-endpool.
- Maak load balancer (intern, standaard):
- De front-end-IP-adressen maken
- IP-adres 10.1.1.20 voor de ASCS
- Open de load balancer, selecteer front-end-IP-adresgroep en klik op Toevoegen
- Voer de naam van de nieuwe front-end-IP-adresgroep in (bijvoorbeeld front-end. QAS. ASCS)
- Stel toewijzing in op Statisch en voer het IP-adres in (bijvoorbeeld 10.1.1.20)
- Klik op OK
- IP-adres 10.1.1.21 voor de ASCS ERS
- Herhaal de bovenstaande stappen onder 'a' om een IP-adres te maken voor de ERS (bijvoorbeeld 10.1.1.21 en front-end. QAS. ERS)
- IP-adres 10.1.1.20 voor de ASCS
- Back-endpool maken
- Open de load balancer, selecteer back-endpools en klik op Toevoegen
- Voer de naam van de nieuwe back-endpool in (bijvoorbeeld back-end. QAS)
- Klik op Een virtuele machine toevoegen.
- Virtuele machine selecteren
- Selecteer de virtuele machines van het (A)SCS-cluster en hun IP-adressen.
- Klik op Add.
- De statustests maken
- Poort 620 00 voor ASCS
- Open het load balancer, selecteer statustests en klik op Toevoegen
- Voer de naam van de nieuwe statustest in (bijvoorbeeld status. QAS. ASCS)
- Selecteer TCP als protocol, poort 620 00, houd Interval 5 en drempelwaarde voor onjuiste status 2
- Klik op OK
- Poort 621 01 voor ASCS ERS
- Herhaal de bovenstaande stappen onder c om een statustest voor de ERS te maken (bijvoorbeeld 621 01 en status. QAS. ERS)
- Poort 620 00 voor ASCS
- Taakverdelingsregels
- Een back-endpool maken voor de ASCS
- Open het load balancer, selecteer Taakverdelingsregels en klik op Toevoegen
- Voer de naam van de nieuwe load balancer in (bijvoorbeeld lb. QAS. ASCS)
- Selecteer het front-end-IP-adres voor ASCS, de back-adresgroep en de statustest die u eerder hebt gemaakt (bijvoorbeeld front-end. QAS. ASCS, back-en. QAS en status. QAS. ASCS)
- Ha-poorten selecteren
- Zorg ervoor dat zwevend IP-adres is ingeschakeld
- Klik op OK
- Herhaal de bovenstaande stappen om taakverdelingsregels te maken voor ERS (bijvoorbeeld lb. QAS. ERS)
- Een back-endpool maken voor de ASCS
- De front-end-IP-adressen maken
- Als voor uw scenario basiskennis van load balancer (intern) is vereist, volgt u deze stappen:
De front-end-IP-adressen maken
- IP-adres 10.1.1.20 voor de ASCS
- Open de load balancer, selecteer front-end-IP-adresgroep en klik op Toevoegen
- Voer de naam van de nieuwe front-end-IP-adresgroep in (bijvoorbeeld front-end. QAS. ASCS)
- Stel toewijzing in op Statisch en voer het IP-adres in (bijvoorbeeld 10.1.1.20)
- Klik op OK
- IP-adres 10.1.1.21 voor de ASCS ERS
- Herhaal de bovenstaande stappen onder 'a' om een IP-adres te maken voor de ERS (bijvoorbeeld 10.1.1.21 en front-end. QAS. ERS)
- IP-adres 10.1.1.20 voor de ASCS
Back-endpool maken
- Open de load balancer, selecteer back-endpools en klik op Toevoegen
- Voer de naam van de nieuwe back-endpool in (bijvoorbeeld back-end. QAS)
- Klik op Een virtuele machine toevoegen.
- Selecteer de beschikbaarheidsset die u eerder hebt gemaakt voor ASCS
- Selecteer de virtuele machines van het (A)SCS-cluster
- Klik op OK
De statustests maken
- Poort 620 00 voor ASCS
- Open de load balancer, selecteer statustests en klik op Toevoegen
- Voer de naam van de nieuwe statustest in (bijvoorbeeld status. QAS. ASCS)
- Selecteer TCP als protocol, poort 620 00, houd Interval 5 en drempelwaarde voor onjuiste status 2
- Klik op OK
- Poort 621 01 voor ASCS ERS
- Herhaal de bovenstaande stappen onder c om een statustest voor de ERS te maken (bijvoorbeeld 621 01 en status. QAS. ERS)
- Poort 620 00 voor ASCS
Taakverdelingsregels
- 32 00 TCP voor ASCS
- Open het load balancer, selecteer Taakverdelingsregels en klik op Toevoegen
- Voer de naam van de nieuwe load balancer in (bijvoorbeeld lb. QAS. ASCS.3200)
- Selecteer het front-end-IP-adres voor ASCS, de back-adresgroep en de statustest die u eerder hebt gemaakt (bijvoorbeeld front-end. QAS. ASCS)
- Protocol TCP behouden, poort 3200 invoeren
- Time-out voor inactief verhogen naar 30 minuten
- Zorg ervoor dat zwevend IP-adres is ingeschakeld
- Klik op OK
- Aanvullende poorten voor de ASCS
- Herhaal de bovenstaande stappen onder 'd' voor poorten 36 00, 39 00, 81 00, 5 00 13, 5 00 14, 5 00 16 en TCP voor de ASCS
- Aanvullende poorten voor ASCS ERS
- Herhaal de bovenstaande stappen onder 'd' voor poorten 32 01, 33 01, 5 01 13,5 01 14, 5 01 16 en TCP voor de ASCS ERS
Belangrijk
Zwevend IP wordt niet ondersteund op een secundaire IP-configuratie van een NIC in taakverdelingsscenario's. Zie Beperkingen voor Azure Load Balancer voor meer informatie. Als u een extra IP-adres voor de VM nodig hebt, implementeert u een tweede NIC.
Notitie
Wanneer VM's zonder openbare IP-adressen in de back-endpool van interne (geen openbaar IP-adres) Standard Azure load balancer worden geplaatst, is er geen uitgaande internetverbinding, tenzij er aanvullende configuratie wordt uitgevoerd om routering naar openbare eindpunten toe te staan. Zie Public endpoint connectivity for Virtual Machines using Azure Standard Load Balancer in SAP high-availability scenarios(Openbare eindpuntconnectiviteit voor Virtual Machines met behulp van Azure Standard Load Balancer in SAP-scenario's voor hoge beschikbaarheid) voor meer informatie over het bereiken van uitgaande connectiviteit.
Belangrijk
Schakel TCP-tijdstempels niet in op Virtuele Azure-VM's die achter de Azure Load Balancer. Als u TCP-tijdstempels inschakelen, mislukken de statustests. Stel parameter net.ipv4.tcp_timestamps in op 0. Zie statustests Load Balancer voor meer informatie.
- 32 00 TCP voor ASCS
Pacemaker-cluster maken
Volg de stappen in Pacemaker instellen op SUSE Linux Enterprise Server in Azure om een eenvoudig Pacemaker-cluster voor deze (A)SCS-server te maken.
Installatie
De volgende items hebben het voorvoegsel [A] - van toepassing op alle knooppunten, [1] - alleen van toepassing op knooppunt 1 of [2] - alleen van toepassing op knooppunt 2.
[A] SUSE-connector installeren
sudo zypper install sap-suse-cluster-connectorNotitie
Het bekende probleem met het gebruik van een streepje in hostnamen is opgelost met versie 3.1.1 van package sap-suse-cluster-connector. Zorg ervoor dat u ten minste versie 3.1.1 van package sap-suse-cluster-connector gebruikt als u clusterknooppunten met streepje in de hostnaam gebruikt. Anders werkt uw cluster niet.
Zorg ervoor dat u de nieuwe versie van de SAP SUSE-clusterconnector hebt geïnstalleerd. Het oude werd sap_suse_cluster_connector en de nieuwe heet sap-suse-cluster-connector.
sudo zypper info sap-suse-cluster-connector # Information for package sap-suse-cluster-connector: # --------------------------------------------------- # Repository : SLE-12-SP3-SAP-Updates # Name : sap-suse-cluster-connector # Version : 3.1.0-8.1 # Arch : noarch # Vendor : SUSE LLC <https://www.suse.com/> # Support Level : Level 3 # Installed Size : 45.6 KiB # Installed : Yes # Status : up-to-date # Source package : sap-suse-cluster-connector-3.1.0-8.1.src # Summary : SUSE High Availability Setup for SAP Products[A] SAP-resourceagents bijwerken
Er is een patch voor het resourceagentpakket vereist om de nieuwe configuratie te kunnen gebruiken, zoals beschreven in dit artikel. U kunt controleren of de patch al is geïnstalleerd met de volgende opdracht
sudo grep 'parameter name="IS_ERS"' /usr/lib/ocf/resource.d/heartbeat/SAPInstanceDe uitvoer moet er ongeveer als
<parameter name="IS_ERS" unique="0" required="0">Als de grep-opdracht de parameter IS_ERS vinden, moet u de patch installeren die wordt vermeld op de SUSE-downloadpagina
# example for patch for SLES 12 SP1 sudo zypper in -t patch SUSE-SLE-HA-12-SP1-2017-885=1 # example for patch for SLES 12 SP2 sudo zypper in -t patch SUSE-SLE-HA-12-SP2-2017-886=1[A] Hostnaamoplossing instellen
U kunt een DNS-server gebruiken of de /etc/hosts op alle knooppunten wijzigen. In dit voorbeeld ziet u hoe u het bestand /etc/hosts gebruikt. Vervang het IP-adres en de hostnaam in de volgende opdrachten
sudo vi /etc/hostsVoeg de volgende regels toe aan /etc/hosts. Wijzig het IP-adres en de hostnaam in uw omgeving
# IP address of cluster node 1 10.1.1.18 anftstsapcl1 # IP address of cluster node 2 10.1.1.6 anftstsapcl2 # IP address of the load balancer frontend configuration for SAP Netweaver ASCS 10.1.1.20 anftstsapvh # IP address of the load balancer frontend configuration for SAP Netweaver ERS 10.1.1.21 anftstsapers[1] Sap-directories maken in het Azure NetApp Files volume.
Tijdelijk het Azure NetApp Files volume aan een van de VM's en maak de SAP-directories (bestandspaden).# mount temporarily the volume sudo mkdir -p /saptmp # If using NFSv3 sudo mount -t nfs -o rw,hard,rsize=65536,wsize=65536,vers=3,tcp 10.1.0.4:/sapQAS /saptmp # If using NFSv4.1 sudo mount -t nfs -o rw,hard,rsize=65536,wsize=65536,vers=4.1,sec=sys,tcp 10.1.0.4:/sapQAS /saptmp # create the SAP directories sudo cd /saptmp sudo mkdir -p sapmntQAS sudo mkdir -p usrsapQASascs sudo mkdir -p usrsapQASers sudo mkdir -p usrsapQASsys sudo mkdir -p usrsapQASpas sudo mkdir -p usrsapQASaas # unmount the volume and delete the temporary directory sudo cd .. sudo umount /saptmp sudo rmdir /saptmp
Voorbereidingen voor de installatie van SAP NetWeaver
[A] De gedeelde map maken
sudo mkdir -p /sapmnt/QAS sudo mkdir -p /usr/sap/trans sudo mkdir -p /usr/sap/QAS/SYS sudo mkdir -p /usr/sap/QAS/ASCS00 sudo mkdir -p /usr/sap/QAS/ERS01 sudo chattr +i /sapmnt/QAS sudo chattr +i /usr/sap/trans sudo chattr +i /usr/sap/QAS/SYS sudo chattr +i /usr/sap/QAS/ASCS00 sudo chattr +i /usr/sap/QAS/ERS01[A] Configureren
autofssudo vi /etc/auto.master # Add the following line to the file, save and exit /- /etc/auto.directAls u NFSv3 gebruikt, maakt u een bestand met:
sudo vi /etc/auto.direct # Add the following lines to the file, save and exit /sapmnt/QAS -nfsvers=3,nobind 10.1.0.4:/usrsapqas/sapmntQAS /usr/sap/trans -nfsvers=3,nobind 10.1.0.4:/trans /usr/sap/QAS/SYS -nfsvers=3,nobind 10.1.0.4:/usrsapqas/usrsapQASsysAls u NFSv4.1 gebruikt, maakt u een bestand met:
sudo vi /etc/auto.direct # Add the following lines to the file, save and exit /sapmnt/QAS -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/sapmntQAS /usr/sap/trans -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/trans /usr/sap/QAS/SYS -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/usrsapQASsysNotitie
Zorg ervoor dat de NFS-protocolversie van de Azure NetApp Files volumes komt, wanneer u de volumes koppelt. Als de Azure NetApp Files volumes worden gemaakt als NFSv3-volumes, gebruikt u de bijbehorende NFSv3-configuratie. Als de Azure NetApp Files volumes zijn gemaakt als NFSv4.1-volumes, volgt u de instructies om id-toewijzing uit te schakelen en ervoor te zorgen dat u de bijbehorende NFSv4.1-configuratie gebruikt. In dit voorbeeld zijn Azure NetApp Files volumes gemaakt als NFSv3-volumes.
Start opnieuw
autofsop om de nieuwe shares te makensudo systemctl enable autofs sudo service autofs restart[A] SWAP-bestand configureren
sudo vi /etc/waagent.conf # Set the property ResourceDisk.EnableSwap to y # Create and use swapfile on resource disk. ResourceDisk.EnableSwap=y # Set the size of the SWAP file with property ResourceDisk.SwapSizeMB # The free space of resource disk varies by virtual machine size. Make sure that you do not set a value that is too big. You can check the SWAP space with command swapon # Size of the swapfile. ResourceDisk.SwapSizeMB=2000Start de agent opnieuw op om de wijziging te activeren
sudo service waagent restart
SAP NetWeaver ASCS/ERS installeren
[1] Maak een virtuele IP-resource en statustest voor het ASCS-exemplaar
Belangrijk
Uit recente tests zijn situaties gebleken waarin netcat niet meer reageert op aanvragen vanwege achterstand en de beperking van het verwerken van slechts één verbinding. De netcat-resource luistert niet meer naar de Azure Load Balancer-aanvragen en het zwevende IP-adres is niet meer beschikbaar.
Voor bestaande Pacemaker-clusters is het in het verleden aanbevolen om netcat te vervangen door socat. Momenteel wordt u aangeraden azure-lb resource agent te gebruiken, die deel uitmaakt van package resource-agents, met de volgende pakketversievereisten:- Voor SLES 12 SP4/SP5 moet de versie ten minste resource-agents-4.3.018.a7fb5035-3.30.1 zijn.
- Voor SLES 15/15 SP1 moet de versie ten minste resource-agents-4.3.0184.6ee15eb2-4.13.1 zijn.
Houd er rekening mee dat de wijziging korte downtime vereist.
Als de configuratie voor bestaande Pacemaker-clusters al is gewijzigd voor het gebruik van socat, zoals beschreven in Azure Load-Balancer Detection Hardening,is het niet nodig om onmiddellijk over te schakelen naar de azure-lb-resourceagent.sudo crm node standby anftstsapcl2 # If using NFSv3 sudo crm configure primitive fs_QAS_ASCS Filesystem device='10.1.0.4/usrsapqas/usrsapQASascs' directory='/usr/sap/QAS/ASCS00' fstype='nfs' \ op start timeout=60s interval=0 \ op stop timeout=60s interval=0 \ op monitor interval=20s timeout=40s # If using NFSv4.1 sudo crm configure primitive fs_QAS_ASCS Filesystem device='10.1.0.4:/usrsapqas/usrsapQASascs' directory='/usr/sap/QAS/ASCS00' fstype='nfs' options='sec=sys,vers=4.1' \ op start timeout=60s interval=0 \ op stop timeout=60s interval=0 \ op monitor interval=20s timeout=40s sudo crm configure primitive vip_QAS_ASCS IPaddr2 \ params ip=10.1.1.20 cidr_netmask=24 \ op monitor interval=10 timeout=20 sudo crm configure primitive nc_QAS_ASCS azure-lb port=62000 sudo crm configure group g-QAS_ASCS fs_QAS_ASCS nc_QAS_ASCS vip_QAS_ASCS \ meta resource-stickiness=3000Zorg ervoor dat de status van het cluster ok is en dat alle resources zijn gestart. Het is niet belangrijk op welk knooppunt de resources worden uitgevoerd.
sudo crm_mon -r # Node anftstsapcl2: standby # Online: [ anftstsapcl1 ] # # Full list of resources: # # Resource Group: g-QAS_ASCS # fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl1 # nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl1 # vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 # stonith-sbd (stonith:external/sbd): Started anftstsapcl2[1] SAP NetWeaver ASCS installeren
Installeer SAP NetWeaver ASCS als root op het eerste knooppunt met behulp van een virtuele hostnaam die is toe te staan aan het IP-adres van de load balancer-front-endconfiguratie voor de ASCS, bijvoorbeeld anftstsapvh, 10.1.1.20 en het exemplaarnummer dat u hebt gebruikt voor de test van de load balancer, bijvoorbeeld 00.
U kunt de parameter sapinst gebruiken om SAPINST_REMOTE_ACCESS_USER niet-hoofdgebruiker verbinding te laten maken met sapinst. U kunt parameternamen gebruiken SAPINST_USE_HOSTNAME SAP te installeren met behulp van de virtuele hostnaam.
sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin SAPINST_USE_HOSTNAME=virtual_hostnameAls de installatie geen submap kan maken in /usr/sap/QAS/ASCS 00, probeert u de eigenaar en groep van de map ASCS 00 in te stellen en probeert u het opnieuw.
chown qasadm /usr/sap/QAS/ASCS00 chgrp sapsys /usr/sap/QAS/ASCS00[1] Een virtuele IP-resource en statustest maken voor het ERS-exemplaar
sudo crm node online anftstsapcl2 sudo crm node standby anftstsapcl1 # If using NFSv3 sudo crm configure primitive fs_QAS_ERS Filesystem device='10.1.0.4:/usrsapqas/usrsapQASers' directory='/usr/sap/QAS/ERS01' fstype='nfs' \ op start timeout=60s interval=0 \ op stop timeout=60s interval=0 \ op monitor interval=20s timeout=40s # If using NFSv4.1 sudo crm configure primitive fs_QAS_ERS Filesystem device='10.1.0.4:/usrsapqas/usrsapQASers' directory='/usr/sap/QAS/ERS01' fstype='nfs' options='sec=sys,vers=4.1' \ op start timeout=60s interval=0 \ op stop timeout=60s interval=0 \ op monitor interval=20s timeout=40s sudo crm configure primitive vip_QAS_ERS IPaddr2 \ params ip=10.1.1.21 cidr_netmask=24 \ op monitor interval=10 timeout=20 sudo crm configure primitive nc_QAS_ERS azure-lb port=62101 sudo crm configure group g-QAS_ERS fs_QAS_ERS nc_QAS_ERS vip_QAS_ERSZorg ervoor dat de status van het cluster ok is en dat alle resources zijn gestart. Het is niet belangrijk op welk knooppunt de resources worden uitgevoerd.
sudo crm_mon -r # Node anftstsapcl1: standby # Online: [ anftstsapcl2 ] # # Full list of resources: # # stonith-sbd (stonith:external/sbd): Started anftstsapcl2 # Resource Group: g-QAS_ASCS # fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 # nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 # vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 # Resource Group: g-QAS_ERS # fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl2 # nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl2 # vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl2[2] SAP NetWeaver ERS installeren
Installeer SAP NetWeaver ERS als root op het tweede knooppunt met behulp van een virtuele hostnaam die is toe te staan aan het IP-adres van de front-load balancer-configuratie voor de ERS, bijvoorbeeld anftstsapers, 10.1.1.21 en het exemplaarnummer dat u hebt gebruikt voor de test van de load balancer, bijvoorbeeld 01.
U kunt de parameter sapinst gebruiken om SAPINST_REMOTE_ACCESS_USER niet-hoofdgebruiker verbinding te laten maken met sapinst. U kunt parameternamen gebruiken SAPINST_USE_HOSTNAME SAP te installeren met behulp van de virtuele hostnaam.
sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin SAPINST_USE_HOSTNAME=virtual_hostnameNotitie
Gebruik SWPM SP 20 PL 05 of hoger. Bij lagere versies worden de machtigingen niet correct ingesteld en mislukt de installatie.
Als de installatie geen submap kan maken in /usr/sap/QAS /ERS****01, probeert u de eigenaar en groep van de map ERS 01 in te stellen en probeert u het opnieuw.
chown qasadm /usr/sap/QAS/ERS01 chgrp sapsys /usr/sap/QAS/ERS01[1] De ASCS/SCS- en ERS-exemplaarprofielen aanpassen
- ASCS/SCS-profiel
sudo vi /sapmnt/QAS/profile/QAS_ASCS00_anftstsapvh # Change the restart command to a start command #Restart_Program_01 = local $(_EN) pf=$(_PF) Start_Program_01 = local $(_EN) pf=$(_PF) # Add the following lines service/halib = $(DIR_CT_RUN)/saphascriptco.so service/halib_cluster_connector = /usr/bin/sap_suse_cluster_connector # Add the keep alive parameter, if using ENSA1 enque/encni/set_so_keepalive = trueVoor zowel ENSA1 als ENSA2 moet u ervoor zorgen dat de besturingssysteemparameters zijn ingesteld zoals beschreven
keepalivein SAP-notitie 1410736.- ERS-profiel
sudo vi /sapmnt/QAS/profile/QAS_ERS01_anftstsapers # Change the restart command to a start command #Restart_Program_00 = local $(_ER) pf=$(_PFL) NR=$(SCSID) Start_Program_00 = local $(_ER) pf=$(_PFL) NR=$(SCSID) # Add the following lines service/halib = $(DIR_CT_RUN)/saphascriptco.so service/halib_cluster_connector = /usr/bin/sap_suse_cluster_connector # remove Autostart from ERS profile # Autostart = 1[A] Keep Alive configureren
De communicatie tussen de SAP NetWeaver-toepassingsserver en de ASCS/SCS wordt gerouteerd via een software-load balancer. De load balancer inactieve verbindingen verbroken na een configureerbare time-out. Om dit te voorkomen, moet u een parameter instellen in het SAP NetWeaver ASCS/SCS-profiel, als u ENSA1 gebruikt, en de Linux-systeeminstellingen op alle
keepaliveSAP-servers voor zowel ENSA1/ENSA2 wijzigen. Lees SAP Note 1410736 voor meer informatie.# Change the Linux system configuration sudo sysctl net.ipv4.tcp_keepalive_time=300[A] De SAP-gebruikers configureren na de installatie
# Add sidadm to the haclient group sudo usermod -aG haclient qasadm[1] Voeg de ASCS- en ERS SAP-services toe aan het
sapservicebestandVoeg de ASCS-service-vermelding toe aan het tweede knooppunt en kopieer de ERS-service-vermelding naar het eerste knooppunt.
cat /usr/sap/sapservices | grep ASCS00 | sudo ssh anftstsapcl2 "cat >>/usr/sap/sapservices" sudo ssh anftstsapcl2 "cat /usr/sap/sapservices" | grep ERS01 | sudo tee -a /usr/sap/sapservices[1] De SAP-clusterbronnen maken
Als u enqueue server 1 architecture (ENSA1) gebruikt, definieert u de resources als volgt:
sudo crm configure property maintenance-mode="true"
sudo crm configure primitive rsc_sap_QAS_ASCS00 SAPInstance \
operations \$id=rsc_sap_QAS_ASCS00-operations \
op monitor interval=11 timeout=60 on-fail=restart \
params InstanceName=QAS_ASCS00_anftstsapvh START_PROFILE="/sapmnt/QAS/profile/QAS_ASCS00_anftstsapvh" \
AUTOMATIC_RECOVER=false \
meta resource-stickiness=5000 failure-timeout=60 migration-threshold=1 priority=10
sudo crm configure primitive rsc_sap_QAS_ERS01 SAPInstance \
operations \$id=rsc_sap_QAS_ERS01-operations \
op monitor interval=11 timeout=60 on-fail=restart \
params InstanceName=QAS_ERS01_anftstsapers START_PROFILE="/sapmnt/QAS/profile/QAS_ERS01_anftstsapers" AUTOMATIC_RECOVER=false IS_ERS=true \
meta priority=1000
sudo crm configure modgroup g-QAS_ASCS add rsc_sap_QAS_ASCS00
sudo crm configure modgroup g-QAS_ERS add rsc_sap_QAS_ERS01
sudo crm configure colocation col_sap_QAS_no_both -5000: g-QAS_ERS g-QAS_ASCS
sudo crm configure location loc_sap_QAS_failover_to_ers rsc_sap_QAS_ASCS00 rule 2000: runs_ers_QAS eq 1
sudo crm configure order ord_sap_QAS_first_start_ascs Optional: rsc_sap_QAS_ASCS00:start rsc_sap_QAS_ERS01:stop symmetrical=false
sudo crm node online anftstsapcl1
sudo crm configure property maintenance-mode="false"
SAP heeft vanaf SAP NW 7.52 ondersteuning geïntroduceerd voor enqueue server 2, inclusief replicatie. Vanaf ABAP Platform 1809 is enqueue server 2 standaard geïnstalleerd. Zie SAP note 2630416 for enqueue server 2 support (SAP-2630416 voor ondersteuning van enqueue server 2. Als u enqueue server 2 architecture(ENSA2)gebruikt, definieert u de resources als volgt:
sudo crm configure property maintenance-mode="true"
sudo crm configure primitive rsc_sap_QAS_ASCS00 SAPInstance \
operations \$id=rsc_sap_QAS_ASCS00-operations \
op monitor interval=11 timeout=60 on-fail=restart \
params InstanceName=QAS_ASCS00_anftstsapvh START_PROFILE="/sapmnt/QAS/profile/QAS_ASCS00_anftstsapvh" \
AUTOMATIC_RECOVER=false \
meta resource-stickiness=5000
sudo crm configure primitive rsc_sap_QAS_ERS01 SAPInstance \
operations \$id=rsc_sap_QAS_ERS01-operations \
op monitor interval=11 timeout=60 on-fail=restart \
params InstanceName=QAS_ERS01_anftstsapers START_PROFILE="/sapmnt/QAS/profile/QAS_ERS01_anftstsapers" AUTOMATIC_RECOVER=false IS_ERS=true
sudo crm configure modgroup g-QAS_ASCS add rsc_sap_QAS_ASCS00
sudo crm configure modgroup g-QAS_ERS add rsc_sap_QAS_ERS01
sudo crm configure colocation col_sap_QAS_no_both -5000: g-QAS_ERS g-QAS_ASCS
sudo crm configure order ord_sap_QAS_first_start_ascs Optional: rsc_sap_QAS_ASCS00:start rsc_sap_QAS_ERS01:stop symmetrical=false
sudo crm node online anftstsapcl1
sudo crm configure property maintenance-mode="false"
Zie SAP-opmerking als u een upgrade van een oudere versie en overschakelt naar server 2 in de 2641019.
Zorg ervoor dat de status van het cluster ok is en dat alle resources zijn gestart. Het is niet belangrijk op welk knooppunt de resources worden uitgevoerd.
sudo crm_mon -r
# Full list of resources:
#
# stonith-sbd (stonith:external/sbd): Started anftstsapcl2
# Resource Group: g-QAS_ASCS
# fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl1
# nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl1
# vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl1
# rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl1
# Resource Group: g-QAS_ERS
# fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl2
# nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl2
# vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl2
# rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl2
Sap NetWeaver-toepassingsservervoorbereiding
Sommige databases vereisen dat de installatie van het database-exemplaar wordt uitgevoerd op een toepassingsserver. Bereid de virtuele machines van de toepassingsserver voor om ze in deze gevallen te kunnen gebruiken.
Bij de stappen wordt ervan uitgenomen dat u de toepassingsserver installeert op een andere server dan de ASCS/SCS- en HANA-servers. Anders zijn sommige van de onderstaande stappen (zoals het configureren van hostnaamresolutie) niet nodig.
De volgende items hebben het voorvoegsel [A] - van toepassing op zowel PAS als AAS, [P] - alleen van toepassing op PAS of [S] - alleen van toepassing op AAS.
[A] Besturingssysteem configureren
Verklein de grootte van de vervuilde cache. Zie Low write performance on SLES 11/12 servers with large RAM (Lage schrijfprestaties op SLES 11/12-servers met grote RAM-geheugen) voor meer informatie.
sudo vi /etc/sysctl.conf # Change/set the following settings vm.dirty_bytes = 629145600 vm.dirty_background_bytes = 314572800[A] Hostnaamoplossing instellen
U kunt een DNS-server gebruiken of de /etc/hosts op alle knooppunten wijzigen. In dit voorbeeld ziet u hoe u het bestand /etc/hosts gebruikt. Vervang het IP-adres en de hostnaam in de volgende opdrachten
sudo vi /etc/hostsVoeg de volgende regels toe aan /etc/hosts. Wijzig het IP-adres en de hostnaam in uw omgeving
# IP address of the load balancer frontend configuration for SAP NetWeaver ASCS/SCS 10.1.1.20 anftstsapvh # IP address of the load balancer frontend configuration for SAP NetWeaver ERS 10.1.1.21 anftstsapers # IP address of all application servers 10.1.1.15 anftstsapa01 10.1.1.16 anftstsapa02[A] De sapmnt-map maken
sudo mkdir -p /sapmnt/QAS sudo mkdir -p /usr/sap/trans sudo chattr +i /sapmnt/QAS sudo chattr +i /usr/sap/trans[P] De PAS-directory maken
sudo mkdir -p /usr/sap/QAS/D02 sudo chattr +i /usr/sap/QAS/D02[S] De AAS-directory maken
sudo mkdir -p /usr/sap/QAS/D03 sudo chattr +i /usr/sap/QAS/D03[P] Configureren
autofsop PASsudo vi /etc/auto.master # Add the following line to the file, save and exit /- /etc/auto.directAls u NFSv3 gebruikt, maakt u een nieuw bestand met:
sudo vi /etc/auto.direct # Add the following lines to the file, save and exit /sapmnt/QAS -nfsvers=3,nobind 10.1.0.4:/usrsapqas/sapmntQAS /usr/sap/trans -nfsvers=3,nobind 10.1.0.4:/trans /usr/sap/QAS/D02 -nfsvers=3,nobind 10.1.0.4:/usrsapqas/usrsapQASpasAls u NFSv4.1 gebruikt, maakt u een nieuw bestand met:
sudo vi /etc/auto.direct # Add the following lines to the file, save and exit /sapmnt/QAS -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/sapmntQAS /usr/sap/trans -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/trans /usr/sap/QAS/D02 -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/usrsapQASpasStart opnieuw
autofsop om de nieuwe shares te makensudo systemctl enable autofs sudo service autofs restart[P] Configureren
autofsop AASsudo vi /etc/auto.master # Add the following line to the file, save and exit /- /etc/auto.directAls u NFSv3 gebruikt, maakt u een nieuw bestand met:
sudo vi /etc/auto.direct # Add the following lines to the file, save and exit /sapmnt/QAS -nfsvers=3,nobind 10.1.0.4:/usrsapqas/sapmntQAS /usr/sap/trans -nfsvers=3,nobind 10.1.0.4:/trans /usr/sap/QAS/D03 -nfsvers=3,nobind 10.1.0.4:/usrsapqas/usrsapQASaasAls u NFSv4.1 gebruikt, maakt u een nieuw bestand met:
sudo vi /etc/auto.direct # Add the following lines to the file, save and exit /sapmnt/QAS -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/sapmntQAS /usr/sap/trans -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/trans /usr/sap/QAS/D03 -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/usrsapQASaasStart opnieuw
autofsop om de nieuwe shares te makensudo systemctl enable autofs sudo service autofs restart[A] SWAP-bestand configureren
sudo vi /etc/waagent.conf # Set the property ResourceDisk.EnableSwap to y # Create and use swapfile on resource disk. ResourceDisk.EnableSwap=y # Set the size of the SWAP file with property ResourceDisk.SwapSizeMB # The free space of resource disk varies by virtual machine size. Make sure that you do not set a value that is too big. You can check the SWAP space with command swapon # Size of the swapfile. ResourceDisk.SwapSizeMB=2000Start de agent opnieuw op om de wijziging te activeren
sudo service waagent restart
Database installeren
In dit voorbeeld wordt SAP NetWeaver geïnstalleerd op SAP HANA. U kunt elke ondersteunde database voor deze installatie gebruiken. Zie Hoge beschikbaarheid van SAP HANA in Azure voor meer informatie over het installeren van SAP HANA in Azure Virtual Machines (VM's). Zie SAP Note 1928533 voor een lijst met ondersteunde databases.
De installatie van het SAP-database-exemplaar uitvoeren
Installeer het SAP NetWeaver-database-exemplaar als hoofdmap met behulp van een virtuele hostnaam die is toe te staan aan het IP-adres van de load balancer front-endconfiguratie voor de database.
U kunt de parameter sapinst gebruiken om SAPINST_REMOTE_ACCESS_USER niet-hoofdgebruiker verbinding te laten maken met sapinst.
sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin
Installatie van SAP NetWeaver-toepassingsserver
Volg deze stappen om een SAP-toepassingsserver te installeren.
[A] Toepassingsserver voorbereiden Volg de stappen in het hoofdstuk Sap NetWeaver-toepassingsservervoorbereiding hierboven om de toepassingsserver voor te bereiden.
[A] SAP NetWeaver-toepassingsserver installeren Installeer een primaire of aanvullende SAP NetWeaver-toepassingsserver.
U kunt de parameter sapinst gebruiken om SAPINST_REMOTE_ACCESS_USER niet-hoofdgebruiker verbinding te laten maken met sapinst.
sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin[A] Beveiligde opslag SAP HANA bijwerken
Werk het beveiligde SAP HANA bij om te wijzen naar de virtuele naam van de installatie van SAP HANA systeemreplicatie.
Voer de volgende opdracht uit om de vermeldingen weer te geven
hdbuserstore ListHiermee worden alle vermeldingen weergegeven en moeten deze er ongeveer uitzien als
DATA FILE : /home/qasadm/.hdb/anftstsapa01/SSFS_HDB.DAT KEY FILE : /home/qasadm/.hdb/anftstsapa01/SSFS_HDB.KEY KEY DEFAULT ENV : 10.1.1.5:30313 USER: SAPABAP1 DATABASE: QASIn de uitvoer ziet u dat het IP-adres van de standaardinvoer verwijst naar de virtuele machine en niet naar load balancer IP-adres van de virtuele machine. Deze vermelding moet worden gewijzigd om te wijzen naar de virtuele hostnaam van de load balancer. Zorg ervoor dat u dezelfde poort (30313 in de bovenstaande uitvoer) en databasenaam (QAS in de bovenstaande uitvoer) gebruikt.
su - qasadm hdbuserstore SET DEFAULT qasdb:30313@QAS SAPABAP1 <password of ABAP schema>
De clusterinstallatie testen
De volgende tests zijn een kopie van de test cases in de best practices-handleidingen van SUSE. Ze worden voor uw gemak gekopieerd. Lees altijd ook de handleidingen met best practices en voer alle aanvullende tests uit die mogelijk zijn toegevoegd.
HAGetFailoverConfig, HACheckConfig en HACheckFailoverConfig testen
Voer de volgende opdrachten uit als <sapsid> adm op het knooppunt waarop het ASCS-exemplaar momenteel wordt uitgevoerd. Als de opdrachten mislukken met FAIL: Onvoldoende geheugen, kan dit worden veroorzaakt door streepjes in uw hostnaam. Dit is een bekend probleem en wordt opgelost door SUSE in het pakket sap-suse-cluster-connector.
anftstsapcl1:qasadm 52> sapcontrol -nr 00 -function HAGetFailoverConfig 07.03.2019 20:08:59 HAGetFailoverConfig OK HAActive: TRUE HAProductVersion: SUSE Linux Enterprise Server for SAP Applications 12 SP3 HASAPInterfaceVersion: SUSE Linux Enterprise Server for SAP Applications 12 SP3 (sap_suse_cluster_connector 3.1.0) HADocumentation: https://www.suse.com/products/sles-for-sap/resource-library/sap-best-practices/ HAActiveNode: anftstsapcl1 HANodes: anftstsapcl1, anftstsapcl2 anftstsapcl1:qasadm 54> sapcontrol -nr 00 -function HACheckConfig 07.03.2019 23:28:29 HACheckConfig OK state, category, description, comment SUCCESS, SAP CONFIGURATION, Redundant ABAP instance configuration, 2 ABAP instances detected SUCCESS, SAP CONFIGURATION, Redundant Java instance configuration, 0 Java instances detected SUCCESS, SAP CONFIGURATION, Enqueue separation, All Enqueue server separated from application server SUCCESS, SAP CONFIGURATION, MessageServer separation, All MessageServer separated from application server SUCCESS, SAP CONFIGURATION, ABAP instances on multiple hosts, ABAP instances on multiple hosts detected SUCCESS, SAP CONFIGURATION, Redundant ABAP SPOOL service configuration, 2 ABAP instances with SPOOL service detected SUCCESS, SAP STATE, Redundant ABAP SPOOL service state, 2 ABAP instances with active SPOOL service detected SUCCESS, SAP STATE, ABAP instances with ABAP SPOOL service on multiple hosts, ABAP instances with active ABAP SPOOL service on multiple hosts detected SUCCESS, SAP CONFIGURATION, Redundant ABAP BATCH service configuration, 2 ABAP instances with BATCH service detected SUCCESS, SAP STATE, Redundant ABAP BATCH service state, 2 ABAP instances with active BATCH service detected SUCCESS, SAP STATE, ABAP instances with ABAP BATCH service on multiple hosts, ABAP instances with active ABAP BATCH service on multiple hosts detected SUCCESS, SAP CONFIGURATION, Redundant ABAP DIALOG service configuration, 2 ABAP instances with DIALOG service detected SUCCESS, SAP STATE, Redundant ABAP DIALOG service state, 2 ABAP instances with active DIALOG service detected SUCCESS, SAP STATE, ABAP instances with ABAP DIALOG service on multiple hosts, ABAP instances with active ABAP DIALOG service on multiple hosts detected SUCCESS, SAP CONFIGURATION, Redundant ABAP UPDATE service configuration, 2 ABAP instances with UPDATE service detected SUCCESS, SAP STATE, Redundant ABAP UPDATE service state, 2 ABAP instances with active UPDATE service detected SUCCESS, SAP STATE, ABAP instances with ABAP UPDATE service on multiple hosts, ABAP instances with active ABAP UPDATE service on multiple hosts detected SUCCESS, SAP STATE, SCS instance running, SCS instance status ok SUCCESS, SAP CONFIGURATION, SAPInstance RA sufficient version (anftstsapvh_QAS_00), SAPInstance includes is-ers patch SUCCESS, SAP CONFIGURATION, Enqueue replication (anftstsapvh_QAS_00), Enqueue replication enabled SUCCESS, SAP STATE, Enqueue replication state (anftstsapvh_QAS_00), Enqueue replication active anftstsapcl1:qasadm 55> sapcontrol -nr 00 -function HACheckFailoverConfig 07.03.2019 23:30:48 HACheckFailoverConfig OK state, category, description, comment SUCCESS, SAP CONFIGURATION, SAPInstance RA sufficient version, SAPInstance includes is-ers patchHet ASCS-exemplaar handmatig migreren
Resourcetoestand voordat u de test start:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rscsap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Starting anftstsapcl1Voer de volgende opdrachten uit als root om het ASCS-exemplaar te migreren.
anftstsapcl1:~ # crm resource migrate rsc_sap_QAS_ASCS00 force INFO: Move constraint created for rsc_sap_QAS_ASCS00 anftstsapcl1:~ # crm resource unmigrate rsc_sap_QAS_ASCS00 INFO: Removed migration constraints for rsc_sap_QAS_ASCS00 # Remove failed actions for the ERS that occurred as part of the migration anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ERS01Resourcetoestand na de test:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl1 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl2HAFailoverToNode testen
Resourcetoestand voordat u de test start:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl1 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl2Voer de volgende opdrachten uit als <sapsid> adm om het ASCS-exemplaar te migreren.
anftstsapcl1:qasadm 53> sapcontrol -nr 00 -host anftstsapvh -user qasadm <password> -function HAFailoverToNode "" # run as root # Remove failed actions for the ERS that occurred as part of the migration anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ERS01 # Remove migration constraints anftstsapcl1:~ # crm resource clear rsc_sap_QAS_ASCS00 #INFO: Removed migration constraints for rsc_sap_QAS_ASCS00Resourcetoestand na de test:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Knooppuntcrash simuleren
Resourcetoestand voordat u de test start:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Voer de volgende opdracht uit als hoofdmap op het knooppunt waarop het ASCS-exemplaar wordt uitgevoerd
anftstsapcl2:~ # echo b > /proc/sysrq-triggerAls u SBD gebruikt, zou Pacemaker niet automatisch moeten starten op het knooppunt dat wordt omgebracht. De status nadat het knooppunt opnieuw is gestart, moet er als deze uitzien.
Online: Online: [ anftstsapcl1 ] OFFLINE: [ anftstsapcl2 ] Full list of resources: Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl1 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1 Failed Actions: * rsc_sap_QAS_ERS01_monitor_11000 on anftstsapcl1 'not running' (7): call=166, status=complete, exitreason='', last-rc-change='Fri Mar 8 18:26:10 2019', queued=0ms, exec=0msGebruik de volgende opdrachten om Pacemaker te starten op het uitgevallen knooppunt, de SBD-berichten op te schonen en de mislukte resources op te schonen.
# run as root # list the SBD device(s) anftstsapcl2:~ # cat /etc/sysconfig/sbd | grep SBD_DEVICE= # SBD_DEVICE="/dev/disk/by-id/scsi-36001405b730e31e7d5a4516a2a697dcf;/dev/disk/by-id/scsi-36001405f69d7ed91ef54461a442c676e;/dev/disk/by-id/scsi-360014058e5f335f2567488882f3a2c3a" anftstsapcl2:~ # sbd -d /dev/disk/by-id/scsi-36001405772fe8401e6240c985857e11 -d /dev/disk/by-id/scsi-36001405f69d7ed91ef54461a442c676e -d /dev/disk/by-id/scsi-360014058e5f335f2567488882f3a2c3a message anftstsapcl2 clear anftstsapcl2:~ # systemctl start pacemaker anftstsapcl2:~ # crm resource cleanup rsc_sap_QAS_ASCS00 anftstsapcl2:~ # crm resource cleanup rsc_sap_QAS_ERS01Resourcetoestand na de test:
Full list of resources: Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl1 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl2Handmatig opnieuw opstarten van ASCS-exemplaar testen
Resourcetoestand voordat u de test start:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Maak een enqueue-vergrendeling door, bijvoorbeeld een gebruiker bewerken in transactie su01. Voer de volgende opdrachten uit als <sapsid adm op het > knooppunt waarop het ASCS-exemplaar wordt uitgevoerd. De opdrachten stoppen het ASCS-exemplaar en starten het opnieuw. Als u de architectuur van enqueue server 1 gebruikt, gaat de vergrendeling in dequeu naar verwachting verloren in deze test. Als u server 2-architectuur in dequeuue gebruikt, blijft de enqueue behouden.
anftstsapcl2:qasadm 51> sapcontrol -nr 00 -function StopWait 600 2Het ASCS-exemplaar moet nu worden uitgeschakeld in Pacemaker
rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Stopped (disabled)Start het ASCS-exemplaar opnieuw op hetzelfde knooppunt.
anftstsapcl2:qasadm 52> sapcontrol -nr 00 -function StartWait 600 2De enqueue-vergrendeling van transactie su01 moet verloren gaan als het gebruik van de architectuur voor serverreplicatie 1 en de back-end opnieuw moet zijn ingesteld. Resourcetoestand na de test:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Proces berichtserver killen
Resourcetoestand voordat u de test start:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Voer de volgende opdrachten uit als root om het proces van de berichtenserver te identificeren en te killen.
anftstsapcl2:~ # pgrep ms.sapQAS | xargs kill -9Als u de berichtenserver slechts één keer afmeldt, wordt deze opnieuw gestart door
sapstart. Als u het vaak genoeg afmaak, verplaatst Pacemaker het ASCS-exemplaar uiteindelijk naar het andere knooppunt. Voer de volgende opdrachten uit als root om de resourcetoestand van het ASCS- en ERS-exemplaar na de test op te schonen.anftstsapcl2:~ # crm resource cleanup rsc_sap_QAS_ASCS00 anftstsapcl2:~ # crm resource cleanup rsc_sap_QAS_ERS01Resourcetoestand na de test:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl1 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl2Serverproces voor het in dequequen zetten van gegevens
Resourcetoestand voordat u de test start:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl1 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl2Voer de volgende opdrachten uit als root op het knooppunt waarop het ASCS-exemplaar wordt uitgevoerd om de server voor het in dequeueren te killen.
#If using ENSA1 anftstsapcl1:~ # pgrep en.sapQAS | xargs kill -9 #If using ENSA2 anftstsapcl1:~ # pgrep -f enq.sapQAS | xargs kill -9In het geval van ENSA1 moet er onmiddellijk een fail over naar het andere knooppunt worden overgeslagen. Nadat het ASCS-exemplaar is gestart, moet er ook een fail-over voor het ERS-exemplaar worden gebruikt. Voer de volgende opdrachten uit als root om de resourcetoestand van het ASCS- en ERS-exemplaar na de test op te schonen.
anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ASCS00 anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ERS01Resourcetoestand na de test:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Het proces van de replicatieserver voor het in dequequen zetten van gegevens
Resourcetoestand voordat u de test start:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Voer de volgende opdracht uit als hoofdmap op het knooppunt waarop het ERS-exemplaar wordt uitgevoerd om het proces van de replicatieserver voor het in de rij plaatsen te voltooien.
anftstsapcl1:~ # pgrep er.sapQAS | xargs kill -9Als u de opdracht slechts eenmaal uit te voeren,
sapstartwordt het proces opnieuw gestart. Als u het proces vaak genoeg hebt uitgevoerd, wordt het proces niet opnieuw gestart en heeft desapstartresource de status Gestopt. Voer de volgende opdrachten uit als root om de resourcetoestand van het ERS-exemplaar na de test op te schonen.anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ERS01Resourcetoestand na de test:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Het sapstartsrv-proces voor het in dequequen inschrijven van gegevens in een kill-omgeving
Resourcetoestand voordat u de test start:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Voer de volgende opdrachten uit als root op het knooppunt waarop de ASCS wordt uitgevoerd.
anftstsapcl2:~ # pgrep -fl ASCS00.*sapstartsrv #67625 sapstartsrv anftstsapcl2:~ # kill -9 67625Het sapstartsrv-proces moet altijd opnieuw worden gestart door de Pacemaker-resourceagent. Resourcetoestand na de test:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1
Volgende stappen
- Handleiding ha for SAP NW on Azure VMs on SLES for SAP applications multi-SID (Ha voor SAP NW op Azure-VM's op SLES voor SAP-toepassingen met meerdere SID's)
- Azure Virtual Machines en implementatie voor SAP
- Azure Virtual Machines-implementatie voor SAP
- Azure Virtual Machines DBMS-implementatie voor SAP
- Zie Hoge beschikbaarheid van SAP HANA in Azure Virtual Machines (VM's) voor meer informatie over het tot stand brengen van hoge beschikbaarheid en het plannen van herstel na noodherstel van SAP HANA op Azure-VM's