Hög tillgänglighet för SAP NetWeaver på virtuella Azure-datorer på SUSE Linux Enterprise Server med Azure NetApp Files för SAP-program
I den här artikeln beskrivs hur du distribuerar de virtuella datorerna, konfigurerar de virtuella datorerna, installerar klusterramverket och installerar ett SAP NetWeaver 7.50-system med hög Azure NetApp Files. I exempelkonfigurationerna, installationskommandona osv. är ASCS-instansen nummer 00, ERS-instansnumret 01, den primära programinstansen (PAS) är 02 och programinstansen (AAS) är 03. SAP System-ID QAS används.
Den här artikeln förklarar hur du uppnår hög tillgänglighet för SAP NetWeaver-program med Azure NetApp Files. Databaslagret beskrivs inte i detalj i den här artikeln.
Läs följande SAP-anteckningar och -artiklar först:
- Azure NetApp Files dokumentation
- SAP Note 1928533, som har:
- Lista över storlekar på virtuella Azure-datorer som stöds för distribution av SAP-programvara
- Viktig kapacitetsinformation för storlekar på virtuella Azure-datorer
- SAP-programvara som stöds, operativsystem (OS) och databaskombinationer
- SAP-kernelversion krävs för Windows och Linux på Microsoft Azure
- SAP Note 2015553 listar kraven för SAP-programvarudistributioner som stöds i Azure.
- SAP Note 2205917 har rekommenderade os-inställningar för SUSE Linux Enterprise Server för SAP-program
- SAP Note 1944799 har SAP HANA Guidelines för SUSE Linux Enterprise Server för SAP-program
- SAP Note 2178632 innehåller detaljerad information om alla övervakningsmått som rapporterats för SAP i Azure.
- SAP Note 2191498 har den version av SAP-värdagenten som krävs för Linux i Azure.
- SAP Note 2243692 har information om SAP-licensiering på Linux i Azure.
- SAP Note 1984787 har allmän information om SUSE Linux Enterprise Server 12.
- SAP Note 1999351 har ytterligare felsökningsinformation för Azure Enhanced Monitoring Extension för SAP.
- SAP Community WIKI]( https://wiki.scn.sap.com/wiki/display/HOME/SAPonLinuxNotes) har alla nödvändiga SAP-anteckningar för Linux.
- Azure Virtual Machines planering och implementering för SAP på Linux
- Azure Virtual Machines-distribution för SAP på Linux
- Azure Virtual Machines DBMS-distribution för SAP på Linux
- Metodguider för SUSE SAP HA Guiderna innehåller all information som krävs för att konfigurera Netweaver HA och SAP HANA systemreplikering lokalt. Använd dessa guider som en allmän baslinje. De ger mycket mer detaljerad information.
- Versionsanteckningar för SUSE-tillägg 12 SP3 med hög tillgänglighet
- NetApp SAP-program på Microsoft Azure med Azure NetApp Files
Översikt
Hög tillgänglighet (HA) för centrala SAP Netweaver-tjänster kräver delad lagring. För att uppnå detta på SUSE Linux så här långt var det nödvändigt att skapa separata NFS-kluster med hög tillgänglig.
Nu är det möjligt att uppnå SAP Netweaver HA med hjälp av delad lagring, distribuerad på Azure NetApp Files. Med Azure NetApp Files för den delade lagringen eliminerar du behovet av ytterligare NFS-kluster. Pacemaker krävs fortfarande för HÖG PÅ SAP Netweaver Central Services (ASCS/SCS).

SAP NetWeaver ASCS, SAP NetWeaver SCS, SAP NetWeaver ERS och SAP HANA-databasen använder virtuella värdnamn och virtuella IP-adresser. I Azure krävs en lastbalanserare för att använda en virtuell IP-adress. Vi rekommenderar att du använder standardlastbalanserare. I följande lista visas konfigurationen av (A)SCS- och ERS-lastbalanserare.
(A) SCS
- Konfiguration av frontend
- IP-adress 10.1.1.20
- Avsökningsport
- Port 620 < nr >
- Regler för belastningsutjämning
- Om du använder Standard Load Balancer väljer du HA-portar
- Om du använder Basic Load Balancer skapar du belastningsutjämningsregler för följande portar
- 32 < nr > TCP
- 36 < nr > TCP
- 39 < nr > TCP
- 81 < nr > TCP
- 5 < nr > 13 TCP
- 5 < nr > 14 TCP
- 5 < nr > 16 TCP
ERS
Konfiguration av frontend
- IP-adress 10.1.1.21
Avsökningsport
- Port 621 < nr >
Regler för belastningsutjämning
- Om du använder Standard Load Balancer väljer du HA-portar
- Om du använder Basic Load Balancer skapar du belastningsutjämningsregler för följande portar
- 32 < nr > TCP
- 33 < nr > TCP
- 5 < nr > 13 TCP
- 5 < nr > 14 TCP
- 5 < nr > 16 TCP
Serverkonfiguration
- Ansluten till primära nätverksgränssnitt för alla virtuella datorer som ska ingå i (A)SCS/ERS-klustret
Konfigurera Azure NetApp Files infrastruktur
SAP NetWeaver kräver delad lagring för transport- och profilkatalogen. Innan du fortsätter med konfigurationen för Azure NetApp Files-infrastrukturen bör du bekanta dig med Azure NetApp Files dokumentation. Kontrollera om din valda Azure-region erbjuder Azure NetApp Files. Följande länk visar tillgängligheten för Azure NetApp Files Azure-region: Azure NetApp Files tillgänglighet per Azure-region.
Azure NetApp-filer är tillgängliga i flera Azure-regioner.
Distribuera Azure NetApp Files resurser
Stegen förutsätter att du redan har distribuerat Azure Virtual Network. De Azure NetApp Files resurserna och de virtuella datorerna, där Azure NetApp Files-resurserna ska monteras, måste distribueras i samma Azure Virtual Network eller i peer-erade virtuella Azure-nätverk.
Skapa NetApp-kontot i den valda Azure-regionen genom att följa anvisningarna för att skapa NetApp-kontot.
Konfigurera Azure NetApp Files kapacitetspoolen genom att följa anvisningarna för hur du Azure NetApp Files konfigurera en kapacitetspool.
SAP Netweaver-arkitekturen som presenteras i den här artikeln använder en Azure NetApp Files kapacitetspool, Premium SKU. Vi rekommenderar Azure NetApp Files Premium SKU för SAP Netweaver-programarbetsbelastning på Azure.Delegera ett undernät till Azure NetApp-filer enligt beskrivningen i anvisningarna Delegera ett undernät till Azure NetApp Files.
Distribuera Azure NetApp Files volymer genom att följa anvisningarna för att skapa en volym för Azure NetApp Files. Distribuera volymerna i det Azure NetApp Files undernätet. IP-adresserna för Azure NetApp-volymerna tilldelas automatiskt. Tänk på att resurserna Azure NetApp Files Azure och de virtuella Azure-datorerna måste finnas i samma Azure-Virtual Network eller i peer-erade virtuella Azure-nätverk. I det här exemplet använder vi två Azure NetApp Files volymer: sapQAS och trans. Filsökvägarna som monteras på motsvarande monteringspunkter är /usrsapqas/sapmntQAS, /usrsapqas/usrsapQASsys osv.
- volume sapQAS (nfs://10.1.0.4/usrsapqas/sapmntQAS)
- volume sapQAS (nfs://10.1.0.4/usrsapqas/usrsapQASascs)
- volume sapQAS (nfs://10.1.0.4/usrsapqas/usrsapQASsys)
- volume sapQAS (nfs://10.1.0.4/usrsapqas/usrsapQASers)
- volymtrans (nfs://10.1.0.4/trans)
- volume sapQAS (nfs://10.1.0.4/usrsapqas/usrsapQASpas)
- volume sapQAS (nfs://10.1.0.4/usrsapqas/usrsapQASaas)
I det här exemplet använde vi Azure NetApp Files för alla SAP Netweaver-filsystem för att visa hur Azure NetApp Files kan användas. SAP-filsystemen som inte behöver monteras via NFS kan också distribueras som Azure-disklagring. I det här exemplet måste a-e finnas på Azure NetApp Files och f-g (d.v.s. /usr/sap/QAS/D02, /usr/sap/QAS/D03) kan distribueras som Azure-disklagring.
Att tänka på
När du Azure NetApp Files för SAP Netweaver i SUSE-arkitekturen för hög tillgänglighet bör du vara medveten om följande viktiga överväganden:
- Den minsta kapacitetspoolen är 4 TiB. Storleken på kapacitetspoolen kan ökas i steg om 1 TiB.
- Minimivolymen är 100 GiB
- Azure NetApp Files och alla virtuella datorer, där Azure NetApp Files-volymer ska monteras, måste finnas i samma Azure-Virtual Network eller i peer-ade virtuella nätverk i samma region. Azure NetApp Files åtkomst via VNET-peering i samma region stöds nu. Azure NetApp-åtkomst via global peering stöds inte ännu.
- Det valda virtuella nätverket måste ha ett undernät som delegerats till Azure NetApp Files.
- Azure NetApp Files erbjuder exportprincip:du kan styra de tillåtna klienterna, åtkomsttypen (skriv&skyddade, skrivskyddade, skrivskyddade osv.).
- Azure NetApp Files är inte zonmedveten ännu. För Azure NetApp Files inte distribueras i alla tillgänglighetszoner i en Azure-region. Var medveten om de potentiella fördröjningskonsekvenserna i vissa Azure-regioner.
- Azure NetApp Files kan distribueras som NFSv3- eller NFSv4.1-volymer. Båda protokollen stöds för SAP-programlagret (ASCS/ERS, SAP-programservrar).
Distribuera virtuella Linux-datorer manuellt via Azure Portal
Först måste du skapa Azure NetApp Files volymerna. Distribuera de virtuella datorerna. Därefter skapar du en lastbalanserare och använder de virtuella datorerna i serverpoolerna.
- Skapa en resursgrupp
- Skapa ett virtuellt nätverk
- Skapa en tillgänglighetsuppsättning för ASCS
Ange högsta uppdateringsdomän - Skapa virtuell dator 1
Använd minst SLES4SAP 12 SP3, i det här exemplet används SLES4SAP 12 SP3-avbildningen
Välj Tillgänglighetsuppsättning som skapades tidigare för ASCS - Skapa virtuell dator 2
Använd minst SLES4SAP 12 SP3, i det här exemplet används SLES4SAP 12 SP3-avbildningen
Välj Tillgänglighetsuppsättning som skapades tidigare för ASCS - Skapa en tillgänglighetsuppsättning för SAP-programinstanserna (PAS, AAS)
Ange högsta uppdateringsdomän - Skapa virtuell dator 3
Använd minst SLES4SAP 12 SP3, i det här exemplet används SLES4SAP 12 SP3-avbildningen
Välj tillgänglighetsuppsättning som skapades tidigare för PAS/AAS - Skapa virtuell dator 4
Använd minst SLES4SAP 12 SP3, i det här exemplet används SLES4SAP 12 SP3-avbildningen
Välj tillgänglighetsuppsättning som skapades tidigare för PAS/AAS
Inaktivera ID-mappning (om du använder NFSv4.1)
Anvisningarna i det här avsnittet gäller endast om du använder Azure NetApp Files med NFSv4.1-protokoll. Utför konfigurationen på alla virtuella datorer, där Azure NetApp Files NFSv4.1-volymer monteras.
Kontrollera NFS-domäninställningen. Kontrollera att domänen är konfigurerad som standarddomänen Azure NetApp Files, det vill säga att
defaultv4iddomain.commappningen är inställd på ingen.Viktigt
Se till att ange NFS-domänen i på den virtuella datorn så att den matchar
/etc/idmapd.confstandarddomänkonfigurationen Azure NetApp Files:defaultv4iddomain.com. Om det finns ett matchningsfel mellan domänkonfigurationen på NFS-klienten (dvs. den virtuella datorn) och NFS-servern, d.v.s. Azure NetApp-konfigurationen, visas behörigheterna för filer på Azure NetApp-volymer som är monterade på de virtuella datorerna somnobody.sudo cat /etc/idmapd.conf # Example [General] Verbosity = 0 Pipefs-Directory = /var/lib/nfs/rpc_pipefs Domain = defaultv4iddomain.com [Mapping] Nobody-User = nobody Nobody-Group = nobody[A] Verifiera
nfs4_disable_idmapping. Det ska vara inställt på Y. Kör monteringskommandotnfs4_disable_idmappingför att skapa katalogstrukturen där finns. Du kommer inte att kunna skapa katalogen manuellt under /sys/modules eftersom åtkomsten är reserverad för kerneln/drivrutinerna.# Check nfs4_disable_idmapping cat /sys/module/nfs/parameters/nfs4_disable_idmapping # If you need to set nfs4_disable_idmapping to Y mkdir /mnt/tmp mount 10.1.0.4:/sapmnt/qas /mnt/tmp umount /mnt/tmp echo "Y" > /sys/module/nfs/parameters/nfs4_disable_idmapping # Make the configuration permanent echo "options nfs nfs4_disable_idmapping=Y" >> /etc/modprobe.d/nfs.conf
Konfigurera (A)SCS
I det här exemplet distribuerades resurserna manuellt via Azure Portal .
Distribuera Azure Load Balancer manuellt via Azure Portal
Först måste du skapa Azure NetApp Files volymerna. Distribuera de virtuella datorerna. Därefter skapar du en lastbalanserare och använder de virtuella datorerna i serverpoolen.
- Skapa lastbalanserare (intern, standard):
- Skapa IP-adresserna för frontend
- IP-adress 10.1.1.20 för ASCS
- Öppna lastbalanseraren, välj IP-adresspool för frontend och klicka på Lägg till
- Ange namnet på den nya IP-adresspoolen för frontend (till exempel frontend. QAS. ASCS)
- Ange Tilldelning till Statisk och ange IP-adressen (till exempel 10.1.1.20)
- Klicka på OK
- IP-adress 10.1.1.21 för ASCS ERS
- Upprepa stegen ovan under "a" för att skapa en IP-adress för ERS (till exempel 10.1.1.21 och frontend. QAS. ERS)
- IP-adress 10.1.1.20 för ASCS
- Skapa serverdelspoolen
- Öppna lastbalanseraren, välj backend-pooler och klicka på Lägg till
- Ange namnet på den nya backend-poolen (till exempel backend. QAS)
- Klicka på Lägg till en virtuell dator.
- Välj Virtuell dator
- Välj de virtuella datorerna i (A)SCS-klustret och deras IP-adresser.
- Klicka på Lägg till
- Skapa hälsoavsökningarna
- Port 620 00 för ASCS
- Öppna lastbalanseraren, välj hälsoavsökningar och klicka på Lägg till
- Ange namnet på den nya hälsoavsökningen (till exempel hälsa. QAS. ASCS)
- Välj TCP som protokoll, port 620 00, behåll Intervall 5 och Tröskelvärde för ej feltillstånd 2
- Klicka på OK
- Port 621 01 för ASCS ERS
- Upprepa stegen ovan under "c" för att skapa en hälsoavsökning för ERS (till exempel 621 01 och hälsa. QAS. ERS)
- Port 620 00 för ASCS
- Regler för belastningsutjämning
- Skapa en backend-pool för ASCS
- Öppna lastbalanseraren, välj Lastbalanseringsregler och klicka på Lägg till
- Ange namnet på den nya lastbalanseringsregeln (till exempel lb. QAS. ASCS)
- Välj IP-adressen för frontend för ASCS, backend-poolen och hälsoavsökningen som du skapade tidigare (till exempel frontend. QAS. ASCS, backend. QAS och hälsa. QAS. ASCS)
- Välj HA-portar
- Se till att aktivera flytande IP
- Klicka på OK
- Upprepa stegen ovan för att skapa belastningsutjämningsregler för ERS (till exempel lb. QAS. ERS)
- Skapa en backend-pool för ASCS
- Skapa IP-adresserna för frontend
- Om ditt scenario kräver en grundläggande lastbalanserare (intern) kan du också följa dessa steg:
Skapa IP-adresserna för frontend
- IP-adress 10.1.1.20 för ASCS
- Öppna lastbalanseraren, välj IP-adresspool för frontend och klicka på Lägg till
- Ange namnet på den nya IP-adresspoolen för frontend (till exempel frontend. QAS. ASCS)
- Ange Tilldelning till Statisk och ange IP-adressen (till exempel 10.1.1.20)
- Klicka på OK
- IP-adress 10.1.1.21 för ASCS ERS
- Upprepa stegen ovan under "a" för att skapa en IP-adress för ERS (till exempel 10.1.1.21 och frontend. QAS. ERS)
- IP-adress 10.1.1.20 för ASCS
Skapa serverdelspoolen
- Öppna lastbalanseraren, välj backend-pooler och klicka på Lägg till
- Ange namnet på den nya backend-poolen (till exempel backend. QAS)
- Klicka på Lägg till en virtuell dator.
- Välj den tillgänglighetsuppsättning som du skapade tidigare för ASCS
- Välj de virtuella datorerna i (A)SCS-klustret
- Klicka på OK
Skapa hälsoavsökningarna
- Port 620 00 för ASCS
- Öppna lastbalanseraren, välj hälsoavsökningar och klicka på Lägg till
- Ange namnet på den nya hälsoavsökningen (till exempel hälsa. QAS. ASCS)
- Välj TCP som protokoll, port 620 00, behåll Intervall 5 och Tröskelvärde för ej feltillstånd 2
- Klicka på OK
- Port 621 01 för ASCS ERS
- Upprepa stegen ovan under "c" för att skapa en hälsoavsökning för ERS (till exempel 621 01 och hälsa. QAS. ERS)
- Port 620 00 för ASCS
Regler för belastningsutjämning
- 32 00 TCP för ASCS
- Öppna lastbalanseraren, välj Lastbalanseringsregler och klicka på Lägg till
- Ange namnet på den nya lastbalanseringsregeln (till exempel lb. QAS. ASCS.3200)
- Välj IP-adressen för frontend för ASCS, backend-poolen och hälsoavsökningen som du skapade tidigare (till exempel frontend. QAS. ASCS)
- Behåll protokollet TCP och ange port 3200
- Öka tidsgränsen för inaktivitet till 30 minuter
- Se till att aktivera flytande IP
- Klicka på OK
- Ytterligare portar för ASCS
- Upprepa stegen ovan under "d" för portarna 36 00, 39 00, 81 00, 5 00 13, 5 00 14, 5 00 16 och TCP för ASCS
- Ytterligare portar för ASCS ERS
- Upprepa stegen ovan under "d" för portarna 32 01, 33 01, 5 01 13, 5 01 14, 5 01 16 och TCP för ASCS ERS
Viktigt
Flytande IP stöds inte på en sekundär IP-konfiguration för nätverkskort i scenarier för belastningsutjämning. Mer information finns i Begränsningar för Azure Load Balancer. Om du behöver ytterligare IP-adress för den virtuella datorn distribuerar du ett andra nätverkskort.
Anteckning
När virtuella datorer utan offentliga IP-adresser placeras i serverpoolen för intern (ingen offentlig IP-adress) Standard Azure-lastbalanserare, kommer det inte att finnas någon utgående Internetanslutning, såvida inte ytterligare konfiguration utförs för att tillåta routning till offentliga slutpunkter. Mer information om hur du uppnår utgående anslutningar finns i Offentlig slutpunktsanslutning för Virtual Machines med Azure Standard Load Balancer i SAP-scenarier med hög tillgänglighet.
Viktigt
Aktivera inte TCP-tidsstämplar på virtuella Azure-datorer som placerats bakom Azure Load Balancer. Om DU aktiverar TCP-tidsstämplar misslyckas hälsoavsökningarna. Ange parametern net.ipv4.tcp_timestamps till 0. Mer information finns i Load Balancer hälsoavsökningar.
- 32 00 TCP för ASCS
Skapa pacemakerkluster
Följ stegen i Konfigurera pacemaker på en SUSE Linux Enterprise Server Azure för att skapa ett grundläggande Pacemaker-kluster för den här (A)SCS-servern.
Installation
Följande objekt föregås av antingen [A] – gäller för alla noder, [1] – gäller endast för nod 1 eller [2] – gäller endast för nod 2.
[A] Installera SUSE Connector
sudo zypper install sap-suse-cluster-connectorAnteckning
Det kända problemet med att använda ett bindestreck i värdnamn har åtgärdats med version 3.1.1 av paketet sap-suse-cluster-connector. Kontrollera att du använder minst version 3.1.1 av paketet sap-suse-cluster-connector om du använder klusternoder med bindestreck i värdnamnet. Annars fungerar inte klustret.
Kontrollera att du har installerat den nya versionen av SAP SUSE-klusteranslutningsappen. Den gamla heter sap_suse_cluster_connector och den nya heter sap-suse-cluster-connector.
sudo zypper info sap-suse-cluster-connector # Information for package sap-suse-cluster-connector: # --------------------------------------------------- # Repository : SLE-12-SP3-SAP-Updates # Name : sap-suse-cluster-connector # Version : 3.1.0-8.1 # Arch : noarch # Vendor : SUSE LLC <https://www.suse.com/> # Support Level : Level 3 # Installed Size : 45.6 KiB # Installed : Yes # Status : up-to-date # Source package : sap-suse-cluster-connector-3.1.0-8.1.src # Summary : SUSE High Availability Setup for SAP Products[A] Uppdatera SAP-resursagenter
Det krävs en korrigering för paketet resursagenter för att använda den nya konfigurationen, som beskrivs i den här artikeln. Du kan kontrollera om korrigeringen redan har installerats med följande kommando
sudo grep 'parameter name="IS_ERS"' /usr/lib/ocf/resource.d/heartbeat/SAPInstanceUtdata bör se ut ungefär så här:
<parameter name="IS_ERS" unique="0" required="0">Om grep-kommandot inte hittar parametern IS_ERS måste du installera korrigeringen som visas på SUSE-nedladdningssidan
# example for patch for SLES 12 SP1 sudo zypper in -t patch SUSE-SLE-HA-12-SP1-2017-885=1 # example for patch for SLES 12 SP2 sudo zypper in -t patch SUSE-SLE-HA-12-SP2-2017-886=1[A] Konfigurera värdnamnsmatchning
Du kan antingen använda en DNS-server eller ändra /etc/hosts på alla noder. Det här exemplet visar hur du använder filen /etc/hosts. Ersätt IP-adressen och värdnamnet i följande kommandon
sudo vi /etc/hostsInfoga följande rader i /etc/hosts. Ändra IP-adressen och värdnamnet så att de matchar din miljö
# IP address of cluster node 1 10.1.1.18 anftstsapcl1 # IP address of cluster node 2 10.1.1.6 anftstsapcl2 # IP address of the load balancer frontend configuration for SAP Netweaver ASCS 10.1.1.20 anftstsapvh # IP address of the load balancer frontend configuration for SAP Netweaver ERS 10.1.1.21 anftstsapers[1] Skapa SAP-kataloger på Azure NetApp Files volymen.
Montera tillfälligt Azure NetApp Files på någon av de virtuella datorerna och skapa SAP-katalogerna (filsökvägarna).# mount temporarily the volume sudo mkdir -p /saptmp # If using NFSv3 sudo mount -t nfs -o rw,hard,rsize=65536,wsize=65536,vers=3,tcp 10.1.0.4:/sapQAS /saptmp # If using NFSv4.1 sudo mount -t nfs -o rw,hard,rsize=65536,wsize=65536,vers=4.1,sec=sys,tcp 10.1.0.4:/sapQAS /saptmp # create the SAP directories sudo cd /saptmp sudo mkdir -p sapmntQAS sudo mkdir -p usrsapQASascs sudo mkdir -p usrsapQASers sudo mkdir -p usrsapQASsys sudo mkdir -p usrsapQASpas sudo mkdir -p usrsapQASaas # unmount the volume and delete the temporary directory sudo cd .. sudo umount /saptmp sudo rmdir /saptmp
Förbereda för SAP NetWeaver-installation
[A] Skapa delade kataloger
sudo mkdir -p /sapmnt/QAS sudo mkdir -p /usr/sap/trans sudo mkdir -p /usr/sap/QAS/SYS sudo mkdir -p /usr/sap/QAS/ASCS00 sudo mkdir -p /usr/sap/QAS/ERS01 sudo chattr +i /sapmnt/QAS sudo chattr +i /usr/sap/trans sudo chattr +i /usr/sap/QAS/SYS sudo chattr +i /usr/sap/QAS/ASCS00 sudo chattr +i /usr/sap/QAS/ERS01[A] Konfigurera
autofssudo vi /etc/auto.master # Add the following line to the file, save and exit /- /etc/auto.directOm du använder NFSv3 skapar du en fil med:
sudo vi /etc/auto.direct # Add the following lines to the file, save and exit /sapmnt/QAS -nfsvers=3,nobind 10.1.0.4:/usrsapqas/sapmntQAS /usr/sap/trans -nfsvers=3,nobind 10.1.0.4:/trans /usr/sap/QAS/SYS -nfsvers=3,nobind 10.1.0.4:/usrsapqas/usrsapQASsysOm du använder NFSv4.1 skapar du en fil med:
sudo vi /etc/auto.direct # Add the following lines to the file, save and exit /sapmnt/QAS -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/sapmntQAS /usr/sap/trans -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/trans /usr/sap/QAS/SYS -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/usrsapQASsysAnteckning
Se till att matcha NFS-protokollversionen för de Azure NetApp Files volymerna när du monterar volymerna. Om de Azure NetApp Files volymerna skapas som NFSv3-volymer använder du motsvarande NFSv3-konfiguration. Om de Azure NetApp Files volymerna skapas som NFSv4.1-volymer följer du anvisningarna för att inaktivera ID-mappning och se till att använda motsvarande NFSv4.1-konfiguration. I det här exemplet Azure NetApp Files volymerna som NFSv3-volymer.
Starta
autofsom för att montera de nya resursersudo systemctl enable autofs sudo service autofs restart[A] Konfigurera växlingsfilen
sudo vi /etc/waagent.conf # Set the property ResourceDisk.EnableSwap to y # Create and use swapfile on resource disk. ResourceDisk.EnableSwap=y # Set the size of the SWAP file with property ResourceDisk.SwapSizeMB # The free space of resource disk varies by virtual machine size. Make sure that you do not set a value that is too big. You can check the SWAP space with command swapon # Size of the swapfile. ResourceDisk.SwapSizeMB=2000Starta om agenten för att aktivera ändringen
sudo service waagent restart
Installera SAP NetWeaver ASCS/ERS
[1] Skapa en virtuell IP-resurs och hälsoavsökning för ASCS-instansen
Viktigt
Den senaste testningen visade situationer där netcat slutar svara på begäranden på grund av begränsande data och dess begränsning av hantering av endast en anslutning. Netcat-resursen slutar lyssna på Azure Load Balancer-begäranden och den flytande IP-adressen blir otillgänglig.
För befintliga pacemakerkluster rekommenderar vi att du tidigare ersätter netcat med socat. För närvarande rekommenderar vi att du använder azure-lb-resursagenten, som är en del av paketets resursagenter, med följande paketversionskrav:- För SLES 12 SP4/SP5 måste versionen minst vara resource-agents-4.3.018.a7fb5035-3.30.1.
- För SLES 15/15 SP1 måste versionen minst vara resource-agents-4.3.0184.6ee15eb2-4.13.1.
Observera att ändringen kräver kort stilleståndstid.
Om konfigurationen redan har ändrats för att använda socat för befintliga pacemakerkluster enligt beskrivningen i Azure Load-Balancer Detection Hardeningfinns det inget krav på att omedelbart växla till resursagenten azure-lb.sudo crm node standby anftstsapcl2 # If using NFSv3 sudo crm configure primitive fs_QAS_ASCS Filesystem device='10.1.0.4/usrsapqas/usrsapQASascs' directory='/usr/sap/QAS/ASCS00' fstype='nfs' \ op start timeout=60s interval=0 \ op stop timeout=60s interval=0 \ op monitor interval=20s timeout=40s # If using NFSv4.1 sudo crm configure primitive fs_QAS_ASCS Filesystem device='10.1.0.4:/usrsapqas/usrsapQASascs' directory='/usr/sap/QAS/ASCS00' fstype='nfs' options='sec=sys,vers=4.1' \ op start timeout=60s interval=0 \ op stop timeout=60s interval=0 \ op monitor interval=20s timeout=40s sudo crm configure primitive vip_QAS_ASCS IPaddr2 \ params ip=10.1.1.20 cidr_netmask=24 \ op monitor interval=10 timeout=20 sudo crm configure primitive nc_QAS_ASCS azure-lb port=62000 sudo crm configure group g-QAS_ASCS fs_QAS_ASCS nc_QAS_ASCS vip_QAS_ASCS \ meta resource-stickiness=3000Kontrollera att klusterstatusen är ok och att alla resurser har startats. Det är inte viktigt på vilken nod resurserna körs.
sudo crm_mon -r # Node anftstsapcl2: standby # Online: [ anftstsapcl1 ] # # Full list of resources: # # Resource Group: g-QAS_ASCS # fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl1 # nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl1 # vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 # stonith-sbd (stonith:external/sbd): Started anftstsapcl2[1] Installera SAP NetWeaver ASCS
Installera SAP NetWeaver ASCS som rot på den första noden med ett virtuellt värdnamn som mappar till IP-adressen för lastbalanseringskonfigurationen för ASCS, till exempel anftstsapvh, 10.1.1.20 och instansnumret som du använde för avsökningen av lastbalanseraren, till exempel 00.
Du kan använda sapinst-parametern SAPINST_REMOTE_ACCESS_USER att tillåta att en icke-rotanvändare ansluter till sapinst. Du kan använda parametern SAPINST_USE_HOSTNAME för att installera SAP med hjälp av virtuellt värdnamn.
sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin SAPINST_USE_HOSTNAME=virtual_hostnameOm installationen inte kan skapa en undermapp i /usr/sap/QAS/ASCS 00 kan du försöka ange ägare och grupp för ASCS 00-mappen och försöka igen.
chown qasadm /usr/sap/QAS/ASCS00 chgrp sapsys /usr/sap/QAS/ASCS00[1] Skapa en virtuell IP-resurs och hälsoavsökning för ERS-instansen
sudo crm node online anftstsapcl2 sudo crm node standby anftstsapcl1 # If using NFSv3 sudo crm configure primitive fs_QAS_ERS Filesystem device='10.1.0.4:/usrsapqas/usrsapQASers' directory='/usr/sap/QAS/ERS01' fstype='nfs' \ op start timeout=60s interval=0 \ op stop timeout=60s interval=0 \ op monitor interval=20s timeout=40s # If using NFSv4.1 sudo crm configure primitive fs_QAS_ERS Filesystem device='10.1.0.4:/usrsapqas/usrsapQASers' directory='/usr/sap/QAS/ERS01' fstype='nfs' options='sec=sys,vers=4.1' \ op start timeout=60s interval=0 \ op stop timeout=60s interval=0 \ op monitor interval=20s timeout=40s sudo crm configure primitive vip_QAS_ERS IPaddr2 \ params ip=10.1.1.21 cidr_netmask=24 \ op monitor interval=10 timeout=20 sudo crm configure primitive nc_QAS_ERS azure-lb port=62101 sudo crm configure group g-QAS_ERS fs_QAS_ERS nc_QAS_ERS vip_QAS_ERSKontrollera att klusterstatusen är ok och att alla resurser har startats. Det är inte viktigt på vilken nod resurserna körs.
sudo crm_mon -r # Node anftstsapcl1: standby # Online: [ anftstsapcl2 ] # # Full list of resources: # # stonith-sbd (stonith:external/sbd): Started anftstsapcl2 # Resource Group: g-QAS_ASCS # fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 # nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 # vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 # Resource Group: g-QAS_ERS # fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl2 # nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl2 # vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl2[2] Installera SAP NetWeaver ERS
Installera SAP NetWeaver ERS som rot på den andra noden med ett virtuellt värdnamn som mappar till IP-adressen för lastbalanseringskonfigurationen för ERS, till exempel anftstsapers, 10.1.1.21 och instansnumret som du använde för avsökningen av lastbalanseraren, till exempel 01.
Du kan använda sapinst-parametern SAPINST_REMOTE_ACCESS_USER att tillåta att en icke-rotanvändare ansluter till sapinst. Du kan använda parametern SAPINST_USE_HOSTNAME för att installera SAP med hjälp av virtuellt värdnamn.
sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin SAPINST_USE_HOSTNAME=virtual_hostnameAnteckning
Använd SWPM SP 20 PL 05 eller senare. Lägre versioner anger inte behörigheterna korrekt och installationen misslyckas.
Om installationen inte kan skapa en undermapp i /usr/sap/QAS/ERS 01 kan du försöka ange ägare och grupp för ERS 01-mappen och försöka igen.
chown qasadm /usr/sap/QAS/ERS01 chgrp sapsys /usr/sap/QAS/ERS01[1] Anpassa ASCS/SCS- och ERS-instansprofilerna
- ASCS/SCS-profil
sudo vi /sapmnt/QAS/profile/QAS_ASCS00_anftstsapvh # Change the restart command to a start command #Restart_Program_01 = local $(_EN) pf=$(_PF) Start_Program_01 = local $(_EN) pf=$(_PF) # Add the following lines service/halib = $(DIR_CT_RUN)/saphascriptco.so service/halib_cluster_connector = /usr/bin/sap_suse_cluster_connector # Add the keep alive parameter, if using ENSA1 enque/encni/set_so_keepalive = trueFör både ENSA1 och ENSA2 kontrollerar du att OS-parametrarna har angetts enligt beskrivningen i
keepaliveSAP-1410736.- ERS-profil
sudo vi /sapmnt/QAS/profile/QAS_ERS01_anftstsapers # Change the restart command to a start command #Restart_Program_00 = local $(_ER) pf=$(_PFL) NR=$(SCSID) Start_Program_00 = local $(_ER) pf=$(_PFL) NR=$(SCSID) # Add the following lines service/halib = $(DIR_CT_RUN)/saphascriptco.so service/halib_cluster_connector = /usr/bin/sap_suse_cluster_connector # remove Autostart from ERS profile # Autostart = 1[A] Konfigurera Keep Alive
Kommunikationen mellan SAP NetWeaver-programservern och ASCS/SCS dirigeras via en lastbalanserare för programvara. Lastbalanseraren kopplar från inaktiva anslutningar efter en konfigurerbar tidsgräns. För att förhindra detta måste du ange en parameter i SAP NetWeaver ASCS/SCS-profilen om du använder ENSA1 och ändra Linux-systeminställningarna på alla SAP-servrar för både
keepaliveENSA1/ENSA2. Läs SAP Note 1410736 för mer information.# Change the Linux system configuration sudo sysctl net.ipv4.tcp_keepalive_time=300[A] Konfigurera SAP-användarna efter installationen
# Add sidadm to the haclient group sudo usermod -aG haclient qasadm[1] Lägg till ASCS- och ERS SAP-tjänsterna i
sapservicefilenLägg till ASCS-tjänstposten till den andra noden och kopiera ERS-tjänstposten till den första noden.
cat /usr/sap/sapservices | grep ASCS00 | sudo ssh anftstsapcl2 "cat >>/usr/sap/sapservices" sudo ssh anftstsapcl2 "cat /usr/sap/sapservices" | grep ERS01 | sudo tee -a /usr/sap/sapservices[1] Skapa SAP-klusterresurserna
Om du använder enqueue server 1-arkitektur (ENSA1) definierar du resurserna på följande sätt:
sudo crm configure property maintenance-mode="true"
sudo crm configure primitive rsc_sap_QAS_ASCS00 SAPInstance \
operations \$id=rsc_sap_QAS_ASCS00-operations \
op monitor interval=11 timeout=60 on-fail=restart \
params InstanceName=QAS_ASCS00_anftstsapvh START_PROFILE="/sapmnt/QAS/profile/QAS_ASCS00_anftstsapvh" \
AUTOMATIC_RECOVER=false \
meta resource-stickiness=5000 failure-timeout=60 migration-threshold=1 priority=10
sudo crm configure primitive rsc_sap_QAS_ERS01 SAPInstance \
operations \$id=rsc_sap_QAS_ERS01-operations \
op monitor interval=11 timeout=60 on-fail=restart \
params InstanceName=QAS_ERS01_anftstsapers START_PROFILE="/sapmnt/QAS/profile/QAS_ERS01_anftstsapers" AUTOMATIC_RECOVER=false IS_ERS=true \
meta priority=1000
sudo crm configure modgroup g-QAS_ASCS add rsc_sap_QAS_ASCS00
sudo crm configure modgroup g-QAS_ERS add rsc_sap_QAS_ERS01
sudo crm configure colocation col_sap_QAS_no_both -5000: g-QAS_ERS g-QAS_ASCS
sudo crm configure location loc_sap_QAS_failover_to_ers rsc_sap_QAS_ASCS00 rule 2000: runs_ers_QAS eq 1
sudo crm configure order ord_sap_QAS_first_start_ascs Optional: rsc_sap_QAS_ASCS00:start rsc_sap_QAS_ERS01:stop symmetrical=false
sudo crm node online anftstsapcl1
sudo crm configure property maintenance-mode="false"
SAP introducerade stöd för att ta server 2 i plats, inklusive replikering, från och med SAP NW 7.52. Från och ABAP Platform 1809 installeras enqueue server 2 som standard. Se SAP-2630416 för stöd för server 2. Om du använder enqueue server 2-arkitektur(ENSA2)definierar du resurserna på följande sätt:
sudo crm configure property maintenance-mode="true"
sudo crm configure primitive rsc_sap_QAS_ASCS00 SAPInstance \
operations \$id=rsc_sap_QAS_ASCS00-operations \
op monitor interval=11 timeout=60 on-fail=restart \
params InstanceName=QAS_ASCS00_anftstsapvh START_PROFILE="/sapmnt/QAS/profile/QAS_ASCS00_anftstsapvh" \
AUTOMATIC_RECOVER=false \
meta resource-stickiness=5000
sudo crm configure primitive rsc_sap_QAS_ERS01 SAPInstance \
operations \$id=rsc_sap_QAS_ERS01-operations \
op monitor interval=11 timeout=60 on-fail=restart \
params InstanceName=QAS_ERS01_anftstsapers START_PROFILE="/sapmnt/QAS/profile/QAS_ERS01_anftstsapers" AUTOMATIC_RECOVER=false IS_ERS=true
sudo crm configure modgroup g-QAS_ASCS add rsc_sap_QAS_ASCS00
sudo crm configure modgroup g-QAS_ERS add rsc_sap_QAS_ERS01
sudo crm configure colocation col_sap_QAS_no_both -5000: g-QAS_ERS g-QAS_ASCS
sudo crm configure order ord_sap_QAS_first_start_ascs Optional: rsc_sap_QAS_ASCS00:start rsc_sap_QAS_ERS01:stop symmetrical=false
sudo crm node online anftstsapcl1
sudo crm configure property maintenance-mode="false"
Om du uppgraderar från en äldre version och växlar till att använda server 2 kan du se SAP-anteckningen 2641019.
Kontrollera att klusterstatusen är ok och att alla resurser har startats. Det är inte viktigt på vilken nod resurserna körs.
sudo crm_mon -r
# Full list of resources:
#
# stonith-sbd (stonith:external/sbd): Started anftstsapcl2
# Resource Group: g-QAS_ASCS
# fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl1
# nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl1
# vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl1
# rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl1
# Resource Group: g-QAS_ERS
# fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl2
# nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl2
# vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl2
# rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl2
Förberedelse av SAP NetWeaver-programserver
Vissa databaser kräver att installationen av databasinstansen körs på en programserver. Förbered programserverns virtuella datorer så att de kan använda dem i dessa fall.
Stegen nedan förutsätter att du installerar programservern på en annan server än ASCS/SCS- och HANA-servrarna. I annat fall behövs inte några av stegen nedan (t.ex. konfiguration av värdnamnsmatchning).
Följande objekt föregås av antingen [A] – gäller för både PAS och AAS, [P] – gäller endast för PAS eller [S] – gäller endast för AAS.
[A] Konfigurera operativsystem
Minska storleken på den filbaserade cachen. Mer information finns i Låg skrivprestanda på SLES 11/12-servrar med stort RAM-minne.
sudo vi /etc/sysctl.conf # Change/set the following settings vm.dirty_bytes = 629145600 vm.dirty_background_bytes = 314572800[A] Konfigurera värdnamnsmatchning
Du kan antingen använda en DNS-server eller ändra /etc/hosts på alla noder. Det här exemplet visar hur du använder filen /etc/hosts. Ersätt IP-adressen och värdnamnet i följande kommandon
sudo vi /etc/hostsInfoga följande rader i /etc/hosts. Ändra IP-adressen och värdnamnet så att de matchar din miljö
# IP address of the load balancer frontend configuration for SAP NetWeaver ASCS/SCS 10.1.1.20 anftstsapvh # IP address of the load balancer frontend configuration for SAP NetWeaver ERS 10.1.1.21 anftstsapers # IP address of all application servers 10.1.1.15 anftstsapa01 10.1.1.16 anftstsapa02[A] Skapa sapmnt-katalogen
sudo mkdir -p /sapmnt/QAS sudo mkdir -p /usr/sap/trans sudo chattr +i /sapmnt/QAS sudo chattr +i /usr/sap/trans[P] Skapa PAS-katalogen
sudo mkdir -p /usr/sap/QAS/D02 sudo chattr +i /usr/sap/QAS/D02[S] Skapa AAS-katalogen
sudo mkdir -p /usr/sap/QAS/D03 sudo chattr +i /usr/sap/QAS/D03[P] Konfigurera
autofspå PASsudo vi /etc/auto.master # Add the following line to the file, save and exit /- /etc/auto.directOm du använder NFSv3 skapar du en ny fil med:
sudo vi /etc/auto.direct # Add the following lines to the file, save and exit /sapmnt/QAS -nfsvers=3,nobind 10.1.0.4:/usrsapqas/sapmntQAS /usr/sap/trans -nfsvers=3,nobind 10.1.0.4:/trans /usr/sap/QAS/D02 -nfsvers=3,nobind 10.1.0.4:/usrsapqas/usrsapQASpasOm du använder NFSv4.1 skapar du en ny fil med:
sudo vi /etc/auto.direct # Add the following lines to the file, save and exit /sapmnt/QAS -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/sapmntQAS /usr/sap/trans -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/trans /usr/sap/QAS/D02 -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/usrsapQASpasStarta
autofsom för att montera de nya resursersudo systemctl enable autofs sudo service autofs restart[P] Konfigurera
autofspå AASsudo vi /etc/auto.master # Add the following line to the file, save and exit /- /etc/auto.directOm du använder NFSv3 skapar du en ny fil med:
sudo vi /etc/auto.direct # Add the following lines to the file, save and exit /sapmnt/QAS -nfsvers=3,nobind 10.1.0.4:/usrsapqas/sapmntQAS /usr/sap/trans -nfsvers=3,nobind 10.1.0.4:/trans /usr/sap/QAS/D03 -nfsvers=3,nobind 10.1.0.4:/usrsapqas/usrsapQASaasOm du använder NFSv4.1 skapar du en ny fil med:
sudo vi /etc/auto.direct # Add the following lines to the file, save and exit /sapmnt/QAS -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/sapmntQAS /usr/sap/trans -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/trans /usr/sap/QAS/D03 -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/usrsapQASaasStarta
autofsom för att montera de nya resursersudo systemctl enable autofs sudo service autofs restart[A] Konfigurera växlingsfilen
sudo vi /etc/waagent.conf # Set the property ResourceDisk.EnableSwap to y # Create and use swapfile on resource disk. ResourceDisk.EnableSwap=y # Set the size of the SWAP file with property ResourceDisk.SwapSizeMB # The free space of resource disk varies by virtual machine size. Make sure that you do not set a value that is too big. You can check the SWAP space with command swapon # Size of the swapfile. ResourceDisk.SwapSizeMB=2000Starta om agenten för att aktivera ändringen
sudo service waagent restart
Installera databas
I det här exemplet är SAP NetWeaver installerat på SAP HANA. Du kan använda alla databaser som stöds för den här installationen. Mer information om hur du installerar SAP HANA i Azure finns i Hög tillgänglighet för SAP HANA på Azure Virtual Machines (VM). En lista över databaser som stöds finns i SAP Note 1928533.
Köra installationen av SAP-databasinstansen
Installera SAP NetWeaver-databasinstansen som rot med hjälp av ett virtuellt värdnamn som mappar till IP-adressen för lastbalanseringskonfigurationen för databasen.
Du kan använda sapinst-parametern SAPINST_REMOTE_ACCESS_USER att tillåta att en icke-rotanvändare ansluter till sapinst.
sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin
Installation av SAP NetWeaver-programserver
Följ de här stegen för att installera en SAP-programserver.
[A] Förbered programservern Följ stegen i kapitlet förberedelse av SAP NetWeaver-programservern ovan för att förbereda programservern.
[A] Installera SAP NetWeaver-programservern Installera en primär eller ytterligare SAP NetWeaver-programserver.
Du kan använda sapinst-parametern SAPINST_REMOTE_ACCESS_USER att tillåta att en icke-rotanvändare ansluter till sapinst.
sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin[A] Uppdatera SAP HANA säker lagring
Uppdatera SAP HANA säker lagring så att den pekar på det virtuella namnet på SAP HANA systemreplikering.
Kör följande kommando för att visa posterna
hdbuserstore ListDetta bör lista alla poster och bör se ut ungefär så här
DATA FILE : /home/qasadm/.hdb/anftstsapa01/SSFS_HDB.DAT KEY FILE : /home/qasadm/.hdb/anftstsapa01/SSFS_HDB.KEY KEY DEFAULT ENV : 10.1.1.5:30313 USER: SAPABAP1 DATABASE: QASUtdata visar att IP-adressen för standardposten pekar på den virtuella datorn och inte på lastbalanseringsplatsens IP-adress. Den här posten måste ändras så att den pekar på lastbalanseringsdatorns virtuella värdnamn. Se till att använda samma port (30313 i utdata ovan) och databasnamnet (QAS i utdata ovan)!
su - qasadm hdbuserstore SET DEFAULT qasdb:30313@QAS SAPABAP1 <password of ABAP schema>
Testa klusterkonfigurationen
Följande tester är en kopia av testfallen i guiderna för bästa praxis i SUSE. De kopieras för att underlätta för dig. Läs alltid vägledningarna om bästa praxis och utför alla ytterligare tester som kan ha lagts till.
Testa HAGetFailoverConfig, HACheckConfig och HACheckFailoverConfig
Kör följande kommandon som <sapsid> adm på noden där ASCS-instansen körs. Om kommandona misslyckas med FAIL: Otillräckligt minne kan det bero på bindestreck i värdnamnet. Det här är ett känt problem som kommer att åtgärdas av SUSE i paketet sap-suse-cluster-connector.
anftstsapcl1:qasadm 52> sapcontrol -nr 00 -function HAGetFailoverConfig 07.03.2019 20:08:59 HAGetFailoverConfig OK HAActive: TRUE HAProductVersion: SUSE Linux Enterprise Server for SAP Applications 12 SP3 HASAPInterfaceVersion: SUSE Linux Enterprise Server for SAP Applications 12 SP3 (sap_suse_cluster_connector 3.1.0) HADocumentation: https://www.suse.com/products/sles-for-sap/resource-library/sap-best-practices/ HAActiveNode: anftstsapcl1 HANodes: anftstsapcl1, anftstsapcl2 anftstsapcl1:qasadm 54> sapcontrol -nr 00 -function HACheckConfig 07.03.2019 23:28:29 HACheckConfig OK state, category, description, comment SUCCESS, SAP CONFIGURATION, Redundant ABAP instance configuration, 2 ABAP instances detected SUCCESS, SAP CONFIGURATION, Redundant Java instance configuration, 0 Java instances detected SUCCESS, SAP CONFIGURATION, Enqueue separation, All Enqueue server separated from application server SUCCESS, SAP CONFIGURATION, MessageServer separation, All MessageServer separated from application server SUCCESS, SAP CONFIGURATION, ABAP instances on multiple hosts, ABAP instances on multiple hosts detected SUCCESS, SAP CONFIGURATION, Redundant ABAP SPOOL service configuration, 2 ABAP instances with SPOOL service detected SUCCESS, SAP STATE, Redundant ABAP SPOOL service state, 2 ABAP instances with active SPOOL service detected SUCCESS, SAP STATE, ABAP instances with ABAP SPOOL service on multiple hosts, ABAP instances with active ABAP SPOOL service on multiple hosts detected SUCCESS, SAP CONFIGURATION, Redundant ABAP BATCH service configuration, 2 ABAP instances with BATCH service detected SUCCESS, SAP STATE, Redundant ABAP BATCH service state, 2 ABAP instances with active BATCH service detected SUCCESS, SAP STATE, ABAP instances with ABAP BATCH service on multiple hosts, ABAP instances with active ABAP BATCH service on multiple hosts detected SUCCESS, SAP CONFIGURATION, Redundant ABAP DIALOG service configuration, 2 ABAP instances with DIALOG service detected SUCCESS, SAP STATE, Redundant ABAP DIALOG service state, 2 ABAP instances with active DIALOG service detected SUCCESS, SAP STATE, ABAP instances with ABAP DIALOG service on multiple hosts, ABAP instances with active ABAP DIALOG service on multiple hosts detected SUCCESS, SAP CONFIGURATION, Redundant ABAP UPDATE service configuration, 2 ABAP instances with UPDATE service detected SUCCESS, SAP STATE, Redundant ABAP UPDATE service state, 2 ABAP instances with active UPDATE service detected SUCCESS, SAP STATE, ABAP instances with ABAP UPDATE service on multiple hosts, ABAP instances with active ABAP UPDATE service on multiple hosts detected SUCCESS, SAP STATE, SCS instance running, SCS instance status ok SUCCESS, SAP CONFIGURATION, SAPInstance RA sufficient version (anftstsapvh_QAS_00), SAPInstance includes is-ers patch SUCCESS, SAP CONFIGURATION, Enqueue replication (anftstsapvh_QAS_00), Enqueue replication enabled SUCCESS, SAP STATE, Enqueue replication state (anftstsapvh_QAS_00), Enqueue replication active anftstsapcl1:qasadm 55> sapcontrol -nr 00 -function HACheckFailoverConfig 07.03.2019 23:30:48 HACheckFailoverConfig OK state, category, description, comment SUCCESS, SAP CONFIGURATION, SAPInstance RA sufficient version, SAPInstance includes is-ers patchMigrera ASCS-instansen manuellt
Resurstillstånd innan du startar testet:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rscsap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Starting anftstsapcl1Kör följande kommandon som rot för att migrera ASCS-instansen.
anftstsapcl1:~ # crm resource migrate rsc_sap_QAS_ASCS00 force INFO: Move constraint created for rsc_sap_QAS_ASCS00 anftstsapcl1:~ # crm resource unmigrate rsc_sap_QAS_ASCS00 INFO: Removed migration constraints for rsc_sap_QAS_ASCS00 # Remove failed actions for the ERS that occurred as part of the migration anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ERS01Resurstillstånd efter testet:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl1 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl2Testa HAFailoverToNode
Resurstillstånd innan du startar testet:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl1 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl2Kör följande kommandon som <sapsid> adm för att migrera ASCS-instansen.
anftstsapcl1:qasadm 53> sapcontrol -nr 00 -host anftstsapvh -user qasadm <password> -function HAFailoverToNode "" # run as root # Remove failed actions for the ERS that occurred as part of the migration anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ERS01 # Remove migration constraints anftstsapcl1:~ # crm resource clear rsc_sap_QAS_ASCS00 #INFO: Removed migration constraints for rsc_sap_QAS_ASCS00Resurstillstånd efter testet:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Simulera nodkrasch
Resurstillstånd innan du startar testet:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Kör följande kommando som rot på noden där ASCS-instansen körs
anftstsapcl2:~ # echo b > /proc/sysrq-triggerOm du använder SBD bör pacemaker inte starta automatiskt på den avlivade noden. Statusen efter att noden har startats igen bör se ut så här.
Online: Online: [ anftstsapcl1 ] OFFLINE: [ anftstsapcl2 ] Full list of resources: Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl1 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1 Failed Actions: * rsc_sap_QAS_ERS01_monitor_11000 on anftstsapcl1 'not running' (7): call=166, status=complete, exitreason='', last-rc-change='Fri Mar 8 18:26:10 2019', queued=0ms, exec=0msAnvänd följande kommandon för att starta Pacemaker på den avlivade noden, rensa SBD-meddelandena och rensa de resurser som misslyckades.
# run as root # list the SBD device(s) anftstsapcl2:~ # cat /etc/sysconfig/sbd | grep SBD_DEVICE= # SBD_DEVICE="/dev/disk/by-id/scsi-36001405b730e31e7d5a4516a2a697dcf;/dev/disk/by-id/scsi-36001405f69d7ed91ef54461a442c676e;/dev/disk/by-id/scsi-360014058e5f335f2567488882f3a2c3a" anftstsapcl2:~ # sbd -d /dev/disk/by-id/scsi-36001405772fe8401e6240c985857e11 -d /dev/disk/by-id/scsi-36001405f69d7ed91ef54461a442c676e -d /dev/disk/by-id/scsi-360014058e5f335f2567488882f3a2c3a message anftstsapcl2 clear anftstsapcl2:~ # systemctl start pacemaker anftstsapcl2:~ # crm resource cleanup rsc_sap_QAS_ASCS00 anftstsapcl2:~ # crm resource cleanup rsc_sap_QAS_ERS01Resurstillstånd efter testet:
Full list of resources: Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl1 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl2Testa manuell omstart av ASCS-instansen
Resurstillstånd innan du startar testet:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Skapa ett iqueue-lås genom att till exempel redigera en användare i transaktionen su01. Kör följande kommandon som <sapsid > adm på noden där ASCS-instansen körs. Kommandona stoppar ASCS-instansen och startar den igen. Om du använder enqueue server 1-arkitektur förväntas låset gå förlorat i det här testet. Om du använder enqueue server 2-arkitektur kommer den att behållas.
anftstsapcl2:qasadm 51> sapcontrol -nr 00 -function StopWait 600 2ASCS-instansen bör nu inaktiveras i Pacemaker
rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Stopped (disabled)Starta ASCS-instansen igen på samma nod.
anftstsapcl2:qasadm 52> sapcontrol -nr 00 -function StartWait 600 2Transaktionss su01-transaktionslåset bör gå förlorat om arkitekturen för serverreplikering 1 iqueue används och serverservern bör ha återställts. Resurstillstånd efter testet:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Processer för att ta bort meddelandeservern
Resurstillstånd innan du startar testet:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Kör följande kommandon som rot för att identifiera processen för meddelandeservern och ta bort den.
anftstsapcl2:~ # pgrep ms.sapQAS | xargs kill -9Om du bara säger upp meddelandeservern en gång startas den om av
sapstart. Om du gör det tillräckligt ofta flyttar pacemaker slutligen ASCS-instansen till den andra noden. Kör följande kommandon som rot för att rensa resurstillståndet för ASCS- och ERS-instansen efter testet.anftstsapcl2:~ # crm resource cleanup rsc_sap_QAS_ASCS00 anftstsapcl2:~ # crm resource cleanup rsc_sap_QAS_ERS01Resurstillstånd efter testet:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl1 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl2Kill enqueue server process (Kill enqueue server process)
Resurstillstånd innan du startar testet:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl1 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl2Kör följande kommandon som rot på noden där ASCS-instansen körs för att ta bort den lokala servern.
#If using ENSA1 anftstsapcl1:~ # pgrep en.sapQAS | xargs kill -9 #If using ENSA2 anftstsapcl1:~ # pgrep -f enq.sapQAS | xargs kill -9ASCS-instansen bör omedelbart växla över till den andra noden när det gäller ENSA1. ERS-instansen bör också redundans redundans när ASCS-instansen har startats. Kör följande kommandon som rot för att rensa resurstillståndet för ASCS- och ERS-instansen efter testet.
anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ASCS00 anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ERS01Resurstillstånd efter testet:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Kill enqueue replication server process (Kill enqueue replication server process)
Resurstillstånd innan du startar testet:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Kör följande kommando som rot på noden där ERS-instansen körs för att ta bort replikeringsserverprocessen i följd.
anftstsapcl1:~ # pgrep er.sapQAS | xargs kill -9Om du bara kör kommandot en gång
sapstartstartas processen om. Om du kör det tillräckligt oftasapstartstartar inte processen om och resursen är i ett stoppat tillstånd. Kör följande kommandon som rot för att rensa resurstillståndet för ERS-instansen efter testet.anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ERS01Resurstillstånd efter testet:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Kill enqueue sapstartsrv process
Resurstillstånd innan du startar testet:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Kör följande kommandon som rot på noden där ASCS körs.
anftstsapcl2:~ # pgrep -fl ASCS00.*sapstartsrv #67625 sapstartsrv anftstsapcl2:~ # kill -9 67625Sapstartsrv-processen bör alltid startas om av pacemakerns resursagent. Resurstillstånd efter testet:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1
Nästa steg
- Guide för hög hög användning för SAP NW på virtuella Azure-datorer på SLES för SAP-program med flera SID
- Azure Virtual Machines planering och implementering för SAP
- Azure Virtual Machines-distribution för SAP
- Azure Virtual Machines DBMS-distribution för SAP
- Information om hur du etablerar hög tillgänglighet och planerar för haveriberedskap för SAP HANA på virtuella Azure-datorer finns i Hög tillgänglighet för SAP HANA på Azure Virtual Machines (VM)