vysoká dostupnost pro SAP NetWeaver na virtuálních počítačích Azure na SUSE Linux Enterprise Server s Azure NetApp Files pro aplikace SAP
Tento článek popisuje, jak nasadit virtuální počítače, nakonfigurovat virtuální počítače, nainstalovat architekturu clusteru a nainstalovat vysoce dostupný systém SAP NetWeaver 7,50 pomocí Azure NetApp Files. V příkladech konfigurací, instalačních příkazů atd. instance ASCS je číslo 00, olajících instance 01, primární instance aplikace (PAS) je 02 a instance aplikace (AAS) je 03. Používá se ID systému SAP QAS.
Tento článek vysvětluje, jak dosáhnout vysoké dostupnosti pro aplikaci SAP NetWeaver pomocí Azure NetApp Files. Tato vrstva databáze není podrobněji popsána v tomto článku.
Nejprve si přečtěte následující poznámky a dokumenty SAP:
- Dokumentace k Azure NetApp Files
- Poznámka 1928533pro SAP obsahuje:
- Seznam velikostí virtuálních počítačů Azure, které jsou podporované pro nasazení softwaru SAP
- Důležité informace o kapacitě pro velikosti virtuálních počítačů Azure
- Podporovaný software SAP a kombinace operačního systému (OS) a databáze
- požadovaná verze jádra SAP pro Windows a Linux v Microsoft Azure
- SAP Note 2015553 uvádí požadavky na nasazení softwaru SAP podporovaná službou SAP v Azure.
- pro aplikace sap poznámka 2205917 se doporučuje nastavení operačního systému pro SUSE Linux Enterprise Server pro aplikace SAP.
- poznámka SAP poznámka 1944799 obsahuje pokyny pro SAP HANA SUSE Linux Enterprise Server pro aplikace sap.
- Pro SAP Note 2178632 najdete podrobné informace o všech metrikách monitorování hlášených pro SAP v Azure.
- V případě SAP Poznámka 2191498 je požadovaná verze agenta hostitele SAP pro Linux v Azure.
- Poznámka SAP Poznámka 2243692 obsahuje informace o LICENCOVÁNí SAP v systému Linux v Azure.
- poznámka SAP poznámky 1984787 obsahuje obecné informace o SUSE Linux Enterprise Server 12.
- V části SAP Note 1999351 najdete další informace o odstraňování potíží pro rozšíření Azure Enhanced Monitoring pro SAP.
- sap Community WIKI] ( https://wiki.scn.sap.com/wiki/display/HOME/SAPonLinuxNotes) obsahuje všechny požadované poznámky sap pro Linux.
- Plánování a implementace služby Azure Virtual Machines pro SAP v systému Linux
- Nasazení Azure Virtual Machines pro SAP v systému Linux
- Nasazení Azure Virtual Machines DBMS pro SAP v systému Linux
- Průvodce osvědčenými postupy pro SUSE SAP ha Příručky obsahují všechny požadované informace pro nastavení NetWeaver HA a SAP HANA místní replikace systému. Použijte tyto příručky jako obecné standardní hodnoty. Poskytují mnohem podrobnější informace.
- Zpráva k vydání verze SUSE High Availability Extension 12 SP3
- NetApp aplikace SAP na Microsoft Azure pomocí Azure NetApp Files
Přehled
Vysoká dostupnost (HA) pro služby SAP NetWeaver Central Services vyžaduje sdílené úložiště. Aby se zajistilo, že v SUSE Linux bylo ještě nutné sestavit samostatný cluster se systémem souborů NFS s vysokou dostupností.
Nyní je možné dosáhnout dostupnosti SAP NetWeaver HA pomocí sdíleného úložiště nasazeného v Azure NetApp Files. Použití Azure NetApp Files pro sdílené úložiště eliminuje nutnost dalšího clusteru NFS. Pacemaker je stále potřeba pro vysokou dostupnost centrálních služeb SAP NetWeaver (ASCS/SCS).

SAP NetWeaver ASCS, SAP NetWeaver SCS, SAP NetWeaver OLAJÍCÍCH a databáze SAP HANA používají virtuální název hostitele a virtuální IP adresy. V Azure se Nástroj pro vyrovnávání zatížení vyžaduje k použití virtuální IP adresy. Doporučujeme použít službu Load Balancer úrovně Standard. Následující seznam uvádí konfiguraci (A) SCS a nástroj pro vyrovnávání zatížení OLAJÍCÍCH.
Určitého SCS
- Konfigurace front-endu
- 10.1.1.20 IP adres
- Port testu paměti
- Port 620 < Nr >
- Pravidla vyrovnávání zatížení
- Pokud používáte Standard Load Balancer, vyberte porty ha .
- Pokud používáte základní Load Balancer, vytvořte pravidla vyrovnávání zatížení pro následující porty.
- 32 < Nr > TCP
- 36 < Nr > TCP
- 39 < Nr > TCP
- 81 < Nr > TCP
- 5 < Nr > 13 TCP
- 5 < Nr > 14 TCP
- 5. < 16 TCP >
OLAJÍCÍCH
Konfigurace front-endu
- 10.1.1.21 IP adres
Port testu paměti
- Port 621 < Nr >
Pravidla vyrovnávání zatížení
- Pokud používáte Standard Load Balancer, vyberte porty ha .
- Pokud používáte základní Load Balancer, vytvořte pravidla vyrovnávání zatížení pro následující porty.
- 32 < Nr > TCP
- 33 < Nr > TCP
- 5 < Nr > 13 TCP
- 5 < Nr > 14 TCP
- 5. < 16 TCP >
Konfigurace back-endu
- Připojeno k primárním síťovým rozhraním všech virtuálních počítačů, které by měly být součástí clusteru (A) SCS/OLAJÍCÍCH
Nastavení infrastruktury Azure NetApp Files
SAP NetWeaver vyžaduje pro přenos a profilový adresář sdílené úložiště. Než budete pokračovat s nastavením infrastruktury souborů Azure NetApp, Seznamte se s dokumentaci Azure NetApp Files. Ověřte, jestli vybraná oblast Azure nabízí Azure NetApp Files. Následující odkaz ukazuje dostupnost Azure NetApp Files podle oblasti Azure: Azure NetApp Files dostupnost podle oblasti Azure.
Soubory Azure NetApp jsou k dispozici v několika oblastech Azure.
Nasazení prostředků Azure NetApp Files
Tento postup předpokládá, že jste už nasadili Azure Virtual Network. Prostředky Azure NetApp Files a virtuální počítače, kde budou připojené prostředky Azure NetApp Files, musí být nasazené ve stejné službě Azure Virtual Network nebo ve virtuálních sítích Azure s partnerským vztahem.
Vytvořte účet NetApp ve vybrané oblasti Azure a postupujte podle pokynů k vytvoření účtu NetApp.
Nastavte Azure NetApp Files fond kapacit podle pokynů, jak nastavit fond kapacit Azure NetApp Files.
architektura SAP Netweaver uvedená v tomto článku používá fond kapacit s jedním Azure NetApp Files Premium SKU. pro úlohy aplikace SAP Netweaver v Azure doporučujeme Azure NetApp Files Premium SKU.Přenesete podsíť do souborů Azure NetApp, jak je popsáno v pokynech delegování podsítě na Azure NetApp Files.
Nasaďte Azure NetApp Files svazky podle pokynů pro vytvoření svazku pro Azure NetApp Files. Nasaďte svazky v určené Azure NetApp Files podsíti. IP adresy svazků Azure NetApp se přiřazují automaticky. Mějte na paměti, že Azure NetApp Files prostředky a virtuální počítače Azure musí být ve stejném Virtual Network Azure nebo ve virtuálních sítích Azure s partnerským vztahem. V tomto příkladu používáme dva Azure NetApp Files svazky: SAPQAS a trans. Cesty k souborům, které jsou připojené k odpovídajícím přípojným bodům, jsou/usrsapQAS/sapmntQAS,/usrsapQAS/usrsapQASsys atd.
- Volume SAPQAS (NFS://10.1.0.4/usrsapQAS/sapmntQAS)
- Volume SAPQAS (NFS://10.1.0.4/usrsapQAS/usrsapQASASCS)
- Volume SAPQAS (NFS://10.1.0.4/usrsapQAS/usrsapQASsys)
- Volume SAPQAS (NFS://10.1.0.4/usrsapQAS/usrsapQASolajících)
- Volume trans (nfs://10.1.0.4/trans)
- Volume SAPQAS (NFS://10.1.0.4/usrsapQAS/usrsapQASpas)
- Volume SAPQAS (NFS://10.1.0.4/usrsapQAS/usrsapQASAAS)
V tomto příkladu jsme použili Azure NetApp Files pro všechny systémy souborů SAP NetWeaver k předvedení toho, jak se dá Azure NetApp Files použít. Systémy souborů SAP, které není nutné připojit přes systém souborů NFS, se dají nasadit taky jako Azure Disk Storage . V tomto příkladu musí být a -e Azure NetApp Files a f-g (tj./usr/SAP/QAS/d02,/usr/SAP/QAS/d03) se dají nasadit jako Azure Disk Storage.
Důležité informace
Při zvažování Azure NetApp Files pro SAP NetWeaver v architektuře SUSE pro vysokou dostupnost mějte na paměti následující důležité informace:
- Minimální fond kapacit je 4 TiB. Velikost fondu kapacity se dá zvýšit v 1 přírůstcích TiB.
- Minimální objem je 100 GiB.
- Azure NetApp Files a všech virtuálních počítačů, kde se Azure NetApp Files svazky připojí, musí být ve stejné oblasti jako Azure Virtual Network nebo ve virtuálních sítích s partnerským vztahem . V současné době se podporuje Azure NetApp Files přístup přes partnerský vztah virtuálních sítí ve stejné oblasti. Přístup k Azure NetApp přes globální partnerský vztah ještě není podporovaný.
- Vybraná virtuální síť musí mít podsíť, delegovanou na Azure NetApp Files.
- Azure NetApp Files nabízí zásady exportu: můžete řídit povolené klienty, typ přístupu (čtení&zápisu, jen pro čtení atd.).
- Azure NetApp Files funkce zatím nereaguje na zóny. Aktuálně Azure NetApp Files funkce není nasazená ve všech zónách dostupnosti v oblasti Azure. Mějte na paměti, že v některých oblastech Azure máte vliv na potenciální latenci.
- Azure NetApp Files svazky lze nasadit jako svazky NFSv3 nebo NFSv 4.1. Pro aplikační vrstvu SAP (ASCS/OLAJÍCÍCH, aplikační servery SAP) se podporují oba protokoly.
Ruční nasazení virtuálních počítačů se systémem Linux prostřednictvím Azure Portal
Nejprve je třeba vytvořit svazky Azure NetApp Files. Nasaďte virtuální počítače. Následně vytvoříte Nástroj pro vyrovnávání zatížení a použijete virtuální počítače ve fondech back-endu.
- Vytvoření skupiny prostředků
- Vytvoření virtuální sítě
- Vytvoření skupiny dostupnosti pro ASCS
Nastavit maximální aktualizační doménu - Vytvořit virtuální počítač 1
Použijte minimálně SLES4SAP 12 SP3. v tomto příkladu se používá bitová kopie SLES4SAP 12 SP3.
Vyberte skupinu dostupnosti vytvořenou dříve pro ASCS. - Vytvořit virtuální počítač 2
Použijte minimálně SLES4SAP 12 SP3. v tomto příkladu se používá bitová kopie SLES4SAP 12 SP3.
Vyberte skupinu dostupnosti vytvořenou dříve pro ASCS. - Vytvoření skupiny dostupnosti pro instance aplikace SAP (PAS, AAS)
Nastavit maximální aktualizační doménu - Vytvořit virtuální počítač 3
Použijte minimálně SLES4SAP 12 SP3. v tomto příkladu se používá bitová kopie SLES4SAP 12 SP3.
Vybrat skupinu dostupnosti vytvořenou dříve pro PAS/AAS - Vytvořit virtuální počítač 4
Použijte minimálně SLES4SAP 12 SP3. v tomto příkladu se používá bitová kopie SLES4SAP 12 SP3.
Vybrat skupinu dostupnosti vytvořenou dříve pro PAS/AAS
Zakázat mapování ID (Pokud používáte NFSv 4.1)
Pokyny v této části se použijí jenom v případě, že používáte Azure NetApp Files svazky s protokolem NFSv 4.1. Proveďte konfiguraci na všech virtuálních počítačích, kde budou připojené svazky Azure NetApp Files NFSv 4.1.
Ověřte nastavení domény systému souborů NFS. Ujistěte se, že je doména nakonfigurovaná jako výchozí doména Azure NetApp Files, tj.
defaultv4iddomain.coma mapování je nastavené na nikdo.Důležité
Ujistěte se, že jste na virtuálním počítači nastavili doménu systému souborů NFS,
/etc/idmapd.confaby odpovídala výchozí konfiguraci domény v Azure NetApp Files:defaultv4iddomain.com. Pokud dojde k neshodě mezi konfigurací domény v klientovi NFS (tj. virtuálním počítačem) a serverem NFS, tj. konfigurací Azure NetApp, pak se budou zobrazovat oprávnění k souborům na svazcích Azure NetApp, které jsou připojené k virtuálním počítačůmnobody.sudo cat /etc/idmapd.conf # Example [General] Verbosity = 0 Pipefs-Directory = /var/lib/nfs/rpc_pipefs Domain = defaultv4iddomain.com [Mapping] Nobody-User = nobody Nobody-Group = nobody[A] ověřte
nfs4_disable_idmapping. Měl by být nastaven na Y. Pokud chcete vytvořit adresářovou strukturunfs4_disable_idmapping, kde se nachází, spusťte příkaz Mount. V/sys/modules nebudete moct ručně vytvořit adresář, protože přístup je vyhrazený pro jádro nebo ovladače.# Check nfs4_disable_idmapping cat /sys/module/nfs/parameters/nfs4_disable_idmapping # If you need to set nfs4_disable_idmapping to Y mkdir /mnt/tmp mount 10.1.0.4:/sapmnt/qas /mnt/tmp umount /mnt/tmp echo "Y" > /sys/module/nfs/parameters/nfs4_disable_idmapping # Make the configuration permanent echo "options nfs nfs4_disable_idmapping=Y" >> /etc/modprobe.d/nfs.conf
Nastavení (A) SCS
V tomto příkladu byly prostředky nasazeny ručně prostřednictvím Azure Portal .
ruční nasazení Azure Load Balancer přes Azure Portal
Nejprve je třeba vytvořit svazky Azure NetApp Files. Nasaďte virtuální počítače. Následně vytvoříte Nástroj pro vyrovnávání zatížení a použijete virtuální počítače ve fondu back-end.
- Vytvořit nástroj pro vyrovnávání zatížení (interní, standardní):
- Vytvoření IP adresy front-endu
- IP adresa 10.1.1.20 pro ASCS
- Otevřete nástroj pro vyrovnávání zatížení, vyberte front-end IP fond a klikněte na Přidat.
- Zadejte název nového fondu IP adres front-endu (například front-end. QAS. ASCS)
- Nastavte přiřazení na statické a zadejte IP adresu (například 10.1.1.20).
- Klikněte na OK.
- 10.1.1.21 IP adres pro ASCS OLAJÍCÍCH
- Opakujte výše uvedené kroky v části a a vytvořte tak IP adresu pro OLAJÍCÍCH (například 10.1.1.21 a front-end. QAS. OLAJÍCÍCH)
- IP adresa 10.1.1.20 pro ASCS
- Vytvoření back-endového fondu
- Otevřete nástroj pro vyrovnávání zatížení, vyberte fondy back-endu a klikněte na Přidat.
- Zadejte název nového back-end fondu (například back-end. QAS)
- Klikněte na Přidat virtuální počítač.
- Vybrat virtuální počítač
- Vyberte virtuální počítače v clusteru (A) SCS a jejich IP adresy.
- Klikněte na tlačítko Přidat.
- Vytvoření sond stavu
- Port 620 00 pro ASCS
- Otevřete nástroj pro vyrovnávání zatížení, vyberte sondy stavu a klikněte na Přidat.
- Zadejte název nového testu stavu (například stav). QAS. ASCS)
- Vybrat TCP as Protocol, port 620 00, zachovat interval 5 a špatný práh 2
- Klikněte na OK.
- Port 621 01 pro ASCS olajících
- Opakujte výše uvedené kroky v části "c", chcete-li vytvořit sondu stavu pro OLAJÍCÍCH (například 621 01 a stav). QAS. OLAJÍCÍCH)
- Port 620 00 pro ASCS
- Pravidla vyrovnávání zatížení
- Vytvoření fondu back-endu pro ASCS
- Otevřete nástroj pro vyrovnávání zatížení, vyberte pravidla vyrovnávání zatížení a klikněte na Přidat.
- Zadejte název nového pravidla nástroje pro vyrovnávání zatížení (například kg. QAS. ASCS)
- Vyberte front-end IP adresu pro ASCS, fond back-endu a test stavu, který jste vytvořili dříve (například front-end. QAS. ASCS, back-end. QAS a stav. QAS. ASCS)
- Vybrat porty ha
- Ujistěte se, že jste povolili plovoucí IP adresu.
- Klikněte na OK.
- Opakujte výše uvedené kroky a vytvořte tak pravidla vyrovnávání zatížení pro OLAJÍCÍCH (například kg. QAS. OLAJÍCÍCH)
- Vytvoření fondu back-endu pro ASCS
- Vytvoření IP adresy front-endu
- Případně, pokud váš scénář vyžaduje základní nástroj pro vyrovnávání zatížení (interní), postupujte podle následujících kroků:
Vytvoření IP adresy front-endu
- IP adresa 10.1.1.20 pro ASCS
- Otevřete nástroj pro vyrovnávání zatížení, vyberte front-end IP fond a klikněte na Přidat.
- Zadejte název nového fondu IP adres front-endu (například front-end. QAS. ASCS)
- Nastavte přiřazení na statické a zadejte IP adresu (například 10.1.1.20).
- Klikněte na OK.
- 10.1.1.21 IP adres pro ASCS OLAJÍCÍCH
- Opakujte výše uvedené kroky v části a a vytvořte tak IP adresu pro OLAJÍCÍCH (například 10.1.1.21 a front-end. QAS. OLAJÍCÍCH)
- IP adresa 10.1.1.20 pro ASCS
Vytvoření back-endového fondu
- Otevřete nástroj pro vyrovnávání zatížení, vyberte fondy back-endu a klikněte na Přidat.
- Zadejte název nového back-end fondu (například back-end. QAS)
- Klikněte na Přidat virtuální počítač.
- Vyberte dříve vytvořenou sadu dostupnosti pro ASCS.
- Vyberte virtuální počítače clusteru (A)SCS.
- Klikněte na OK.
Vytvoření sond stavu
- Port 620 00 pro ASCS
- Otevřete nástroj pro vyrovnávání zatížení, vyberte sondy stavu a klikněte na Přidat.
- Zadejte název nové sondy stavu (například stav). QAS. ASCS)
- Jako protokol vyberte TCP, port 620 00, podržte Interval 5 a Prahovou hodnotu špatného stavu 2.
- Klikněte na OK.
- Port 621 01 pro ASCS ERS
- Zopakujte výše uvedené kroky v části "c" a vytvořte sondu stavu pro ERS (například 621 01 a stav). QAS. ERS)
- Port 620 00 pro ASCS
Pravidla vyrovnávání zatížení
- 32 00 TCP pro ASCS
- Otevřete nástroj pro vyrovnávání zatížení, vyberte Pravidla vyrovnávání zatížení a klikněte na Přidat.
- Zadejte název nového pravidla nástroje pro vyrovnávání zatížení (například lb). QAS. ASCS.3200)
- Vyberte front-endovou IP adresu pro ASCS, back-endový fond a sondu stavu, které jste vytvořili dříve (například front-end. QAS. ASCS)
- Podržte protokol TCP a zadejte port 3200.
- Zvýšení časového limitu nečinnosti na 30 minut
- Nezapomeňte povolit plovoucí IP adresu.
- Klikněte na OK.
- Další porty pro ASCS
- Zopakujte výše uvedené kroky v části "d" pro porty 36 00, 39 00, 81 00, 5 00 13, 5 00 14, 5 00 16 a TCP pro ASCS.
- Další porty pro ASCS ERS
- Zopakujte výše uvedené kroky v části "d" pro porty 32 01, 33 01, 5 01 13, 5 01 14, 5 01 16 a TCP pro ASCS ERS.
Důležité
Plovoucí IP adresa není podporována v konfiguraci sekundární IP adresy síťové karty ve scénářích vyrovnávání zatížení. Podrobnosti najdete v tématu Omezení nástroje pro vyrovnávání zatížení Azure. Pokud pro virtuální počítač potřebujete další IP adresu, nasaďte druhou kartu.
Poznámka
Pokud jsou virtuální počítače bez veřejných IP adres umístěny do back-endového fondu interního nástroje pro vyrovnávání zatížení Azure standardu (bez veřejné IP adresy), nebude odchozí připojení k internetu k dispozici, pokud není provedena další konfigurace umožňující směrování na veřejné koncové body. Podrobnosti o tom, jak dosáhnout odchozího připojení, najdete v tématu Připojení veřejného koncového bodu pro Virtual Machines s využitím Azure Standard Load Balancer ve scénářích SAP s vysokou dostupností.
Důležité
Nepo povolení časových razítek protokolu TCP na virtuálních počítači Azure umístěných Azure Load Balancer. Povolení časových razítek protokolu TCP způsobí selhání sond stavu. Nastavte net.ipv4.tcp_timestamps parametru na 0. Podrobnosti najdete v Load Balancer sond stavu.
- 32 00 TCP pro ASCS
Vytvoření clusteru Pacemaker
Postupujte podle kroků v tématu Nastavení Pacemakeru na SUSE Linux Enterprise Serveru v Azure a vytvořte základní cluster Pacemaker pro tento (A)SCS server.
Instalace
Následující položky mají předponu [A] – platí pro všechny uzly [1] – platí jenom pro uzel 1 nebo [2] – platí jenom pro uzel 2.
[A] Instalace konektoru SUSE
sudo zypper install sap-suse-cluster-connectorPoznámka
Známý problém s používáním pomlčky v názvech hostitelů je vyřešený u balíčku sap-suse-cluster-connector verze 3.1.1. Pokud používáte uzly clusteru s pomlčkou v názvu hostitele, ujistěte se, že používáte balíček sap-suse-cluster-connector verze 3.1.1. Jinak cluster nebude fungovat.
Ujistěte se, že jste nainstalovali novou verzi konektoru clusteru SAP SUSE. Starý se nazýval sap_suse_cluster_connector a nový se nazývá sap-suse-cluster-connector.
sudo zypper info sap-suse-cluster-connector # Information for package sap-suse-cluster-connector: # --------------------------------------------------- # Repository : SLE-12-SP3-SAP-Updates # Name : sap-suse-cluster-connector # Version : 3.1.0-8.1 # Arch : noarch # Vendor : SUSE LLC <https://www.suse.com/> # Support Level : Level 3 # Installed Size : 45.6 KiB # Installed : Yes # Status : up-to-date # Source package : sap-suse-cluster-connector-3.1.0-8.1.src # Summary : SUSE High Availability Setup for SAP Products[A] Aktualizace agentů prostředků SAP
K použití nové konfigurace, která je popsaná v tomto článku, se vyžaduje oprava balíčku resource-agents. Pomocí následujícího příkazu můžete zkontrolovat, jestli je oprava už nainstalovaná.
sudo grep 'parameter name="IS_ERS"' /usr/lib/ocf/resource.d/heartbeat/SAPInstanceVýstup by měl být podobný jako
<parameter name="IS_ERS" unique="0" required="0">Pokud příkaz grep nenajde parametr IS_ERS, musíte nainstalovat opravu uvedenou na stránce pro stažení SUSE.
# example for patch for SLES 12 SP1 sudo zypper in -t patch SUSE-SLE-HA-12-SP1-2017-885=1 # example for patch for SLES 12 SP2 sudo zypper in -t patch SUSE-SLE-HA-12-SP2-2017-886=1[A] Nastavení překladu názvů hostitelů
Můžete použít server DNS nebo upravit /etc/hosts na všech uzlech. Tento příklad ukazuje, jak použít soubor /etc/hosts. V následujících příkazech nahraďte IP adresu a název hostitele.
sudo vi /etc/hostsDo souboru /etc/hosts vložte následující řádky. Změňte IP adresu a název hostitele tak, aby odpovídaly vašemu prostředí.
# IP address of cluster node 1 10.1.1.18 anftstsapcl1 # IP address of cluster node 2 10.1.1.6 anftstsapcl2 # IP address of the load balancer frontend configuration for SAP Netweaver ASCS 10.1.1.20 anftstsapvh # IP address of the load balancer frontend configuration for SAP Netweaver ERS 10.1.1.21 anftstsapers[1] Vytváření adresářů SAP na Azure NetApp Files svazku.
Dočasně připojte Azure NetApp Files svazku k jednomu z virtuálních počítače a vytvořte adresáře SAP (cesty k souborům).# mount temporarily the volume sudo mkdir -p /saptmp # If using NFSv3 sudo mount -t nfs -o rw,hard,rsize=65536,wsize=65536,vers=3,tcp 10.1.0.4:/sapQAS /saptmp # If using NFSv4.1 sudo mount -t nfs -o rw,hard,rsize=65536,wsize=65536,vers=4.1,sec=sys,tcp 10.1.0.4:/sapQAS /saptmp # create the SAP directories sudo cd /saptmp sudo mkdir -p sapmntQAS sudo mkdir -p usrsapQASascs sudo mkdir -p usrsapQASers sudo mkdir -p usrsapQASsys sudo mkdir -p usrsapQASpas sudo mkdir -p usrsapQASaas # unmount the volume and delete the temporary directory sudo cd .. sudo umount /saptmp sudo rmdir /saptmp
Příprava na instalaci SAP NetWeaveru
[A] Vytvoření sdílených adresářů
sudo mkdir -p /sapmnt/QAS sudo mkdir -p /usr/sap/trans sudo mkdir -p /usr/sap/QAS/SYS sudo mkdir -p /usr/sap/QAS/ASCS00 sudo mkdir -p /usr/sap/QAS/ERS01 sudo chattr +i /sapmnt/QAS sudo chattr +i /usr/sap/trans sudo chattr +i /usr/sap/QAS/SYS sudo chattr +i /usr/sap/QAS/ASCS00 sudo chattr +i /usr/sap/QAS/ERS01[A] Konfigurace
autofssudo vi /etc/auto.master # Add the following line to the file, save and exit /- /etc/auto.directPokud používáte NFSv3, vytvořte soubor pomocí:
sudo vi /etc/auto.direct # Add the following lines to the file, save and exit /sapmnt/QAS -nfsvers=3,nobind 10.1.0.4:/usrsapqas/sapmntQAS /usr/sap/trans -nfsvers=3,nobind 10.1.0.4:/trans /usr/sap/QAS/SYS -nfsvers=3,nobind 10.1.0.4:/usrsapqas/usrsapQASsysPokud používáte NFSv4.1, vytvořte soubor s:
sudo vi /etc/auto.direct # Add the following lines to the file, save and exit /sapmnt/QAS -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/sapmntQAS /usr/sap/trans -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/trans /usr/sap/QAS/SYS -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/usrsapQASsysPoznámka
Při připojování svazků se ujistěte, že odpovídá verzi protokolu NFS Azure NetApp Files svazků. Pokud jsou Azure NetApp Files svazky vytvořené jako svazky NFSv3, použijte odpovídající konfiguraci NFSv3. Pokud jsou Azure NetApp Files svazky vytvořené jako svazky NFSv4.1, podle pokynů zakažte mapování ID a ujistěte se, že používáte odpovídající konfiguraci NFSv4.1. V tomto příkladu byly Azure NetApp Files svazky vytvořeny jako svazky NFSv3.
Restartováním
autofspřipojte nové sdílené složky.sudo systemctl enable autofs sudo service autofs restart[A] Konfigurace souboru SWAP
sudo vi /etc/waagent.conf # Set the property ResourceDisk.EnableSwap to y # Create and use swapfile on resource disk. ResourceDisk.EnableSwap=y # Set the size of the SWAP file with property ResourceDisk.SwapSizeMB # The free space of resource disk varies by virtual machine size. Make sure that you do not set a value that is too big. You can check the SWAP space with command swapon # Size of the swapfile. ResourceDisk.SwapSizeMB=2000Restartováním agenta změnu aktivujte.
sudo service waagent restart
Instalace SAP NetWeaver ASCS/ERS
[1] Vytvoření prostředku virtuální IP adresy a sondy stavu pro instanci služby ASCS
Důležité
Nedávné testování odhalilo situace, kdy netcat přestane reagovat na požadavky kvůli backlogu a omezení zpracování pouze jednoho připojení. Prostředek netcat přestane naslouchat požadavkům nástroje pro vyrovnávání zatížení Azure a plovoucí IP adresa se stane nedostupnou.
U stávajících clusterů Pacemaker doporučujeme v minulosti nahradit netcat za socat. V současné době doporučujeme použít agenta prostředků azure-lb, který je součástí balíčku resource-agents, s následujícími požadavky na verzi balíčku:- Pro SLES 12 SP4/SP5 musí být verze alespoň resource-agents-4.3.018.a7fb5035-3.30.1.
- Pro SLES 15/15 SP1 musí být verze alespoň resource-agents-4.3.0184.6ee15eb2-4.13.1.
Mějte na vědomí, že změna bude vyžadovat krátké výpadky.
Pokud se konfigurace stávajících clusterů Pacemakeru už změnila na použití socat, jak je popsáno v článku o zabezpečení detekce azure Load-Balancer,není nutné okamžitě přepnout na agenta prostředků azure-lb.sudo crm node standby anftstsapcl2 # If using NFSv3 sudo crm configure primitive fs_QAS_ASCS Filesystem device='10.1.0.4/usrsapqas/usrsapQASascs' directory='/usr/sap/QAS/ASCS00' fstype='nfs' \ op start timeout=60s interval=0 \ op stop timeout=60s interval=0 \ op monitor interval=20s timeout=40s # If using NFSv4.1 sudo crm configure primitive fs_QAS_ASCS Filesystem device='10.1.0.4:/usrsapqas/usrsapQASascs' directory='/usr/sap/QAS/ASCS00' fstype='nfs' options='sec=sys,vers=4.1' \ op start timeout=60s interval=0 \ op stop timeout=60s interval=0 \ op monitor interval=20s timeout=40s sudo crm configure primitive vip_QAS_ASCS IPaddr2 \ params ip=10.1.1.20 cidr_netmask=24 \ op monitor interval=10 timeout=20 sudo crm configure primitive nc_QAS_ASCS azure-lb port=62000 sudo crm configure group g-QAS_ASCS fs_QAS_ASCS nc_QAS_ASCS vip_QAS_ASCS \ meta resource-stickiness=3000Ujistěte se, že je stav clusteru v pořádku a že jsou spuštěny všechny prostředky. Na tom, na kterém uzlu jsou prostředky spuštěné, není důležité.
sudo crm_mon -r # Node anftstsapcl2: standby # Online: [ anftstsapcl1 ] # # Full list of resources: # # Resource Group: g-QAS_ASCS # fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl1 # nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl1 # vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 # stonith-sbd (stonith:external/sbd): Started anftstsapcl2[1] Instalace SAP NetWeaver ASCS
Nainstalujte SAP NetWeaver ASCS jako kořen na prvním uzlu pomocí virtuálního názvu hostitele, který se mapuje na IP adresu konfigurace front-endu nástroje pro vyrovnávání zatížení pro ASCS, například anftstsapvh, 10.1.1.20 a číslo instance, které jste použili pro sondu nástroje pro vyrovnávání zatížení, například 00.
Pomocí parametru sapinst SAPINST_REMOTE_ACCESS_USER umožnit uživateli, který není root, připojení k sapinst. K instalaci SAPu SAPINST_USE_HOSTNAME použít parametr s použitím názvu virtuálního hostitele.
sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin SAPINST_USE_HOSTNAME=virtual_hostnamePokud se instalaci nepodaří vytvořit podsložku v adresáři /usr/sap/QAS/ASCS 00, zkuste nastavit vlastníka a skupinu složky ASCS 00 a zkusit to znovu.
chown qasadm /usr/sap/QAS/ASCS00 chgrp sapsys /usr/sap/QAS/ASCS00[1] Vytvoření prostředku virtuální IP adresy a sondy stavu pro instanci ERS
sudo crm node online anftstsapcl2 sudo crm node standby anftstsapcl1 # If using NFSv3 sudo crm configure primitive fs_QAS_ERS Filesystem device='10.1.0.4:/usrsapqas/usrsapQASers' directory='/usr/sap/QAS/ERS01' fstype='nfs' \ op start timeout=60s interval=0 \ op stop timeout=60s interval=0 \ op monitor interval=20s timeout=40s # If using NFSv4.1 sudo crm configure primitive fs_QAS_ERS Filesystem device='10.1.0.4:/usrsapqas/usrsapQASers' directory='/usr/sap/QAS/ERS01' fstype='nfs' options='sec=sys,vers=4.1' \ op start timeout=60s interval=0 \ op stop timeout=60s interval=0 \ op monitor interval=20s timeout=40s sudo crm configure primitive vip_QAS_ERS IPaddr2 \ params ip=10.1.1.21 cidr_netmask=24 \ op monitor interval=10 timeout=20 sudo crm configure primitive nc_QAS_ERS azure-lb port=62101 sudo crm configure group g-QAS_ERS fs_QAS_ERS nc_QAS_ERS vip_QAS_ERSUjistěte se, že je stav clusteru v pořádku a že jsou spuštěny všechny prostředky. Na tom, na kterém uzlu jsou prostředky spuštěné, není důležité.
sudo crm_mon -r # Node anftstsapcl1: standby # Online: [ anftstsapcl2 ] # # Full list of resources: # # stonith-sbd (stonith:external/sbd): Started anftstsapcl2 # Resource Group: g-QAS_ASCS # fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 # nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 # vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 # Resource Group: g-QAS_ERS # fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl2 # nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl2 # vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl2[2] Instalace SAP NetWeaver ERS
Nainstalujte SAP NetWeaver ERS jako kořen na druhém uzlu pomocí virtuálního názvu hostitele, který se mapuje na IP adresu konfigurace front-endu nástroje pro vyrovnávání zatížení pro ERS, například anftstsapers, 10.1.1.21 a číslo instance, které jste použili pro sondu nástroje pro vyrovnávání zatížení, například 01.
Pomocí parametru sapinst SAPINST_REMOTE_ACCESS_USER umožnit uživateli, který není root, připojení k sapinst. K instalaci SAPu SAPINST_USE_HOSTNAME použít parametr s použitím názvu virtuálního hostitele.
sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin SAPINST_USE_HOSTNAME=virtual_hostnamePoznámka
Používejte SWPM SP 20 PL 05 nebo vyšší. Nižší verze nenastavují oprávnění správně a instalace se nezdaří.
Pokud se instalaci nepodaří vytvořit podsložku ve složce /usr/sap/QAS/ERS 01, zkuste nastavit vlastníka a skupinu složky ERS 01 a zkusit to znovu.
chown qasadm /usr/sap/QAS/ERS01 chgrp sapsys /usr/sap/QAS/ERS01[1] Přizpůsobení profilů instancí ASCS/SCS a ERS
- Profil ASCS/SCS
sudo vi /sapmnt/QAS/profile/QAS_ASCS00_anftstsapvh # Change the restart command to a start command #Restart_Program_01 = local $(_EN) pf=$(_PF) Start_Program_01 = local $(_EN) pf=$(_PF) # Add the following lines service/halib = $(DIR_CT_RUN)/saphascriptco.so service/halib_cluster_connector = /usr/bin/sap_suse_cluster_connector # Add the keep alive parameter, if using ENSA1 enque/encni/set_so_keepalive = trueV případě ENSA1 i ENSA2 se ujistěte, že jsou nastavené parametry operačního systému, jak je popsáno v poznámce
keepaliveSAP 1410736.- Profil ERS
sudo vi /sapmnt/QAS/profile/QAS_ERS01_anftstsapers # Change the restart command to a start command #Restart_Program_00 = local $(_ER) pf=$(_PFL) NR=$(SCSID) Start_Program_00 = local $(_ER) pf=$(_PFL) NR=$(SCSID) # Add the following lines service/halib = $(DIR_CT_RUN)/saphascriptco.so service/halib_cluster_connector = /usr/bin/sap_suse_cluster_connector # remove Autostart from ERS profile # Autostart = 1[A] konfigurace Keep Alive
Komunikace mezi aplikačním serverem SAP NetWeaver a ASCS/SCS je směrována prostřednictvím nástroje pro vyrovnávání zatížení softwaru. Nástroj pro vyrovnávání zatížení odpojí neaktivní připojení po konfigurovatelném časovém limitu. Abyste tomu předešli, musíte nastavit parametr v profilu SAP NetWeaver ASCS/SCS, pokud používáte ENSA1, a změnit nastavení systému Linux
keepalivena všech serverech SAP pro ENSA1/ENSA2. Další informace najdete v tématu SAP Note 1410736 .# Change the Linux system configuration sudo sysctl net.ipv4.tcp_keepalive_time=300[A] konfigurace uživatelů SAP po instalaci
# Add sidadm to the haclient group sudo usermod -aG haclient qasadm[1] přidejte do souboru služby SAP ASCS a olajících.
sapservicePřidejte položku služby ASCS do druhého uzlu a zkopírujte položku služby OLAJÍCÍCH do prvního uzlu.
cat /usr/sap/sapservices | grep ASCS00 | sudo ssh anftstsapcl2 "cat >>/usr/sap/sapservices" sudo ssh anftstsapcl2 "cat /usr/sap/sapservices" | grep ERS01 | sudo tee -a /usr/sap/sapservices[1] vytvoření prostředků clusteru SAP
Pokud používáte architekturu serveru front Server 1 (ENSA1), definujte prostředky následujícím způsobem:
sudo crm configure property maintenance-mode="true"
sudo crm configure primitive rsc_sap_QAS_ASCS00 SAPInstance \
operations \$id=rsc_sap_QAS_ASCS00-operations \
op monitor interval=11 timeout=60 on-fail=restart \
params InstanceName=QAS_ASCS00_anftstsapvh START_PROFILE="/sapmnt/QAS/profile/QAS_ASCS00_anftstsapvh" \
AUTOMATIC_RECOVER=false \
meta resource-stickiness=5000 failure-timeout=60 migration-threshold=1 priority=10
sudo crm configure primitive rsc_sap_QAS_ERS01 SAPInstance \
operations \$id=rsc_sap_QAS_ERS01-operations \
op monitor interval=11 timeout=60 on-fail=restart \
params InstanceName=QAS_ERS01_anftstsapers START_PROFILE="/sapmnt/QAS/profile/QAS_ERS01_anftstsapers" AUTOMATIC_RECOVER=false IS_ERS=true \
meta priority=1000
sudo crm configure modgroup g-QAS_ASCS add rsc_sap_QAS_ASCS00
sudo crm configure modgroup g-QAS_ERS add rsc_sap_QAS_ERS01
sudo crm configure colocation col_sap_QAS_no_both -5000: g-QAS_ERS g-QAS_ASCS
sudo crm configure location loc_sap_QAS_failover_to_ers rsc_sap_QAS_ASCS00 rule 2000: runs_ers_QAS eq 1
sudo crm configure order ord_sap_QAS_first_start_ascs Optional: rsc_sap_QAS_ASCS00:start rsc_sap_QAS_ERS01:stop symmetrical=false
sudo crm node online anftstsapcl1
sudo crm configure property maintenance-mode="false"
SAP představilo podporu pro front-Server 2, včetně replikace, od SAP NW 7,52. počínaje jazyk ABAP platformou 1809 se ve výchozím nastavení nainstaluje služba fronty serveru 2. Podporu služby zařazení serveru 2 pro frontu najdete v tématu SAP Note 2630416 . Pokud používáte architekturu serveru fronty 2 (ENSA2), definujte prostředky následujícím způsobem:
sudo crm configure property maintenance-mode="true"
sudo crm configure primitive rsc_sap_QAS_ASCS00 SAPInstance \
operations \$id=rsc_sap_QAS_ASCS00-operations \
op monitor interval=11 timeout=60 on-fail=restart \
params InstanceName=QAS_ASCS00_anftstsapvh START_PROFILE="/sapmnt/QAS/profile/QAS_ASCS00_anftstsapvh" \
AUTOMATIC_RECOVER=false \
meta resource-stickiness=5000
sudo crm configure primitive rsc_sap_QAS_ERS01 SAPInstance \
operations \$id=rsc_sap_QAS_ERS01-operations \
op monitor interval=11 timeout=60 on-fail=restart \
params InstanceName=QAS_ERS01_anftstsapers START_PROFILE="/sapmnt/QAS/profile/QAS_ERS01_anftstsapers" AUTOMATIC_RECOVER=false IS_ERS=true
sudo crm configure modgroup g-QAS_ASCS add rsc_sap_QAS_ASCS00
sudo crm configure modgroup g-QAS_ERS add rsc_sap_QAS_ERS01
sudo crm configure colocation col_sap_QAS_no_both -5000: g-QAS_ERS g-QAS_ASCS
sudo crm configure order ord_sap_QAS_first_start_ascs Optional: rsc_sap_QAS_ASCS00:start rsc_sap_QAS_ERS01:stop symmetrical=false
sudo crm node online anftstsapcl1
sudo crm configure property maintenance-mode="false"
Pokud provádíte upgrade ze starší verze a přejdete na server fronty 2, přečtěte si článek SAP Note 2641019.
Ujistěte se, že stav clusteru je OK a že všechny prostředky jsou spuštěné. Není důležité, na kterém uzlu jsou prostředky spuštěné.
sudo crm_mon -r
# Full list of resources:
#
# stonith-sbd (stonith:external/sbd): Started anftstsapcl2
# Resource Group: g-QAS_ASCS
# fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl1
# nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl1
# vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl1
# rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl1
# Resource Group: g-QAS_ERS
# fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl2
# nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl2
# vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl2
# rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl2
Příprava aplikačního serveru SAP NetWeaver
Některé databáze vyžadují, aby se instalace instance databáze spustila na aplikačním serveru. Příprava virtuálních počítačů aplikačního serveru, aby je bylo možné používat v těchto případech.
Postup níže předpokládá, že instalujete aplikační server na jiný server než servery ASCS/SCS a HANA. Jinak se některé z následujících kroků (třeba konfigurace překladu názvů hostitelů) nevyžadují.
Následující položky jsou s předponou buď [A] – platí pro pas i AAS, [P] – platí jenom pro pas nebo [S] – platí jenom pro AAS.
[A] konfigurace operačního systému
Snižte velikost nečisté mezipaměti. Další informace najdete v tématu nízký výkon zápisu na serverech SLES 11/12 s velkou pamětí RAM.
sudo vi /etc/sysctl.conf # Change/set the following settings vm.dirty_bytes = 629145600 vm.dirty_background_bytes = 314572800[A] nastavení rozlišení názvu hostitele
Můžete buď použít server DNS, nebo upravit/etc/hosts na všech uzlech. Tento příklad ukazuje, jak použít soubor/etc/hosts. V následujících příkazech nahraďte IP adresu a název hostitele.
sudo vi /etc/hostsVložte následující řádky do/etc/hosts. Změňte IP adresu a název hostitele tak, aby odpovídaly vašemu prostředí.
# IP address of the load balancer frontend configuration for SAP NetWeaver ASCS/SCS 10.1.1.20 anftstsapvh # IP address of the load balancer frontend configuration for SAP NetWeaver ERS 10.1.1.21 anftstsapers # IP address of all application servers 10.1.1.15 anftstsapa01 10.1.1.16 anftstsapa02[A] vytvoření adresáře sapmnt
sudo mkdir -p /sapmnt/QAS sudo mkdir -p /usr/sap/trans sudo chattr +i /sapmnt/QAS sudo chattr +i /usr/sap/trans[P] vytvořit adresář pas
sudo mkdir -p /usr/sap/QAS/D02 sudo chattr +i /usr/sap/QAS/D02[S] vytvořit adresář AAS
sudo mkdir -p /usr/sap/QAS/D03 sudo chattr +i /usr/sap/QAS/D03[P] konfigurace
autofsna passudo vi /etc/auto.master # Add the following line to the file, save and exit /- /etc/auto.directPokud používáte NFSv3, vytvořte nový soubor s:
sudo vi /etc/auto.direct # Add the following lines to the file, save and exit /sapmnt/QAS -nfsvers=3,nobind 10.1.0.4:/usrsapqas/sapmntQAS /usr/sap/trans -nfsvers=3,nobind 10.1.0.4:/trans /usr/sap/QAS/D02 -nfsvers=3,nobind 10.1.0.4:/usrsapqas/usrsapQASpasPokud používáte NFSv 4.1, vytvořte nový soubor s tímto:
sudo vi /etc/auto.direct # Add the following lines to the file, save and exit /sapmnt/QAS -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/sapmntQAS /usr/sap/trans -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/trans /usr/sap/QAS/D02 -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/usrsapQASpasRestartováním
autofspřipojíte nové sdílené složky.sudo systemctl enable autofs sudo service autofs restart[P] konfigurace
autofsv AASsudo vi /etc/auto.master # Add the following line to the file, save and exit /- /etc/auto.directPokud používáte NFSv3, vytvořte nový soubor s:
sudo vi /etc/auto.direct # Add the following lines to the file, save and exit /sapmnt/QAS -nfsvers=3,nobind 10.1.0.4:/usrsapqas/sapmntQAS /usr/sap/trans -nfsvers=3,nobind 10.1.0.4:/trans /usr/sap/QAS/D03 -nfsvers=3,nobind 10.1.0.4:/usrsapqas/usrsapQASaasPokud používáte NFSv 4.1, vytvořte nový soubor s tímto:
sudo vi /etc/auto.direct # Add the following lines to the file, save and exit /sapmnt/QAS -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/sapmntQAS /usr/sap/trans -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/trans /usr/sap/QAS/D03 -nfsvers=4.1,nobind,sec=sys 10.1.0.4:/usrsapqas/usrsapQASaasRestartováním
autofspřipojíte nové sdílené složky.sudo systemctl enable autofs sudo service autofs restart[A] konfigurace odkládacího souboru
sudo vi /etc/waagent.conf # Set the property ResourceDisk.EnableSwap to y # Create and use swapfile on resource disk. ResourceDisk.EnableSwap=y # Set the size of the SWAP file with property ResourceDisk.SwapSizeMB # The free space of resource disk varies by virtual machine size. Make sure that you do not set a value that is too big. You can check the SWAP space with command swapon # Size of the swapfile. ResourceDisk.SwapSizeMB=2000Restartujte agenta, aby se změna aktivovala.
sudo service waagent restart
Instalace databáze
V tomto příkladu je SAP NetWeaver nainstalovaný na SAP HANA. Pro tuto instalaci můžete použít každou podporovanou databázi. Další informace o tom, jak nainstalovat SAP HANA v Azure, najdete v tématu Vysoká dostupnost SAP HANA na Azure Virtual Machines (virtuálních počítačích). Seznam podporovaných databází najdete v tématu SAP Note 1928533.
Spusťte instalaci instance databáze SAP.
Nainstalujte instanci databáze SAP NetWeaver jako kořenovou složku pomocí virtuálního hostitele, který se mapuje na IP adresu konfigurace front-endu nástroje pro vyrovnávání zatížení pro databázi.
Pomocí parametru sapinst SAPINST_REMOTE_ACCESS_USER můžete pro uživatele, který není rootem, připojovat se k sapinst.
sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin
Instalace aplikačního serveru SAP NetWeaver
Pomocí těchto kroků nainstalujete aplikační Server SAP.
[A] Připravte aplikační server podle kroků v kapitole SAP NetWeaver Application Server Preparation Preparation (příprava aplikačního serveru).
[A] instalace aplikačního serveru SAP NetWeaver instalace primárního nebo dalšího serveru aplikace SAP NetWeaver.
Pomocí parametru sapinst SAPINST_REMOTE_ACCESS_USER můžete pro uživatele, který není rootem, připojovat se k sapinst.
sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin[A] aktualizace SAP HANA zabezpečené úložiště
Aktualizujte SAP HANA zabezpečené úložiště tak, aby odkazovalo na virtuální název nastavení replikace SAP HANA systému.
Chcete-li zobrazit seznam položek, spusťte následující příkaz.
hdbuserstore ListMělo by se zobrazit seznam všech položek, které by měly vypadat podobně jako
DATA FILE : /home/qasadm/.hdb/anftstsapa01/SSFS_HDB.DAT KEY FILE : /home/qasadm/.hdb/anftstsapa01/SSFS_HDB.KEY KEY DEFAULT ENV : 10.1.1.5:30313 USER: SAPABAP1 DATABASE: QASVýstup ukazuje, že IP adresa výchozí položky odkazuje na virtuální počítač, a ne na IP adresu nástroje pro vyrovnávání zatížení. Tato položka musí být změněna tak, aby odkazovala na virtuální název hostitele nástroje pro vyrovnávání zatížení. Nezapomeňte použít stejný port (30313 ve výstupu výše) a název databáze (QAS ve výstupu výše).
su - qasadm hdbuserstore SET DEFAULT qasdb:30313@QAS SAPABAP1 <password of ABAP schema>
Otestování instalace clusteru
Následující testy jsou kopie testovacích případů v SUSE průvodců osvědčenými postupy. Budou zkopírovány pro usnadnění práce. Vždy si přečtěte Příručky k osvědčeným postupům a proveďte všechny další testy, které mohou být přidány.
Test HAGetFailoverConfig, HACheckConfig a HACheckFailoverConfig
<sapsid>Na uzlu, kde je aktuálně spuštěná instance ASCS, spusťte následující příkazy jako ADM. Pokud se příkazy nezdaří s CHYBou: nedostatek paměti, může to být způsobeno pomlčkami ve vašem názvu hostitele. Jedná se o známý problém, který bude opraven nástrojem SUSE v balíčku SAP-SUSE-cluster-Connector.
anftstsapcl1:qasadm 52> sapcontrol -nr 00 -function HAGetFailoverConfig 07.03.2019 20:08:59 HAGetFailoverConfig OK HAActive: TRUE HAProductVersion: SUSE Linux Enterprise Server for SAP Applications 12 SP3 HASAPInterfaceVersion: SUSE Linux Enterprise Server for SAP Applications 12 SP3 (sap_suse_cluster_connector 3.1.0) HADocumentation: https://www.suse.com/products/sles-for-sap/resource-library/sap-best-practices/ HAActiveNode: anftstsapcl1 HANodes: anftstsapcl1, anftstsapcl2 anftstsapcl1:qasadm 54> sapcontrol -nr 00 -function HACheckConfig 07.03.2019 23:28:29 HACheckConfig OK state, category, description, comment SUCCESS, SAP CONFIGURATION, Redundant ABAP instance configuration, 2 ABAP instances detected SUCCESS, SAP CONFIGURATION, Redundant Java instance configuration, 0 Java instances detected SUCCESS, SAP CONFIGURATION, Enqueue separation, All Enqueue server separated from application server SUCCESS, SAP CONFIGURATION, MessageServer separation, All MessageServer separated from application server SUCCESS, SAP CONFIGURATION, ABAP instances on multiple hosts, ABAP instances on multiple hosts detected SUCCESS, SAP CONFIGURATION, Redundant ABAP SPOOL service configuration, 2 ABAP instances with SPOOL service detected SUCCESS, SAP STATE, Redundant ABAP SPOOL service state, 2 ABAP instances with active SPOOL service detected SUCCESS, SAP STATE, ABAP instances with ABAP SPOOL service on multiple hosts, ABAP instances with active ABAP SPOOL service on multiple hosts detected SUCCESS, SAP CONFIGURATION, Redundant ABAP BATCH service configuration, 2 ABAP instances with BATCH service detected SUCCESS, SAP STATE, Redundant ABAP BATCH service state, 2 ABAP instances with active BATCH service detected SUCCESS, SAP STATE, ABAP instances with ABAP BATCH service on multiple hosts, ABAP instances with active ABAP BATCH service on multiple hosts detected SUCCESS, SAP CONFIGURATION, Redundant ABAP DIALOG service configuration, 2 ABAP instances with DIALOG service detected SUCCESS, SAP STATE, Redundant ABAP DIALOG service state, 2 ABAP instances with active DIALOG service detected SUCCESS, SAP STATE, ABAP instances with ABAP DIALOG service on multiple hosts, ABAP instances with active ABAP DIALOG service on multiple hosts detected SUCCESS, SAP CONFIGURATION, Redundant ABAP UPDATE service configuration, 2 ABAP instances with UPDATE service detected SUCCESS, SAP STATE, Redundant ABAP UPDATE service state, 2 ABAP instances with active UPDATE service detected SUCCESS, SAP STATE, ABAP instances with ABAP UPDATE service on multiple hosts, ABAP instances with active ABAP UPDATE service on multiple hosts detected SUCCESS, SAP STATE, SCS instance running, SCS instance status ok SUCCESS, SAP CONFIGURATION, SAPInstance RA sufficient version (anftstsapvh_QAS_00), SAPInstance includes is-ers patch SUCCESS, SAP CONFIGURATION, Enqueue replication (anftstsapvh_QAS_00), Enqueue replication enabled SUCCESS, SAP STATE, Enqueue replication state (anftstsapvh_QAS_00), Enqueue replication active anftstsapcl1:qasadm 55> sapcontrol -nr 00 -function HACheckFailoverConfig 07.03.2019 23:30:48 HACheckFailoverConfig OK state, category, description, comment SUCCESS, SAP CONFIGURATION, SAPInstance RA sufficient version, SAPInstance includes is-ers patchRuční migrace instance ASCS
Stav prostředku před spuštěním testu:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rscsap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Starting anftstsapcl1Pro migraci instance ASCS spusťte následující příkazy jako kořen.
anftstsapcl1:~ # crm resource migrate rsc_sap_QAS_ASCS00 force INFO: Move constraint created for rsc_sap_QAS_ASCS00 anftstsapcl1:~ # crm resource unmigrate rsc_sap_QAS_ASCS00 INFO: Removed migration constraints for rsc_sap_QAS_ASCS00 # Remove failed actions for the ERS that occurred as part of the migration anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ERS01Stav prostředku po testu:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl1 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl2HAFailoverToNode testu
Stav prostředku před spuštěním testu:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl1 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl2<sapsid>Pro migraci instance ASCS spusťte následující příkazy jako ADM.
anftstsapcl1:qasadm 53> sapcontrol -nr 00 -host anftstsapvh -user qasadm <password> -function HAFailoverToNode "" # run as root # Remove failed actions for the ERS that occurred as part of the migration anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ERS01 # Remove migration constraints anftstsapcl1:~ # crm resource clear rsc_sap_QAS_ASCS00 #INFO: Removed migration constraints for rsc_sap_QAS_ASCS00Stav prostředku po testu:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Simulace havárie uzlu
Stav prostředku před spuštěním testu:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Spusťte následující příkaz jako kořen v uzlu, ve kterém je spuštěná instance ASCS.
anftstsapcl2:~ # echo b > /proc/sysrq-triggerPokud používáte SBD, Pacemaker by se neměl automaticky spustit na ukončeném uzlu. Stav po spuštění uzlu by měl vypadat takto.
Online: Online: [ anftstsapcl1 ] OFFLINE: [ anftstsapcl2 ] Full list of resources: Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl1 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1 Failed Actions: * rsc_sap_QAS_ERS01_monitor_11000 on anftstsapcl1 'not running' (7): call=166, status=complete, exitreason='', last-rc-change='Fri Mar 8 18:26:10 2019', queued=0ms, exec=0msPomocí následujících příkazů spusťte Pacemaker na ukončeném uzlu, vyčistěte zprávy SBD a vyčistěte prostředky, které selhaly.
# run as root # list the SBD device(s) anftstsapcl2:~ # cat /etc/sysconfig/sbd | grep SBD_DEVICE= # SBD_DEVICE="/dev/disk/by-id/scsi-36001405b730e31e7d5a4516a2a697dcf;/dev/disk/by-id/scsi-36001405f69d7ed91ef54461a442c676e;/dev/disk/by-id/scsi-360014058e5f335f2567488882f3a2c3a" anftstsapcl2:~ # sbd -d /dev/disk/by-id/scsi-36001405772fe8401e6240c985857e11 -d /dev/disk/by-id/scsi-36001405f69d7ed91ef54461a442c676e -d /dev/disk/by-id/scsi-360014058e5f335f2567488882f3a2c3a message anftstsapcl2 clear anftstsapcl2:~ # systemctl start pacemaker anftstsapcl2:~ # crm resource cleanup rsc_sap_QAS_ASCS00 anftstsapcl2:~ # crm resource cleanup rsc_sap_QAS_ERS01Stav prostředku po testu:
Full list of resources: Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl1 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl2Test ručního restartování instance ASCS
Stav prostředku před spuštěním testu:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Vytvořte zámek zařazení do fronty, například upravit uživatele v su01 transakce. Spusťte následující příkazy jako <sapsid > ADM na uzlu, ve kterém je spuštěná instance ASCS. Příkazy zazastaví instanci ASCS a znovu se spustí. Pokud používáte architekturu serveru fronty 1, očekává se, že se v tomto testu ztratí zámek fronty. Pokud používáte architekturu Server 2 pro zařazování do fronty, zachová se.
anftstsapcl2:qasadm 51> sapcontrol -nr 00 -function StopWait 600 2Instance ASCS by teď měla být v Pacemaker zakázaná.
rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Stopped (disabled)Znovu spusťte instanci ASCS na stejném uzlu.
anftstsapcl2:qasadm 52> sapcontrol -nr 00 -function StartWait 600 2Zámek zařazení do fronty pro transakce su01 by měl být ztracen, pokud používáte architekturu replikace serveru fronty 1 a back-end by měl být obnoven. Stav prostředku po testu:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Ukončit proces serveru zprávy
Stav prostředku před zahájením testu:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Spuštěním následujících příkazů jako kořenového adresáře identifikujte proces serveru zpráv a tento proces u spusťte.
anftstsapcl2:~ # pgrep ms.sapQAS | xargs kill -9Pokud server zpráv jenom jednou u spustíte, restartuje ho
sapstart. Pokud ho budete často ubíhat, Pacemaker nakonec přesune instanci ASCS do druhého uzlu. Spuštěním následujících příkazů jako kořenového adresáře vyčistěte stav prostředků ascs a instance ERS po testu.anftstsapcl2:~ # crm resource cleanup rsc_sap_QAS_ASCS00 anftstsapcl2:~ # crm resource cleanup rsc_sap_QAS_ERS01Stav prostředku po testu:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl1 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl2Dokončení procesu zařazení serveru do fronty
Stav prostředku před zahájením testu:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl1 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl2Spuštěním následujících příkazů v kořenovém adresáři uzlu, na kterém je spuštěná instance ASCS, server zařazování do fronty u spusťte.
#If using ENSA1 anftstsapcl1:~ # pgrep en.sapQAS | xargs kill -9 #If using ENSA2 anftstsapcl1:~ # pgrep -f enq.sapQAS | xargs kill -9Instance ASCS by měla okamžitě pře převzetí služeb při selhání druhému uzlu v případě ENSA1. Instance služby ERS by měla také po spuštění instance ASCS pře převzetí služeb při selhání. Spuštěním následujících příkazů jako kořenového adresáře vyčistěte stav prostředků ascs a instance ERS po testu.
anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ASCS00 anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ERS01Stav prostředku po testu:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Dokončení procesu replikačního serveru zařazování do fronty
Stav prostředku před zahájením testu:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Spuštěním následujícího příkazu v kořenovém adresáři na uzlu, na kterém je spuštěná instance ERS, proces replikačního serveru zařazení do fronty u spusťte.
anftstsapcl1:~ # pgrep er.sapQAS | xargs kill -9Pokud příkaz spustíte jenom jednou,
sapstartproces se restartuje. Pokud ho spustíte dostatečně často,sapstartproces se nerestartuje a prostředek bude v zastaveném stavu. Spuštěním následujících příkazů jako kořenového adresáře vyčistěte stav prostředku instance ERS po testu.anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ERS01Stav prostředku po testu:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Dokončení procesu zařazení do fronty sapstartsrv
Stav prostředku před zahájením testu:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1Na uzlu, na kterém je spuštěná služba ASCS, spusťte následující příkazy jako root.
anftstsapcl2:~ # pgrep -fl ASCS00.*sapstartsrv #67625 sapstartsrv anftstsapcl2:~ # kill -9 67625Proces sapstartsrv by měl vždy restartovat agent prostředků Pacemakeru. Stav prostředku po testu:
Resource Group: g-QAS_ASCS fs_QAS_ASCS (ocf::heartbeat:Filesystem): Started anftstsapcl2 nc_QAS_ASCS (ocf::heartbeat:azure-lb): Started anftstsapcl2 vip_QAS_ASCS (ocf::heartbeat:IPaddr2): Started anftstsapcl2 rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance): Started anftstsapcl2 stonith-sbd (stonith:external/sbd): Started anftstsapcl1 Resource Group: g-QAS_ERS fs_QAS_ERS (ocf::heartbeat:Filesystem): Started anftstsapcl1 nc_QAS_ERS (ocf::heartbeat:azure-lb): Started anftstsapcl1 vip_QAS_ERS (ocf::heartbeat:IPaddr2): Started anftstsapcl1 rsc_sap_QAS_ERS01 (ocf::heartbeat:SAPInstance): Started anftstsapcl1
Další kroky
- Ha for SAP NW on Azure VMs on SLES for SAP applications multi-SID guide
- Azure Virtual Machines plánování a implementace pro SAP
- Nasazení Virtual Machines Azure pro SAP
- Nasazení AZURE Virtual Machines DBMS pro SAP
- Informace o tom, jak vytvořit vysokou dostupnost a naplánovat zotavení po havárii SAP HANA na virtuálních počítači Azure, najdete v tématu Vysoká dostupnost služby SAP HANA na virtuálních Virtual Machines Azure.