Nastavení Pacemakeru v Red Hat Enterprise Linuxu v Azure
Tento článek popisuje, jak nakonfigurovat základní cluster Pacemaker na Red Hat Enterprise Serveru (RHEL). Pokyny zahrnují RHEL 7, RHEL 8 a RHEL 9.
Požadavky
Nejprve si přečtěte následující poznámky a dokumenty SAP:
- SAP Note 1928533, který má:
- Seznam velikostí virtuálních počítačů Azure, které jsou podporované pro nasazení softwaru SAP.
- Důležité informace o kapacitě pro velikosti virtuálních počítačů Azure
- Podporované kombinace softwaru a operačního systému (OS) a databáze SAP.
- Požadovaná verze jádra SAP pro Windows a Linux v Microsoft Azure.
- SAP Note 2015553 uvádí požadavky pro nasazení softwaru SAP s podporou SAP v Azure.
- SAP Note 2002167 doporučuje nastavení operačního systému pro Red Hat Enterprise Linux.
- SAP Note 3108316 doporučuje nastavení operačního systému pro Red Hat Enterprise Linux 9.x.
- SAP Note 2009879 obsahuje pokyny PRO SAP HANA pro Red Hat Enterprise Linux.
- SAP Note 3108302 obsahuje pokyny PRO SAP HANA pro Red Hat Enterprise Linux 9.x.
- SAP Note 2178632 obsahuje podrobné informace o všech metrikách monitorování hlášených pro SAP v Azure.
- SAP Note 2191498 má požadovanou verzi agenta hostitele SAP pro Linux v Azure.
- SAP Note 2243692 obsahuje informace o licencování SAP v Linuxu v Azure.
- SAP Note 1999351 obsahuje další informace o řešení potíží pro rozšíření rozšířeného monitorování Azure pro SAP.
- Wikiweb komunity SAP obsahuje všechny požadované poznámky SAP pro Linux.
- Plánování a implementace virtuálních počítačů Azure pro SAP v Linuxu
- Nasazení služby Azure Virtual Machines pro SAP v Linuxu (tento článek)
- Nasazení DBMS pro Azure Virtual Machines pro SAP v Linuxu
- Replikace systému SAP HANA v clusteru Pacemaker
- Obecná dokumentace RHEL:
- Dokumentace ke službě RHEL specifická pro Azure:
- Zásady podpory pro clustery s vysokou dostupností RHEL – Virtuální počítače Microsoft Azure jako členy clusteru
- Instalace a konfigurace clusteru s vysokou dostupností Red Hat Enterprise Linux 7.4 (a novější) v Microsoft Azure
- Důležité informace o přijetí RHEL 8 – vysoká dostupnost a clustery
- Konfigurace SAP S/4HANA ASCS/ERS pomocí samostatného enqueue Serveru 2 (ENSA2) v Pacemakeru na RHEL 7.6
- RHEL pro nabídky SAP v Azure
Instalace clusteru
Poznámka:
Red Hat nepodporuje sledovací program emulovaný softwarem. Red Hat nepodporuje SBD na cloudových platformách. Další informace najdete v tématu Zásady podpory pro clustery s vysokou dostupností RHEL – sbd a fence_sbd.
Jediným podporovaným mechanismem pro clustery Pacemaker RHEL v Azure je agent plotu Azure.
Následující položky mají předponu:
- [A]: Platí pro všechny uzly.
- [1]: Platí pouze pro uzel 1.
- [2]: Platí pouze pro uzel 2.
Rozdíly v příkazech nebo konfiguraci mezi RHEL 7 a RHEL 8/RHEL 9 jsou v dokumentu označené.
[A] Zaregistrujte se. Tento krok je nepovinný. Pokud používáte image RHEL SAP HA, tento krok se nevyžaduje.
Pokud například nasazujete na RHEL 7, zaregistrujte virtuální počítač a připojte ho k fondu, který obsahuje úložiště pro RHEL 7.
sudo subscription-manager register # List the available pools sudo subscription-manager list --available --matches '*SAP*' sudo subscription-manager attach --pool=<pool id>
Když připojíte fond k imagi RHEL s průběžnýmiplatbýmimi Jednou se vám bude účtovat image s průběžnými platbou a jednou za nárok RHEL ve fondu, který připojíte. Pro zmírnění této situace teď Azure poskytuje image RHEL s vlastním předplatným. Další informace najdete v tématu Red Hat Enterprise Linux bring-your-own-subscription Azure images.
[A] Povolte RHEL pro úložiště SAP. Tento krok je nepovinný. Pokud používáte image RHEL SAP HA, tento krok se nevyžaduje.
Pokud chcete nainstalovat požadované balíčky na RHEL 7, povolte následující úložiště:
sudo subscription-manager repos --disable "*" sudo subscription-manager repos --enable=rhel-7-server-rpms sudo subscription-manager repos --enable=rhel-ha-for-rhel-7-server-rpms sudo subscription-manager repos --enable=rhel-sap-for-rhel-7-server-rpms sudo subscription-manager repos --enable=rhel-ha-for-rhel-7-server-eus-rpms
[A] Nainstalujte doplněk RHEL HA.
sudo yum install -y pcs pacemaker fence-agents-azure-arm nmap-ncat
Důležité
Pro zákazníky doporučujeme použít následující verze agenta azure plotu (nebo novější), aby mohli využívat rychlejší dobu převzetí služeb při selhání, pokud dojde k selhání nebo uzly clusteru už spolu nemůžou komunikovat:
RHEL 7.7 nebo vyšší používá nejnovější dostupnou verzi balíčku plot-agents.
RHEL 7.6: plot-agent-4.2.1-11.el7_6.8
RHEL 7.5: plot-agent-4.0.11-86.el7_5.8
RHEL 7.4: plot-agent-4.0.11-66.el7_4.12
Další informace najdete v tématu Virtuální počítač Azure spuštěný jako člen clusteru s vysokou dostupností RHEL, který trvá velmi dlouhou dobu, než se virtuální počítač vypne, nebo dojde k selhání a vypršení časového limitu.
Důležité
Zákazníkům, kteří chtějí používat spravované identity pro prostředky Azure místo instančních názvů pro agenta plotu, doporučujeme následující verze agenta plotu (nebo novější):
RHEL 8.4: plot-agent-4.2.1-54.el8.
RHEL 8.2: plot-agent-4.2.1-41.el8_2.4
RHEL 8.1: plot-agent-4.2.1-30.el8_1.4
RHEL 7.9: plot-agent-4.2.1-41.el7_9.4.
Důležité
V RHEL 9 doporučujeme následující verze balíčků (nebo novější), abyste se vyhnuli problémům s agentem plotu Azure:
plot-agents-4.10.0-20.el9_0.7
plot-agents-common-4.10.0-20.el9_0.6
ha-cloud-support-4.10.0-20.el9_0.6.x86_64.rpm
Zkontrolujte verzi agenta plotu Azure. V případě potřeby ho aktualizujte na minimální požadovanou verzi nebo novější.
# Check the version of the Azure Fence Agent sudo yum info fence-agents-azure-arm
Důležité
Pokud potřebujete aktualizovat agenta plotu Azure a pokud používáte vlastní roli, nezapomeňte aktualizovat vlastní roli tak, aby zahrnovala powerOff akce. Další informace najdete v tématu Vytvoření vlastní role pro plot agenta.
Pokud nasazujete na RHEL 9, nainstalujte také agenty prostředků pro cloudové nasazení.
sudo yum install -y resource-agents-cloud
[A] Nastavte překlad názvů hostitelů.
Můžete použít server DNS nebo upravit
/etc/hosts
soubor na všech uzlech. Tento příklad ukazuje, jak soubor používat/etc/hosts
. V následujících příkazech nahraďte IP adresu a název hostitele.Důležité
Pokud v konfiguraci clusteru používáte názvy hostitelů, je důležité mít spolehlivé překlad názvů hostitelů. Komunikace clusteru selže, pokud nejsou dostupné názvy, což může vést ke zpoždění převzetí služeb při selhání clusteru.
Výhodou použití
/etc/hosts
je, že váš cluster je nezávislý na DNS, což může být také kritickým bodem selhání.sudo vi /etc/hosts
Vložte následující řádky do
/etc/hosts
. Změňte IP adresu a název hostitele tak, aby odpovídaly vašemu prostředí.# IP address of the first cluster node 10.0.0.6 prod-cl1-0 # IP address of the second cluster node 10.0.0.7 prod-cl1-1
[A] Změňte
hacluster
heslo na stejné heslo.sudo passwd hacluster
[A] Přidejte pravidla brány firewall pro Pacemaker.
Přidejte následující pravidla brány firewall do veškeré komunikace clusteru mezi uzly clusteru.
sudo firewall-cmd --add-service=high-availability --permanent sudo firewall-cmd --add-service=high-availability
[A] Povolte základní služby clusteru.
Spuštěním následujících příkazů povolte službu Pacemaker a spusťte ji.
sudo systemctl start pcsd.service sudo systemctl enable pcsd.service
[1] Vytvořte cluster Pacemaker.
Spuštěním následujících příkazů ověřte uzly a vytvořte cluster. Nastavte token na 30000, aby se povolila údržba zachování paměti. Další informace najdete v tomto článku pro Linux.
Pokud vytváříte cluster na RHEL 7.x, použijte následující příkazy:
sudo pcs cluster auth prod-cl1-0 prod-cl1-1 -u hacluster sudo pcs cluster setup --name nw1-azr prod-cl1-0 prod-cl1-1 --token 30000 sudo pcs cluster start --all
Pokud vytváříte cluster na RHEL 8.x/RHEL 9.x, použijte následující příkazy:
sudo pcs host auth prod-cl1-0 prod-cl1-1 -u hacluster sudo pcs cluster setup nw1-azr prod-cl1-0 prod-cl1-1 totem token=30000 sudo pcs cluster start --all
Stav clusteru ověřte spuštěním následujícího příkazu:
# Run the following command until the status of both nodes is online sudo pcs status # Cluster name: nw1-azr # WARNING: no stonith devices and stonith-enabled is not false # Stack: corosync # Current DC: prod-cl1-1 (version 1.1.18-11.el7_5.3-2b07d5c5a9) - partition with quorum # Last updated: Fri Aug 17 09:18:24 2018 # Last change: Fri Aug 17 09:17:46 2018 by hacluster via crmd on prod-cl1-1 # # 2 nodes configured # 0 resources configured # # Online: [ prod-cl1-0 prod-cl1-1 ] # # No resources # # Daemon Status: # corosync: active/disabled # pacemaker: active/disabled # pcsd: active/enabled
[A] Nastavte očekávané hlasy.
# Check the quorum votes pcs quorum status # If the quorum votes are not set to 2, execute the next command sudo pcs quorum expected-votes 2
Tip
Pokud vytváříte cluster s více uzly, tj. cluster s více než dvěma uzly, nenastavujte hlasy na 2.
[1] Povolit souběžné akce plotu.
sudo pcs property set concurrent-fencing=true
Vytvoření zařízení pro oplocení
Zařízení pro dělení používá spravovanou identitu pro prostředek Azure nebo instanční objekt k autorizaci v Azure.
Pokud chcete vytvořit spravovanou identitu (MSI), vytvořte spravovanou identitu přiřazenou systémem pro každý virtuální počítač v clusteru. Pokud už spravovaná identita přiřazená systémem existuje, použije se. V tuto chvíli nepoužívejte spravované identity přiřazené uživatelem s Pacemakerem. Plotové zařízení založené na spravované identitě je podporováno na RHEL 7.9 a RHEL 8.x/RHEL 9.x.
[1] Vytvoření vlastní role pro agenta plotu
Spravovaná identita i instanční objekt nemají ve výchozím nastavení oprávnění pro přístup k prostředkům Azure. Musíte udělit spravované identitě nebo instančnímu objektu oprávnění ke spuštění a zastavení (vypnutí) všech virtuálních počítačů clusteru. Pokud jste vlastní roli ještě nevytvořili, můžete ji vytvořit pomocí PowerShellunebo Azure CLI.
Pro vstupní soubor použijte následující obsah. Obsah musíte přizpůsobit svým předplatným, tedy nahradit xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx
a yyyyyyyy-yyyy-yyyy-yyyy-yyyyyyyyyyyy
id vašeho předplatného. Pokud máte pouze jedno předplatné, odeberte druhou položku v AssignableScopes
souboru .
{
"Name": "Linux Fence Agent Role",
"description": "Allows to power-off and start virtual machines",
"assignableScopes": [
"/subscriptions/xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx",
"/subscriptions/yyyyyyyy-yyyy-yyyy-yyyy-yyyyyyyyyyyy"
],
"actions": [
"Microsoft.Compute/*/read",
"Microsoft.Compute/virtualMachines/powerOff/action",
"Microsoft.Compute/virtualMachines/start/action"
],
"notActions": [],
"dataActions": [],
"notDataActions": []
}
[A] Přiřazení vlastní role
Použijte spravovanou identitu nebo instanční objekt.
Přiřaďte vlastní roli Linux Fence Agent Role
vytvořenou v poslední části ke každé spravované identitě virtuálních počítačů clusteru. Každá spravovaná identita přiřazená systémem virtuálního počítače potřebuje přiřazenou roli pro každý prostředek virtuálního počítače clusteru. Další informace najdete v tématu Přiřazení přístupu ke spravované identitě k prostředku pomocí webu Azure Portal. Ověřte, že přiřazení role spravované identity každého virtuálního počítače obsahuje všechny virtuální počítače clusteru.
Důležité
Mějte na paměti, že přiřazení a odebrání autorizace u spravovaných identit může být zpožděné až do účinnosti.
[1] Vytvoření zařízení pro šermování
Po úpravě oprávnění pro virtuální počítače můžete nakonfigurovat zařízení pro ohraničení v clusteru.
sudo pcs property set stonith-timeout=900
Poznámka:
Tato možnost pcmk_host_map
se vyžaduje jenom v případě, že názvy hostitelů RHEL a názvy virtuálních počítačů Azure nejsou identické. Zadejte mapování ve formátu název hostitele:vm-name.
V příkazu se podívejte na tučný oddíl. Další informace najdete v tématu Jaký formát mám použít k určení mapování uzlů na zařízení s ohraničením v pcmk_host_map?.
Pro RHEL 7.x pomocí následujícího příkazu nakonfigurujte plotové zařízení:
sudo pcs stonith create rsc_st_azure fence_azure_arm msi=true resourceGroup="resource group" \
subscriptionId="subscription id" pcmk_host_map="prod-cl1-0:prod-cl1-0-vm-name;prod-cl1-1:prod-cl1-1-vm-name" \
power_timeout=240 pcmk_reboot_timeout=900 pcmk_monitor_timeout=120 pcmk_monitor_retries=4 pcmk_action_limit=3 pcmk_delay_max=15 \
op monitor interval=3600
Pro RHEL 8.x/9.x pomocí následujícího příkazu nakonfigurujte plotové zařízení:
# Run following command if you are setting up fence agent on (two-node cluster and pacemaker version greater than 2.0.4-6.el8) OR (HANA scale out)
sudo pcs stonith create rsc_st_azure fence_azure_arm msi=true resourceGroup="resource group" \
subscriptionId="subscription id" pcmk_host_map="prod-cl1-0:prod-cl1-0-vm-name;prod-cl1-1:prod-cl1-1-vm-name" \
power_timeout=240 pcmk_reboot_timeout=900 pcmk_monitor_timeout=120 pcmk_monitor_retries=4 pcmk_action_limit=3 \
op monitor interval=3600
# Run following command if you are setting up fence agent on (two-node cluster and pacemaker version less than 2.0.4-6.el8)
sudo pcs stonith create rsc_st_azure fence_azure_arm msi=true resourceGroup="resource group" \
subscriptionId="subscription id" pcmk_host_map="prod-cl1-0:prod-cl1-0-vm-name;prod-cl1-1:prod-cl1-1-vm-name" \
power_timeout=240 pcmk_reboot_timeout=900 pcmk_monitor_timeout=120 pcmk_monitor_retries=4 pcmk_action_limit=3 pcmk_delay_max=15 \
op monitor interval=3600
Pokud používáte zařízení pro ohraničení založené na konfiguraci instančního objektu, přečtěte si informace o změně hlavního názvu služby (SPN) na clustery MSI pro clustery Pacemaker pomocí fencingu Azure a zjistěte, jak převést na konfiguraci spravované identity.
Tip
- Abyste se vyhnuli plotovým závodům v clusteru pacemakeru se dvěma uzly, můžete nakonfigurovat vlastnost clusteru
priority-fencing-delay
. Tato vlastnost představuje další zpoždění při ohraničení uzlu, který má vyšší celkovou prioritu zdroje, když dojde ke scénáři rozděleného mozku. Další informace najdete v tématu Může Pacemaker ohražovat uzel clusteru s nejmenšími spuštěnými prostředky?. - Vlastnost
priority-fencing-delay
se vztahuje na Pacemaker verze 2.0.4-6.el8 nebo vyšší a v clusteru se dvěma uzly. Pokud nakonfigurujete vlastnost clusterupriority-fencing-delay
, nemusíte tuto vlastnost nastavovatpcmk_delay_max
. Pokud je ale verze Pacemaker menší než 2.0.4-6.el8, musíte vlastnost nastavitpcmk_delay_max
. - Pokyny k nastavení vlastnosti clusteru
priority-fencing-delay
najdete v příslušných dokumentech SAP ASCS/ERS a SAP HANA pro vertikální navýšení kapacity.
Operace monitorování a šermování jsou deserializovány. V důsledku toho platí, že pokud je spuštěná operace monitorování a souběžná událost ohraničení, nedojde ke zpoždění převzetí služeb při selhání clusteru, protože operace monitorování je již spuštěná.
[1] Povolení použití zařízení pro oplocení
sudo pcs property set stonith-enabled=true
Tip
Agent plotu Azure vyžaduje odchozí připojení k veřejným koncovým bodům. Další informace spolu s možnými řešeními najdete v tématu Připojení veřejného koncového bodu pro virtuální počítače pomocí standardního nástroje pro vyrovnávání zatížení.
Konfigurace Pacemakeru pro naplánované události Azure
Azure nabízí naplánované události. Naplánované události se odesílají prostřednictvím služby metadat a umožňují aplikaci připravit se na tyto události.
Agent azure-events-az
prostředků Pacemaker monitoruje naplánované události Azure. Pokud se zjistí události a agent prostředků určí, že je k dispozici jiný uzel clusteru, nastaví atribut stavu clusteru.
Pokud je atribut stavu clusteru nastavený pro uzel, omezení umístění aktivuje a všechny prostředky s názvy, které nezačínají health-
, se migrují mimo uzel s naplánovanou událostí. Jakmile je ovlivněný uzel clusteru bez spuštěných prostředků clusteru, je naplánovaná událost potvrzena a může provést její akci, jako je restartování.
[A] Ujistěte se, že je balíček pro
azure-events-az
agenta již nainstalovaný a aktuální.RHEL 8.x: sudo dnf info resource-agents RHEL 9.x: sudo dnf info resource-agents-cloud
Minimální požadavky na verzi:
- RHEL 8.4:
resource-agents-4.1.1-90.13
- RHEL 8.6:
resource-agents-4.9.0-16.9
- RHEL 8.8:
resource-agents-4.9.0-40.1
- RHEL 9.0:
resource-agents-cloud-4.10.0-9.6
- RHEL 9.2 a novější:
resource-agents-cloud-4.10.0-34.1
- RHEL 8.4:
[1] Nakonfigurujte prostředky v Pacemakeru.
#Place the cluster in maintenance mode sudo pcs property set maintenance-mode=true
[1] Nastavte strategii stavu clusteru Pacemaker a omezení.
sudo pcs property set node-health-strategy=custom sudo pcs constraint location 'regexp%!health-.*' \ rule score-attribute='#health-azure' \ defined '#uname'
Důležité
Nedefinujte žádné další prostředky v clusteru počínaje
health-
prostředky popsanými v dalších krocích.[1] Nastavte počáteční hodnotu atributů clusteru. Spusťte pro každý uzel clusteru a pro prostředí se škálováním na více instancí, včetně virtuálního počítače tvůrce většiny.
sudo crm_attribute --node prod-cl1-0 --name '#health-azure' --update 0 sudo crm_attribute --node prod-cl1-1 --name '#health-azure' --update 0
[1] Nakonfigurujte prostředky v Pacemakeru. Ujistěte se, že zdroje začínají
health-azure
na .sudo pcs resource create health-azure-events \ ocf:heartbeat:azure-events-az op monitor interval=10s sudo pcs resource clone health-azure-events allow-unhealthy-nodes=true
Využít cluster Pacemaker z režimu údržby.
sudo pcs property set maintenance-mode=false
Vymažte všechny chyby během povolování a ověřte, že
health-azure-events
se prostředky úspěšně spustily na všech uzlech clusteru.sudo pcs resource cleanup
První spuštění dotazu pro naplánované události může trvat až dvě minuty. Testování Pacemakeru s plánovanými událostmi může pro virtuální počítače clusteru používat akce restartování nebo opětovného nasazení. Další informace naleznete v tématu Naplánované události.
Volitelná konfigurace ohraničení
Tip
Tato část je použitelná pouze v případě, že chcete nakonfigurovat speciální šermovací zařízení fence_kdump
.
Pokud potřebujete shromáždit diagnostické informace v rámci virtuálního počítače, může být užitečné nakonfigurovat jiné zařízení pro šermování na základě plotového agenta fence_kdump
. Agent fence_kdump
může zjistit, že uzel zadal zotavení po havárii kdump a může službě pro zotavení po havárii umožnit dokončení před vyvolání jiných metod dělení. Všimněte si, že fence_kdump
při používání virtuálních počítačů Azure se nejedná o náhradu tradičních mechanismů plotu, jako je agent plotu Azure.
Důležité
Mějte na paměti, že pokud fence_kdump
je nakonfigurované jako zařízení pro vyrovnávání na první úrovni, představuje zpoždění v operacích ohraničení a zpoždění při převzetí služeb při selhání prostředků aplikace.
Pokud dojde k úspěšnému zjištění výpisu stavu systému, oznamování se zpozdí, dokud se služba zotavení po havárii neskončí. Pokud je uzel, který selhal, nedostupný nebo pokud nereaguje, je ohraničení zpožděno podle času určeného časem, nakonfigurovaného počtu iterací a časového limitu fence_kdump
. Další informace najdete v tématu Návody konfigurace fence_kdump v clusteru Red Hat Pacemaker?.
Navrhovaný fence_kdump
časový limit může být potřeba přizpůsobit konkrétnímu prostředí.
Doporučujeme nakonfigurovat fence_kdump
ohraničení pouze v případě, že je to potřeba ke shromažďování diagnostiky na virtuálním počítači a vždy v kombinaci s tradičními metodami plotu, jako je agent plotu Azure.
Následující články znalostní báze Red Hat obsahují důležité informace o konfiguraci fence_kdump
šermování:
- Viz Návody konfigurace fence_kdump v clusteru Red Hat Pacemaker?.
- Podívejte se, jak nakonfigurovat nebo spravovat úrovně fencingu v clusteru RHEL pomocí Pacemakeru.
- Viz fence_kdump selže s časovým limitem po X sekundách v clusteru RHEL 6 nebo 7 HA s nástroji kexec-tools staršími než 2.0.14.
- Informace o tom, jak změnit výchozí časový limit, najdete v tématu Návody konfigurace kdump pro použití s doplňkem RHEL 6, 7, 8 HA?.
- Informace o tom, jak snížit zpoždění převzetí služeb při selhání při použití
fence_kdump
, najdete v tématu Můžu snížit očekávané zpoždění převzetí služeb při selhání při přidávání fence_kdump konfigurace?.
Spuštěním následujících volitelných kroků přidejte fence_kdump
kromě konfigurace agenta plotu Azure konfiguraci jako první úroveň.
[A] Ověřte, zda
kdump
je aktivní a nakonfigurovaná.systemctl is-active kdump # Expected result # active
[A] Nainstalujte agenta plotu
fence_kdump
.yum install fence-agents-kdump
[1] Vytvořte
fence_kdump
v clusteru zařízení pro ohraničení.pcs stonith create rsc_st_kdump fence_kdump pcmk_reboot_action="off" pcmk_host_list="prod-cl1-0 prod-cl1-1" timeout=30
[1] Nakonfigurujte úrovně šermování tak, aby se nejprve zapojil mechanismus šermingu
fence_kdump
.pcs stonith create rsc_st_kdump fence_kdump pcmk_reboot_action="off" pcmk_host_list="prod-cl1-0 prod-cl1-1" pcs stonith level add 1 prod-cl1-0 rsc_st_kdump pcs stonith level add 1 prod-cl1-1 rsc_st_kdump pcs stonith level add 2 prod-cl1-0 rsc_st_azure pcs stonith level add 2 prod-cl1-1 rsc_st_azure # Check the fencing level configuration pcs stonith level # Example output # Target: prod-cl1-0 # Level 1 - rsc_st_kdump # Level 2 - rsc_st_azure # Target: prod-cl1-1 # Level 1 - rsc_st_kdump # Level 2 - rsc_st_azure
[A] Povolte požadované porty pro
fence_kdump
průchod bránou firewall.firewall-cmd --add-port=7410/udp firewall-cmd --add-port=7410/udp --permanent
[A] Ujistěte se, že soubor obrázku
initramfs
obsahujefence_kdump
soubory ahosts
soubory. Další informace najdete v tématu Návody konfigurace fence_kdump v clusteru Red Hat Pacemaker?.lsinitrd /boot/initramfs-$(uname -r)kdump.img | egrep "fence|hosts" # Example output # -rw-r--r-- 1 root root 208 Jun 7 21:42 etc/hosts # -rwxr-xr-x 1 root root 15560 Jun 17 14:59 usr/libexec/fence_kdump_send
[A] Proveďte konfiguraci
/etc/kdump.conf
,fence_kdump_nodes
abyste se vyhnulifence_kdump
selhání s vypršením časového limitu pro některékexec-tools
verze. Další informace najdete v tématu fence_kdump vypršení časového limitu v případě, že fence_kdump_nodes není zadaný pomocí nástrojů kexec-tools verze 2.0.15 nebo novější a fence_kdump selže s časovým limitem po X sekundách v clusteru RHEL 6 nebo 7 s verzemi kexec-tools staršími než 2.0.14. Tady je uvedena příklad konfigurace clusteru se dvěma uzly. Po provedení změny musí/etc/kdump.conf
být image kdump znovu vygenerována. Pokud chcete službu znovu vygenerovat, restartujtekdump
ji.vi /etc/kdump.conf # On node prod-cl1-0 make sure the following line is added fence_kdump_nodes prod-cl1-1 # On node prod-cl1-1 make sure the following line is added fence_kdump_nodes prod-cl1-0 # Restart the service on each node systemctl restart kdump
Otestujte konfiguraci chybovým ukončením uzlu. Další informace najdete v tématu Návody konfigurace fence_kdump v clusteru Red Hat Pacemaker?.
Důležité
Pokud je cluster již produktivní, naplánujte test odpovídajícím způsobem, protože selhání uzlu má vliv na aplikaci.
echo c > /proc/sysrq-trigger
Další kroky
- Viz plánování a implementace virtuálních počítačů Azure pro SAP.
- Viz nasazení virtuálních počítačů Azure pro SAP.
- Viz nasazení DBMS služby Azure Virtual Machines pro SAP.
- Informace o vytvoření vysoké dostupnosti a plánování zotavení po havárii SAP HANA na virtuálních počítačích Azure najdete v tématu Vysoká dostupnost SAP HANA ve službě Azure Virtual Machines.