nasazení SAP HANA systému se škálováním na více systémů s pohotovostním uzlem na virtuálních počítačích Azure pomocí Azure NetApp Files v Red Hat Enterprise Linux
tento článek popisuje, jak nasadit vysoce dostupný SAP HANA systém v konfiguraci se škálováním na více systémů pomocí úsporného režimu v Azure Red Hat Enterprise Linux virtuálních počítačů (vm) pomocí Azure NetApp Files pro sdílené svazky úložiště.
V ukázkových konfiguracích, instalačních příkazech atd. instance HANA je 03 a ID systému Hana je HN1. příklady jsou založené na HANA 2,0 SP4 a Red Hat Enterprise Linux pro SAP 7,6.
Poznámka
Tento článek obsahuje odkazy na Hlavní a podřízené výrazy, které Microsoft už nepoužívá. Po odebrání těchto podmínek ze softwaru je odebereme z tohoto článku.
Než začnete, přečtěte si následující poznámky a dokumenty SAP:
- Dokumentace k Azure NetApp Files
- Poznámka 1928533 pro SAP obsahuje:
- Seznam velikostí virtuálních počítačů Azure, které jsou podporované pro nasazení softwaru SAP
- Důležité informace o kapacitě pro velikosti virtuálních počítačů Azure
- Podporovaný software SAP a kombinace operačního systému (OS) a databáze
- požadovaná verze jádra SAP pro Windows a Linux v Microsoft Azure
- SAP Note 2015553: seznam požadavků pro nasazení softwaru SAP podporovaného SAP v Azure
- poznámka SAP [2002167] má doporučená nastavení operačního systému pro Red Hat Enterprise Linux
- poznámka SAP poznámka 2009879 obsahuje pokyny pro SAP HANA Red Hat Enterprise Linux
- SAP Note 2178632: obsahuje podrobné informace o všech metrikách monitorování hlášených pro SAP v Azure.
- SAP Note 2191498: obsahuje požadovanou verzi agenta hostitele SAP pro Linux v Azure.
- SAP Note 2243692: obsahuje informace o LICENCOVÁNí SAP v systému Linux v Azure
- SAP Note 1999351: obsahuje další informace o řešení potíží pro rozšíření Azure Enhanced Monitoring pro SAP.
- Poznámka SAP poznámky 1900823: obsahuje informace o požadavcích na úložiště SAP HANA.
- SAP Community Wiki: obsahuje všechny požadované poznámky SAP pro Linux
- Plánování a implementace služby Azure Virtual Machines pro SAP v systému Linux
- Nasazení Azure Virtual Machines pro SAP v systému Linux
- Nasazení Azure Virtual Machines DBMS pro SAP v systému Linux
- Obecná dokumentace k RHEL
- Dokumentace k RHEL specifické pro Azure:
- NetApp aplikace SAP na Microsoft Azure pomocí Azure NetApp Files
- Svazky NFS v4.1 ve službě Azure NetApp Files pro SAP HANA
Přehled
Jednou z metod pro dosažení vysoké dostupnosti HANA je konfigurace automatického převzetí služeb při selhání hostitele. Chcete-li konfigurovat automatické převzetí služeb při selhání hostitele, přidejte jeden nebo více virtuálních počítačů do systému HANA a nakonfigurujte je jako pohotovostní uzly. Když aktivní uzel neproběhne úspěšně, převezme pohotovostní uzel automaticky. V předkládaných konfiguracích s virtuálními počítači Azure dosáhnete automatického převzetí služeb při selhání pomocí systému souborů NFS na Azure NetApp Files.
Poznámka
Pohotovostní uzel potřebuje přístup ke všem svazkům databáze. Svazky HANA musí být připojené jako názvů NFSv4 svazky. Vylepšený mechanizmus zapůjčení na základě zapůjčení souborů v protokolu názvů NFSv4 se používá k I/O monitorování zón.
Důležité
Chcete-li vytvořit podporovanou konfiguraci, je nutné nasadit svazky dat HANA a protokolů jako svazky NFSv 4.1 a připojit je pomocí protokolu NFSv 4.1. Konfigurace automatického převzetí služeb při selhání hostitele HANA s pohotovostním uzlem není v NFSv3 podporovaná.

V předchozím diagramu, který následuje SAP HANA doporučení pro síť, jsou tři podsítě zastoupeny v jedné virtuální síti Azure:
- Pro komunikaci klientů
- Pro komunikaci se systémem úložiště
- Pro interní komunikaci mezi uzly HANA
Svazky NetApp Azure jsou v samostatné podsíti, delegované na Azure NetApp Files.
V tomto příkladu konfigurace jsou podsítě:
client10.9.1.0/26storage10.9.3.0/26hana10.9.2.0/26anf10.9.0.0/26 (delegovaná podsíť pro Azure NetApp Files)
Nastavení infrastruktury Azure NetApp Files
Než budete pokračovat v nastavení infrastruktury Azure NetApp Files, Seznamte se s Azure NetApp Files dokumentaci.
Azure NetApp Files je k dispozici v několika oblastech Azure. Podívejte se, jestli vybraná oblast Azure nabízí Azure NetApp Files.
Informace o dostupnosti Azure NetApp Files podle oblasti Azure najdete v tématu Azure NetApp Files dostupnosti podle oblasti Azure.
Nasazení prostředků Azure NetApp Files
V následujících pokynech se předpokládá, že jste už nasadili službu Azure Virtual Network. Azure NetApp Files prostředky a virtuální počítače, kde budou připojené prostředky Azure NetApp Files, musí být nasazené ve stejné virtuální síti Azure nebo ve virtuálních sítích Azure s partnerským vztahem.
Podle pokynů v části Vytvoření účtu NetAppvytvořte ve vybrané oblasti Azure účet NetApp.
Nastavte fond kapacit Azure NetApp Files podle pokynů v části nastavení fondu kapacity Azure NetApp Files.
Architektura HANA uvedená v tomto článku používá jeden Azure NetApp Files fond kapacit na úrovni služeb úrovně Ultra . pro úlohy HANA v Azure doporučujeme použít Azure NetApp Files úroveň služebpro Ultra nebo Premium .
Delegování podsítě na Azure NetApp Files, jak je popsáno v pokynech delegování podsítě na Azure NetApp Files.
Nasaďte Azure NetApp Files svazky podle pokynů v tématu vytvoření svazku NFS pro Azure NetApp Files.
Když nasazujete svazky, ujistěte se, že jste vybrali verzi nfsv 4.1 . Nasaďte svazky v určené Azure NetApp Files podsíti. IP adresy svazků Azure NetApp se přiřazují automaticky.
Pamatujte, že prostředky Azure NetApp Files a virtuální počítače Azure musí být ve stejné virtuální síti Azure nebo ve virtuálních sítích Azure s partnerským vztahem. Například HN1-data-Mnt00001, HN1-log-mnt00001 atd. jsou názvy svazků a NFS://10.9.0.4/HN1-data-mnt00001, NFS://10.9.0.4/HN1-log-mnt00001 atd. jsou cesty k souborům pro Azure NetApp Files svazky.
- Volume HN1-data-mnt00001 (NFS://10.9.0.4/HN1-data-mnt00001)
- Volume HN1-data-mnt00002 (NFS://10.9.0.4/HN1-data-mnt00002)
- Volume HN1-log-mnt00001 (NFS://10.9.0.4/HN1-log-mnt00001)
- Volume HN1-log-mnt00002 (NFS://10.9.0.4/HN1-log-mnt00002)
- svazek HN1– Shared (NFS://10.9.0.4/HN1– Shared)
V tomto příkladu jsme pro každý datový svazek HANA a objem protokolu používali samostatný svazek Azure NetApp Files. Pro zajištění vyšší nákladů optimalizovaných pro menší nebo neproduktivní systémy je možné umístit všechna připojení dat na jeden svazek a všechny protokoly se připojí na jiný jednotlivý svazek.
Důležité informace
Vzhledem k tomu, že vytváříte Azure NetApp Files pro SAP HANA možností horizontálního navýšení kapacity při použití uzlů, pamatujte na následující důležité informace:
- Minimální fond kapacit je 4 tebibytes (TiB).
- Minimální velikost svazku je 100 gibibajtech (GiB).
- Azure NetApp Files a všechny virtuální počítače, na kterých budou připojené Azure NetApp Files svazky, musí být ve stejné virtuální síti Azure nebo v partnerských virtuálních sítích ve stejné oblasti.
- Vybraná virtuální síť musí mít podsíť, která je delegovaná na Azure NetApp Files.
- Propustnost Azure NetApp Filesho svazku je funkcí kvóty svazku a úrovně služeb, jak je uvedeno v části úroveň služby pro Azure NetApp Files. Při určování velikosti svazků Azure NetApp pro HANA se ujistěte, že výsledná propustnost splňuje požadavky na systém HANA.
- Pomocí Azure NetApp Files zásady exportumůžete řídit povolené klienty, typ přístupu (jen pro čtení i zápis, jen pro čtení atd.).
- Funkce Azure NetApp Files ještě nezohledňují zóny. V současné době není tato funkce nasazena ve všech zónách dostupnosti v oblasti Azure. Mějte na paměti, že v některých oblastech Azure máte vliv na potenciální latenci.
Důležité
U úloh SAP HANA je klíčová nízká latence. Spolupracujte se zástupcem Microsoftu a zajistěte, aby se virtuální počítače a Azure NetApp Files svazky nasadily v těsné blízkosti.
Určení velikosti databáze HANA v Azure NetApp Files
Propustnost Azure NetApp Filesho svazku je funkce velikosti svazku a úrovně služby, jak je uvedeno v části úroveň služby pro Azure NetApp Files.
Při návrhu infrastruktury pro SAP v Azure si pamatujte na některé minimální požadavky na úložiště SAP, které se přeloží na minimální propustnost:
- Čtení a zápis v/Hana/log 250 megabajtů za sekundu (MB/s) s velikostí 1 MB I/O.
- Aktivita čtení minimálně 400 MB/s pro/Hana/data pro velikosti vstupně-výstupních operací 16-MB a 64-MB
- Aktivita zápisu alespoň 250 MB/s pro/Hana/data s velikostí I/O 16 MB a 64-MB.
Omezení propustnosti Azure NetApp Files na 1 TIB kvót:
- Premium Storage vrstva – 64 MiB/s
- Ultra Storage úrovně – 128 MiB/s
Aby splňovala požadavky na minimální propustnost SAP pro data a protokol, a pokyny pro/Hana/Shared, budou Doporučené velikosti:
| Svazek | Velikost Premium Storage úroveň |
Velikost úroveň Ultra Storage |
Podporovaný protokol NFS |
|---|---|---|---|
| /hana/log/ | 4 TiB | 2 TiB | v 4.1 |
| /hana/data | 6,3 TiB | 3,2 TiB | v 4.1 |
| /hana/shared | 1xRAM na 4 pracovní uzly | 1xRAM na 4 pracovní uzly | V3 nebo v 4.1 |
konfigurace SAP HANA pro rozložení prezentovaná v tomto článku pomocí Azure NetApp Files úrovně Ultra Storage by byla:
| Svazek | Velikost úroveň Ultra Storage |
Podporovaný protokol NFS |
|---|---|---|
| /hana/log/mnt00001 | 2 TiB | v 4.1 |
| /hana/log/mnt00002 | 2 TiB | v 4.1 |
| /hana/data/mnt00001 | 3,2 TiB | v 4.1 |
| /hana/data/mnt00002 | 3,2 TiB | v 4.1 |
| /hana/shared | 2 TiB | V3 nebo v 4.1 |
Poznámka
Níže uvedená doporučení pro nastavení velikosti Azure NetApp Files jsou zaměřená na splnění minimálních požadavků, které SAP doporučuje pro poskytovatele infrastruktury. V reálných scénářích nasazení a úloh nemusí být tyto velikosti dostatečné. Tato doporučení použijte jako výchozí bod a přizpůsobte je na základě požadavků konkrétního zatížení.
Tip
Velikost svazků Azure NetApp Files lze dynamicky měnit bez nutnosti odpojení svazků, zastavení virtuálních počítačů nebo zastavení SAP HANA. Tento přístup umožňuje flexibilní splnění očekávané i nepředvídatelné propustnosti aplikace.
Nasazení virtuálních počítačů se systémem Linux prostřednictvím Azure Portal
Nejprve je třeba vytvořit svazky Azure NetApp Files. Pak proveďte následující kroky:
Vytvořte podsítě virtuální sítě Azure ve virtuální síti Azure.
Nasaďte virtuální počítače.
Vytvořte další síťová rozhraní a připojte síťová rozhraní k odpovídajícím virtuálním počítačům.
Každý virtuální počítač má tři síťová rozhraní, která odpovídají třem podsítím virtuální sítě Azure (
clientstorageahana).Další informace najdete v tématu Vytvoření virtuálního počítače se systémem Linux v Azure s několika síťovými kartami.
Důležité
U úloh SAP HANA je klíčová nízká latence. Pokud chcete dosáhnout nízké latence, ve spolupráci se zástupcem Microsoftu se ujistěte, že jsou virtuální počítače a svazky Azure NetApp Files nasazené v těsné blízkosti. Pokud onboardujete nový systém SAP HANA, který využívá službu Azure NetApp Files pro SAP HANA, odešlete potřebné informace.
V dalších pokynech se předpokládá, že jste už vytvořili skupinu prostředků, virtuální síť Azure a tři podsítě virtuální sítě Azure: client storage a hana . Když nasadíte virtuální počítače, vyberte podsíť klienta, aby bylo síťové rozhraní klienta primárním rozhraním virtuálních počítačů. Budete taky muset nakonfigurovat explicitní trasu k Azure NetApp Files delegované podsíti přes bránu podsítě úložiště.
Důležité
Ujistěte se, že operační systém, který vyberete, je SAP – certifikováno pro SAP HANA na specifických typech virtuálních počítačů, které používáte. Seznam SAP HANA certifikovaných typů virtuálních počítačů a verzí operačních systémů pro tyto typy najdete na webu SAP HANA Certified IaaS Platforms . Kliknutím na podrobnosti o typu tohoto virtuálního počítače získáte úplný seznam SAP HANA podporovaných verzí operačního systému pro daný typ.
Vytvořte skupinu dostupnosti pro SAP HANA. Ujistěte se, že jste nastavili maximální doménu aktualizace.
Vytvořte tři virtuální počítače (hanadb1, hanadb2, hanadb3) pomocí následujících kroků:
a. použijte Red Hat Enterprise Linux image v galerii Azure, která je podporovaná pro SAP HANA. V tomto příkladu jsme použili image RHEL-SAP-HA 7,6.
b. Vyberte skupinu dostupnosti, kterou jste předtím vytvořili pro SAP HANA.
c. Vyberte podsíť klientské virtuální sítě Azure. Vyberte možnost akcelerovaná síť.
Když nasadíte virtuální počítače, název síťového rozhraní se vygeneruje automaticky. V těchto pokynech pro zjednodušení budeme odkazovat na automaticky generovaná síťová rozhraní, která jsou připojená k podsíti virtuální sítě Azure Client, jako hanadb1-Client, hanadb2-Client a hanadb3-Client.
Vytvořte tři síťová rozhraní, jednu pro každý virtuální počítač, pro
storagepodsíť virtuální sítě (v tomto příkladu hanadb1-Storage, hanadb2-Storage a hanadb3-Storage).Vytvořte tři síťová rozhraní, jednu pro každý virtuální počítač, pro
hanapodsíť virtuální sítě (v tomto příkladu hanadb1-Hana, hanadb2-Hana a hanadb3-Hana).Připojte nově vytvořená virtuální síťová rozhraní k odpovídajícím virtuálním počítačům pomocí následujících kroků:
a. Přejít na virtuální počítač v Azure Portal.
b. V levém podokně vyberte Virtual Machines. Vyfiltrujte název virtuálního počítače (například hanadb1) a potom vyberte virtuální počítač.
c. V podokně Přehled výběrem možnosti Zastavit virtuální počítač udělte.
d. Vyberte Sítě a pak připojte síťové rozhraní. V rozevíracím seznamu Připojit síťové rozhraní vyberte již vytvořená síťová rozhraní pro
storagehanapodsítě a .e. Vyberte Uložit.
f. Opakujte kroky b až e pro zbývající virtuální počítače (v našem příkladu hanadb2 a hanadb3).
například Virtuální počítače nechte v zastaveném stavu. Dále povolíme akcelerované síťové služby pro všechna nově připojená síťová rozhraní.
Následujícím postupem povolte akcelerované síťové služby pro další síťová rozhraní pro podsítě
storagehanaa :a. Otevřete Azure Cloud Shell v Azure Portal.
b. Spuštěním následujících příkazů povolte akcelerované síťové služby pro další síťová rozhraní připojená k podsíti
storagehanaa .az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-storage --accelerated-networking true az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-storage --accelerated-networking true az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-storage --accelerated-networking true az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-hana --accelerated-networking true az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-hana --accelerated-networking true az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-hana --accelerated-networking trueSpusťte virtuální počítače pomocí následujících kroků:
a. V levém podokně vyberte Virtual Machines. Vyfiltrujte název virtuálního počítače (například hanadb1) a pak ho vyberte.
b. V podokně Přehled vyberte Spustit.
Konfigurace a příprava operačního systému
Pokyny v dalších částech mají jednu z následujících předpon:
- [A]: Platí pro všechny uzly.
- [1]: Vztahuje se jenom na uzel 1.
- [2]: Platí jenom pro uzel 2.
- [3]: Platí jenom pro uzel 3.
Nakonfigurujte a připravte operační systém pomocí následujících kroků:
[A] Udržujte soubory hostitele na virtuálních počítačích. Zahrnte položky pro všechny podsítě. Následující položky byly přidány do
/etc/hostspro tento příklad.# Storage 10.9.3.4 hanadb1-storage 10.9.3.5 hanadb2-storage 10.9.3.6 hanadb3-storage # Client 10.9.1.5 hanadb1 10.9.1.6 hanadb2 10.9.1.7 hanadb3 # Hana 10.9.2.4 hanadb1-hana 10.9.2.5 hanadb2-hana 10.9.2.6 hanadb3-hana[A] Přidejte síťovou trasu, aby komunikace s Azure NetApp Files přes síťové rozhraní úložiště.
V tomto příkladu
Networkmanagerpoužijeme ke konfiguraci další síťové trasy. Následující pokyny předpokládají, že síťové rozhraní úložiště jeeth1.
Nejprve určete název připojení pro zařízeníeth1. V tomto příkladu je název připojení proeth1zařízeníWired connection 1.# Execute as root nmcli connection # Result #NAME UUID TYPE DEVICE #System eth0 5fb06bd0-0bb0-7ffb-45f1-d6edd65f3e03 ethernet eth0 #Wired connection 1 4b0789d1-6146-32eb-83a1-94d61f8d60a7 ethernet eth1Potom nakonfigurujte další trasu do Azure NetApp Files sítě prostřednictvím
eth1.# Add the following route # ANFDelegatedSubnet/cidr via StorageSubnetGW dev StorageNetworkInterfaceDevice nmcli connection modify "Wired connection 1" +ipv4.routes "10.9.0.0/26 10.9.3.1"Restartováním virtuálního počítače aktivujte změny.
[A] Nainstalujte balíček klienta NFS.
yum install nfs-utils[A] Příprava operačního systému na SAP HANA v Azure NetApp s NFS, jak je popsáno v článku Aplikace NetApp SAPna Microsoft Azure pomocí Azure NetApp Files . Vytvořte konfigurační soubor /etc/sysctl.d/netapp-hana.conf pro nastavení konfigurace NetApp.
vi /etc/sysctl.d/netapp-hana.conf # Add the following entries in the configuration file net.core.rmem_max = 16777216 net.core.wmem_max = 16777216 net.core.rmem_default = 16777216 net.core.wmem_default = 16777216 net.core.optmem_max = 16777216 net.ipv4.tcp_rmem = 65536 16777216 16777216 net.ipv4.tcp_wmem = 65536 16777216 16777216 net.core.netdev_max_backlog = 300000 net.ipv4.tcp_slow_start_after_idle=0 net.ipv4.tcp_no_metrics_save = 1 net.ipv4.tcp_moderate_rcvbuf = 1 net.ipv4.tcp_window_scaling = 1 net.ipv4.tcp_timestamps = 1 net.ipv4.tcp_sack = 1[A] Vytvořte konfigurační soubor /etc/sysctl.d/ms-az.conf s dalšími nastaveními optimalizace.
vi /etc/sysctl.d/ms-az.conf # Add the following entries in the configuration file net.ipv6.conf.all.disable_ipv6 = 1 net.ipv4.tcp_max_syn_backlog = 16348 net.ipv4.conf.all.rp_filter = 0 sunrpc.tcp_slot_table_entries = 128 vm.swappiness=10
Tip
Vyhněte se net.ipv4.ip_local_port_range a net.ipv4.ip_local_reserved_ports explicitně v konfiguračních souborech sysctl, aby agent hostitele SAP spravovat rozsahy portů. Další podrobnosti najdete v poznámkách SAP 2382421.
[A] Upravte nastavení sunrpc podle doporučení v části Aplikace NetApp SAP na Microsoft Azure pomocí Azure NetApp Files.
vi /etc/modprobe.d/sunrpc.conf # Insert the following line options sunrpc tcp_max_slot_table_entries=128[A] Konfigurace Red Hatu pro HANA.
Nakonfigurujte RHEL podle popisu v tématu SAP Note 2292690, 2455582, [2593824 a] https://access.redhat.com/solutions/2447641 .
Poznámka
Pokud instalujete HANA 2.0 SP04, budete muset nainstalovat balíček, jak je popsáno v poznámkové 2593824 SAP, než budete moci
compat-sap-c++-7nainstalovat SAP HANA. []
Připojení Azure NetApp Files svazků
[A] Vytvořte přípojné body pro svazky databáze HANA.
mkdir -p /hana/data/HN1/mnt00001 mkdir -p /hana/data/HN1/mnt00002 mkdir -p /hana/log/HN1/mnt00001 mkdir -p /hana/log/HN1/mnt00002 mkdir -p /hana/shared mkdir -p /usr/sap/HN1[1] Vytvořte adresáře specifické pro uzel pro /usr/sap na HN1-shared.
# Create a temporary directory to mount HN1-shared mkdir /mnt/tmp # if using NFSv3 for this volume, mount with the following command mount 10.9.0.4:/HN1-shared /mnt/tmp # if using NFSv4.1 for this volume, mount with the following command mount -t nfs -o sec=sys,vers=4.1 10.9.0.4:/HN1-shared /mnt/tmp cd /mnt/tmp mkdir shared usr-sap-hanadb1 usr-sap-hanadb2 usr-sap-hanadb3 # unmount /hana/shared cd umount /mnt/tmp[A] Ověřte nastavení domény NFS. Ujistěte se, že je doména nakonfigurovaná jako Azure NetApp Files domény, t.j. mapování je
defaultv4iddomain.comnastavené na nikdo.Důležité
Nezapomeňte ve virtuálním počítači nastavit doménu SYSTÉMU souborů NFS tak, aby odpovídala výchozí
/etc/idmapd.confkonfiguraci domény v Azure NetApp Files:defaultv4iddomain.com. Pokud dojde k neshodě mezi konfigurací domény na klientovi NFS (tj. virtuálním počítači) a serverem NFS, tj. konfigurací Azure NetApp, zobrazí se oprávnění pro soubory na svazcích Azure NetApp, které jsou připojené k virtuálním počítačům, jakonobody.sudo cat /etc/idmapd.conf # Example [General] Domain = defaultv4iddomain.com [Mapping] Nobody-User = nobody Nobody-Group = nobody[A]
nfs4_disable_idmappingOvěřte. Měla by být nastavená na hodnotu Y. Pokud chcete vytvořit adresářovou strukturu,nfs4_disable_idmappingve které se nachází , spusťte příkaz mount. Adresář v adresáři /sys/modules nebudete moct vytvořit ručně, protože přístup je vyhrazený pro jádro nebo ovladače.# Check nfs4_disable_idmapping cat /sys/module/nfs/parameters/nfs4_disable_idmapping # If you need to set nfs4_disable_idmapping to Y mkdir /mnt/tmp mount 10.9.0.4:/HN1-shared /mnt/tmp umount /mnt/tmp echo "Y" > /sys/module/nfs/parameters/nfs4_disable_idmapping # Make the configuration permanent echo "options nfs nfs4_disable_idmapping=Y" >> /etc/modprobe.d/nfs.confDalší podrobnosti o tom, jak změnit
nfs4_disable_idmappingparametr, najdete v tématu https://access.redhat.com/solutions/1749883 .[A] Připojte sdílené Azure NetApp Files svazky.
sudo vi /etc/fstab # Add the following entries 10.9.0.4:/HN1-data-mnt00001 /hana/data/HN1/mnt00001 nfs rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 0 0 10.9.0.4:/HN1-data-mnt00002 /hana/data/HN1/mnt00002 nfs rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 0 0 10.9.0.4:/HN1-log-mnt00001 /hana/log/HN1/mnt00001 nfs rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 0 0 10.9.0.4:/HN1-log-mnt00002 /hana/log/HN1/mnt00002 nfs rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 0 0 10.9.0.4:/HN1-shared/shared /hana/shared nfs rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 0 0 # Mount all volumes sudo mount -a[1] Připojte svazky specifické pro uzel k databázi hanadb1.
sudo vi /etc/fstab # Add the following entries 10.9.0.4:/HN1-shared/usr-sap-hanadb1 /usr/sap/HN1 nfs rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 0 0 # Mount the volume sudo mount -a[2] Připojte svazky specifické pro uzel k databázi hanadb2.
sudo vi /etc/fstab # Add the following entries 10.9.0.4:/HN1-shared/usr-sap-hanadb2 /usr/sap/HN1 nfs rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 0 0 # Mount the volume sudo mount -a[3] Připojte svazky specifické pro uzel k databázi hanadb3.
sudo vi /etc/fstab # Add the following entries 10.9.0.4:/HN1-shared/usr-sap-hanadb3 /usr/sap/HN1 nfs rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 0 0 # Mount the volume sudo mount -a[A] Ověřte, že jsou všechny svazky HANA připojené k protokolu NFS verze NFSv4.
sudo nfsstat -m # Verify that flag vers is set to 4.1 # Example from hanadb1 /hana/data/HN1/mnt00001 from 10.9.0.4:/HN1-data-mnt00001 Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4 /hana/log/HN1/mnt00002 from 10.9.0.4:/HN1-log-mnt00002 Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4 /hana/data/HN1/mnt00002 from 10.9.0.4:/HN1-data-mnt00002 Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4 /hana/log/HN1/mnt00001 from 10.9.0.4:/HN1-log-mnt00001 Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4 /usr/sap/HN1 from 10.9.0.4:/HN1-shared/usr-sap-hanadb1 Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4 /hana/shared from 10.9.0.4:/HN1-shared/shared Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
Instalace
V tomto příkladu pro nasazení SAP HANA v konfiguraci škálování na více instancí s pohotovostním uzlem s Azure jsme použili HANA 2.0 SP4.
Příprava na instalaci HANA
[A] Před instalací HANA nastavte kořenové heslo. Po dokončení instalace můžete kořenové heslo zakázat. Spusťte jako
rootpříkazpasswd.[1] Ověřte, že se můžete přihlásit přes SSH k hanadb2 a hanadb3, aniž by se výzva k zadání hesla.
ssh root@hanadb2 ssh root@hanadb3[A] Nainstalujte další balíčky, které jsou vyžadovány pro HANA 2.0 SP4. Další informace najdete v tématu SAP Note 2593824.
yum install libgcc_s1 libstdc++6 compat-sap-c++-7 libatomic1[2], [3] Změňte vlastnictví SAP HANA
dataloga adresářů na hn1 adm.# Execute as root sudo chown hn1adm:sapsys /hana/data/HN1 sudo chown hn1adm:sapsys /hana/log/HN1[A] Dočasně zakažte bránu firewall, aby nenarušovala instalaci HANA. Po dokončení instalace HANA ji můžete znovu povolit.
# Execute as root systemctl stop firewalld systemctl disable firewalld
Instalace HANA
[1] Nainstalujte SAP HANA podle pokynů v průvodci instalací a aktualizací SAP HANA 2.0. V tomto příkladu nainstalujeme SAP HANA s hlavním uzlem, jedním pracovním procesem a jedním pohotovostním uzlem.
a. Spusťte program hdblcm z adresáře instalačního softwaru HANA. Použijte parametr
internal_networka předejte adresní prostor pro podsíť, který se používá pro interní komunikaci HANA mezi uzly../hdblcm --internal_network=10.9.2.0/26b. Na příkazovém řádku zadejte následující hodnoty:
- V možnosti Zvolit akci zadejte 1 (pro instalaci).
- V části Další součásti pro instalaci zadejte 2, 3.
- Pro instalační cestu: stiskněte Enter (výchozí hodnota je /hana/shared).
- Jako Název místního hostitele: stisknutím klávesy Enter přijměte výchozí hodnotu.
- V části Chcete do systému přidat hostitele? zadejte y.
- Pro přidání názvů hostitelů oddělených čárkami zadejte hanadb2, hanadb3.
- V poli Root User Name [root] (Uživatelské jméno kořenového uživatele [root]): Stisknutím klávesy Enter přijměte výchozí hodnotu.
- Pro role pro hostitele hanadb2 zadejte 1 (pro pracovní proces).
- V případě skupiny převzetí služeb při selhání hostitele pro hostitele hanadb2 [výchozí] přijměte výchozí hodnotu stisknutím klávesy Enter.
- Pokud Storage oddíl hostitele hanadb2 [ <<assign automatically> > ]: stiskněte Enter, aby se přijímala výchozí hodnota.
- V případě skupiny pracovních procesů pro hostitele hanadb2 [výchozí] přijměte výchozí hodnotu stisknutím klávesy Enter.
- V části Vybrat role pro hostitele hanadb3 zadejte 2 (pro pohotovostní režim).
- V případě skupiny převzetí služeb při selhání hostitele pro hostitele hanadb3 [výchozí] přijměte výchozí nastavení stisknutím klávesy Enter.
- Pro skupinu pracovních procesů pro hostitele hanadb3 [výchozí]: stisknutím klávesy Enter přijměte výchozí hodnotu.
- Jako SAP HANA ID systému zadejte HN1.
- Jako Číslo instance [00]: zadejte 03.
- Pro skupinu pracovních procesů místního hostitele [výchozí]: přijměte výchozí nastavení stisknutím klávesy Enter.
- V části Vybrat využití systému / Zadejte index [4] zadejte 4 (pro vlastní).
- V části Umístění datových svazků [/hana/data/HN1] přijměte výchozí nastavení stisknutím klávesy Enter.
- V části Umístění svazků protokolů [/hana/log/HN1] přijměte výchozí nastavení stisknutím klávesy Enter.
- Chcete omezit maximální přidělení paměti? [n]: zadejte n
- V poli Název hostitele certifikátu pro hostitele hanadb1 [hanadb1] přijměte výchozí hodnotu stisknutím klávesy Enter.
- V poli Název hostitele certifikátu pro hostitele hanadb2 [hanadb2] přijměte výchozí hodnotu stisknutím klávesy Enter.
- V poli Název hostitele certifikátu pro hostitele hanadb3 [hanadb3] přijměte výchozí hodnotu stisknutím klávesy Enter.
- Jako Heslo správce systému (hn1adm) zadejte heslo.
- Do pole Heslo uživatele systémové databáze zadejte heslo systému.
- Do pole Confirm System Database User (system) Password (Potvrdit heslo uživatele systémové databáze): zadejte heslo systému.
- Pro restart systému po restartování počítače? [n]: zadejte n
- V části Chcete pokračovat (a/n): ověřte souhrn, a pokud všechno vypadá dobře, zadejte y.
[1] Ověření global.ini
Zobrazte global.ini a ujistěte se, že je nastavená konfigurace interního SAP HANA komunikace mezi uzly. Ověřte část komunikace. Měl by mít adresní prostor pro
hanapodsíť a měllisteninterfaceby být nastavený na.internal. Ověřte část internal_hostname_resolution. Měla by mít IP adresy pro virtuální počítače HANA, které patří dohanapodsítě.sudo cat /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini # Example #global.ini last modified 2019-09-10 00:12:45.192808 by hdbnameserve [communication] internal_network = 10.9.2.0/26 listeninterface = .internal [internal_hostname_resolution] 10.9.2.4 = hanadb1 10.9.2.5 = hanadb2 10.9.2.6 = hanadb3[1] Přidejte mapování hostitele, abyste zajistili, že se IP adresy klienta budou používat ke komunikaci klienta. Přidejte
public_host_resolutionoddíl a přidejte odpovídající IP adresy z podsítě klienta.sudo vi /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini #Add the section [public_hostname_resolution] map_hanadb1 = 10.9.1.5 map_hanadb2 = 10.9.1.6 map_hanadb3 = 10.9.1.7[1] Restartováním SAP HANA aktivujte změny.
sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StopSystem HDB sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StartSystem HDB[1] Ověřte, že klientské rozhraní bude ke komunikaci používat IP adresy
clientz podsítě.# Execute as hn1adm /usr/sap/HN1/HDB03/exe/hdbsql -u SYSTEM -p "password" -i 03 -d SYSTEMDB 'select * from SYS.M_HOST_INFORMATION'|grep net_publicname # Expected result "hanadb3","net_publicname","10.9.1.7" "hanadb2","net_publicname","10.9.1.6" "hanadb1","net_publicname","10.9.1.5"Informace o tom, jak ověřit konfiguraci, najdete v tématu SAP Note 2183363 – Configuration of SAP HANA internal network.
[A] Znovu povolte bránu firewall.
Zastavení HANA
sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StopSystem HDBOpětovné povolení brány firewall
# Execute as root systemctl start firewalld systemctl enable firewalldOtevření potřebných portů brány firewall
Důležité
Vytvořte pravidla brány firewall, která povolí komunikaci HANA mezi uzly a klientský provoz. Požadované porty jsou uvedené na portech TCP/IP všech produktů SAP. Následující příkazy jsou jenom příkladem. V tomto scénáři s použitým systémovým číslem 03.
# Execute as root sudo firewall-cmd --zone=public --add-port=30301/tcp --permanent sudo firewall-cmd --zone=public --add-port=30301/tcp sudo firewall-cmd --zone=public --add-port=30303/tcp --permanent sudo firewall-cmd --zone=public --add-port=30303/tcp sudo firewall-cmd --zone=public --add-port=30306/tcp --permanent sudo firewall-cmd --zone=public --add-port=30306/tcp sudo firewall-cmd --zone=public --add-port=30307/tcp --permanent sudo firewall-cmd --zone=public --add-port=30307/tcp sudo firewall-cmd --zone=public --add-port=30313/tcp --permanent sudo firewall-cmd --zone=public --add-port=30313/tcp sudo firewall-cmd --zone=public --add-port=30315/tcp --permanent sudo firewall-cmd --zone=public --add-port=30315/tcp sudo firewall-cmd --zone=public --add-port=30317/tcp --permanent sudo firewall-cmd --zone=public --add-port=30317/tcp sudo firewall-cmd --zone=public --add-port=30340/tcp --permanent sudo firewall-cmd --zone=public --add-port=30340/tcp sudo firewall-cmd --zone=public --add-port=30341/tcp --permanent sudo firewall-cmd --zone=public --add-port=30341/tcp sudo firewall-cmd --zone=public --add-port=30342/tcp --permanent sudo firewall-cmd --zone=public --add-port=30342/tcp sudo firewall-cmd --zone=public --add-port=1128/tcp --permanent sudo firewall-cmd --zone=public --add-port=1128/tcp sudo firewall-cmd --zone=public --add-port=1129/tcp --permanent sudo firewall-cmd --zone=public --add-port=1129/tcp sudo firewall-cmd --zone=public --add-port=40302/tcp --permanent sudo firewall-cmd --zone=public --add-port=40302/tcp sudo firewall-cmd --zone=public --add-port=40301/tcp --permanent sudo firewall-cmd --zone=public --add-port=40301/tcp sudo firewall-cmd --zone=public --add-port=40307/tcp --permanent sudo firewall-cmd --zone=public --add-port=40307/tcp sudo firewall-cmd --zone=public --add-port=40303/tcp --permanent sudo firewall-cmd --zone=public --add-port=40303/tcp sudo firewall-cmd --zone=public --add-port=40340/tcp --permanent sudo firewall-cmd --zone=public --add-port=40340/tcp sudo firewall-cmd --zone=public --add-port=50313/tcp --permanent sudo firewall-cmd --zone=public --add-port=50313/tcp sudo firewall-cmd --zone=public --add-port=50314/tcp --permanent sudo firewall-cmd --zone=public --add-port=50314/tcp sudo firewall-cmd --zone=public --add-port=30310/tcp --permanent sudo firewall-cmd --zone=public --add-port=30310/tcp sudo firewall-cmd --zone=public --add-port=30302/tcp --permanent sudo firewall-cmd --zone=public --add-port=30302/tcpSpuštění HANA
sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StartSystem HDB
Pokud chcete SAP HANA pro základní úložiště Azure NetApp Files úložiště, nastavte následující SAP HANA parametrů:
max_parallel_io_requests128async_read_submiton (On)async_write_submit_activeon (On)async_write_submit_blocksall (vše)
Další informace najdete v tématu Aplikace NetApp SAPna Microsoft Azure pomocí Azure NetApp Files .
Počínaje SAP HANA 2.0 můžete parametry nastavit v
global.ini. Další informace najdete v článku SAP Note 1999930.Pro SAP HANA verze 1.0 SPS12 a starší je možné tyto parametry nastavit během instalace, jak je popsáno v článku SAP Note 2267798.
Úložiště, které používá Azure NetApp Files má omezení velikosti souboru 16 terabajtů (TB). SAP HANA o omezení úložiště implicitně neví a při dosažení limitu velikosti souboru 16 TB automaticky nevytváří nový datový soubor. Jak SAP HANA pokusy o zvětšování souboru nad 16 TB, výsledkem tohoto pokusu budou chyby a nakonec chyba indexového serveru.
Důležité
Pokud chcete SAP HANA, aby se pokoušeli zvětšovat datové soubory nad limit 16 TB subsystému úložiště, nastavte následující parametry v
global.inisouboru .
Testovací SAP HANA převzetí služeb při selhání
Simulace selhání uzlu na SAP HANA pracovním uzlu Postupujte následovně:
a. Než budete simulovat selhání uzlu, spusťte následující příkazy jako adm hn1, abyste zachytili stav prostředí:
# Check the landscape status python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py | Host | Host | Host | Failover | Remove | Storage | Storage | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host | Host | Worker | Worker | | | Active | Status | Status | Status | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | | | | | | | Partition | Partition | Group | Group | Role | Role | Role | Role | Roles | Roles | Groups | Groups | | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- | | hanadb1 | yes | ok | | | 1 | 1 | default | default | master 1 | master | worker | master | worker | worker | default | default | | hanadb2 | yes | ok | | | 2 | 2 | default | default | master 2 | slave | worker | slave | worker | worker | default | default | | hanadb3 | yes | ignore | | | 0 | 0 | default | default | master 3 | slave | standby | standby | standby | standby | default | - | # Check the instance status sapcontrol -nr 03 -function GetSystemInstanceList GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREENb. Pokud chcete simulovat selhání uzlu, spusťte následující příkaz jako root na pracovním uzlu, což je v tomto případě hanadb2:
echo b > /proc/sysrq-triggerc. Monitorujte systém a dokončujte převzetí služeb při selhání. Po dokončení převzetí služeb při selhání zachyťte stav, který by měl vypadat takto:
# Check the instance status sapcontrol -nr 03 -function GetSystemInstanceList GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN # Check the landscape status python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py | Host | Host | Host | Failover | Remove | Storage | Storage | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host | Host | Worker | Worker | | | Active | Status | Status | Status | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | | | | | | | Partition | Partition | Group | Group | Role | Role | Role | Role | Roles | Roles | Groups | Groups | | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- | | hanadb1 | yes | ok | | | 1 | 1 | default | default | master 1 | master | worker | master | worker | worker | default | default | | hanadb2 | no | info | | | 2 | 0 | default | default | master 2 | slave | worker | standby | worker | standby | default | - | | hanadb3 | yes | info | | | 0 | 2 | default | default | master 3 | slave | standby | slave | standby | worker | default | default |Důležité
Pokud dojde k paniky jádra uzlu, vyhněte se zpožděním SAP HANA převzetí služeb při selhání nastavením
kernel.panicna 20 sekund na všech virtuálních počítačích HANA. Konfigurace se provádí v/etc/sysctlsouboru . Restartováním virtuálních počítačů tuto změnu aktivujte. Pokud tato změna není provedena, převzetí služeb při selhání může trvat 10 nebo více minut, pokud u uzlu dochází k paniky jádra.Pomocí následujícího příkladu u kill the name server (Název serveru):
a. Před testem zkontrolujte stav prostředí spuštěním následujících příkazů jako hn1 adm:
#Landscape status python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py | Host | Host | Host | Failover | Remove | Storage | Storage | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host | Host | Worker | Worker | | | Active | Status | Status | Status | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | | | | | | | Partition | Partition | Group | Group | Role | Role | Role | Role | Roles | Roles | Groups | Groups | | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- | | hanadb1 | yes | ok | | | 1 | 1 | default | default | master 1 | master | worker | master | worker | worker | default | default | | hanadb2 | yes | ok | | | 2 | 2 | default | default | master 2 | slave | worker | slave | worker | worker | default | default | | hanadb3 | yes | ignore | | | 0 | 0 | default | default | master 3 | slave | standby | standby | standby | standby | default | - | # Check the instance status sapcontrol -nr 03 -function GetSystemInstanceList GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREENb. Na aktivním hlavním uzlu spusťte následující příkazy jako hn1 adm, v tomto případě hanadb1:
hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB killPohotovostní uzel hanadb3 se převezme jako hlavní uzel. Tady je stav prostředku po dokončení testu převzetí služeb při selhání:
# Check the instance status sapcontrol -nr 03 -function GetSystemInstanceList GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY # Check the landscape status python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py | Host | Host | Host | Failover | Remove | Storage | Storage | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host | Host | Worker | Worker | | | Active | Status | Status | Status | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | | | | | | | Partition | Partition | Group | Group | Role | Role | Role | Role | Roles | Roles | Groups | Groups | | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- | | hanadb1 | no | info | | | 1 | 0 | default | default | master 1 | slave | worker | standby | worker | standby | default | - | | hanadb2 | yes | ok | | | 2 | 2 | default | default | master 2 | slave | worker | slave | worker | worker | default | default | | hanadb3 | yes | info | | | 0 | 1 | default | default | master 3 | master | standby | master | standby | worker | default | default |c. Restartujte instanci HANA na hanadb1 (to znamená na stejném virtuálním počítači, na kterém byl název serveru uhodněn). Uzel hanadb1 se znovu připojí k prostředí a bude mít svou pohotovostní roli.
hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB startPo SAP HANA na hanadb1 počtete následující stav:
# Check the instance status sapcontrol -nr 03 -function GetSystemInstanceList GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN # Check the landscape status python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py | Host | Host | Host | Failover | Remove | Storage | Storage | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host | Host | Worker | Worker | | | Active | Status | Status | Status | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | | | | | | | Partition | Partition | Group | Group | Role | Role | Role | Role | Roles | Roles | Groups | Groups | | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- | | hanadb1 | no | info | | | 1 | 0 | default | default | master 1 | slave | worker | standby | worker | standby | default | - | | hanadb2 | yes | ok | | | 2 | 2 | default | default | master 2 | slave | worker | slave | worker | worker | default | default | | hanadb3 | yes | info | | | 0 | 1 | default | default | master 3 | master | standby | master | standby | worker | default | default |d. Znovu uaktivte název serveru na aktuálně aktivním hlavním uzlu (tzn. v uzlu hanadb3).
hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB killUzel hanadb1 obnoví roli hlavního uzlu. Po dokončení testu převzetí služeb při selhání bude stav vypadat takhle:
# Check the instance status sapcontrol -nr 03 -function GetSystemInstanceList GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GRAY hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN # Check the landscape status python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py | Host | Host | Host | Failover | Remove | Storage | Storage | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host | Host | Worker | Worker | | | Active | Status | Status | Status | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | | | | | | | Partition | Partition | Group | Group | Role | Role | Role | Role | Roles | Roles | Groups | Groups | | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- | | hanadb1 | yes | ok | | | 1 | 1 | default | default | master 1 | master | worker | master | worker | worker | default | default | | hanadb2 | yes | ok | | | 2 | 2 | default | default | master 2 | slave | worker | slave | worker | worker | default | default | | hanadb3 | no | ignore | | | 0 | 0 | default | default | master 3 | slave | standby | standby | standby | standby | default | - |e. Začněte SAP HANA hanadb3, který bude připravený sloužit jako pohotovostní uzel.
hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB startPo SAP HANA na hanadb3 vypadá stav takto:
# Check the instance status sapcontrol -nr 03 -function GetSystemInstanceList & python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN # Check the landscape status python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py | Host | Host | Host | Failover | Remove | Storage | Storage | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host | Host | Worker | Worker | | | Active | Status | Status | Status | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | | | | | | | Partition | Partition | Group | Group | Role | Role | Role | Role | Roles | Roles | Groups | Groups | | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- | | hanadb1 | yes | ok | | | 1 | 1 | default | default | master 1 | master | worker | master | worker | worker | default | default | | hanadb2 | yes | ok | | | 2 | 2 | default | default | master 2 | slave | worker | slave | worker | worker | default | default | | hanadb3 | no | ignore | | | 0 | 0 | default | default | master 3 | slave | standby | standby | standby | standby | default | - |
Další kroky
- Azure Virtual Machines plánování a implementace pro SAP
- Nasazení Virtual Machines Azure pro SAP
- Nasazení Azure Virtual Machines DBMS pro SAP
- Svazky NFS v4.1 ve službě Azure NetApp Files pro SAP HANA
- Informace o tom, jak vytvořit vysokou dostupnost a naplánovat zotavení po havárii SAP HANA na virtuálních počítači Azure, najdete v tématu Vysoká dostupnost služby SAP HANA v Azure Virtual Machines (virtuální počítače).