nasazení SAP HANA systému se škálováním na více systémů s pohotovostním uzlem na virtuálních počítačích Azure pomocí Azure NetApp Files v Red Hat Enterprise Linux

tento článek popisuje, jak nasadit vysoce dostupný SAP HANA systém v konfiguraci se škálováním na více systémů pomocí úsporného režimu v Azure Red Hat Enterprise Linux virtuálních počítačů (vm) pomocí Azure NetApp Files pro sdílené svazky úložiště.

V ukázkových konfiguracích, instalačních příkazech atd. instance HANA je 03 a ID systému Hana je HN1. příklady jsou založené na HANA 2,0 SP4 a Red Hat Enterprise Linux pro SAP 7,6.

Poznámka

Tento článek obsahuje odkazy na Hlavní a podřízené výrazy, které Microsoft už nepoužívá. Po odebrání těchto podmínek ze softwaru je odebereme z tohoto článku.

Než začnete, přečtěte si následující poznámky a dokumenty SAP:

Přehled

Jednou z metod pro dosažení vysoké dostupnosti HANA je konfigurace automatického převzetí služeb při selhání hostitele. Chcete-li konfigurovat automatické převzetí služeb při selhání hostitele, přidejte jeden nebo více virtuálních počítačů do systému HANA a nakonfigurujte je jako pohotovostní uzly. Když aktivní uzel neproběhne úspěšně, převezme pohotovostní uzel automaticky. V předkládaných konfiguracích s virtuálními počítači Azure dosáhnete automatického převzetí služeb při selhání pomocí systému souborů NFS na Azure NetApp Files.

Poznámka

Pohotovostní uzel potřebuje přístup ke všem svazkům databáze. Svazky HANA musí být připojené jako názvů NFSv4 svazky. Vylepšený mechanizmus zapůjčení na základě zapůjčení souborů v protokolu názvů NFSv4 se používá k I/O monitorování zón.

Důležité

Chcete-li vytvořit podporovanou konfiguraci, je nutné nasadit svazky dat HANA a protokolů jako svazky NFSv 4.1 a připojit je pomocí protokolu NFSv 4.1. Konfigurace automatického převzetí služeb při selhání hostitele HANA s pohotovostním uzlem není v NFSv3 podporovaná.

Přehled vysoké dostupnosti SAP NetWeaver

V předchozím diagramu, který následuje SAP HANA doporučení pro síť, jsou tři podsítě zastoupeny v jedné virtuální síti Azure:

  • Pro komunikaci klientů
  • Pro komunikaci se systémem úložiště
  • Pro interní komunikaci mezi uzly HANA

Svazky NetApp Azure jsou v samostatné podsíti, delegované na Azure NetApp Files.

V tomto příkladu konfigurace jsou podsítě:

  • client 10.9.1.0/26
  • storage 10.9.3.0/26
  • hana 10.9.2.0/26
  • anf 10.9.0.0/26 (delegovaná podsíť pro Azure NetApp Files)

Nastavení infrastruktury Azure NetApp Files

Než budete pokračovat v nastavení infrastruktury Azure NetApp Files, Seznamte se s Azure NetApp Files dokumentaci.

Azure NetApp Files je k dispozici v několika oblastech Azure. Podívejte se, jestli vybraná oblast Azure nabízí Azure NetApp Files.

Informace o dostupnosti Azure NetApp Files podle oblasti Azure najdete v tématu Azure NetApp Files dostupnosti podle oblasti Azure.

Nasazení prostředků Azure NetApp Files

V následujících pokynech se předpokládá, že jste už nasadili službu Azure Virtual Network. Azure NetApp Files prostředky a virtuální počítače, kde budou připojené prostředky Azure NetApp Files, musí být nasazené ve stejné virtuální síti Azure nebo ve virtuálních sítích Azure s partnerským vztahem.

  1. Podle pokynů v části Vytvoření účtu NetAppvytvořte ve vybrané oblasti Azure účet NetApp.

  2. Nastavte fond kapacit Azure NetApp Files podle pokynů v části nastavení fondu kapacity Azure NetApp Files.

    Architektura HANA uvedená v tomto článku používá jeden Azure NetApp Files fond kapacit na úrovni služeb úrovně Ultra . pro úlohy HANA v Azure doporučujeme použít Azure NetApp Files úroveň služebpro Ultra nebo Premium .

  3. Delegování podsítě na Azure NetApp Files, jak je popsáno v pokynech delegování podsítě na Azure NetApp Files.

  4. Nasaďte Azure NetApp Files svazky podle pokynů v tématu vytvoření svazku NFS pro Azure NetApp Files.

    Když nasazujete svazky, ujistěte se, že jste vybrali verzi nfsv 4.1 . Nasaďte svazky v určené Azure NetApp Files podsíti. IP adresy svazků Azure NetApp se přiřazují automaticky.

    Pamatujte, že prostředky Azure NetApp Files a virtuální počítače Azure musí být ve stejné virtuální síti Azure nebo ve virtuálních sítích Azure s partnerským vztahem. Například HN1-data-Mnt00001, HN1-log-mnt00001 atd. jsou názvy svazků a NFS://10.9.0.4/HN1-data-mnt00001, NFS://10.9.0.4/HN1-log-mnt00001 atd. jsou cesty k souborům pro Azure NetApp Files svazky.

    • Volume HN1-data-mnt00001 (NFS://10.9.0.4/HN1-data-mnt00001)
    • Volume HN1-data-mnt00002 (NFS://10.9.0.4/HN1-data-mnt00002)
    • Volume HN1-log-mnt00001 (NFS://10.9.0.4/HN1-log-mnt00001)
    • Volume HN1-log-mnt00002 (NFS://10.9.0.4/HN1-log-mnt00002)
    • svazek HN1– Shared (NFS://10.9.0.4/HN1– Shared)

    V tomto příkladu jsme pro každý datový svazek HANA a objem protokolu používali samostatný svazek Azure NetApp Files. Pro zajištění vyšší nákladů optimalizovaných pro menší nebo neproduktivní systémy je možné umístit všechna připojení dat na jeden svazek a všechny protokoly se připojí na jiný jednotlivý svazek.

Důležité informace

Vzhledem k tomu, že vytváříte Azure NetApp Files pro SAP HANA možností horizontálního navýšení kapacity při použití uzlů, pamatujte na následující důležité informace:

  • Minimální fond kapacit je 4 tebibytes (TiB).
  • Minimální velikost svazku je 100 gibibajtech (GiB).
  • Azure NetApp Files a všechny virtuální počítače, na kterých budou připojené Azure NetApp Files svazky, musí být ve stejné virtuální síti Azure nebo v partnerských virtuálních sítích ve stejné oblasti.
  • Vybraná virtuální síť musí mít podsíť, která je delegovaná na Azure NetApp Files.
  • Propustnost Azure NetApp Filesho svazku je funkcí kvóty svazku a úrovně služeb, jak je uvedeno v části úroveň služby pro Azure NetApp Files. Při určování velikosti svazků Azure NetApp pro HANA se ujistěte, že výsledná propustnost splňuje požadavky na systém HANA.
  • Pomocí Azure NetApp Files zásady exportumůžete řídit povolené klienty, typ přístupu (jen pro čtení i zápis, jen pro čtení atd.).
  • Funkce Azure NetApp Files ještě nezohledňují zóny. V současné době není tato funkce nasazena ve všech zónách dostupnosti v oblasti Azure. Mějte na paměti, že v některých oblastech Azure máte vliv na potenciální latenci.

Důležité

U úloh SAP HANA je klíčová nízká latence. Spolupracujte se zástupcem Microsoftu a zajistěte, aby se virtuální počítače a Azure NetApp Files svazky nasadily v těsné blízkosti.

Určení velikosti databáze HANA v Azure NetApp Files

Propustnost Azure NetApp Filesho svazku je funkce velikosti svazku a úrovně služby, jak je uvedeno v části úroveň služby pro Azure NetApp Files.

Při návrhu infrastruktury pro SAP v Azure si pamatujte na některé minimální požadavky na úložiště SAP, které se přeloží na minimální propustnost:

  • Čtení a zápis v/Hana/log 250 megabajtů za sekundu (MB/s) s velikostí 1 MB I/O.
  • Aktivita čtení minimálně 400 MB/s pro/Hana/data pro velikosti vstupně-výstupních operací 16-MB a 64-MB
  • Aktivita zápisu alespoň 250 MB/s pro/Hana/data s velikostí I/O 16 MB a 64-MB.

Omezení propustnosti Azure NetApp Files na 1 TIB kvót:

  • Premium Storage vrstva – 64 MiB/s
  • Ultra Storage úrovně – 128 MiB/s

Aby splňovala požadavky na minimální propustnost SAP pro data a protokol, a pokyny pro/Hana/Shared, budou Doporučené velikosti:

Svazek Velikost
Premium Storage úroveň
Velikost
úroveň Ultra Storage
Podporovaný protokol NFS
/hana/log/ 4 TiB 2 TiB v 4.1
/hana/data 6,3 TiB 3,2 TiB v 4.1
/hana/shared 1xRAM na 4 pracovní uzly 1xRAM na 4 pracovní uzly V3 nebo v 4.1

konfigurace SAP HANA pro rozložení prezentovaná v tomto článku pomocí Azure NetApp Files úrovně Ultra Storage by byla:

Svazek Velikost
úroveň Ultra Storage
Podporovaný protokol NFS
/hana/log/mnt00001 2 TiB v 4.1
/hana/log/mnt00002 2 TiB v 4.1
/hana/data/mnt00001 3,2 TiB v 4.1
/hana/data/mnt00002 3,2 TiB v 4.1
/hana/shared 2 TiB V3 nebo v 4.1

Poznámka

Níže uvedená doporučení pro nastavení velikosti Azure NetApp Files jsou zaměřená na splnění minimálních požadavků, které SAP doporučuje pro poskytovatele infrastruktury. V reálných scénářích nasazení a úloh nemusí být tyto velikosti dostatečné. Tato doporučení použijte jako výchozí bod a přizpůsobte je na základě požadavků konkrétního zatížení.

Tip

Velikost svazků Azure NetApp Files lze dynamicky měnit bez nutnosti odpojení svazků, zastavení virtuálních počítačů nebo zastavení SAP HANA. Tento přístup umožňuje flexibilní splnění očekávané i nepředvídatelné propustnosti aplikace.

Nasazení virtuálních počítačů se systémem Linux prostřednictvím Azure Portal

Nejprve je třeba vytvořit svazky Azure NetApp Files. Pak proveďte následující kroky:

  1. Vytvořte podsítě virtuální sítě Azure ve virtuální síti Azure.

  2. Nasaďte virtuální počítače.

  3. Vytvořte další síťová rozhraní a připojte síťová rozhraní k odpovídajícím virtuálním počítačům.

    Každý virtuální počítač má tři síťová rozhraní, která odpovídají třem podsítím virtuální sítě Azure ( client storage a hana ).

    Další informace najdete v tématu Vytvoření virtuálního počítače se systémem Linux v Azure s několika síťovými kartami.

Důležité

U úloh SAP HANA je klíčová nízká latence. Pokud chcete dosáhnout nízké latence, ve spolupráci se zástupcem Microsoftu se ujistěte, že jsou virtuální počítače a svazky Azure NetApp Files nasazené v těsné blízkosti. Pokud onboardujete nový systém SAP HANA, který využívá službu Azure NetApp Files pro SAP HANA, odešlete potřebné informace.

V dalších pokynech se předpokládá, že jste už vytvořili skupinu prostředků, virtuální síť Azure a tři podsítě virtuální sítě Azure: client storage a hana . Když nasadíte virtuální počítače, vyberte podsíť klienta, aby bylo síťové rozhraní klienta primárním rozhraním virtuálních počítačů. Budete taky muset nakonfigurovat explicitní trasu k Azure NetApp Files delegované podsíti přes bránu podsítě úložiště.

Důležité

Ujistěte se, že operační systém, který vyberete, je SAP – certifikováno pro SAP HANA na specifických typech virtuálních počítačů, které používáte. Seznam SAP HANA certifikovaných typů virtuálních počítačů a verzí operačních systémů pro tyto typy najdete na webu SAP HANA Certified IaaS Platforms . Kliknutím na podrobnosti o typu tohoto virtuálního počítače získáte úplný seznam SAP HANA podporovaných verzí operačního systému pro daný typ.

  1. Vytvořte skupinu dostupnosti pro SAP HANA. Ujistěte se, že jste nastavili maximální doménu aktualizace.

  2. Vytvořte tři virtuální počítače (hanadb1, hanadb2, hanadb3) pomocí následujících kroků:

    a. použijte Red Hat Enterprise Linux image v galerii Azure, která je podporovaná pro SAP HANA. V tomto příkladu jsme použili image RHEL-SAP-HA 7,6.

    b. Vyberte skupinu dostupnosti, kterou jste předtím vytvořili pro SAP HANA.

    c. Vyberte podsíť klientské virtuální sítě Azure. Vyberte možnost akcelerovaná síť.

    Když nasadíte virtuální počítače, název síťového rozhraní se vygeneruje automaticky. V těchto pokynech pro zjednodušení budeme odkazovat na automaticky generovaná síťová rozhraní, která jsou připojená k podsíti virtuální sítě Azure Client, jako hanadb1-Client, hanadb2-Client a hanadb3-Client.

  3. Vytvořte tři síťová rozhraní, jednu pro každý virtuální počítač, pro storage podsíť virtuální sítě (v tomto příkladu hanadb1-Storage, hanadb2-Storage a hanadb3-Storage).

  4. Vytvořte tři síťová rozhraní, jednu pro každý virtuální počítač, pro hana podsíť virtuální sítě (v tomto příkladu hanadb1-Hana, hanadb2-Hana a hanadb3-Hana).

  5. Připojte nově vytvořená virtuální síťová rozhraní k odpovídajícím virtuálním počítačům pomocí následujících kroků:

    a. Přejít na virtuální počítač v Azure Portal.

    b. V levém podokně vyberte Virtual Machines. Vyfiltrujte název virtuálního počítače (například hanadb1) a potom vyberte virtuální počítač.

    c. V podokně Přehled výběrem možnosti Zastavit virtuální počítač udělte.

    d. Vyberte Sítě a pak připojte síťové rozhraní. V rozevíracím seznamu Připojit síťové rozhraní vyberte již vytvořená síťová rozhraní pro storage hana podsítě a .

    e. Vyberte Uložit.

    f. Opakujte kroky b až e pro zbývající virtuální počítače (v našem příkladu hanadb2 a hanadb3).

    například Virtuální počítače nechte v zastaveném stavu. Dále povolíme akcelerované síťové služby pro všechna nově připojená síťová rozhraní.

  6. Následujícím postupem povolte akcelerované síťové služby pro další síťová rozhraní pro podsítě storage hana a :

    a. Otevřete Azure Cloud Shell v Azure Portal.

    b. Spuštěním následujících příkazů povolte akcelerované síťové služby pro další síťová rozhraní připojená k podsíti storage hana a .

    
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-storage --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-storage --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-storage --accelerated-networking true
    
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-hana --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-hana --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-hana --accelerated-networking true
    
     
  7. Spusťte virtuální počítače pomocí následujících kroků:

    a. V levém podokně vyberte Virtual Machines. Vyfiltrujte název virtuálního počítače (například hanadb1) a pak ho vyberte.

    b. V podokně Přehled vyberte Spustit.

Konfigurace a příprava operačního systému

Pokyny v dalších částech mají jednu z následujících předpon:

  • [A]: Platí pro všechny uzly.
  • [1]: Vztahuje se jenom na uzel 1.
  • [2]: Platí jenom pro uzel 2.
  • [3]: Platí jenom pro uzel 3.

Nakonfigurujte a připravte operační systém pomocí následujících kroků:

  1. [A] Udržujte soubory hostitele na virtuálních počítačích. Zahrnte položky pro všechny podsítě. Následující položky byly přidány do /etc/hosts pro tento příklad.

    
     # Storage
     10.9.3.4   hanadb1-storage
     10.9.3.5   hanadb2-storage
     10.9.3.6   hanadb3-storage
     # Client
     10.9.1.5   hanadb1
     10.9.1.6   hanadb2
     10.9.1.7   hanadb3
     # Hana
     10.9.2.4   hanadb1-hana
     10.9.2.5   hanadb2-hana
     10.9.2.6   hanadb3-hana
     
  2. [A] Přidejte síťovou trasu, aby komunikace s Azure NetApp Files přes síťové rozhraní úložiště.

    V tomto příkladu Networkmanager použijeme ke konfiguraci další síťové trasy. Následující pokyny předpokládají, že síťové rozhraní úložiště je eth1 .
    Nejprve určete název připojení pro zařízení eth1 . V tomto příkladu je název připojení pro eth1 zařízení Wired connection 1 .

    
     # Execute as root
     nmcli connection
     # Result
     #NAME                UUID                                  TYPE      DEVICE
     #System eth0         5fb06bd0-0bb0-7ffb-45f1-d6edd65f3e03  ethernet  eth0
     #Wired connection 1  4b0789d1-6146-32eb-83a1-94d61f8d60a7  ethernet  eth1
     

    Potom nakonfigurujte další trasu do Azure NetApp Files sítě prostřednictvím eth1 .

    
     # Add the following route 
     # ANFDelegatedSubnet/cidr via StorageSubnetGW dev StorageNetworkInterfaceDevice
     nmcli connection modify "Wired connection 1" +ipv4.routes "10.9.0.0/26 10.9.3.1"
     

    Restartováním virtuálního počítače aktivujte změny.

  3. [A] Nainstalujte balíček klienta NFS.

    
     yum install nfs-utils
     
  4. [A] Příprava operačního systému na SAP HANA v Azure NetApp s NFS, jak je popsáno v článku Aplikace NetApp SAPna Microsoft Azure pomocí Azure NetApp Files . Vytvořte konfigurační soubor /etc/sysctl.d/netapp-hana.conf pro nastavení konfigurace NetApp.

    
     vi /etc/sysctl.d/netapp-hana.conf
     # Add the following entries in the configuration file
     net.core.rmem_max = 16777216
     net.core.wmem_max = 16777216
     net.core.rmem_default = 16777216
     net.core.wmem_default = 16777216
     net.core.optmem_max = 16777216
     net.ipv4.tcp_rmem = 65536 16777216 16777216
     net.ipv4.tcp_wmem = 65536 16777216 16777216
     net.core.netdev_max_backlog = 300000 
     net.ipv4.tcp_slow_start_after_idle=0 
     net.ipv4.tcp_no_metrics_save = 1
     net.ipv4.tcp_moderate_rcvbuf = 1
     net.ipv4.tcp_window_scaling = 1
     net.ipv4.tcp_timestamps = 1
     net.ipv4.tcp_sack = 1
     
  5. [A] Vytvořte konfigurační soubor /etc/sysctl.d/ms-az.conf s dalšími nastaveními optimalizace.

    
     vi /etc/sysctl.d/ms-az.conf
     # Add the following entries in the configuration file
     net.ipv6.conf.all.disable_ipv6 = 1
     net.ipv4.tcp_max_syn_backlog = 16348
     net.ipv4.conf.all.rp_filter = 0
     sunrpc.tcp_slot_table_entries = 128
     vm.swappiness=10
     

Tip

Vyhněte se net.ipv4.ip_local_port_range a net.ipv4.ip_local_reserved_ports explicitně v konfiguračních souborech sysctl, aby agent hostitele SAP spravovat rozsahy portů. Další podrobnosti najdete v poznámkách SAP 2382421.

  1. [A] Upravte nastavení sunrpc podle doporučení v části Aplikace NetApp SAP na Microsoft Azure pomocí Azure NetApp Files.

    
     vi /etc/modprobe.d/sunrpc.conf
     # Insert the following line
     options sunrpc tcp_max_slot_table_entries=128
     
  2. [A] Konfigurace Red Hatu pro HANA.

    Nakonfigurujte RHEL podle popisu v tématu SAP Note 2292690, 2455582, [2593824 a] https://access.redhat.com/solutions/2447641 .

    Poznámka

    Pokud instalujete HANA 2.0 SP04, budete muset nainstalovat balíček, jak je popsáno v poznámkové 2593824 SAP, než budete moci compat-sap-c++-7 nainstalovat SAP HANA. []

Připojení Azure NetApp Files svazků

  1. [A] Vytvořte přípojné body pro svazky databáze HANA.

    
     mkdir -p /hana/data/HN1/mnt00001
     mkdir -p /hana/data/HN1/mnt00002
     mkdir -p /hana/log/HN1/mnt00001
     mkdir -p /hana/log/HN1/mnt00002
     mkdir -p /hana/shared
     mkdir -p /usr/sap/HN1
     
  2. [1] Vytvořte adresáře specifické pro uzel pro /usr/sap na HN1-shared.

    
     # Create a temporary directory to mount HN1-shared
     mkdir /mnt/tmp
     # if using NFSv3 for this volume, mount with the following command
     mount 10.9.0.4:/HN1-shared /mnt/tmp
     # if using NFSv4.1 for this volume, mount with the following command
     mount -t nfs -o sec=sys,vers=4.1 10.9.0.4:/HN1-shared /mnt/tmp
     cd /mnt/tmp
     mkdir shared usr-sap-hanadb1 usr-sap-hanadb2 usr-sap-hanadb3
     # unmount /hana/shared
     cd
     umount /mnt/tmp
     
  3. [A] Ověřte nastavení domény NFS. Ujistěte se, že je doména nakonfigurovaná jako Azure NetApp Files domény, t.j. mapování je defaultv4iddomain.com nastavené na nikdo.

    Důležité

    Nezapomeňte ve virtuálním počítači nastavit doménu SYSTÉMU souborů NFS tak, aby odpovídala výchozí /etc/idmapd.conf konfiguraci domény v Azure NetApp Files: defaultv4iddomain.com . Pokud dojde k neshodě mezi konfigurací domény na klientovi NFS (tj. virtuálním počítači) a serverem NFS, tj. konfigurací Azure NetApp, zobrazí se oprávnění pro soubory na svazcích Azure NetApp, které jsou připojené k virtuálním počítačům, jako nobody .

    
     sudo cat /etc/idmapd.conf
     # Example
     [General]
     Domain = defaultv4iddomain.com
     [Mapping]
     Nobody-User = nobody
     Nobody-Group = nobody
     
  4. [A] nfs4_disable_idmapping Ověřte. Měla by být nastavená na hodnotu Y. Pokud chcete vytvořit adresářovou strukturu, nfs4_disable_idmapping ve které se nachází , spusťte příkaz mount. Adresář v adresáři /sys/modules nebudete moct vytvořit ručně, protože přístup je vyhrazený pro jádro nebo ovladače.

    
     # Check nfs4_disable_idmapping 
     cat /sys/module/nfs/parameters/nfs4_disable_idmapping
     # If you need to set nfs4_disable_idmapping to Y
     mkdir /mnt/tmp
     mount 10.9.0.4:/HN1-shared /mnt/tmp
     umount  /mnt/tmp
     echo "Y" > /sys/module/nfs/parameters/nfs4_disable_idmapping
     # Make the configuration permanent
     echo "options nfs nfs4_disable_idmapping=Y" >> /etc/modprobe.d/nfs.conf
     

    Další podrobnosti o tom, jak změnit nfs4_disable_idmapping parametr, najdete v tématu https://access.redhat.com/solutions/1749883 .

  5. [A] Připojte sdílené Azure NetApp Files svazky.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.9.0.4:/HN1-data-mnt00001 /hana/data/HN1/mnt00001  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.9.0.4:/HN1-data-mnt00002 /hana/data/HN1/mnt00002  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.9.0.4:/HN1-log-mnt00001 /hana/log/HN1/mnt00001  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.9.0.4:/HN1-log-mnt00002 /hana/log/HN1/mnt00002  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.9.0.4:/HN1-shared/shared /hana/shared  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount all volumes
     sudo mount -a 
     
  6. [1] Připojte svazky specifické pro uzel k databázi hanadb1.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.9.0.4:/HN1-shared/usr-sap-hanadb1 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  7. [2] Připojte svazky specifické pro uzel k databázi hanadb2.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.9.0.4:/HN1-shared/usr-sap-hanadb2 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  8. [3] Připojte svazky specifické pro uzel k databázi hanadb3.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.9.0.4:/HN1-shared/usr-sap-hanadb3 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  9. [A] Ověřte, že jsou všechny svazky HANA připojené k protokolu NFS verze NFSv4.

    
    sudo nfsstat -m
    # Verify that flag vers is set to 4.1 
    # Example from hanadb1
    /hana/data/HN1/mnt00001 from 10.9.0.4:/HN1-data-mnt00001
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /hana/log/HN1/mnt00002 from 10.9.0.4:/HN1-log-mnt00002
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /hana/data/HN1/mnt00002 from 10.9.0.4:/HN1-data-mnt00002
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /hana/log/HN1/mnt00001 from 10.9.0.4:/HN1-log-mnt00001
    Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /usr/sap/HN1 from 10.9.0.4:/HN1-shared/usr-sap-hanadb1
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /hana/shared from 10.9.0.4:/HN1-shared/shared
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    

Instalace

V tomto příkladu pro nasazení SAP HANA v konfiguraci škálování na více instancí s pohotovostním uzlem s Azure jsme použili HANA 2.0 SP4.

Příprava na instalaci HANA

  1. [A] Před instalací HANA nastavte kořenové heslo. Po dokončení instalace můžete kořenové heslo zakázat. Spusťte jako root příkaz passwd .

  2. [1] Ověřte, že se můžete přihlásit přes SSH k hanadb2 a hanadb3, aniž by se výzva k zadání hesla.

    
     ssh root@hanadb2
     ssh root@hanadb3
     
  3. [A] Nainstalujte další balíčky, které jsou vyžadovány pro HANA 2.0 SP4. Další informace najdete v tématu SAP Note 2593824.

    
     yum install libgcc_s1 libstdc++6 compat-sap-c++-7 libatomic1 
     
  4. [2], [3] Změňte vlastnictví SAP HANA data log a adresářů na hn1 adm.

    
     # Execute as root
     sudo chown hn1adm:sapsys /hana/data/HN1
     sudo chown hn1adm:sapsys /hana/log/HN1
     
  5. [A] Dočasně zakažte bránu firewall, aby nenarušovala instalaci HANA. Po dokončení instalace HANA ji můžete znovu povolit.

    
     # Execute as root
     systemctl stop firewalld
     systemctl disable firewalld
    

Instalace HANA

  1. [1] Nainstalujte SAP HANA podle pokynů v průvodci instalací a aktualizací SAP HANA 2.0. V tomto příkladu nainstalujeme SAP HANA s hlavním uzlem, jedním pracovním procesem a jedním pohotovostním uzlem.

    a. Spusťte program hdblcm z adresáře instalačního softwaru HANA. Použijte parametr internal_network a předejte adresní prostor pro podsíť, který se používá pro interní komunikaci HANA mezi uzly.

    
     ./hdblcm --internal_network=10.9.2.0/26
     

    b. Na příkazovém řádku zadejte následující hodnoty:

    • V možnosti Zvolit akci zadejte 1 (pro instalaci).
    • V části Další součásti pro instalaci zadejte 2, 3.
    • Pro instalační cestu: stiskněte Enter (výchozí hodnota je /hana/shared).
    • Jako Název místního hostitele: stisknutím klávesy Enter přijměte výchozí hodnotu.
    • V části Chcete do systému přidat hostitele? zadejte y.
    • Pro přidání názvů hostitelů oddělených čárkami zadejte hanadb2, hanadb3.
    • V poli Root User Name [root] (Uživatelské jméno kořenového uživatele [root]): Stisknutím klávesy Enter přijměte výchozí hodnotu.
    • Pro role pro hostitele hanadb2 zadejte 1 (pro pracovní proces).
    • V případě skupiny převzetí služeb při selhání hostitele pro hostitele hanadb2 [výchozí] přijměte výchozí hodnotu stisknutím klávesy Enter.
    • Pokud Storage oddíl hostitele hanadb2 [ <<assign automatically> > ]: stiskněte Enter, aby se přijímala výchozí hodnota.
    • V případě skupiny pracovních procesů pro hostitele hanadb2 [výchozí] přijměte výchozí hodnotu stisknutím klávesy Enter.
    • V části Vybrat role pro hostitele hanadb3 zadejte 2 (pro pohotovostní režim).
    • V případě skupiny převzetí služeb při selhání hostitele pro hostitele hanadb3 [výchozí] přijměte výchozí nastavení stisknutím klávesy Enter.
    • Pro skupinu pracovních procesů pro hostitele hanadb3 [výchozí]: stisknutím klávesy Enter přijměte výchozí hodnotu.
    • Jako SAP HANA ID systému zadejte HN1.
    • Jako Číslo instance [00]: zadejte 03.
    • Pro skupinu pracovních procesů místního hostitele [výchozí]: přijměte výchozí nastavení stisknutím klávesy Enter.
    • V části Vybrat využití systému / Zadejte index [4] zadejte 4 (pro vlastní).
    • V části Umístění datových svazků [/hana/data/HN1] přijměte výchozí nastavení stisknutím klávesy Enter.
    • V části Umístění svazků protokolů [/hana/log/HN1] přijměte výchozí nastavení stisknutím klávesy Enter.
    • Chcete omezit maximální přidělení paměti? [n]: zadejte n
    • V poli Název hostitele certifikátu pro hostitele hanadb1 [hanadb1] přijměte výchozí hodnotu stisknutím klávesy Enter.
    • V poli Název hostitele certifikátu pro hostitele hanadb2 [hanadb2] přijměte výchozí hodnotu stisknutím klávesy Enter.
    • V poli Název hostitele certifikátu pro hostitele hanadb3 [hanadb3] přijměte výchozí hodnotu stisknutím klávesy Enter.
    • Jako Heslo správce systému (hn1adm) zadejte heslo.
    • Do pole Heslo uživatele systémové databáze zadejte heslo systému.
    • Do pole Confirm System Database User (system) Password (Potvrdit heslo uživatele systémové databáze): zadejte heslo systému.
    • Pro restart systému po restartování počítače? [n]: zadejte n
    • V části Chcete pokračovat (a/n): ověřte souhrn, a pokud všechno vypadá dobře, zadejte y.
  2. [1] Ověření global.ini

    Zobrazte global.ini a ujistěte se, že je nastavená konfigurace interního SAP HANA komunikace mezi uzly. Ověřte část komunikace. Měl by mít adresní prostor pro hana podsíť a měl listeninterface by být nastavený na .internal . Ověřte část internal_hostname_resolution. Měla by mít IP adresy pro virtuální počítače HANA, které patří do hana podsítě.

    
     sudo cat /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini
     # Example 
     #global.ini last modified 2019-09-10 00:12:45.192808 by hdbnameserve
     [communication]
     internal_network = 10.9.2.0/26
     listeninterface = .internal
     [internal_hostname_resolution]
     10.9.2.4 = hanadb1
     10.9.2.5 = hanadb2
     10.9.2.6 = hanadb3
    
  3. [1] Přidejte mapování hostitele, abyste zajistili, že se IP adresy klienta budou používat ke komunikaci klienta. Přidejte public_host_resolution oddíl a přidejte odpovídající IP adresy z podsítě klienta.

    
     sudo vi /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini
     #Add the section
     [public_hostname_resolution]
     map_hanadb1 = 10.9.1.5
     map_hanadb2 = 10.9.1.6
     map_hanadb3 = 10.9.1.7
    
  4. [1] Restartováním SAP HANA aktivujte změny.

    
     sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StopSystem HDB
     sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StartSystem HDB
    
  5. [1] Ověřte, že klientské rozhraní bude ke komunikaci používat IP adresy client z podsítě.

    
     # Execute as hn1adm
     /usr/sap/HN1/HDB03/exe/hdbsql -u SYSTEM -p "password" -i 03 -d SYSTEMDB 'select * from SYS.M_HOST_INFORMATION'|grep net_publicname
     # Expected result
     "hanadb3","net_publicname","10.9.1.7"
     "hanadb2","net_publicname","10.9.1.6"
     "hanadb1","net_publicname","10.9.1.5"
    

    Informace o tom, jak ověřit konfiguraci, najdete v tématu SAP Note 2183363 – Configuration of SAP HANA internal network.

  6. [A] Znovu povolte bránu firewall.

    • Zastavení HANA

      
         sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StopSystem HDB
        
    • Opětovné povolení brány firewall

      
         # Execute as root
         systemctl start firewalld
         systemctl enable firewalld
        
    • Otevření potřebných portů brány firewall

      Důležité

      Vytvořte pravidla brány firewall, která povolí komunikaci HANA mezi uzly a klientský provoz. Požadované porty jsou uvedené na portech TCP/IP všech produktů SAP. Následující příkazy jsou jenom příkladem. V tomto scénáři s použitým systémovým číslem 03.

      
         # Execute as root
         sudo firewall-cmd --zone=public --add-port=30301/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30301/tcp
         sudo firewall-cmd --zone=public --add-port=30303/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30303/tcp
         sudo firewall-cmd --zone=public --add-port=30306/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30306/tcp
         sudo firewall-cmd --zone=public --add-port=30307/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30307/tcp
         sudo firewall-cmd --zone=public --add-port=30313/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30313/tcp
         sudo firewall-cmd --zone=public --add-port=30315/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30315/tcp
         sudo firewall-cmd --zone=public --add-port=30317/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30317/tcp
         sudo firewall-cmd --zone=public --add-port=30340/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30340/tcp
         sudo firewall-cmd --zone=public --add-port=30341/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30341/tcp
         sudo firewall-cmd --zone=public --add-port=30342/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30342/tcp
         sudo firewall-cmd --zone=public --add-port=1128/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=1128/tcp
         sudo firewall-cmd --zone=public --add-port=1129/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=1129/tcp
         sudo firewall-cmd --zone=public --add-port=40302/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40302/tcp
         sudo firewall-cmd --zone=public --add-port=40301/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40301/tcp
         sudo firewall-cmd --zone=public --add-port=40307/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40307/tcp
         sudo firewall-cmd --zone=public --add-port=40303/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40303/tcp
         sudo firewall-cmd --zone=public --add-port=40340/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40340/tcp
         sudo firewall-cmd --zone=public --add-port=50313/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=50313/tcp
         sudo firewall-cmd --zone=public --add-port=50314/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=50314/tcp
         sudo firewall-cmd --zone=public --add-port=30310/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30310/tcp
         sudo firewall-cmd --zone=public --add-port=30302/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30302/tcp
        
    • Spuštění HANA

      
         sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StartSystem HDB
        
  7. Pokud chcete SAP HANA pro základní úložiště Azure NetApp Files úložiště, nastavte následující SAP HANA parametrů:

    • max_parallel_io_requests128
    • async_read_submiton (On)
    • async_write_submit_activeon (On)
    • async_write_submit_blocksall (vše)

    Další informace najdete v tématu Aplikace NetApp SAPna Microsoft Azure pomocí Azure NetApp Files .

    Počínaje SAP HANA 2.0 můžete parametry nastavit v global.ini . Další informace najdete v článku SAP Note 1999930.

    Pro SAP HANA verze 1.0 SPS12 a starší je možné tyto parametry nastavit během instalace, jak je popsáno v článku SAP Note 2267798.

  8. Úložiště, které používá Azure NetApp Files má omezení velikosti souboru 16 terabajtů (TB). SAP HANA o omezení úložiště implicitně neví a při dosažení limitu velikosti souboru 16 TB automaticky nevytváří nový datový soubor. Jak SAP HANA pokusy o zvětšování souboru nad 16 TB, výsledkem tohoto pokusu budou chyby a nakonec chyba indexového serveru.

    Důležité

    Pokud chcete SAP HANA, aby se pokoušeli zvětšovat datové soubory nad limit 16 TB subsystému úložiště, nastavte následující parametry v global.ini souboru .

    • datavolume_striping = true
    • datavolume_striping_size_gb = 15000 Další informace najdete v tématu SAP Note 2400005. Mějte na paměti SAP Note 2631285.

Testovací SAP HANA převzetí služeb při selhání

  1. Simulace selhání uzlu na SAP HANA pracovním uzlu Postupujte následovně:

    a. Než budete simulovat selhání uzlu, spusťte následující příkazy jako adm hn1, abyste zachytili stav prostředí:

    
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | yes    | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
    

    b. Pokud chcete simulovat selhání uzlu, spusťte následující příkaz jako root na pracovním uzlu, což je v tomto případě hanadb2:

    
     echo b > /proc/sysrq-trigger
    

    c. Monitorujte systém a dokončujte převzetí služeb při selhání. Po dokončení převzetí služeb při selhání zachyťte stav, který by měl vypadat takto:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | no     | info   |          |        |         2 |         0 | default  | default  | master 2   | slave      | worker      | standby     | worker  | standby | default | -       |
     | hanadb3 | yes    | info   |          |        |         0 |         2 | default  | default  | master 3   | slave      | standby     | slave       | standby | worker  | default | default |
    

    Důležité

    Pokud dojde k paniky jádra uzlu, vyhněte se zpožděním SAP HANA převzetí služeb při selhání nastavením kernel.panic na 20 sekund na všech virtuálních počítačích HANA. Konfigurace se provádí v /etc/sysctl souboru . Restartováním virtuálních počítačů tuto změnu aktivujte. Pokud tato změna není provedena, převzetí služeb při selhání může trvat 10 nebo více minut, pokud u uzlu dochází k paniky jádra.

  2. Pomocí následujícího příkladu u kill the name server (Název serveru):

    a. Před testem zkontrolujte stav prostředí spuštěním následujících příkazů jako hn1 adm:

    
     #Landscape status 
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | yes    | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
    

    b. Na aktivním hlavním uzlu spusťte následující příkazy jako hn1 adm, v tomto případě hanadb1:

    
         hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB kill
     

    Pohotovostní uzel hanadb3 se převezme jako hlavní uzel. Tady je stav prostředku po dokončení testu převzetí služeb při selhání:

    
      # Check the instance status
      sapcontrol -nr 03  -function GetSystemInstanceList
      GetSystemInstanceList
      OK
      hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
      hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
      hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY
      # Check the landscape status
      python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
      | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
      |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
      |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
      | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
      | hanadb1 | no     | info   |          |        |         1 |         0 | default  | default  | master 1   | slave      | worker      | standby     | worker  | standby | default | -       |
      | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
      | hanadb3 | yes    | info   |          |        |         0 |         1 | default  | default  | master 3   | master     | standby     | master      | standby | worker  | default | default |
     

    c. Restartujte instanci HANA na hanadb1 (to znamená na stejném virtuálním počítači, na kterém byl název serveru uhodněn). Uzel hanadb1 se znovu připojí k prostředí a bude mít svou pohotovostní roli.

    
     hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB start
    

    Po SAP HANA na hanadb1 počtete následující stav:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | no     | info   |          |        |         1 |         0 | default  | default  | master 1   | slave      | worker      | standby     | worker  | standby | default | -       |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | yes    | info   |          |        |         0 |         1 | default  | default  | master 3   | master     | standby     | master      | standby | worker  | default | default |
    

    d. Znovu uaktivte název serveru na aktuálně aktivním hlavním uzlu (tzn. v uzlu hanadb3).

    
     hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB kill
    

    Uzel hanadb1 obnoví roli hlavního uzlu. Po dokončení testu převzetí služeb při selhání bude stav vypadat takhle:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GRAY
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
    

    e. Začněte SAP HANA hanadb3, který bude připravený sloužit jako pohotovostní uzel.

    
     hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB start
    

    Po SAP HANA na hanadb3 vypadá stav takto:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList & python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
    

Další kroky