nasazení SAP HANA systému se škálováním na více systémů s pohotovostním uzlem na virtuálních počítačích Azure pomocí Azure NetApp Files v SUSE Linux Enterprise Server

Tento článek popisuje, jak nasadit vysoce dostupný SAP HANA systém v konfiguraci se škálováním na více systémů pomocí úsporného režimu na virtuálních počítačích Azure pomocí Azure NetApp Files pro sdílené svazky úložiště.

V ukázkových konfiguracích, instalačních příkazech atd. instance HANA je 03 a ID systému Hana je HN1. příklady jsou založené na HANA 2,0 sp4 a SUSE Linux Enterprise Server pro SAP 12 SP4.

Než začnete, přečtěte si následující poznámky a dokumenty SAP:

Přehled

Jednou z metod pro dosažení vysoké dostupnosti HANA je konfigurace automatického převzetí služeb při selhání hostitele. Chcete-li konfigurovat automatické převzetí služeb při selhání hostitele, přidejte jeden nebo více virtuálních počítačů do systému HANA a nakonfigurujte je jako pohotovostní uzly. Když aktivní uzel neproběhne úspěšně, převezme pohotovostní uzel automaticky. V předkládaných konfiguracích s virtuálními počítači Azure dosáhnete automatického převzetí služeb při selhání pomocí systému souborů NFS na Azure NetApp Files.

Poznámka

Pohotovostní uzel potřebuje přístup ke všem svazkům databáze. Svazky HANA musí být připojené jako názvů NFSv4 svazky. Vylepšený mechanizmus zapůjčení na základě zapůjčení souborů v protokolu názvů NFSv4 se používá k I/O monitorování zón.

Důležité

Chcete-li vytvořit podporovanou konfiguraci, je nutné nasadit svazky dat HANA a protokolů jako svazky NFSv 4.1 a připojit je pomocí protokolu NFSv 4.1. Konfigurace automatického převzetí služeb při selhání hostitele HANA s pohotovostním uzlem není v NFSv3 podporovaná.

Přehled vysoké dostupnosti SAP NetWeaver

V předchozím diagramu, který následuje SAP HANA doporučení pro síť, jsou tři podsítě zastoupeny v jedné virtuální síti Azure:

  • Pro komunikaci klientů
  • Pro komunikaci se systémem úložiště
  • Pro interní komunikaci mezi uzly HANA

Svazky NetApp Azure jsou v samostatné podsíti, delegované na Azure NetApp Files.

V tomto příkladu konfigurace jsou podsítě:

  • client 10.23.0.0/24
  • storage 10.23.2.0/24
  • hana 10.23.3.0/24
  • anf 10.23.1.0/26

Nastavení infrastruktury Azure NetApp Files

Než budete pokračovat v nastavení infrastruktury Azure NetApp Files, Seznamte se s Azure NetApp Files dokumentaci.

Azure NetApp Files je k dispozici v několika oblastech Azure. Podívejte se, jestli vybraná oblast Azure nabízí Azure NetApp Files.

Informace o dostupnosti Azure NetApp Files podle oblasti Azure najdete v tématu Azure NetApp Files dostupnosti podle oblasti Azure.

Nasazení prostředků Azure NetApp Files

V následujících pokynech se předpokládá, že jste už nasadili službu Azure Virtual Network. Azure NetApp Files prostředky a virtuální počítače, kde budou připojené prostředky Azure NetApp Files, musí být nasazené ve stejné virtuální síti Azure nebo ve virtuálních sítích Azure s partnerským vztahem.

  1. Podle pokynů v části Vytvoření účtu NetAppvytvořte ve vybrané oblasti Azure účet NetApp.

  2. Nastavte fond kapacit Azure NetApp Files podle pokynů v části nastavení fondu kapacity Azure NetApp Files.

    Architektura HANA uvedená v tomto článku používá jeden Azure NetApp Files fond kapacit na úrovni služeb úrovně Ultra . pro úlohy HANA v Azure doporučujeme použít Azure NetApp Files úroveň služebpro Ultra nebo Premium .

  3. Delegování podsítě na Azure NetApp Files, jak je popsáno v pokynech delegování podsítě na Azure NetApp Files.

  4. Nasaďte Azure NetApp Files svazky podle pokynů v tématu vytvoření svazku NFS pro Azure NetApp Files.

    Když nasazujete svazky, ujistěte se, že jste vybrali verzi nfsv 4.1 . V současné době se přístup k NFSv 4.1 vyžaduje přidávání do povolených. Nasaďte svazky v určené Azure NetApp Files podsíti. IP adresy svazků Azure NetApp se přiřazují automaticky.

    Pamatujte, že prostředky Azure NetApp Files a virtuální počítače Azure musí být ve stejné virtuální síti Azure nebo ve virtuálních sítích Azure s partnerským vztahem. Například HN1-data-Mnt00001, HN1-log-mnt00001 atd. jsou názvy svazků a NFS://10.23.1.5/HN1-data-mnt00001, NFS://10.23.1.4/HN1-log-mnt00001 atd. jsou cesty k souborům pro Azure NetApp Files svazky.

    • Volume HN1-data-mnt00001 (NFS://10.23.1.5/HN1-data-mnt00001)
    • Volume HN1-data-mnt00002 (NFS://10.23.1.6/HN1-data-mnt00002)
    • Volume HN1-log-mnt00001 (NFS://10.23.1.4/HN1-log-mnt00001)
    • Volume HN1-log-mnt00002 (NFS://10.23.1.6/HN1-log-mnt00002)
    • svazek HN1– Shared (NFS://10.23.1.4/HN1– Shared)

    V tomto příkladu jsme pro každý datový svazek HANA a objem protokolu používali samostatný svazek Azure NetApp Files. Pro zajištění vyšší ceny optimalizované pro menší nebo neproduktivní systémy je možné umístit všechna připojení dat a všechny protokoly se připojí na jeden svazek.

Důležité informace

Když vytváříte Azure NetApp Files pro SAP NetWeaver v architektuře SUSE pro vysokou dostupnost, pamatujte na následující důležité informace:

  • Minimální fond kapacit je 4 tebibytes (TiB).
  • Minimální velikost svazku je 100 gibibajtech (GiB).
  • Azure NetApp Files a všechny virtuální počítače, na kterých budou připojené Azure NetApp Files svazky, musí být ve stejné virtuální síti Azure nebo v partnerských virtuálních sítích ve stejné oblasti.
  • Vybraná virtuální síť musí mít podsíť, která je delegovaná na Azure NetApp Files.
  • Propustnost Azure NetApp Filesho svazku je funkcí kvóty svazku a úrovně služeb, jak je uvedeno v části úroveň služby pro Azure NetApp Files. Při určování velikosti svazků Azure NetApp pro HANA se ujistěte, že výsledná propustnost splňuje požadavky na systém HANA.
  • Pomocí Azure NetApp Files zásady exportumůžete řídit povolené klienty, typ přístupu (jen pro čtení i zápis, jen pro čtení atd.).
  • Funkce Azure NetApp Files ještě nezohledňují zóny. V současné době není tato funkce nasazena ve všech zónách dostupnosti v oblasti Azure. Mějte na paměti, že v některých oblastech Azure máte vliv na potenciální latenci.

Důležité

U úloh SAP HANA je klíčová nízká latence. Ve spolupráci se zástupcem Microsoftu zajistěte, aby byly virtuální počítače a Azure NetApp Files nasazené v těsné blízkosti.

Nastavení velikosti pro databázi HANA na Azure NetApp Files

Propustnost svazku Azure NetApp Files je funkce velikosti svazku a úrovně služby, jak je zdokumentované v části Úroveň služby pro Azure NetApp Files.

Při návrhu infrastruktury pro SAP v Azure je třeba mít na paměti některé minimální požadavky na úložiště ze strany SAP, které se převedou na minimální charakteristiky propustnosti:

  • Povolte čtení a zápis pro /hana/log o velikosti 250 megabajtů za sekundu (MB/s) s velikostí 1 MB V/V.
  • Povolte pro /hana/data aktivitu čtení alespoň 400 MB/s pro velikosti V/V 16 MB a 64 MB.
  • Povolte aktivitu zápisu alespoň 250 MB/s pro /hana/data s velikostí 16 MB a 64 MB V/V.

Limity Azure NetApp Files propustnosti na 1 TiB kvóty svazku jsou následující:

  • Premium Storage úroveň – 64 MiB/s
  • Úroveň Storage Ultra – 128 MiB/s

Pokud chcete splnit požadavky SAP na minimální propustnost pro data a protokol a pokyny pro /hana/shared, doporučené velikosti jsou následující:

Svazek Velikost
Premium Storage vrstvy
Velikost
Úroveň Storage Ultra
Podporovaný protokol NFS
/hana/log/ 4 TiB 2 TiB v4.1
/hana/data 6.3 TiB 3.2 TiB v4.1
/hana/shared Max. (512 GB, 1xRAM) na 4 pracovní uzly Max. (512 GB, 1xRAM) na 4 pracovní uzly v3 nebo v4.1

Konfigurace SAP HANA rozložení, které je uvedené v tomto článku, by pomocí Azure NetApp Files Ultra Storage byla:

Svazek Velikost
Úroveň Storage Ultra
Podporovaný protokol NFS
/hana/log/mnt00001 2 TiB v4.1
/hana/log/mnt00002 2 TiB v4.1
/hana/data/mnt00001 3.2 TiB v4.1
/hana/data/mnt00002 3.2 TiB v4.1
/hana/shared 2 TiB v3 nebo v4.1

Poznámka

Doporučení Azure NetApp Files velikostí uvedená v tomto prohlášení jsou zaměřená na splnění minimálních požadavků, které SAP doporučuje pro poskytovatele infrastruktury. Ve scénářích skutečných nasazení zákazníků a úloh nemusí být tyto velikosti dostatečné. Tato doporučení můžete použít jako výchozí bod a přizpůsobit se na základě požadavků konkrétní úlohy.

Tip

Velikost svazků Azure NetApp Files dynamicky měnit, aniž byste museli svazky odpojovat, zastavovat virtuální počítače nebo zastavovat SAP HANA. Tento přístup umožňuje flexibilní splnění očekávaných i nepředvídatelných požadavků na propustnost vaší aplikace.

Nasazení virtuálních počítačů s Linuxem prostřednictvím Azure Portal

Nejprve je potřeba vytvořit Azure NetApp Files svazky. Pak proveďte následující kroky:

  1. Vytvořte podsítě virtuální sítě Azure ve vaší virtuální síti Azure.

  2. Nasaďte virtuální počítače.

  3. Vytvořte další síťová rozhraní a připojte síťová rozhraní k odpovídajícím virtuálním počítačům.

    Každý virtuální počítač má tři síťová rozhraní, která odpovídají třem podsítím virtuální sítě Azure ( client a storage hana ).

    Další informace najdete v tématu Vytvoření virtuálního počítače s Linuxem v Azure s několika síťovými kartami.

Důležité

U úloh SAP HANA je klíčová nízká latence. Pokud chcete dosáhnout nízké latence, ve spolupráci se zástupcem Microsoftu se ujistěte, že jsou virtuální počítače a svazky Azure NetApp Files nasazené v těsné blízkosti. Pokud onboardujete nový systém SAP HANA, který využívá službu Azure NetApp Files pro SAP HANA, odešlete potřebné informace.

V dalších pokynech se předpokládá, že jste už vytvořili skupinu prostředků, virtuální síť Azure a tři podsítě virtuální sítě Azure: client a storage hana . Při nasazování virtuálních počítačů vyberte podsíť klienta, aby síťové rozhraní klienta bylo primárním rozhraním virtuálních počítačů. Budete také muset nakonfigurovat explicitní trasu do podsítě Azure NetApp Files podsítě prostřednictvím brány podsítě úložiště.

Důležité

Ujistěte se, že operační systém, který vyberete, má certifikaci SAP SAP HANA pro konkrétní typy virtuálních počítače, které používáte. Seznam certifikovaných typů virtuálních SAP HANA a verzí operačního systému pro tyto typy naleznete na webu SAP HANA certifikovaných platforem IaaS. Kliknutím na podrobnosti uvedeného typu virtuálního počítače získáte úplný seznam podporovaných verzí operačního SAP HANA pro tento typ.

  1. Vytvoření skupiny dostupnosti pro SAP HANA. Nezapomeňte nastavit maximální doménu aktualizace.

  2. Následujícím postupem vytvořte tři virtuální počítače (hanadb1, hanadb2, hanadb3):

    a. Použijte image SLES4SAP v galerii Azure, která je podporovaná pro SAP HANA. V tomto příkladu jsme použili image SLES4SAP 12 SP4.

    b. Vyberte dříve vytvořenou sadu dostupnosti pro SAP HANA.

    c. Vyberte klientskou podsíť virtuální sítě Azure. Vyberte Akcelerovaná síť.

    Při nasazení virtuálních počítačů se automaticky vygeneruje název síťového rozhraní. V těchto pokynech pro zjednodušení budeme označovat automaticky generovaná síťová rozhraní, která jsou připojená ke klientské podsíti virtuální sítě Azure, jako hanadb1-client, hanadb2-client a hanadb3-client.

  3. Vytvořte tři síťová rozhraní, jedno pro každý virtuální počítač, pro podsíť virtuální sítě (v tomto příkladu storage hanadb1-storage, hanadb2-storage a hanadb3-storage).

  4. Vytvořte tři síťová rozhraní, jedno pro každý virtuální počítač, pro podsíť virtuální sítě (v tomto příkladu hana hanadb1-hana, hanadb2-hana a hanadb3-hana).

  5. Připojte nově vytvořená rozhraní virtuální sítě k odpovídajícím virtuálním počítačům pomocí následujících kroků:

    a. Přejděte na virtuální počítač v Azure Portal.

    b. V levém podokně vyberte Virtual Machines. Vyfiltrujte název virtuálního počítače (například hanadb1) a pak vyberte virtuální počítač.

    c. V podokně Přehled výběrem možnosti Zastavit virtuální počítač udělte.

    d. Vyberte Sítě a pak připojte síťové rozhraní. V rozevíracím seznamu Připojit síťové rozhraní vyberte již vytvořená síťová rozhraní pro storage hana podsítě a .

    e. Vyberte Uložit.

    f. Opakujte kroky b až e pro zbývající virtuální počítače (v našem příkladu hanadb2 a hanadb3).

    například Virtuální počítače teď ponechte v zastaveném stavu. V dalším kroku povolíte urychlené síťové služby pro všechna nově připojená síťová rozhraní.

  6. Pomocí následujících kroků povolte akcelerované sítě pro další síťová rozhraní storage pro hana podsítě a:

    a. Otevřete Azure Cloud Shell v Azure Portal.

    b. Spusťte následující příkazy, aby bylo možné zrychlit sítě pro další síťová rozhraní, která jsou připojena k storage hana podsítím a.

    
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-storage --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-storage --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-storage --accelerated-networking true
    
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-hana --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-hana --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-hana --accelerated-networking true
    
     
  7. Spusťte virtuální počítače pomocí následujících kroků:

    a. V levém podokně vyberte Virtual Machines. Vyfiltrujte název virtuálního počítače (například hanadb1) a pak ho vyberte.

    b. V podokně Přehled vyberte možnost Spustit.

Konfigurace a příprava operačního systému

Pokyny v dalších částech jsou předem opraveny s jednou z následujících částí:

  • [A]: platí pro všechny uzly
  • [1]: platí pouze pro uzel 1
  • [2]: platí pouze pro uzel 2
  • [3]: platí pouze pro uzel 3

Pomocí následujících kroků nakonfigurujte a připravte operační systém:

  1. [A] Udržujte hostitelské soubory na virtuálních počítačích. Zahrnout položky pro všechny podsítě Do tohoto příkladu byly přidány následující položky /etc/hosts .

    
     # Storage
     10.23.2.4   hanadb1-storage
     10.23.2.5   hanadb2-storage
     10.23.2.6   hanadb3-storage
     # Client
     10.23.0.5   hanadb1
     10.23.0.6   hanadb2
     10.23.0.7   hanadb3
     # Hana
     10.23.3.4   hanadb1-hana
     10.23.3.5   hanadb2-hana
     10.23.3.6   hanadb3-hana
     
  2. [A] změňte konfiguraci protokolu DHCP a cloudu pro síťové rozhraní úložiště, aby nedocházelo k nezamýšleným změnám názvu hostitele.

    V následujících pokynech se předpokládá, že síťové rozhraní úložiště je eth1 .

    
     vi /etc/sysconfig/network/dhcp
     # Change the following DHCP setting to "no"
     DHCLIENT_SET_HOSTNAME="no"
     vi /etc/sysconfig/network/ifcfg-eth1
     # Edit ifcfg-eth1 
     #Change CLOUD_NETCONFIG_MANAGE='yes' to "no"
     CLOUD_NETCONFIG_MANAGE='no'
     
  3. [A] přidejte síťovou trasu, aby komunikace se Azure NetApp Filesa prochází přes síťové rozhraní úložiště.

    V následujících pokynech se předpokládá, že síťové rozhraní úložiště je eth1 .

    
     vi /etc/sysconfig/network/ifroute-eth1
     # Add the following routes 
     # RouterIPforStorageNetwork - - -
     # ANFNetwork/cidr RouterIPforStorageNetwork - -
     10.23.2.1 - - -
     10.23.1.0/26 10.23.2.1 - -
     

    Restartujte virtuální počítač, aby se změny aktivovaly.

  4. [A] připraví operační systém na spouštění SAP HANA v systémech NetApp se systémem souborů NFS, jak je popsáno v tématu NetApp aplikace SAP na Microsoft Azure pomocí Azure NetApp Files. Vytvořte konfigurační soubor /etc/sysctl.d/NetApp-Hana.conf pro nastavení konfigurace NetApp.

    
     vi /etc/sysctl.d/netapp-hana.conf
     # Add the following entries in the configuration file
     net.core.rmem_max = 16777216
     net.core.wmem_max = 16777216
     net.core.rmem_default = 16777216
     net.core.wmem_default = 16777216
     net.core.optmem_max = 16777216
     net.ipv4.tcp_rmem = 65536 16777216 16777216
     net.ipv4.tcp_wmem = 65536 16777216 16777216
     net.core.netdev_max_backlog = 300000
     net.ipv4.tcp_slow_start_after_idle=0
     net.ipv4.tcp_no_metrics_save = 1
     net.ipv4.tcp_moderate_rcvbuf = 1
     net.ipv4.tcp_window_scaling = 1
     net.ipv4.tcp_timestamps = 1
     net.ipv4.tcp_sack = 1
     
  5. [A] vytvořte konfigurační soubor /etc/sysctl.d/MS-AZ.conf s nastavením konfigurace Microsoftu pro Azure.

    
     vi /etc/sysctl.d/ms-az.conf
     # Add the following entries in the configuration file
     net.ipv6.conf.all.disable_ipv6 = 1
     net.ipv4.tcp_max_syn_backlog = 16348
     net.ipv4.conf.all.rp_filter = 0
     sunrpc.tcp_slot_table_entries = 128
     vm.swappiness=10
     

Tip

Vyhněte se nastavení net.ipv4.ip_local_port_range a net.ipv4.ip_local_reserved_ports explicitně v konfiguračních souborech sysctl, aby mohl hostitelský agent SAP spravovat rozsahy portů. Další podrobnosti najdete v tématu SAP Note 2382421.

  1. [A] upravte nastavení sunrpc podle doporučení v aplikacích SAP NetApp na Microsoft Azure pomocí Azure NetApp Files.

    
     vi /etc/modprobe.d/sunrpc.conf
     # Insert the following line
     options sunrpc tcp_max_slot_table_entries=128
     

Připojení Azure NetApp Filesch svazků

  1. [A] vytvoření přípojných bodů pro databázové svazky Hana

    
     mkdir -p /hana/data/HN1/mnt00001
     mkdir -p /hana/data/HN1/mnt00002
     mkdir -p /hana/log/HN1/mnt00001
     mkdir -p /hana/log/HN1/mnt00002
     mkdir -p /hana/shared
     mkdir -p /usr/sap/HN1
     
  2. [1] vytvořte adresáře pro/usr/SAP na HN1-Shared pro daný uzel.

    
     # Create a temporary directory to mount HN1-shared
     mkdir /mnt/tmp
     # if using NFSv3 for this volume, mount with the following command
     mount 10.23.1.4:/HN1-shared /mnt/tmp
     # if using NFSv4.1 for this volume, mount with the following command
     mount -t nfs -o sec=sys,vers=4.1 10.23.1.4:/HN1-shared /mnt/tmp
     cd /mnt/tmp
     mkdir shared usr-sap-hanadb1 usr-sap-hanadb2 usr-sap-hanadb3
     # unmount /hana/shared
     cd
     umount /mnt/tmp
     
  3. [A] ověřte nastavení domény NFS. Ujistěte se, že je doména nakonfigurovaná jako výchozí doména Azure NetApp Files, tj. defaultv4iddomain.com a mapování je nastavené na nikdo.

    Důležité

    Ujistěte se, že jste na virtuálním počítači nastavili doménu systému souborů NFS, /etc/idmapd.conf aby odpovídala výchozí konfiguraci domény v Azure NetApp Files: defaultv4iddomain.com . Pokud dojde k neshodě mezi konfigurací domény v klientovi NFS (tj. virtuálním počítačem) a serverem NFS, tj. konfigurací Azure NetApp, pak se budou zobrazovat oprávnění k souborům na svazcích Azure NetApp, které jsou připojené k virtuálním počítačům nobody .

    
     sudo cat /etc/idmapd.conf
     # Example
     [General]
     Verbosity = 0
     Pipefs-Directory = /var/lib/nfs/rpc_pipefs
     Domain = defaultv4iddomain.com
     [Mapping]
     Nobody-User = nobody
     Nobody-Group = nobody
     
  4. [A] ověřte nfs4_disable_idmapping . Měl by být nastaven na Y. Pokud chcete vytvořit adresářovou strukturu nfs4_disable_idmapping , kde se nachází, spusťte příkaz Mount. V/sys/modules nebudete moct ručně vytvořit adresář, protože přístup je vyhrazený pro jádro nebo ovladače.

    
     # Check nfs4_disable_idmapping 
     cat /sys/module/nfs/parameters/nfs4_disable_idmapping
     # If you need to set nfs4_disable_idmapping to Y
     mkdir /mnt/tmp
     mount 10.23.1.4:/HN1-shared /mnt/tmp
     umount  /mnt/tmp
     echo "Y" > /sys/module/nfs/parameters/nfs4_disable_idmapping
     # Make the configuration permanent
     echo "options nfs nfs4_disable_idmapping=Y" >> /etc/modprobe.d/nfs.conf
     
  5. [A] vytvořte skupinu SAP Hana a uživatele ručně. ID pro skupiny sapsys a User HN1 ADM musí být nastavená na stejné identifikátory, které jsou k dispozici během připojování. (V tomto příkladu jsou identifikátory nastavené na 1001.) Pokud nejsou ID správně nastavená, nebudete mít přístup ke svazkům. ID skupinových sapsys a uživatelských účtů HN1 ADM a sapadm musí být na všech virtuálních počítačích stejné.

    
     # Create user group 
     sudo groupadd -g 1001 sapsys
     # Create  users 
     sudo useradd hn1adm -u 1001 -g 1001 -d /usr/sap/HN1/home -c "SAP HANA Database System" -s /bin/sh
     sudo useradd sapadm -u 1002 -g 1001 -d /home/sapadm -c "SAP Local Administrator" -s /bin/sh
     # Set the password  for both user ids
     sudo passwd hn1adm
     sudo passwd sapadm
     
  6. [A] připojte sdílené svazky Azure NetApp Files.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.23.1.5:/HN1-data-mnt00001 /hana/data/HN1/mnt00001  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.23.1.6:/HN1-data-mnt00002 /hana/data/HN1/mnt00002  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.23.1.4:/HN1-log-mnt00001 /hana/log/HN1/mnt00001  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.23.1.6:/HN1-log-mnt00002 /hana/log/HN1/mnt00002  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.23.1.4:/HN1-shared/shared /hana/shared  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount all volumes
     sudo mount -a 
     
  7. [1] připojte svazky specifické pro uzel v hanadb1.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.23.1.4:/HN1-shared/usr-sap-hanadb1 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  8. [2] připojte svazky specifické pro uzel v hanadb2.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.23.1.4:/HN1-shared/usr-sap-hanadb2 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  9. [3] připojte svazky specifické pro uzel v hanadb3.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.23.1.4:/HN1-shared/usr-sap-hanadb3 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  10. [A] ověřte, že jsou všechny svazky Hana připojené k protokolu NFS verze názvů NFSv4.

    
    sudo nfsstat -m
    # Verify that flag vers is set to 4.1 
    # Example from hanadb1
    /hana/data/HN1/mnt00001 from 10.23.1.5:/HN1-data-mnt00001
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.5
    /hana/log/HN1/mnt00002 from 10.23.1.6:/HN1-log-mnt00002
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.6
    /hana/data/HN1/mnt00002 from 10.23.1.6:/HN1-data-mnt00002
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.6
    /hana/log/HN1/mnt00001 from 10.23.1.4:/HN1-log-mnt00001
    Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.4
    /usr/sap/HN1 from 10.23.1.4:/HN1-shared/usr-sap-hanadb1
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.4
    /hana/shared from 10.23.1.4:/HN1-shared/shared
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.4
    

Instalace

V tomto příkladu pro nasazení SAP HANA v konfiguraci škálování na více instancí s pohotovostním uzlem s Azure jsme použili HANA 2,0 SP4.

Příprava instalace HANA

  1. [A] před instalací Hana nastavte kořenové heslo. Po dokončení instalace můžete kořenové heslo zakázat. Spustit jako root příkaz passwd

  2. [1] ověřte, že se můžete přihlásit přes SSH do hanadb2 a hanadb3, aniž by se zobrazila výzva k zadání hesla.

    
     ssh root@hanadb2
     ssh root@hanadb3
     
  3. [A] nainstalujte další balíčky, které se vyžadují pro Hana 2,0 SP4. Další informace najdete v tématu SAP Note 2593824.

    
     sudo zypper install libgcc_s1 libstdc++6 libatomic1 
     
  4. [2], [3] Změňte vlastnictví SAP HANA data a log adresářů na HN1 ADM.

    
     # Execute as root
     sudo chown hn1adm:sapsys /hana/data/HN1
     sudo chown hn1adm:sapsys /hana/log/HN1
     

Instalace HANA

  1. [1] nainstalujte SAP HANA podle pokynů v Průvodci instalací a aktualizací SAP HANA 2,0. V tomto příkladu nainstalujeme SAP HANA horizontálního navýšení kapacity s hlavním, jedním pracovním a jedním pohotovostním uzlem.

    a. Spusťte program hdblcm z adresáře instalačního softwaru Hana. Použijte internal_network parametr a předejte adresní prostor pro podsíť, který se používá pro interní komunikaci mezi uzly v Hana.

    
     ./hdblcm --internal_network=10.23.3.0/24
     

    b. Do příkazového řádku zadejte následující hodnoty:

    • Pro zvolit akci: zadejte 1 (pro instalaci).
    • Další součásti pro instalaci: zadejte 2, 3
    • Pro instalační cestu: stiskněte klávesu ENTER (výchozí hodnota je/Hana/Shared).
    • Název místního hostitele: stisknutím klávesy Enter přijměte výchozí nastavení.
    • V části chcete Přidat hostitele do systému?: zadejte y .
    • Pro názvy hostitelů oddělených čárkami, které se mají přidat: zadejte hanadb2, hanadb3
    • Pro kořenové uživatelské jméno [root]: stisknutím klávesy Enter přijměte výchozí nastavení.
    • Pro heslo uživatele root: zadejte heslo uživatele root.
    • Pro role pro hostitele hanadb2: zadejte 1 (pro pracovního procesu).
    • Pro skupinu převzetí služeb při selhání hostitele pro hostitele hanadb2 [výchozí]: stisknutím klávesy Enter přijměte výchozí nastavení.
    • pro Storage číslo oddílu pro hanadb2 hostitele [ <<assign automatically> > ]: stisknutím klávesy Enter přijměte výchozí nastavení.
    • Pro skupinu Worker pro hanadb2 hostitele [výchozí]: stisknutím klávesy Enter přijměte výchozí nastavení.
    • Pro možnost Vybrat role pro hostitele hanadb3: zadejte 2 (pro pohotovostní režim)
    • Pro skupinu převzetí služeb při selhání hostitele pro hostitele hanadb3 [výchozí]: stisknutím klávesy Enter přijměte výchozí nastavení.
    • Pro skupinu Worker pro hanadb3 hostitele [výchozí]: stisknutím klávesy Enter přijměte výchozí nastavení.
    • Pro SAP HANA ID systému: zadejte HN1 .
    • Číslo instance [00]: zadejte 03
    • Pro skupinu Local Host Worker [default]: stisknutím klávesy Enter přijměte výchozí nastavení.
    • Pro možnost vybrat využití systému/zadejte index [4]: zadejte 4 (pro vlastní).
    • Pro umístění datových svazků [/Hana/data/HN1]: stisknutím klávesy Enter přijměte výchozí nastavení.
    • Pro umístění svazků protokolu [/Hana/log/HN1]: stisknutím klávesy Enter přijměte výchozí nastavení.
    • Chcete-li omezit maximální přidělení paměti? [n]: zadejte n
    • Pro název hostitele certifikátu pro hostitele hanadb1 [hanadb1]: stisknutím klávesy Enter přijměte výchozí nastavení.
    • Pro název hostitele certifikátu pro hostitele hanadb2 [hanadb2]: stisknutím klávesy Enter přijměte výchozí nastavení.
    • Pro název hostitele certifikátu pro hostitele hanadb3 [hanadb3]: stisknutím klávesy Enter přijměte výchozí nastavení.
    • Jako Heslo správce systému (hn1adm) zadejte heslo.
    • Do pole Heslo uživatele systémové databáze zadejte heslo systému.
    • Do pole Confirm System Database User (system) Password (Potvrdit heslo uživatele systémové databáze): zadejte heslo systému.
    • Pro restart systému po restartování počítače? [n]: zadejte n
    • V části Chcete pokračovat (a/n): ověřte souhrn, a pokud všechno vypadá dobře, zadejte y.
  2. [1] Ověření global.ini

    Zobrazte global.ini a ujistěte se, že je nastavená konfigurace interního SAP HANA komunikace mezi uzly. Ověřte část komunikace. Měl by mít adresní prostor pro hana podsíť a měl listeninterface by být nastavený na .internal . Ověřte část internal_hostname_resolution. Měla by mít IP adresy pro virtuální počítače HANA, které patří do hana podsítě.

    
     sudo cat /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini
     # Example 
     #global.ini last modified 2019-09-10 00:12:45.192808 by hdbnameserve
     [communication]
     internal_network = 10.23.3/24
     listeninterface = .internal
     [internal_hostname_resolution]
     10.23.3.4 = hanadb1
     10.23.3.5 = hanadb2
     10.23.3.6 = hanadb3
    
  3. [1] Přidejte mapování hostitele, abyste zajistili, že se IP adresy klienta budou používat ke komunikaci klienta. Přidejte public_host_resolution oddíl a přidejte odpovídající IP adresy z podsítě klienta.

    
     sudo vi /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini
     #Add the section
     [public_hostname_resolution]
     map_hanadb1 = 10.23.0.5
     map_hanadb2 = 10.23.0.6
     map_hanadb3 = 10.23.0.7
    
  4. [1] Restartováním SAP HANA aktivujte změny.

    
     sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StopSystem HDB
     sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StartSystem HDB
    
  5. [1] Ověřte, že klientské rozhraní bude ke komunikaci používat IP adresy client z podsítě.

    
     sudo -u hn1adm /usr/sap/HN1/HDB03/exe/hdbsql -u SYSTEM -p "password" -i 03 -d SYSTEMDB 'select * from SYS.M_HOST_INFORMATION'|grep net_publicname
     # Expected result
     "hanadb3","net_publicname","10.23.0.7"
     "hanadb2","net_publicname","10.23.0.6"
     "hanadb1","net_publicname","10.23.0.5"
    

    Informace o tom, jak ověřit konfiguraci, najdete v tématu SAP Note 2183363 – Configuration of SAP HANA internal network.

  6. Pokud chcete SAP HANA pro základní úložiště Azure NetApp Files úložiště, nastavte následující SAP HANA parametrů:

    • max_parallel_io_requests128
    • async_read_submiton (On)
    • async_write_submit_activeon (On)
    • async_write_submit_blocksall (vše)

    Další informace najdete v tématu Aplikace NetApp SAPna Microsoft Azure pomocí Azure NetApp Files .

    Počínaje SAP HANA 2.0 můžete parametry nastavit v global.ini . Další informace najdete v článku SAP Note 1999930.

    Pro SAP HANA verze 1.0 SPS12 a starší je možné tyto parametry nastavit během instalace, jak je popsáno v článku SAP Note 2267798.

  7. Úložiště, které používá Azure NetApp Files má omezení velikosti souboru 16 terabajtů (TB). SAP HANA o omezení úložiště implicitně neví a při dosažení limitu velikosti souboru 16 TB automaticky nevytváří nový datový soubor. Jak SAP HANA pokusy o zvětšování souboru nad 16 TB, výsledkem tohoto pokusu budou chyby a nakonec chyba indexového serveru.

    Důležité

    Pokud chcete SAP HANA, aby se pokoušeli zvětšovat datové soubory nad limit 16 TB subsystému úložiště, nastavte následující parametry v global.ini souboru .

    • datavolume_striping = true
    • datavolume_striping_size_gb = 15000 Další informace najdete v tématu SAP Note 2400005. Mějte na paměti SAP Note 2631285.

Testovací SAP HANA převzetí služeb při selhání

Poznámka

Tento článek obsahuje odkazy na termíny master (hlavní) a slave (podřízený), které Microsoft už používá. Když se tyto podmínky ze softwaru odeberou, odebereme je z tohoto článku.

  1. Simulace selhání uzlu na SAP HANA pracovním uzlu Postupujte následovně:

    a. Než budete simulovat selhání uzlu, spusťte následující příkazy jako adm hn1, abyste zachytili stav prostředí:

    
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | yes    | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
    

    b. Pokud chcete simulovat selhání uzlu, spusťte následující příkaz jako root na pracovním uzlu, což je v tomto případě hanadb2:

    
     echo b > /proc/sysrq-trigger
    

    c. Monitorujte systém a dokončujte převzetí služeb při selhání. Po dokončení převzetí služeb při selhání zachyťte stav, který by měl vypadat takto:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY
     # Check the landscape status
     /usr/sap/HN1/HDB03/exe/python_support> python landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | no     | info   |          |        |         2 |         0 | default  | default  | master 2   | slave      | worker      | standby     | worker  | standby | default | -       |
     | hanadb3 | yes    | info   |          |        |         0 |         2 | default  | default  | master 3   | slave      | standby     | slave       | standby | worker  | default | default |
    

    Důležité

    Pokud dojde k paniky jádra uzlu, vyhněte se zpožděním SAP HANA převzetí služeb při selhání nastavením kernel.panic na 20 sekund na všech virtuálních počítačích HANA. Konfigurace se provádí v /etc/sysctl souboru . Restartováním virtuálních počítačů tuto změnu aktivujte. Pokud tato změna není provedena, převzetí služeb při selhání může trvat 10 nebo více minut, pokud u uzlu dochází k paniky jádra.

  2. Pomocí následujícího příkladu u kill the name server (Název serveru):

    a. Před testem zkontrolujte stav prostředí spuštěním následujících příkazů jako hn1 adm:

    
     #Landscape status 
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GRAY
    

    b. Na aktivním hlavním uzlu spusťte následující příkazy jako hn1 adm, v tomto případě hanadb1:

    
         hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB kill
     

    Pohotovostní uzel hanadb3 se převezme jako hlavní uzel. Tady je stav prostředku po dokončení testu převzetí služeb při selhání:

    
         # Check the instance status
         sapcontrol -nr 03 -function GetSystemInstanceList
         GetSystemInstanceList
         OK
         hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
         hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
         hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY
         hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
         # Check the landscape status
         python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
         | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
         |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
         |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
         | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
         | hanadb1 | no     | info   |          |        |         1 |         0 | default  | default  | master 1   | slave      | worker      | standby     | worker  | standby | default | -       |
         | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
         | hanadb3 | yes    | info   |          |        |         0 |         1 | default  | default  | master 3   | master     | standby     | master      | standby | worker  | default | default |
     

    c. Restartujte instanci HANA na hanadb1 (to znamená na stejném virtuálním počítači, na kterém byl název serveru uhodněn). Uzel hanadb1 se znovu připojí k prostředí a bude mít svou pohotovostní roli.

    
     hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB start
    

    Po SAP HANA na hanadb1 počtete následující stav:

    
     # Check the instance status
     sapcontrol -nr 03 -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | info   |          |        |         1 |         0 | default  | default  | master 1   | slave      | worker      | standby     | worker  | standby | default | -       |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | yes    | info   |          |        |         0 |         1 | default  | default  | master 3   | master     | standby     | master      | standby | worker  | default | default |
    

    d. Znovu uaktivte název serveru na aktuálně aktivním hlavním uzlu (tzn. v uzlu hanadb3).

    
     hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB kill
    

    Uzel hanadb1 obnoví roli hlavního uzlu. Po dokončení testu převzetí služeb při selhání bude stav vypadat takhle:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList & python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GRAY
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
    

    e. Začněte SAP HANA databázi hanadb3, která bude připravená sloužit jako pohotovostní uzel.

    
     hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB start
    

    Po SAP HANA na hanadb3 vypadá stav takto:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList & python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GRAY
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
    

Další kroky