Distribuera ett SAP HANA skalningssystem med en reservnod på virtuella Azure-datorer med hjälp av Azure NetApp Files på Red Hat Enterprise Linux

I den här artikeln beskrivs hur du distribuerar ett SAP HANA-system med hög SAP HANA i en utskalningskonfiguration med vänteläge på virtuella Azure Red Hat Enterprise Linux-datorer (VM) med hjälp av Azure NetApp Files för delade lagringsvolymer.

I exempelkonfigurationerna, installationskommandona och så vidare är HANA-instansen 03 och HANA-system-ID:t är HN1. Exemplen baseras på HANA 2.0 SP4 och Red Hat Enterprise Linux SAP 7.6.

Anteckning

Den här artikeln innehåller referenser till termerna master och slave, termer som Microsoft inte längre använder. När dessa villkor tas bort från programvaran tar vi bort dem från den här artikeln.

Innan du börjar bör du gå till följande SAP-anteckningar och -artiklar:

Översikt

En metod för att uppnå hög tillgänglighet i HANA är att konfigurera automatisk redundans för värden. Om du vill konfigurera automatisk redundans för värd lägger du till en eller flera virtuella datorer i HANA-systemet och konfigurerar dem som väntelägesnoder. När en aktiv nod misslyckas tar en reservnod automatiskt över. I den konfiguration som visas med virtuella Azure-datorer uppnår du automatisk redundans med hjälp av NFS på Azure NetApp Files.

Anteckning

Reservnoden behöver åtkomst till alla databasvolymer. HANA-volymerna måste monteras som NFSv4-volymer. Den förbättrade lånebaserade låsningsmekanismen för filer i NFSv4-protokollet används I/O för avspärrning.

Viktigt

Om du vill skapa konfigurationen som stöds måste du distribuera HANA-data och loggvolymer som NFSv4.1-volymer och montera dem med hjälp av NFSv4.1-protokollet. Konfiguration av automatisk redundans för HANA-värden med väntelägesnod stöds inte med NFSv3.

Översikt över hög tillgänglighet för SAP NetWeaver

I föregående diagram, som följer rekommendationer SAP HANA nätverk, representeras tre undernät i ett virtuellt Azure-nätverk:

  • För klientkommunikation
  • För kommunikation med lagringssystemet
  • För intern HANA-kommunikation mellan noder

Azure NetApp-volymerna är i separata undernät, delegerade till Azure NetApp Files.

I den här exempelkonfigurationen är undernäten:

  • client 10.9.1.0/26
  • storage 10.9.3.0/26
  • hana 10.9.2.0/26
  • anf 10.9.0.0/26 (delegerat undernät till Azure NetApp Files)

Konfigurera Azure NetApp Files infrastruktur

Innan du fortsätter med installationen av Azure NetApp Files infrastruktur bör du bekanta dig med Azure NetApp Files dokumentationen.

Azure NetApp Files finns i flera Azure-regioner. Kontrollera om din valda Azure-region erbjuder Azure NetApp Files.

Information om tillgängligheten för tjänster Azure NetApp Files Azure-region finns i Azure NetApp Files tillgänglighet per Azure-region.

Distribuera Azure NetApp Files resurser

Följande instruktioner förutsätter att du redan har distribuerat det virtuella Azure-nätverket. De Azure NetApp Files och virtuella datorerna, där de virtuella Azure NetApp Files-resurserna ska monteras, måste distribueras i samma virtuella Azure-nätverk eller i peer-erade virtuella Azure-nätverk.

  1. Skapa ett NetApp-konto i din valda Azure-region genom att följa anvisningarna i Skapa ett NetApp-konto.

  2. Konfigurera en Azure NetApp Files kapacitetspool genom att följa anvisningarna i Konfigurera en Azure NetApp Files-kapacitetspool.

    HANA-arkitekturen som presenteras i den här artikeln använder en Azure NetApp Files en kapacitetspool på Ultra Service-nivå. För HANA-arbetsbelastningar i Azure rekommenderar vi att du använder Azure NetApp Files Ultra eller Premium servicenivå.

  3. Delegera ett undernät till Azure NetApp Files enligt beskrivningen i anvisningarna i Delegera ett undernät till Azure NetApp Files.

  4. Distribuera Azure NetApp Files genom att följa anvisningarna i Skapa en NFS-volym för Azure NetApp Files.

    När du distribuerar volymerna måste du välja NFSv4.1-versionen. Distribuera volymerna i det Azure NetApp Files undernätet. IP-adresserna för Azure NetApp-volymerna tilldelas automatiskt.

    Tänk på att resurserna Azure NetApp Files Azure och de virtuella Azure-datorerna måste finnas i samma virtuella Azure-nätverk eller i peer-ade virtuella Azure-nätverk. Till exempel är HN1-data-mnt00001, HN1-log-mnt00001 och så vidare volymnamnen och nfs://10.9.0.4/HN1-data-mnt00001, nfs://10.9.0.4/HN1-log-mnt00001 och så vidare filsökvägarna för Azure NetApp Files-volymerna.

    • volume HN1-data-mnt00001 (nfs://10.9.0.4/HN1-data-mnt00001)
    • volume HN1-data-mnt00002 (nfs://10.9.0.4/HN1-data-mnt00002)
    • volume HN1-log-mnt00001 (nfs://10.9.0.4/HN1-log-mnt00001)
    • volume HN1-log-mnt00002 (nfs://10.9.0.4/HN1-log-mnt00002)
    • volume HN1-shared (nfs://10.9.0.4/HN1-shared)

    I det här exemplet använde vi en separat Azure NetApp Files för varje HANA-data och loggvolym. För en mer kostnadsoptimerad konfiguration i mindre eller icke-produktiva system är det möjligt att placera alla datamonteringar på en enda volym och alla loggar monteras på en annan volym.

Att tänka på

När du skapar ditt Azure NetApp Files för SAP HANA skala ut med fristående noder bör du tänka på följande viktiga överväganden:

  • Den minsta kapacitetspoolen är 4 tebibyte (TiB).
  • Den minsta volymstorleken är 100 gibibyte (GiB).
  • Azure NetApp Files och alla virtuella datorer där Azure NetApp Files-volymerna ska monteras måste finnas i samma virtuella Azure-nätverk eller i peer-ade virtuella nätverk i samma region.
  • Det valda virtuella nätverket måste ha ett undernät som har delegerats till Azure NetApp Files.
  • Dataflödet för en Azure NetApp Files-volym är en funktion för volymkvoten och tjänstnivån, enligt dokumentering i Servicenivå för Azure NetApp Files. När du storleksändring av HANA Azure NetApp-volymerna ser du till att det resulterande dataflödet uppfyller SYSTEMkraven för HANA.
  • Med Azure NetApp Files kan dustyra de tillåtna klienterna, åtkomsttypen (skrivskyddade, skrivskyddade och så vidare).
  • Funktionen Azure NetApp Files är inte zonmedveten ännu. För närvarande distribueras inte funktionen i alla tillgänglighetszoner i en Azure-region. Tänk på de potentiella fördröjningskonsekvenserna i vissa Azure-regioner.

Viktigt

Det är viktigt med låg fördröjning för SAP HANA-arbetsbelastningar. Samarbeta med din Microsoft-representant för att säkerställa att de virtuella Azure NetApp Files och volymerna distribueras nära varandra.

Storleksändring för HANA-databas på Azure NetApp Files

Dataflödet för en Azure NetApp Files volym är en funktion av volymstorlek och servicenivå, enligt vad som beskrivs i Servicenivå för Azure NetApp Files.

När du utformar infrastrukturen för SAP i Azure bör du vara medveten om vissa minimikrav för lagring av SAP, som översätts till minsta dataflödesegenskaper:

  • Läsning/skrivning på /hana/logg på 250 megabyte per sekund (MB/s) med 1 MB I/O-storlekar.
  • Läsaktivitet på minst 400 MB/s för /hana/data för I/O-storlekar på 16 MB och 64 MB.
  • Skrivaktivitet på minst 250 MB/s för /hana/data med 16 MB och 64 MB I/O-storlekar.

De Azure NetApp Files dataflödesgränserna per 1 TiB volymkvot är:

  • Premium Storage nivå – 64 MiB/s
  • Ultra Storage-nivå – 128 MiB/s

För att uppfylla minimikraven för SAP-dataflöde för data och logg, och riktlinjerna för /hana/shared, skulle de rekommenderade storlekarna vara:

Volym Storlek på
Premium Storage nivå
Storlek på
Ultra Storage-nivå
NFS-protokoll som stöds
/hana/log/ 4 TiB 2 TiB v4.1
/hana/data 6,3 TiB 3,2 TiB v4.1
/hana/shared 1xRAM per 4 arbetsnoder 1xRAM per 4 arbetsnoder v3 eller v4.1

Den SAP HANA konfigurationen för layouten som presenteras i den här artikeln, med hjälp Azure NetApp Files Ultra Storage-nivån, skulle vara:

Volym Storlek på
Ultra Storage-nivå
NFS-protokoll som stöds
/hana/log/mnt00001 2 TiB v4.1
/hana/log/mnt00002 2 TiB v4.1
/hana/data/mnt00001 3,2 TiB v4.1
/hana/data/mnt00002 3,2 TiB v4.1
/hana/shared 2 TiB v3 eller v4.1

Anteckning

De Azure NetApp Files storleksrekommendationer som anges här är avsedda att uppfylla minimikraven som SAP rekommenderar för sina infrastrukturleverantörer. I verkliga kunddistributioner och arbetsbelastningsscenarier kanske dessa storlekar inte är tillräckliga. Använd de här rekommendationerna som utgångspunkt och anpassa dem baserat på kraven för din specifika arbetsbelastning.

Tips

Du kan ändra Azure NetApp Files volymerna dynamiskt, utan att behöva demontera volymerna, stoppa de virtuella datorerna eller stoppa SAP HANA. Den här metoden ger flexibilitet för att uppfylla både förväntade och oförutsedda dataflödeskrav för ditt program.

Distribuera virtuella Linux-datorer via Azure Portal

Först måste du skapa de Azure NetApp Files volymerna. Gör sedan följande:

  1. Skapa undernäten för virtuella Azure-nätverk i ditt virtuella Azure-nätverk.

  2. Distribuera de virtuella datorerna.

  3. Skapa de ytterligare nätverksgränssnitten och koppla nätverksgränssnitten till motsvarande virtuella datorer.

    Varje virtuell dator har tre nätverksgränssnitt som motsvarar de tre virtuella Azure-nätverksundernäten ( client storage och hana ).

    Mer information finns i Skapa en virtuell Linux-dator i Azure med flera nätverkskort.

Viktigt

Det är viktigt med låg fördröjning för SAP HANA-arbetsbelastningar. För att uppnå låg fördröjning bör du samarbeta med din Microsoft-representant för att säkerställa att de virtuella datorerna och Azure NetApp Files distribueras nära varandra. Skicka nödvändig information när du registrerar ett nytt SAP HANA-system som använder SAP HANA Azure NetApp Files.

Nästa instruktioner förutsätter att du redan har skapat resursgruppen, det virtuella Azure-nätverket och de tre virtuella Azure-nätverksundernäten: client storage och hana . När du distribuerar de virtuella datorerna väljer du klientundernätet så att klientnätverksgränssnittet är det primära gränssnittet på de virtuella datorerna. Du måste också konfigurera en explicit väg till det Azure NetApp Files delegerade undernätet via lagringsundernätsgatewayen.

Viktigt

Kontrollera att det operativsystem som du väljer är SAP-certifierat för SAP HANA på de specifika VM-typer som du använder. En lista över SAP HANA certifierade VM-typer och os-versioner för dessa typer finns på SAP HANA för IaaS-plattformar. Klicka på informationen för den angivna typen av virtuell dator för att få en fullständig lista SAP HANA operativsystems versioner som stöds för den typen.

  1. Skapa en tillgänglighetsuppsättning för SAP HANA. Se till att ange den högsta uppdateringsdomänen.

  2. Skapa tre virtuella datorer (hanadb1, hanadb2, hanadb3) genom att göra följande:

    a. Använd en Red Hat Enterprise Linux bild i Azure-galleriet som stöds för SAP HANA. Vi använde en RHEL-SAP-HA 7.6-avbildning i det här exemplet.

    b. Välj den tillgänglighetsuppsättning som du skapade tidigare för SAP HANA.

    c. Välj det virtuella Azure-nätverkets klientundernät. Välj Accelererat nätverk.

    När du distribuerar de virtuella datorerna genereras nätverksgränssnittsnamnet automatiskt. I de här instruktionerna för enkelhetens skull refererar vi till de automatiskt genererade nätverksgränssnitten, som är kopplade till klientens virtuella azure-nätverksundernät, som hanadb1-client, hanadb2-client och hanadb3-client.

  3. Skapa tre nätverksgränssnitt, ett för varje virtuell dator, för det virtuella nätverkets undernät (i det här exemplet storage hanadb1-storage, hanadb2-storage och hanadb3-storage).

  4. Skapa tre nätverksgränssnitt, ett för varje virtuell dator, för det virtuella nätverkets undernät (i det här exemplet hana hanadb1-hana, hanadb2-hana och hanadb3-hana).

  5. Koppla de nyligen skapade virtuella nätverksgränssnitten till motsvarande virtuella datorer genom att göra följande:

    a. Gå till den virtuella datorn i Azure Portal.

    b. I den vänstra rutan väljer du Virtual Machines. Filtrera på namnet på den virtuella datorn (till exempel hanadb1) och välj sedan den virtuella datorn.

    c. I fönstret Översikt väljer du Stoppa för att avallokera den virtuella datorn.

    d. Välj Nätverk och koppla sedan nätverksgränssnittet. I listrutan Anslut nätverksgränssnitt väljer du de nätverksgränssnitt som redan har skapats för storage hana undernäten och .

    e. Välj Spara.

    f. Upprepa steg b till e för de återstående virtuella datorerna (i vårt exempel hanadb2 och hanadb3).

    ex. Låt de virtuella datorerna vara i stoppat tillstånd för tillfället. Nu ska vi aktivera accelererat nätverk för alla nyligen anslutna nätverksgränssnitt.

  6. Aktivera accelererat nätverk för de ytterligare nätverksgränssnitten för storage hana undernäten och genom att göra följande:

    a. Öppna Azure Cloud Shell i Azure Portal.

    b. Kör följande kommandon för att aktivera accelererat nätverk för de ytterligare nätverksgränssnitt som är kopplade till storage hana undernäten och .

    
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-storage --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-storage --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-storage --accelerated-networking true
    
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-hana --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-hana --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-hana --accelerated-networking true
    
     
  7. Starta de virtuella datorerna genom att göra följande:

    a. I den vänstra rutan väljer du Virtual Machines. Filtrera på namnet på den virtuella datorn (till exempel hanadb1) och välj det sedan.

    b. I fönstret Översikt väljer du Starta.

Konfiguration och förberedelse av operativsystem

Anvisningarna i nästa avsnitt föregås av något av följande:

  • [A]: Gäller för alla noder
  • [1]: Gäller endast för nod 1
  • [2]: Gäller endast för nod 2
  • [3]: Gäller endast för nod 3

Konfigurera och förbered operativsystemet genom att göra följande:

  1. [A] Underhålla värdfilerna på de virtuella datorerna. Inkludera poster för alla undernät. Följande poster har lagts till i för /etc/hosts det här exemplet.

    
     # Storage
     10.9.3.4   hanadb1-storage
     10.9.3.5   hanadb2-storage
     10.9.3.6   hanadb3-storage
     # Client
     10.9.1.5   hanadb1
     10.9.1.6   hanadb2
     10.9.1.7   hanadb3
     # Hana
     10.9.2.4   hanadb1-hana
     10.9.2.5   hanadb2-hana
     10.9.2.6   hanadb3-hana
     
  2. [A] Lägg till en nätverksväg så att kommunikationen till Azure NetApp Files går via lagringsnätverksgränssnittet.

    I det här exemplet används Networkmanager för att konfigurera den ytterligare nätverksvägen. Följande instruktioner förutsätter att lagringsnätverksgränssnittet är eth1 .
    Börja med att fastställa anslutningsnamnet för enheten eth1 . I det här exemplet är anslutningsnamnet för eth1 enheten Wired connection 1 .

    
     # Execute as root
     nmcli connection
     # Result
     #NAME                UUID                                  TYPE      DEVICE
     #System eth0         5fb06bd0-0bb0-7ffb-45f1-d6edd65f3e03  ethernet  eth0
     #Wired connection 1  4b0789d1-6146-32eb-83a1-94d61f8d60a7  ethernet  eth1
     

    Konfigurera sedan ytterligare väg till det Azure NetApp Files delegerade nätverket via eth1 .

    
     # Add the following route 
     # ANFDelegatedSubnet/cidr via StorageSubnetGW dev StorageNetworkInterfaceDevice
     nmcli connection modify "Wired connection 1" +ipv4.routes "10.9.0.0/26 10.9.3.1"
     

    Starta om den virtuella datorn för att aktivera ändringarna.

  3. [A] Installera NFS-klientpaketet.

    
     yum install nfs-utils
     
  4. [A] Förbered operativsystemet för att SAP HANA på Azure NetApp med NFS, enligt beskrivningen i NetApp SAP Applications på Microsoft Azure med Azure NetApp Files. Skapa konfigurationsfilen /etc/sysctl.d/netapp-hana.conf för NetApp-konfigurationsinställningarna.

    
     vi /etc/sysctl.d/netapp-hana.conf
     # Add the following entries in the configuration file
     net.core.rmem_max = 16777216
     net.core.wmem_max = 16777216
     net.core.rmem_default = 16777216
     net.core.wmem_default = 16777216
     net.core.optmem_max = 16777216
     net.ipv4.tcp_rmem = 65536 16777216 16777216
     net.ipv4.tcp_wmem = 65536 16777216 16777216
     net.core.netdev_max_backlog = 300000 
     net.ipv4.tcp_slow_start_after_idle=0 
     net.ipv4.tcp_no_metrics_save = 1
     net.ipv4.tcp_moderate_rcvbuf = 1
     net.ipv4.tcp_window_scaling = 1
     net.ipv4.tcp_timestamps = 1
     net.ipv4.tcp_sack = 1
     
  5. [A] Skapa konfigurationsfilen /etc/sysctl.d/ms-az.conf med ytterligare optimeringsinställningar.

    
     vi /etc/sysctl.d/ms-az.conf
     # Add the following entries in the configuration file
     net.ipv6.conf.all.disable_ipv6 = 1
     net.ipv4.tcp_max_syn_backlog = 16348
     net.ipv4.conf.all.rp_filter = 0
     sunrpc.tcp_slot_table_entries = 128
     vm.swappiness=10
     

Tips

Undvik att net.ipv4.ip_local_port_range och net.ipv4.ip_local_reserved_ports uttryckligen i sysctl-konfigurationsfilerna så att SAP-värdagenten kan hantera portintervallen. Mer information finns i SAP-anteckningen 2382421.

  1. [A] Justera inställningarna för sunrpc enligt rekommendationer i NetApp SAP Applications på Microsoft Azure med Azure NetApp Files.

    
     vi /etc/modprobe.d/sunrpc.conf
     # Insert the following line
     options sunrpc tcp_max_slot_table_entries=128
     
  2. [A] Red Hat för HANA-konfiguration.

    Konfigurera RHEL enligt beskrivningen i SAP [Note 2292690], 2455582, 2593824 och https://access.redhat.com/solutions/2447641 .

    Anteckning

    Om du installerar HANA 2.0 SP04 måste du installera paketet enligt beskrivningen i compat-sap-c++-7 SAP-anteckningen 2593824, innan du kan installera SAP HANA.

Montera Azure NetApp Files volymer

  1. [A] Skapa monteringspunkter för HANA-databasvolymerna.

    
     mkdir -p /hana/data/HN1/mnt00001
     mkdir -p /hana/data/HN1/mnt00002
     mkdir -p /hana/log/HN1/mnt00001
     mkdir -p /hana/log/HN1/mnt00002
     mkdir -p /hana/shared
     mkdir -p /usr/sap/HN1
     
  2. [1] Skapa nodspecifika kataloger för /usr/sap på HN1-shared.

    
     # Create a temporary directory to mount HN1-shared
     mkdir /mnt/tmp
     # if using NFSv3 for this volume, mount with the following command
     mount 10.9.0.4:/HN1-shared /mnt/tmp
     # if using NFSv4.1 for this volume, mount with the following command
     mount -t nfs -o sec=sys,vers=4.1 10.9.0.4:/HN1-shared /mnt/tmp
     cd /mnt/tmp
     mkdir shared usr-sap-hanadb1 usr-sap-hanadb2 usr-sap-hanadb3
     # unmount /hana/shared
     cd
     umount /mnt/tmp
     
  3. [A] Kontrollera NFS-domäninställningen. Kontrollera att domänen är konfigurerad som standarddomänen Azure NetApp Files, dvs. och att defaultv4iddomain.com mappningen är inställd på ingen.

    Viktigt

    Se till att ange NFS-domänen i på den virtuella datorn så att den matchar /etc/idmapd.conf standarddomänkonfigurationen på Azure NetApp Files: defaultv4iddomain.com . Om det finns ett matchningsfel mellan domänkonfigurationen på NFS-klienten (dvs. den virtuella datorn) och NFS-servern, d.v.s. Azure NetApp-konfigurationen, visas behörigheterna för filer på Azure NetApp-volymer som är monterade på de virtuella datorerna som nobody .

    
     sudo cat /etc/idmapd.conf
     # Example
     [General]
     Domain = defaultv4iddomain.com
     [Mapping]
     Nobody-User = nobody
     Nobody-Group = nobody
     
  4. [A] Verifiera nfs4_disable_idmapping . Det ska vara inställt på Y. Kör monteringskommandot nfs4_disable_idmapping för att skapa katalogstrukturen där finns. Du kommer inte att kunna skapa katalogen manuellt under /sys/modules eftersom åtkomst är reserverad för kerneln/drivrutinerna.

    
     # Check nfs4_disable_idmapping 
     cat /sys/module/nfs/parameters/nfs4_disable_idmapping
     # If you need to set nfs4_disable_idmapping to Y
     mkdir /mnt/tmp
     mount 10.9.0.4:/HN1-shared /mnt/tmp
     umount  /mnt/tmp
     echo "Y" > /sys/module/nfs/parameters/nfs4_disable_idmapping
     # Make the configuration permanent
     echo "options nfs nfs4_disable_idmapping=Y" >> /etc/modprobe.d/nfs.conf
     

    Mer information om hur du ändrar nfs4_disable_idmapping parameter finns i https://access.redhat.com/solutions/1749883 .

  5. [A] Montera de Azure NetApp Files volymerna.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.9.0.4:/HN1-data-mnt00001 /hana/data/HN1/mnt00001  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.9.0.4:/HN1-data-mnt00002 /hana/data/HN1/mnt00002  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.9.0.4:/HN1-log-mnt00001 /hana/log/HN1/mnt00001  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.9.0.4:/HN1-log-mnt00002 /hana/log/HN1/mnt00002  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.9.0.4:/HN1-shared/shared /hana/shared  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount all volumes
     sudo mount -a 
     
  6. [1] Montera de nodspecifika volymerna på hanadb1.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.9.0.4:/HN1-shared/usr-sap-hanadb1 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  7. [2] Montera de nodspecifika volymerna på hanadb2.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.9.0.4:/HN1-shared/usr-sap-hanadb2 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  8. [3] Montera de nodspecifika volymerna på hanadb3.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.9.0.4:/HN1-shared/usr-sap-hanadb3 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  9. [A] Kontrollera att alla HANA-volymer är monterade med NFS-protokollversion NFSv4.

    
    sudo nfsstat -m
    # Verify that flag vers is set to 4.1 
    # Example from hanadb1
    /hana/data/HN1/mnt00001 from 10.9.0.4:/HN1-data-mnt00001
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /hana/log/HN1/mnt00002 from 10.9.0.4:/HN1-log-mnt00002
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /hana/data/HN1/mnt00002 from 10.9.0.4:/HN1-data-mnt00002
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /hana/log/HN1/mnt00001 from 10.9.0.4:/HN1-log-mnt00001
    Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /usr/sap/HN1 from 10.9.0.4:/HN1-shared/usr-sap-hanadb1
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /hana/shared from 10.9.0.4:/HN1-shared/shared
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    

Installation

I det här exemplet SAP HANA i utskalningskonfiguration med väntelägesnod med Azure har vi använt HANA 2.0 SP4.

Förbereda för HANA-installation

  1. [A] Före HANA-installationen anger du rotlösenordet. Du kan inaktivera rotlösenordet när installationen har slutförts. Kör som root kommando passwd .

  2. [1] Kontrollera att du kan logga in via SSH till hanadb2 och hanadb3 utan att behöva ange ett lösenord.

    
     ssh root@hanadb2
     ssh root@hanadb3
     
  3. [A] Installera ytterligare paket som krävs för HANA 2.0 SP4. Mer information finns i SAP Note 2593824.

    
     yum install libgcc_s1 libstdc++6 compat-sap-c++-7 libatomic1 
     
  4. [2], [3] Ändra ägarskap för SAP HANA data log och kataloger till hn1 adm.

    
     # Execute as root
     sudo chown hn1adm:sapsys /hana/data/HN1
     sudo chown hn1adm:sapsys /hana/log/HN1
     
  5. [A] Inaktivera brandväggen tillfälligt, så att den inte stör HANA-installationen. Du kan återaktivera det när HANA-installationen är klar.

    
     # Execute as root
     systemctl stop firewalld
     systemctl disable firewalld
    

HANA-installation

  1. [1] Installera SAP HANA genom att följa anvisningarna i SAP HANA 2.0 Installations- och uppdateringsguide. I det här exemplet installerar vi SAP HANA ut med huvudnod, en arbetsnod och en reservnod.

    a. Starta hdblcm-programmet från katalogen med HANA-installationsprogramvaran. Använd internal_network parametern och skicka adressutrymmet för undernätet, som används för intern HANA-kommunikation mellan noder.

    
     ./hdblcm --internal_network=10.9.2.0/26
     

    b. Ange följande värden i kommandotolken:

    • För Välj en åtgärd: ange 1 (för installation)
    • För Ytterligare komponenter för installation anger du 2, 3
    • För installationssökväg: Tryck på Retur (som standard /hana/shared)
    • För Lokalt värdnamn: tryck på Retur för att acceptera standardvärdet
    • Under Vill du lägga till värdar i systemet?: ange y
    • För kommaavgränsade värdnamn som ska läggas till: ange hanadb2, hanadb3
    • För rotanvändarnamn [root]: tryck på Retur för att acceptera standardvärdet
    • För roller för värd hanadb2: ange 1 (för arbetsroller)
    • För Värd redundansgrupp för värd hanadb2 [standard]: tryck på Retur för att acceptera standard
    • För Storage partitionsnumret för värden hanadb2 [ <<assign automatically> > ]: tryck på Retur för att acceptera standardvärdet
    • För Arbetsgrupp för värd hanadb2 [standard]: tryck på Retur för att acceptera standardvärdet
    • För Välj roller för värd hanadb3: ange 2 (för vänteläge)
    • För Värd redundansgrupp för värd hanadb3 [standard]: tryck på Retur för att acceptera standard
    • För Arbetsgrupp för värd hanadb3 [standard]: tryck på Retur för att acceptera standardvärdet
    • För SAP HANA system-ID: ange HN1
    • För Instansnummer [00]: ange 03
    • För Lokal värdarbetaregrupp [default]: tryck på Retur för att acceptera standardvärdet
    • För Välj systemanvändning/Ange index [4] anger du 4 (för anpassat)
    • För Plats för datavolymer [/hana/data/HN1]: tryck på Retur för att acceptera standardvärdet
    • För Plats för loggvolymer [/hana/log/HN1]: tryck på Retur för att acceptera standardvärdet
    • För Begränsa maximal minnesallokering? [n]: ange n
    • För Certifikatvärdnamn för Värd hanadb1 [hanadb1]: tryck på Retur för att acceptera standardvärdet
    • För Certifikatvärdnamn för Värd hanadb2 [hanadb2]: tryck på Retur för att acceptera standardvärdet
    • För Certifikatvärdnamn för Värd hanadb3 [hanadb3]: tryck på Retur för att acceptera standardvärdet
    • För Systemadministratörslösenord (hn1adm): ange lösenordet
    • För System Database User (system)-lösenord: ange systemets lösenord
    • För Bekräfta systemdatabasanvändarens (systemets) lösenord: anger du systemets lösenord
    • För Omstartssystem efter omstart av datorn? [n]: ange n
    • För Vill du fortsätta (j/n): validera sammanfattningen och om allt ser bra ut anger du y
  2. [1] Verifiera global.ini

    Visa global.ini och se till att konfigurationen för den interna SAP HANA kommunikation mellan noder är på plats. Kontrollera kommunikationsavsnittet. Det ska ha adressutrymmet för hana undernätet och listeninterface ska vara inställt på .internal . Kontrollera internal_hostname_resolution avsnittet. Den ska ha IP-adresserna för de virtuella HANA-datorer som tillhör hana undernätet.

    
     sudo cat /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini
     # Example 
     #global.ini last modified 2019-09-10 00:12:45.192808 by hdbnameserve
     [communication]
     internal_network = 10.9.2.0/26
     listeninterface = .internal
     [internal_hostname_resolution]
     10.9.2.4 = hanadb1
     10.9.2.5 = hanadb2
     10.9.2.6 = hanadb3
    
  3. [1] Lägg till värdmappning för att säkerställa att klientens IP-adresser används för klientkommunikation. Lägg till public_host_resolution avsnitt och lägg till motsvarande IP-adresser från klientundernätet.

    
     sudo vi /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini
     #Add the section
     [public_hostname_resolution]
     map_hanadb1 = 10.9.1.5
     map_hanadb2 = 10.9.1.6
     map_hanadb3 = 10.9.1.7
    
  4. [1] Starta SAP HANA för att aktivera ändringarna.

    
     sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StopSystem HDB
     sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StartSystem HDB
    
  5. [1] Kontrollera att klientgränssnittet kommer att använda IP-adresserna från client undernätet för kommunikation.

    
     # Execute as hn1adm
     /usr/sap/HN1/HDB03/exe/hdbsql -u SYSTEM -p "password" -i 03 -d SYSTEMDB 'select * from SYS.M_HOST_INFORMATION'|grep net_publicname
     # Expected result
     "hanadb3","net_publicname","10.9.1.7"
     "hanadb2","net_publicname","10.9.1.6"
     "hanadb1","net_publicname","10.9.1.5"
    

    Information om hur du verifierar konfigurationen finns i SAP Note 2183363 - Configuration of SAP HANA internal network.

  6. [A] Återaktivera brandväggen.

    • Stoppa HANA

      
         sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StopSystem HDB
        
    • Återaktivera brandväggen

      
         # Execute as root
         systemctl start firewalld
         systemctl enable firewalld
        
    • Öppna nödvändiga brandväggsportar

      Viktigt

      Skapa brandväggsregler för att tillåta HANA-kommunikation mellan noder och klienttrafik. De portar som krävs visas på TCP/IP-portar för alla SAP-produkter. Följande kommandon är bara ett exempel. I det här scenariot med använt systemnummer 03.

      
         # Execute as root
         sudo firewall-cmd --zone=public --add-port=30301/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30301/tcp
         sudo firewall-cmd --zone=public --add-port=30303/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30303/tcp
         sudo firewall-cmd --zone=public --add-port=30306/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30306/tcp
         sudo firewall-cmd --zone=public --add-port=30307/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30307/tcp
         sudo firewall-cmd --zone=public --add-port=30313/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30313/tcp
         sudo firewall-cmd --zone=public --add-port=30315/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30315/tcp
         sudo firewall-cmd --zone=public --add-port=30317/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30317/tcp
         sudo firewall-cmd --zone=public --add-port=30340/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30340/tcp
         sudo firewall-cmd --zone=public --add-port=30341/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30341/tcp
         sudo firewall-cmd --zone=public --add-port=30342/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30342/tcp
         sudo firewall-cmd --zone=public --add-port=1128/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=1128/tcp
         sudo firewall-cmd --zone=public --add-port=1129/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=1129/tcp
         sudo firewall-cmd --zone=public --add-port=40302/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40302/tcp
         sudo firewall-cmd --zone=public --add-port=40301/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40301/tcp
         sudo firewall-cmd --zone=public --add-port=40307/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40307/tcp
         sudo firewall-cmd --zone=public --add-port=40303/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40303/tcp
         sudo firewall-cmd --zone=public --add-port=40340/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40340/tcp
         sudo firewall-cmd --zone=public --add-port=50313/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=50313/tcp
         sudo firewall-cmd --zone=public --add-port=50314/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=50314/tcp
         sudo firewall-cmd --zone=public --add-port=30310/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30310/tcp
         sudo firewall-cmd --zone=public --add-port=30302/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30302/tcp
        
    • Starta HANA

      
         sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StartSystem HDB
        
  7. Om du SAP HANA för den underliggande Azure NetApp Files lagringen anger du följande SAP HANA parametrar:

    • max_parallel_io_requests128
    • async_read_submit
    • async_write_submit_active
    • async_write_submit_blocksalla

    Mer information finns i NetApp SAP Applications on Microsoft Azure using Azure NetApp Files.

    Från och SAP HANA 2.0-system kan du ange parametrarna i global.ini . Mer information finns i SAP Note 1999930.

    För SAP HANA 1.0-systemversionerna SPS12 och tidigare kan dessa parametrar anges under installationen, enligt beskrivningen i SAP Note 2267798.

  8. Lagringen som används av Azure NetApp Files har en filstorleksbegränsning på 16 terabyte (TB). SAP HANA är inte implicit medveten om lagringsbegränsningen och skapar inte automatiskt en ny datafil när filstorleksgränsen på 16 TB nås. När SAP HANA försöker utöka filen till mer än 16 TB resulterar det i fel och så småningom att en indexserver kraschar.

    Viktigt

    Om du SAP HANA att försöka utöka datafilerna till mer än gränsen på 16 TB för underlagringssystemet anger du följande parametrar i global.ini .

    • datavolume_striping = sant
    • datavolume_striping_size_gb = 15000 Mer information finns i SAP Note 2400005. Tänk på SAP Note 2631285.

Testa SAP HANA redundans

  1. Simulera en nodkrasch på en SAP HANA arbetsnod. Gör följande:

    a. Innan du simulerar nodkrasch kör du följande kommandon som hn1 adm för att avbilda miljöns status:

    
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | yes    | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
    

    b. Om du vill simulera en nodkrasch kör du följande kommando som rot på arbetsnoden, som i det här fallet är hanadb2:

    
     echo b > /proc/sysrq-trigger
    

    c. Övervaka systemet för slutförande av redundans. När redundansen har slutförts avbildar du statusen, som bör se ut så här:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | no     | info   |          |        |         2 |         0 | default  | default  | master 2   | slave      | worker      | standby     | worker  | standby | default | -       |
     | hanadb3 | yes    | info   |          |        |         0 |         2 | default  | default  | master 3   | slave      | standby     | slave       | standby | worker  | default | default |
    

    Viktigt

    När en nod får kernel-problem kan du undvika fördröjningar SAP HANA redundans genom att ange kernel.panic till 20 sekunder på alla virtuella HANA-datorer. Konfigurationen görs i /etc/sysctl . Starta om de virtuella datorerna för att aktivera ändringen. Om den här ändringen inte utförs kan redundansväxlingen ta 10 eller fler minuter när en nod får kernel-problem.

  2. Gör så här för att ta bort namnservern:

    a. Innan testet kontrollerar du statusen för miljön genom att köra följande kommandon som hn1 adm:

    
     #Landscape status 
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | yes    | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
    

    b. Kör följande kommandon som hn1 adm på den aktiva huvudnoden, som i det här fallet är hanadb1:

    
         hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB kill
     

    Reservnoden hanadb3 tar över som huvudnod. Här är resurstillståndet när redundanstestet har slutförts:

    
      # Check the instance status
      sapcontrol -nr 03  -function GetSystemInstanceList
      GetSystemInstanceList
      OK
      hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
      hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
      hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY
      # Check the landscape status
      python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
      | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
      |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
      |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
      | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
      | hanadb1 | no     | info   |          |        |         1 |         0 | default  | default  | master 1   | slave      | worker      | standby     | worker  | standby | default | -       |
      | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
      | hanadb3 | yes    | info   |          |        |         0 |         1 | default  | default  | master 3   | master     | standby     | master      | standby | worker  | default | default |
     

    c. Starta om HANA-instansen på hanadb1 (det vill säga på samma virtuella dator där namnservern har avlivades). Noden hanadb1 återansluter till miljön och behåller sin vänteroll.

    
     hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB start
    

    När SAP HANA har startat på hanadb1 förväntar du dig följande status:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | no     | info   |          |        |         1 |         0 | default  | default  | master 1   | slave      | worker      | standby     | worker  | standby | default | -       |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | yes    | info   |          |        |         0 |         1 | default  | default  | master 3   | master     | standby     | master      | standby | worker  | default | default |
    

    d. Igen, kill the name server on the currently active master node (det vill säga på noden hanadb3).

    
     hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB kill
    

    Node hanadb1 återupptar rollen som huvudnod. När redundanstestet har slutförts ser statusen ut så här:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GRAY
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
    

    e. Starta SAP HANA hanadb3, som är redo att fungera som en reservnod.

    
     hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB start
    

    När SAP HANA har startat på hanadb3 ser statusen ut så här:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList & python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
    

Nästa steg