Distribuera ett SAP HANA skalningssystem med en reservnod på virtuella Azure-datorer med hjälp av Azure NetApp Files på SUSE Linux Enterprise Server

I den här artikeln beskrivs hur du distribuerar ett SAP HANA-system med hög SAP HANA i en utskalningskonfiguration med vänteläge på virtuella Azure-datorer (VM) med hjälp av Azure NetApp Files för delade lagringsvolymer.

I exempelkonfigurationerna, installationskommandona och så vidare är HANA-instansen 03 och HANA-system-ID:t är HN1. Exemplen baseras på HANA 2.0 SP4 och SUSE Linux Enterprise Server SAP 12 SP4.

Innan du börjar bör du gå till följande SAP-anteckningar och -artiklar:

Översikt

En metod för att uppnå hög tillgänglighet i HANA är att konfigurera automatisk redundans för värden. Om du vill konfigurera automatisk redundans för värd lägger du till en eller flera virtuella datorer i HANA-systemet och konfigurerar dem som väntelägesnoder. När en aktiv nod misslyckas tar en reservnod automatiskt över. I den konfiguration som visas med virtuella Azure-datorer uppnår du automatisk redundans med hjälp av NFS på Azure NetApp Files.

Anteckning

Reservnoden behöver åtkomst till alla databasvolymer. HANA-volymerna måste monteras som NFSv4-volymer. Den förbättrade filleasingbaserad låsningsmekanismen i NFSv4-protokollet används I/O för avspärrning.

Viktigt

Om du vill skapa konfigurationen som stöds måste du distribuera HANA-data och loggvolymer som NFSv4.1-volymer och montera dem med hjälp av NFSv4.1-protokollet. Konfigurationen av automatisk redundans för HANA-värden med väntelägesnod stöds inte med NFSv3.

Översikt över hög tillgänglighet för SAP NetWeaver

I föregående diagram, som följer rekommendationer SAP HANA nätverk, representeras tre undernät i ett virtuellt Azure-nätverk:

  • För klientkommunikation
  • För kommunikation med lagringssystemet
  • För intern HANA-kommunikation mellan noder

Azure NetApp-volymerna är i separata undernät, delegerade till Azure NetApp Files.

I den här exempelkonfigurationen är undernäten:

  • client 10.23.0.0/24
  • storage 10.23.2.0/24
  • hana 10.23.3.0/24
  • anf 10.23.1.0/26

Konfigurera Azure NetApp Files infrastruktur

Innan du fortsätter med konfigurationen för Azure NetApp Files infrastruktur bör du bekanta dig med Azure NetApp Files dokumentationen.

Azure NetApp Files finns i flera Azure-regioner. Kontrollera om din valda Azure-region erbjuder Azure NetApp Files.

Information om tillgängligheten för tjänster Azure NetApp Files Azure-region finns i Azure NetApp Files tillgänglighet per Azure-region.

Distribuera Azure NetApp Files resurser

Följande anvisningar förutsätter att du redan har distribuerat det virtuella Azure-nätverket. De Azure NetApp Files och virtuella datorerna, där de virtuella Azure NetApp Files-resurserna ska monteras, måste distribueras i samma virtuella Azure-nätverk eller i peer-erade virtuella Azure-nätverk.

  1. Skapa ett NetApp-konto i din valda Azure-region genom att följa anvisningarna i Skapa ett NetApp-konto.

  2. Konfigurera en Azure NetApp Files kapacitetspool genom att följa anvisningarna i Konfigurera en Azure NetApp Files-kapacitetspool.

    HANA-arkitekturen som presenteras i den här artikeln använder Azure NetApp Files en kapacitetspool på Ultra Service-nivå. För HANA-arbetsbelastningar i Azure rekommenderar vi att du använder Azure NetApp Files Ultra eller Premium servicenivå.

  3. Delegera ett undernät till Azure NetApp Files enligt beskrivningen i anvisningarna i Delegera ett undernät till Azure NetApp Files.

  4. Distribuera Azure NetApp Files genom att följa anvisningarna i Skapa en NFS-volym för Azure NetApp Files.

    När du distribuerar volymerna måste du välja NFSv4.1-versionen. För närvarande kräver åtkomst till NFSv4.1 att läggas till i en lista över tillåtna. Distribuera volymerna i det Azure NetApp Files undernätet. IP-adresserna för Azure NetApp-volymerna tilldelas automatiskt.

    Tänk på att resurserna Azure NetApp Files Azure och de virtuella Azure-datorerna måste finnas i samma virtuella Azure-nätverk eller i peer-ade virtuella Azure-nätverk. Till exempel är HN1-data-mnt00001, HN1-log-mnt00001 och så vidare volymnamnen och nfs://10.23.1.5/HN1-data-mnt00001, nfs://10.23.1.4/HN1-log-mnt00001 och så vidare filsökvägarna för Azure NetApp Files-volymerna.

    • volume HN1-data-mnt00001 (nfs://10.23.1.5/HN1-data-mnt00001)
    • volume HN1-data-mnt00002 (nfs://10.23.1.6/HN1-data-mnt00002)
    • volume HN1-log-mnt00001 (nfs://10.23.1.4/HN1-log-mnt00001)
    • volume HN1-log-mnt00002 (nfs://10.23.1.6/HN1-log-mnt00002)
    • volume HN1-shared (nfs://10.23.1.4/HN1-shared)

    I det här exemplet använde vi en separat Azure NetApp Files för varje HANA-data och loggvolym. För en mer kostnadsoptimerad konfiguration i mindre eller icke-produktiva system, är det möjligt att placera alla datamonteringar och alla loggar monterar på en enda volym.

Att tänka på

Tänk på följande när du skapar Azure NetApp Files för SAP NetWeaver i SUSE-arkitekturen för hög tillgänglighet:

  • Den minsta kapacitetspoolen är 4 tebibyte (TiB).
  • Den minsta volymstorleken är 100 gibibyte (GiB).
  • Azure NetApp Files och alla virtuella datorer där Azure NetApp Files-volymerna ska monteras måste finnas i samma virtuella Azure-nätverk eller i peer-ade virtuella nätverk i samma region.
  • Det valda virtuella nätverket måste ha ett undernät som har delegerats till Azure NetApp Files.
  • Dataflödet för en Azure NetApp Files-volym är en funktion för volymkvoten och tjänstnivån, enligt dokumenten i Servicenivå för Azure NetApp Files. När du storleksändring av HANA Azure NetApp-volymerna ser du till att det resulterande dataflödet uppfyller SYSTEMkraven för HANA.
  • Med den Azure NetApp Files exportprincipenkan du styra de tillåtna klienterna, åtkomsttypen (skrivskyddade, skrivskyddade och så vidare).
  • Funktionen Azure NetApp Files är inte zonmedveten ännu. För närvarande distribueras inte funktionen i alla tillgänglighetszoner i en Azure-region. Tänk på de potentiella fördröjningskonsekvenserna i vissa Azure-regioner.

Viktigt

Det är viktigt med låg fördröjning för SAP HANA-arbetsbelastningar. Samarbeta med din Microsoft-representant för att säkerställa att de virtuella Azure NetApp Files och volymerna distribueras nära varandra.

Storleksändring för HANA-databas på Azure NetApp Files

Dataflödet för en Azure NetApp Files volym är en funktion av volymstorlek och servicenivå, enligt vad som beskrivs i Servicenivå för Azure NetApp Files.

När du utformar infrastrukturen för SAP i Azure bör du vara medveten om vissa minimikrav för lagring av SAP, som översätts till minsta dataflödesegenskaper:

  • Aktivera läsning/skrivning på /hana/logg på 250 megabyte per sekund (MB/s) med 1 MB I/O-storlekar.
  • Aktivera läsaktivitet på minst 400 MB/s för /hana/data för I/O-storlekar på 16 MB och 64 MB.
  • Aktivera skrivaktivitet på minst 250 MB/s för /hana/data med 16 MB och 64 MB I/O-storlekar.

De Azure NetApp Files dataflödesgränserna per 1 TiB volymkvot är:

  • Premium Storage nivå – 64 MiB/s
  • Ultra Storage-nivå – 128 MiB/s

För att uppfylla minimikraven för SAP-dataflöde för data och logg, och riktlinjerna för /hana/shared, skulle de rekommenderade storlekarna vara:

Volym Storlek på
Premium Storage nivå
Storlek på
Ultra Storage-nivå
NFS-protokoll som stöds
/hana/log/ 4 TiB 2 TiB v4.1
/hana/data 6,3 TiB 3,2 TiB v4.1
/hana/shared Max (512 GB, 1 xRAM) per 4 arbetarnoder Max (512 GB, 1 xRAM) per 4 arbetarnoder v3 eller v4.1

Den SAP HANA konfigurationen för layouten som presenteras i den här artikeln, med hjälp Azure NetApp Files Ultra Storage-nivån, skulle vara:

Volym Storlek på
Ultra Storage-nivå
NFS-protokoll som stöds
/hana/log/mnt00001 2 TiB v4.1
/hana/log/mnt00002 2 TiB v4.1
/hana/data/mnt00001 3,2 TiB v4.1
/hana/data/mnt00002 3,2 TiB v4.1
/hana/shared 2 TiB v3 eller v4.1

Anteckning

De Azure NetApp Files storleksrekommendationer som anges här är avsedda att uppfylla minimikraven som SAP rekommenderar för sina infrastrukturleverantörer. I verkliga kunddistributioner och arbetsbelastningsscenarier kanske dessa storlekar inte är tillräckliga. Använd de här rekommendationerna som utgångspunkt och anpassa dem baserat på kraven för din specifika arbetsbelastning.

Tips

Du kan ändra Azure NetApp Files volymerna dynamiskt, utan att behöva demontera volymerna, stoppa de virtuella datorerna eller stoppa SAP HANA. Den här metoden ger flexibilitet för att uppfylla både förväntade och oförutsedda dataflödeskrav för ditt program.

Distribuera virtuella Linux-datorer via Azure Portal

Först måste du skapa de Azure NetApp Files volymerna. Gör sedan följande:

  1. Skapa undernäten för virtuella Azure-nätverk i ditt virtuella Azure-nätverk.

  2. Distribuera de virtuella datorerna.

  3. Skapa de ytterligare nätverksgränssnitten och koppla nätverksgränssnitten till motsvarande virtuella datorer.

    Varje virtuell dator har tre nätverksgränssnitt som motsvarar de tre virtuella Azure-nätverksundernäten ( client storage och hana ).

    Mer information finns i Skapa en virtuell Linux-dator i Azure med flera nätverkskort.

Viktigt

Det är viktigt med låg fördröjning för SAP HANA-arbetsbelastningar. För att uppnå låg fördröjning bör du samarbeta med din Microsoft-representant för att säkerställa att de virtuella datorerna och Azure NetApp Files distribueras nära varandra. Skicka nödvändig information när du registrerar ett nytt SAP HANA-system som använder SAP HANA Azure NetApp Files.

Nästa instruktioner förutsätter att du redan har skapat resursgruppen, det virtuella Azure-nätverket och de tre virtuella Azure-nätverksundernäten: client storage och hana . När du distribuerar de virtuella datorerna väljer du klientundernätet så att klientnätverksgränssnittet är det primära gränssnittet på de virtuella datorerna. Du måste också konfigurera en explicit väg till det Azure NetApp Files delegerade undernätet via lagringsundernätsgatewayen.

Viktigt

Kontrollera att det operativsystem som du väljer är SAP-certifierat för SAP HANA på de specifika VM-typer som du använder. En lista över SAP HANA certifierade VM-typer och os-versioner för dessa typer finns på SAP HANA för IaaS-plattformar. Klicka på informationen för den angivna typen av virtuell dator för att få en fullständig lista SAP HANA operativsystems versioner som stöds för den typen.

  1. Skapa en tillgänglighetsuppsättning för SAP HANA. Se till att ange den högsta uppdateringsdomänen.

  2. Skapa tre virtuella datorer (hanadb1, hanadb2, hanadb3) genom att göra följande:

    a. Använd en SLES4SAP-avbildning i Azure-galleriet som stöds för SAP HANA. Vi använde en SLES4SAP 12 SP4-avbildning i det här exemplet.

    b. Välj den tillgänglighetsuppsättning som du skapade tidigare för SAP HANA.

    c. Välj det virtuella Azure-nätverkets klientundernät. Välj Accelererat nätverk.

    När du distribuerar de virtuella datorerna genereras nätverksgränssnittsnamnet automatiskt. I de här instruktionerna för enkelhetens skull refererar vi till de automatiskt genererade nätverksgränssnitten, som är kopplade till klientens virtuella azure-nätverksundernät, som hanadb1-client, hanadb2-client och hanadb3-client.

  3. Skapa tre nätverksgränssnitt, ett för varje virtuell dator, för det virtuella nätverkets undernät (i det här exemplet storage hanadb1-storage, hanadb2-storage och hanadb3-storage).

  4. Skapa tre nätverksgränssnitt, ett för varje virtuell dator, för det virtuella nätverkets undernät (i det här exemplet hana hanadb1-hana, hanadb2-hana och hanadb3-hana).

  5. Koppla de nyligen skapade virtuella nätverksgränssnitten till motsvarande virtuella datorer genom att göra följande:

    a. Gå till den virtuella datorn i Azure Portal.

    b. I den vänstra rutan väljer du Virtual Machines. Filtrera på namnet på den virtuella datorn (till exempel hanadb1) och välj sedan den virtuella datorn.

    c. I fönstret Översikt väljer du Stoppa för att avallokera den virtuella datorn.

    d. Välj Nätverk och koppla sedan nätverksgränssnittet. I listrutan Anslut nätverksgränssnitt väljer du de nätverksgränssnitt som redan har skapats för storage hana undernäten och .

    e. Välj Spara.

    f. Upprepa steg b till e för de återstående virtuella datorerna (i vårt exempel hanadb2 och hanadb3).

    ex. Låt de virtuella datorerna vara i stoppat tillstånd för tillfället. Nu ska vi aktivera accelererat nätverk för alla nyligen anslutna nätverksgränssnitt.

  6. Aktivera accelererat nätverk för de ytterligare nätverksgränssnitten för storage hana undernäten och genom att göra följande:

    a. Öppna Azure Cloud Shell i Azure Portal.

    b. Kör följande kommandon för att aktivera accelererat nätverk för de ytterligare nätverksgränssnitt som är kopplade till storage hana undernäten och .

    
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-storage --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-storage --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-storage --accelerated-networking true
    
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-hana --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-hana --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-hana --accelerated-networking true
    
     
  7. Starta de virtuella datorerna genom att göra följande:

    a. I den vänstra rutan väljer du Virtual Machines. Filtrera på namnet på den virtuella datorn (till exempel hanadb1) och välj det sedan.

    b. I fönstret Översikt väljer du Starta.

Konfiguration och förberedelse av operativsystem

Anvisningarna i nästa avsnitt föregås av något av följande:

  • [A]: Gäller för alla noder
  • [1]: Gäller endast för nod 1
  • [2]: Gäller endast för nod 2
  • [3]: Gäller endast för nod 3

Konfigurera och förbered operativsystemet genom att göra följande:

  1. [A] Underhålla värdfilerna på de virtuella datorerna. Inkludera poster för alla undernät. Följande poster har lagts till i för /etc/hosts det här exemplet.

    
     # Storage
     10.23.2.4   hanadb1-storage
     10.23.2.5   hanadb2-storage
     10.23.2.6   hanadb3-storage
     # Client
     10.23.0.5   hanadb1
     10.23.0.6   hanadb2
     10.23.0.7   hanadb3
     # Hana
     10.23.3.4   hanadb1-hana
     10.23.3.5   hanadb2-hana
     10.23.3.6   hanadb3-hana
     
  2. [A] Ändra konfigurationsinställningarna för DHCP och molnet för nätverksgränssnittet för lagring för att undvika oavsiktliga värdnamnsändringar.

    Följande instruktioner förutsätter att lagringsnätverksgränssnittet är eth1 .

    
     vi /etc/sysconfig/network/dhcp
     # Change the following DHCP setting to "no"
     DHCLIENT_SET_HOSTNAME="no"
     vi /etc/sysconfig/network/ifcfg-eth1
     # Edit ifcfg-eth1 
     #Change CLOUD_NETCONFIG_MANAGE='yes' to "no"
     CLOUD_NETCONFIG_MANAGE='no'
     
  3. [A] Lägg till en nätverksväg så att kommunikationen till Azure NetApp Files går via lagringsnätverksgränssnittet.

    Följande instruktioner förutsätter att lagringsnätverksgränssnittet är eth1 .

    
     vi /etc/sysconfig/network/ifroute-eth1
     # Add the following routes 
     # RouterIPforStorageNetwork - - -
     # ANFNetwork/cidr RouterIPforStorageNetwork - -
     10.23.2.1 - - -
     10.23.1.0/26 10.23.2.1 - -
     

    Starta om den virtuella datorn för att aktivera ändringarna.

  4. [A] Förbered operativsystemet för att SAP HANA på NetApp-system med NFS, enligt beskrivningen i NetApp SAP Applications på Microsoft Azure med Azure NetApp Files. Skapa konfigurationsfilen /etc/sysctl.d/netapp-hana.conf för NetApp-konfigurationsinställningarna.

    
     vi /etc/sysctl.d/netapp-hana.conf
     # Add the following entries in the configuration file
     net.core.rmem_max = 16777216
     net.core.wmem_max = 16777216
     net.core.rmem_default = 16777216
     net.core.wmem_default = 16777216
     net.core.optmem_max = 16777216
     net.ipv4.tcp_rmem = 65536 16777216 16777216
     net.ipv4.tcp_wmem = 65536 16777216 16777216
     net.core.netdev_max_backlog = 300000
     net.ipv4.tcp_slow_start_after_idle=0
     net.ipv4.tcp_no_metrics_save = 1
     net.ipv4.tcp_moderate_rcvbuf = 1
     net.ipv4.tcp_window_scaling = 1
     net.ipv4.tcp_timestamps = 1
     net.ipv4.tcp_sack = 1
     
  5. [A] Skapa konfigurationsfilen /etc/sysctl.d/ms-az.conf med Konfigurationsinställningar för Microsoft för Azure.

    
     vi /etc/sysctl.d/ms-az.conf
     # Add the following entries in the configuration file
     net.ipv6.conf.all.disable_ipv6 = 1
     net.ipv4.tcp_max_syn_backlog = 16348
     net.ipv4.conf.all.rp_filter = 0
     sunrpc.tcp_slot_table_entries = 128
     vm.swappiness=10
     

Tips

Undvik att net.ipv4.ip_local_port_range och net.ipv4.ip_local_reserved_ports uttryckligen i sysctl-konfigurationsfilerna så att SAP-värdagenten kan hantera portintervallen. Mer information finns i SAP-anteckningen 2382421.

  1. [A] Justera inställningarna för sunrpc enligt rekommendationer i NetApp SAP Applications på Microsoft Azure med Azure NetApp Files.

    
     vi /etc/modprobe.d/sunrpc.conf
     # Insert the following line
     options sunrpc tcp_max_slot_table_entries=128
     

Montera Azure NetApp Files volymer

  1. [A] Skapa monteringspunkter för HANA-databasvolymerna.

    
     mkdir -p /hana/data/HN1/mnt00001
     mkdir -p /hana/data/HN1/mnt00002
     mkdir -p /hana/log/HN1/mnt00001
     mkdir -p /hana/log/HN1/mnt00002
     mkdir -p /hana/shared
     mkdir -p /usr/sap/HN1
     
  2. [1] Skapa nodspecifika kataloger för /usr/sap på HN1-shared.

    
     # Create a temporary directory to mount HN1-shared
     mkdir /mnt/tmp
     # if using NFSv3 for this volume, mount with the following command
     mount 10.23.1.4:/HN1-shared /mnt/tmp
     # if using NFSv4.1 for this volume, mount with the following command
     mount -t nfs -o sec=sys,vers=4.1 10.23.1.4:/HN1-shared /mnt/tmp
     cd /mnt/tmp
     mkdir shared usr-sap-hanadb1 usr-sap-hanadb2 usr-sap-hanadb3
     # unmount /hana/shared
     cd
     umount /mnt/tmp
     
  3. [A] Kontrollera NFS-domäninställningen. Kontrollera att domänen är konfigurerad som standarddomänen Azure NetApp Files, dvs. och att defaultv4iddomain.com mappningen är inställd på ingen.

    Viktigt

    Se till att ange NFS-domänen i på den virtuella datorn så att den matchar /etc/idmapd.conf standarddomänkonfigurationen på Azure NetApp Files: defaultv4iddomain.com . Om det finns ett matchningsfel mellan domänkonfigurationen på NFS-klienten (dvs. den virtuella datorn) och NFS-servern, d.v.s. Azure NetApp-konfigurationen, visas behörigheterna för filer på Azure NetApp-volymer som är monterade på de virtuella datorerna som nobody .

    
     sudo cat /etc/idmapd.conf
     # Example
     [General]
     Verbosity = 0
     Pipefs-Directory = /var/lib/nfs/rpc_pipefs
     Domain = defaultv4iddomain.com
     [Mapping]
     Nobody-User = nobody
     Nobody-Group = nobody
     
  4. [A] Verifiera nfs4_disable_idmapping . Det ska vara inställt på Y. Kör monteringskommandot nfs4_disable_idmapping för att skapa katalogstrukturen där finns. Du kommer inte att kunna skapa katalogen manuellt under /sys/modules eftersom åtkomst är reserverad för kerneln/drivrutinerna.

    
     # Check nfs4_disable_idmapping 
     cat /sys/module/nfs/parameters/nfs4_disable_idmapping
     # If you need to set nfs4_disable_idmapping to Y
     mkdir /mnt/tmp
     mount 10.23.1.4:/HN1-shared /mnt/tmp
     umount  /mnt/tmp
     echo "Y" > /sys/module/nfs/parameters/nfs4_disable_idmapping
     # Make the configuration permanent
     echo "options nfs nfs4_disable_idmapping=Y" >> /etc/modprobe.d/nfs.conf
     
  5. [A] Skapa SAP HANA och användaren manuellt. ID:erna för grupps sapsys och user hn1 adm måste anges till samma-ID:er som anges under onboarding-registrering. (I det här exemplet är -ID:erna inställda på 1001.) Om -et inte har angetts korrekt kan du inte komma åt volymerna. ID:erna för grupp-sapsys och användarkonton hn1 adm och sapadm måste vara samma på alla virtuella datorer.

    
     # Create user group 
     sudo groupadd -g 1001 sapsys
     # Create  users 
     sudo useradd hn1adm -u 1001 -g 1001 -d /usr/sap/HN1/home -c "SAP HANA Database System" -s /bin/sh
     sudo useradd sapadm -u 1002 -g 1001 -d /home/sapadm -c "SAP Local Administrator" -s /bin/sh
     # Set the password  for both user ids
     sudo passwd hn1adm
     sudo passwd sapadm
     
  6. [A] Montera de Azure NetApp Files volymerna.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.23.1.5:/HN1-data-mnt00001 /hana/data/HN1/mnt00001  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.23.1.6:/HN1-data-mnt00002 /hana/data/HN1/mnt00002  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.23.1.4:/HN1-log-mnt00001 /hana/log/HN1/mnt00001  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.23.1.6:/HN1-log-mnt00002 /hana/log/HN1/mnt00002  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.23.1.4:/HN1-shared/shared /hana/shared  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount all volumes
     sudo mount -a 
     
  7. [1] Montera de nodspecifika volymerna på hanadb1.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.23.1.4:/HN1-shared/usr-sap-hanadb1 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  8. [2] Montera de nodspecifika volymerna på hanadb2.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.23.1.4:/HN1-shared/usr-sap-hanadb2 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  9. [3] Montera de nodspecifika volymerna på hanadb3.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.23.1.4:/HN1-shared/usr-sap-hanadb3 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  10. [A] Kontrollera att alla HANA-volymer är monterade med NFS-protokollversion NFSv4.

    
    sudo nfsstat -m
    # Verify that flag vers is set to 4.1 
    # Example from hanadb1
    /hana/data/HN1/mnt00001 from 10.23.1.5:/HN1-data-mnt00001
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.5
    /hana/log/HN1/mnt00002 from 10.23.1.6:/HN1-log-mnt00002
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.6
    /hana/data/HN1/mnt00002 from 10.23.1.6:/HN1-data-mnt00002
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.6
    /hana/log/HN1/mnt00001 from 10.23.1.4:/HN1-log-mnt00001
    Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.4
    /usr/sap/HN1 from 10.23.1.4:/HN1-shared/usr-sap-hanadb1
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.4
    /hana/shared from 10.23.1.4:/HN1-shared/shared
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.4
    

Installation

I det här exemplet SAP HANA i utskalningskonfiguration med väntelägesnod med Azure har vi använt HANA 2.0 SP4.

Förbereda för HANA-installation

  1. [A] Före HANA-installationen anger du rotlösenordet. Du kan inaktivera rotlösenordet när installationen har slutförts. Kör som root kommando passwd .

  2. [1] Kontrollera att du kan logga in via SSH till hanadb2 och hanadb3 utan att behöva ange ett lösenord.

    
     ssh root@hanadb2
     ssh root@hanadb3
     
  3. [A] Installera ytterligare paket som krävs för HANA 2.0 SP4. Mer information finns i SAP Note 2593824.

    
     sudo zypper install libgcc_s1 libstdc++6 libatomic1 
     
  4. [2], [3] Ändra ägarskap för SAP HANA data log och kataloger till hn1 adm.

    
     # Execute as root
     sudo chown hn1adm:sapsys /hana/data/HN1
     sudo chown hn1adm:sapsys /hana/log/HN1
     

HANA-installation

  1. [1] Installera SAP HANA genom att följa anvisningarna i SAP HANA 2.0 Installations- och uppdateringsguide. I det här exemplet installerar vi SAP HANA utskalning med huvudnod, en arbetsnod och en reservnod.

    a. Starta hdblcm-programmet från katalogen med HANA-installationsprogramvaran. Använd internal_network parametern och skicka adressutrymmet för undernätet, som används för intern HANA-kommunikation mellan noder.

    
     ./hdblcm --internal_network=10.23.3.0/24
     

    b. Ange följande värden i kommandotolken:

    • För Välj en åtgärd anger du 1 (för installation)
    • För Ytterligare komponenter för installation anger du 2, 3
    • För installationssökväg: Tryck på Retur (som standard /hana/shared)
    • För Lokalt värdnamn: tryck på Retur för att acceptera standardvärdet
    • Under Vill du lägga till värdar i systemet?: ange y
    • För kommaavgränsade värdnamn som ska läggas till: ange hanadb2, hanadb3
    • För rotanvändarnamn [root]: tryck på Retur för att acceptera standardvärdet
    • För rotanvändarlösenord anger du rotanvändarens lösenord
    • För roller för värd hanadb2: ange 1 (för arbetsroller)
    • För Värd redundansgrupp för värd hanadb2 [standard]: tryck på Retur för att acceptera standard
    • För Storage partitionsnumret för värden hanadb2 [ <<assign automatically> > ]: tryck på Retur för att acceptera standardvärdet
    • För Arbetsgrupp för värd hanadb2 [standard]: tryck på Retur för att acceptera standardvärdet
    • För Välj roller för värd hanadb3: ange 2 (för vänteläge)
    • För Värd redundansgrupp för värd hanadb3 [standard]: tryck på Retur för att acceptera standard
    • För Arbetsgrupp för värd hanadb3 [standard]: tryck på Retur för att acceptera standardvärdet
    • För SAP HANA system-ID: anger du HN1
    • För Instansnummer [00]: ange 03
    • För Lokal värdarbetargrupp [standard]: tryck på Retur för att acceptera standardvärdet
    • För Välj systemanvändning/Ange index [4]: ange 4 (för anpassad)
    • För Plats för datavolymer [/hana/data/HN1]: tryck på Retur för att acceptera standardvärdet
    • För Plats för loggvolymer [/hana/log/HN1]: tryck på Retur för att acceptera standardvärdet
    • För Begränsa maximal minnesallokering? [n]: ange n
    • För Certifikatvärdnamn för värd hanadb1 [hanadb1]: tryck på Retur för att acceptera standardvärdet
    • För Certifikatvärdnamn för värd hanadb2 [hanadb2]: tryck på Retur för att acceptera standardvärdet
    • För Certifikatvärdnamn för värd hanadb3 [hanadb3]: tryck på Retur för att acceptera standardvärdet
    • För Systemadministratörslösenord (hn1adm): Ange lösenordet
    • För System Database User (system) Password (system)-lösenord: ange systemets lösenord
    • För Bekräfta systemdatabasanvändarens (system) lösenord: anger du systemets lösenord
    • För Omstartssystem efter omstart av datorn? [n]: ange n
    • För Vill du fortsätta (j/n): validera sammanfattningen och om allt ser bra ut anger du y
  2. [1] Verifiera global.ini

    Visa global.ini och se till att konfigurationen för den interna SAP HANA kommunikation mellan noder är på plats. Kontrollera kommunikationsavsnittet. Det ska ha adressutrymmet för hana undernätet och listeninterface ska vara inställt på .internal . Kontrollera internal_hostname_resolution avsnittet. Den bör ha IP-adresserna för de virtuella HANA-datorer som tillhör hana undernätet.

    
     sudo cat /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini
     # Example 
     #global.ini last modified 2019-09-10 00:12:45.192808 by hdbnameserve
     [communication]
     internal_network = 10.23.3/24
     listeninterface = .internal
     [internal_hostname_resolution]
     10.23.3.4 = hanadb1
     10.23.3.5 = hanadb2
     10.23.3.6 = hanadb3
    
  3. [1] Lägg till värdmappning för att säkerställa att klientens IP-adresser används för klientkommunikation. Lägg till public_host_resolution avsnitt och lägg till motsvarande IP-adresser från klientundernätet.

    
     sudo vi /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini
     #Add the section
     [public_hostname_resolution]
     map_hanadb1 = 10.23.0.5
     map_hanadb2 = 10.23.0.6
     map_hanadb3 = 10.23.0.7
    
  4. [1] Starta SAP HANA för att aktivera ändringarna.

    
     sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StopSystem HDB
     sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StartSystem HDB
    
  5. [1] Kontrollera att klientgränssnittet kommer att använda IP-adresserna från client undernätet för kommunikation.

    
     sudo -u hn1adm /usr/sap/HN1/HDB03/exe/hdbsql -u SYSTEM -p "password" -i 03 -d SYSTEMDB 'select * from SYS.M_HOST_INFORMATION'|grep net_publicname
     # Expected result
     "hanadb3","net_publicname","10.23.0.7"
     "hanadb2","net_publicname","10.23.0.6"
     "hanadb1","net_publicname","10.23.0.5"
    

    Information om hur du verifierar konfigurationen finns i SAP Note 2183363 - Configuration of SAP HANA internal network.

  6. Om du SAP HANA för den underliggande Azure NetApp Files lagringen anger du följande SAP HANA parametrar:

    • max_parallel_io_requests128
    • async_read_submit
    • async_write_submit_active
    • async_write_submit_blocksalla

    Mer information finns i NetApp SAP Applications on Microsoft Azure using Azure NetApp Files.

    Från och SAP HANA 2.0-system kan du ange parametrarna i global.ini . Mer information finns i SAP Note 1999930.

    För SAP HANA 1.0-systemversionerna SPS12 och tidigare kan dessa parametrar anges under installationen, enligt beskrivningen i SAP Note 2267798.

  7. Den lagring som används av Azure NetApp Files har en storleksbegränsning på 16 terabyte (TB). SAP HANA är inte implicit medveten om lagringsbegränsningen och skapar inte automatiskt en ny datafil när filstorleksgränsen på 16 TB nås. När SAP HANA försöker utöka filen till mer än 16 TB, resulterar det försöket i fel och så småningom i en indexserverkrasch.

    Viktigt

    Om du SAP HANA vill förhindra att datafiler växer utanför gränsen på 16 TB för underlagringssystemet anger du följande parametrar i global.ini .

    • datavolume_striping = true
    • datavolume_striping_size_gb = 15000 Mer information finns i SAP Note 2400005. Tänk på SAP Note 2631285.

Testa SAP HANA redundans

Anteckning

Den här artikeln innehåller referenser till termerna master och slave, termer som Microsoft inte längre använder. När dessa villkor tas bort från programvaran tar vi bort dem från den här artikeln.

  1. Simulera en nodkrasch på en SAP HANA arbetsnod. Gör följande:

    a. Innan du simulerar nodkrasch kör du följande kommandon som hn1 adm för att avbilda miljöns status:

    
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | yes    | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
    

    b. Om du vill simulera en nodkrasch kör du följande kommando som rot på arbetsnoden, som i det här fallet är hanadb2:

    
     echo b > /proc/sysrq-trigger
    

    c. Övervaka systemet för slutförande av redundans. När redundansen har slutförts avbildar du statusen, som bör se ut så här:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY
     # Check the landscape status
     /usr/sap/HN1/HDB03/exe/python_support> python landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | no     | info   |          |        |         2 |         0 | default  | default  | master 2   | slave      | worker      | standby     | worker  | standby | default | -       |
     | hanadb3 | yes    | info   |          |        |         0 |         2 | default  | default  | master 3   | slave      | standby     | slave       | standby | worker  | default | default |
    

    Viktigt

    När en nod får kernel-problem kan du undvika fördröjningar med SAP HANA redundans genom att ange kernel.panic till 20 sekunder på alla virtuella HANA-datorer. Konfigurationen görs i /etc/sysctl . Starta om de virtuella datorerna för att aktivera ändringen. Om den här ändringen inte utförs kan redundansväxlingen ta 10 eller fler minuter när en nod får kernel-problem.

  2. Gör så här för att ta bort namnservern:

    a. Kontrollera miljöns status innan testet genom att köra följande kommandon som hn1 adm:

    
     #Landscape status 
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GRAY
    

    b. Kör följande kommandon som hn1 adm på den aktiva huvudnoden, som i det här fallet är hanadb1:

    
         hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB kill
     

    Reservnoden hanadb3 tar över som huvudnod. Här är resurstillståndet när redundanstestet har slutförts:

    
         # Check the instance status
         sapcontrol -nr 03 -function GetSystemInstanceList
         GetSystemInstanceList
         OK
         hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
         hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
         hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY
         hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
         # Check the landscape status
         python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
         | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
         |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
         |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
         | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
         | hanadb1 | no     | info   |          |        |         1 |         0 | default  | default  | master 1   | slave      | worker      | standby     | worker  | standby | default | -       |
         | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
         | hanadb3 | yes    | info   |          |        |         0 |         1 | default  | default  | master 3   | master     | standby     | master      | standby | worker  | default | default |
     

    c. Starta om HANA-instansen på hanadb1 (det vill säga på samma virtuella dator där namnservern togs bort). Noden hanadb1 återansluter till miljön och behåller sin reservroll.

    
     hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB start
    

    När SAP HANA har startat på hanadb1 förväntar du dig följande status:

    
     # Check the instance status
     sapcontrol -nr 03 -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | info   |          |        |         1 |         0 | default  | default  | master 1   | slave      | worker      | standby     | worker  | standby | default | -       |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | yes    | info   |          |        |         0 |         1 | default  | default  | master 3   | master     | standby     | master      | standby | worker  | default | default |
    

    d. Igen, kill the name server on the currently active master node (det vill säga på noden hanadb3).

    
     hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB kill
    

    Node hanadb1 återupptar rollen som huvudnod. När redundanstestet har slutförts ser statusen ut så här:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList & python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GRAY
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
    

    e. Starta SAP HANA hanadb3, som är redo att fungera som en reservnod.

    
     hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB start
    

    När SAP HANA har startat på hanadb3 ser statusen ut så här:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList & python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GRAY
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
    

Nästa steg