Distribuera ett SAP HANA skalningssystem med en reservnod på virtuella Azure-datorer med hjälp av Azure NetApp Files på Red Hat Enterprise Linux
I den här artikeln beskrivs hur du distribuerar ett SAP HANA-system med hög SAP HANA i en utskalningskonfiguration med vänteläge på virtuella Azure Red Hat Enterprise Linux-datorer (VM) med hjälp av Azure NetApp Files för delade lagringsvolymer.
I exempelkonfigurationerna, installationskommandona och så vidare är HANA-instansen 03 och HANA-system-ID:t är HN1. Exemplen baseras på HANA 2.0 SP4 och Red Hat Enterprise Linux SAP 7.6.
Anteckning
Den här artikeln innehåller referenser till termerna master och slave, termer som Microsoft inte längre använder. När dessa villkor tas bort från programvaran tar vi bort dem från den här artikeln.
Innan du börjar bör du gå till följande SAP-anteckningar och -artiklar:
- Azure NetApp Files dokumentation
- SAP Note 1928533 innehåller:
- En lista över storlekar på virtuella Azure-datorer som stöds för distribution av SAP-programvara
- Viktig kapacitetsinformation för storlekar på virtuella Azure-datorer
- SAP-programvara och operativsystem (OS) och databaskombinationer som stöds
- Den nödvändiga SAP-kernelversionen för Windows och Linux på Microsoft Azure
- SAP Note [2015553:]Visar en lista över förhandskrav för SAP-programvarudistributioner som stöds i Azure
- SAP-anteckningen [2002167] har rekommenderade os-inställningar för Red Hat Enterprise Linux
- SAP Note 2009879 har SAP HANA Guidelines för Red Hat Enterprise Linux
- SAP Note [2178632:]Innehåller detaljerad information om alla övervakningsmått som rapporterats för SAP i Azure
- SAP Note [2191498:]Innehåller den version av SAP-värdagenten som krävs för Linux i Azure
- SAP Note [2243692:]Innehåller information om SAP-licensiering på Linux i Azure
- SAP Note [1999351:]Innehåller ytterligare felsökningsinformation för Azure Enhanced Monitoring Extension för SAP
- SAP Note [1900823:]Innehåller information om SAP HANA lagringskrav
- SAP Community Wiki:Innehåller alla nödvändiga SAP-anteckningar för Linux
- Azure Virtual Machines planering och implementering för SAP på Linux
- Azure Virtual Machines-distribution för SAP på Linux
- Azure Virtual Machines DBMS-distribution för SAP på Linux
- Allmän RHEL-dokumentation
- Azure-specifik RHEL-dokumentation:
- NetApp SAP-program på Microsoft Azure med Azure NetApp Files
- NFS v4.1-volymer på Azure NetApp Files för SAP HANA
Översikt
En metod för att uppnå hög tillgänglighet i HANA är att konfigurera automatisk redundans för värden. Om du vill konfigurera automatisk redundans för värd lägger du till en eller flera virtuella datorer i HANA-systemet och konfigurerar dem som väntelägesnoder. När en aktiv nod misslyckas tar en reservnod automatiskt över. I den konfiguration som visas med virtuella Azure-datorer uppnår du automatisk redundans med hjälp av NFS på Azure NetApp Files.
Anteckning
Reservnoden behöver åtkomst till alla databasvolymer. HANA-volymerna måste monteras som NFSv4-volymer. Den förbättrade lånebaserade låsningsmekanismen för filer i NFSv4-protokollet används I/O för avspärrning.
Viktigt
Om du vill skapa konfigurationen som stöds måste du distribuera HANA-data och loggvolymer som NFSv4.1-volymer och montera dem med hjälp av NFSv4.1-protokollet. Konfiguration av automatisk redundans för HANA-värden med väntelägesnod stöds inte med NFSv3.

I föregående diagram, som följer rekommendationer SAP HANA nätverk, representeras tre undernät i ett virtuellt Azure-nätverk:
- För klientkommunikation
- För kommunikation med lagringssystemet
- För intern HANA-kommunikation mellan noder
Azure NetApp-volymerna är i separata undernät, delegerade till Azure NetApp Files.
I den här exempelkonfigurationen är undernäten:
client10.9.1.0/26storage10.9.3.0/26hana10.9.2.0/26anf10.9.0.0/26 (delegerat undernät till Azure NetApp Files)
Konfigurera Azure NetApp Files infrastruktur
Innan du fortsätter med installationen av Azure NetApp Files infrastruktur bör du bekanta dig med Azure NetApp Files dokumentationen.
Azure NetApp Files finns i flera Azure-regioner. Kontrollera om din valda Azure-region erbjuder Azure NetApp Files.
Information om tillgängligheten för tjänster Azure NetApp Files Azure-region finns i Azure NetApp Files tillgänglighet per Azure-region.
Distribuera Azure NetApp Files resurser
Följande instruktioner förutsätter att du redan har distribuerat det virtuella Azure-nätverket. De Azure NetApp Files och virtuella datorerna, där de virtuella Azure NetApp Files-resurserna ska monteras, måste distribueras i samma virtuella Azure-nätverk eller i peer-erade virtuella Azure-nätverk.
Skapa ett NetApp-konto i din valda Azure-region genom att följa anvisningarna i Skapa ett NetApp-konto.
Konfigurera en Azure NetApp Files kapacitetspool genom att följa anvisningarna i Konfigurera en Azure NetApp Files-kapacitetspool.
HANA-arkitekturen som presenteras i den här artikeln använder en Azure NetApp Files en kapacitetspool på Ultra Service-nivå. För HANA-arbetsbelastningar i Azure rekommenderar vi att du använder Azure NetApp Files Ultra eller Premium servicenivå.
Delegera ett undernät till Azure NetApp Files enligt beskrivningen i anvisningarna i Delegera ett undernät till Azure NetApp Files.
Distribuera Azure NetApp Files genom att följa anvisningarna i Skapa en NFS-volym för Azure NetApp Files.
När du distribuerar volymerna måste du välja NFSv4.1-versionen. Distribuera volymerna i det Azure NetApp Files undernätet. IP-adresserna för Azure NetApp-volymerna tilldelas automatiskt.
Tänk på att resurserna Azure NetApp Files Azure och de virtuella Azure-datorerna måste finnas i samma virtuella Azure-nätverk eller i peer-ade virtuella Azure-nätverk. Till exempel är HN1-data-mnt00001, HN1-log-mnt00001 och så vidare volymnamnen och nfs://10.9.0.4/HN1-data-mnt00001, nfs://10.9.0.4/HN1-log-mnt00001 och så vidare filsökvägarna för Azure NetApp Files-volymerna.
- volume HN1-data-mnt00001 (nfs://10.9.0.4/HN1-data-mnt00001)
- volume HN1-data-mnt00002 (nfs://10.9.0.4/HN1-data-mnt00002)
- volume HN1-log-mnt00001 (nfs://10.9.0.4/HN1-log-mnt00001)
- volume HN1-log-mnt00002 (nfs://10.9.0.4/HN1-log-mnt00002)
- volume HN1-shared (nfs://10.9.0.4/HN1-shared)
I det här exemplet använde vi en separat Azure NetApp Files för varje HANA-data och loggvolym. För en mer kostnadsoptimerad konfiguration i mindre eller icke-produktiva system är det möjligt att placera alla datamonteringar på en enda volym och alla loggar monteras på en annan volym.
Att tänka på
När du skapar ditt Azure NetApp Files för SAP HANA skala ut med fristående noder bör du tänka på följande viktiga överväganden:
- Den minsta kapacitetspoolen är 4 tebibyte (TiB).
- Den minsta volymstorleken är 100 gibibyte (GiB).
- Azure NetApp Files och alla virtuella datorer där Azure NetApp Files-volymerna ska monteras måste finnas i samma virtuella Azure-nätverk eller i peer-ade virtuella nätverk i samma region.
- Det valda virtuella nätverket måste ha ett undernät som har delegerats till Azure NetApp Files.
- Dataflödet för en Azure NetApp Files-volym är en funktion för volymkvoten och tjänstnivån, enligt dokumentering i Servicenivå för Azure NetApp Files. När du storleksändring av HANA Azure NetApp-volymerna ser du till att det resulterande dataflödet uppfyller SYSTEMkraven för HANA.
- Med Azure NetApp Files kan dustyra de tillåtna klienterna, åtkomsttypen (skrivskyddade, skrivskyddade och så vidare).
- Funktionen Azure NetApp Files är inte zonmedveten ännu. För närvarande distribueras inte funktionen i alla tillgänglighetszoner i en Azure-region. Tänk på de potentiella fördröjningskonsekvenserna i vissa Azure-regioner.
Viktigt
Det är viktigt med låg fördröjning för SAP HANA-arbetsbelastningar. Samarbeta med din Microsoft-representant för att säkerställa att de virtuella Azure NetApp Files och volymerna distribueras nära varandra.
Storleksändring för HANA-databas på Azure NetApp Files
Dataflödet för en Azure NetApp Files volym är en funktion av volymstorlek och servicenivå, enligt vad som beskrivs i Servicenivå för Azure NetApp Files.
När du utformar infrastrukturen för SAP i Azure bör du vara medveten om vissa minimikrav för lagring av SAP, som översätts till minsta dataflödesegenskaper:
- Läsning/skrivning på /hana/logg på 250 megabyte per sekund (MB/s) med 1 MB I/O-storlekar.
- Läsaktivitet på minst 400 MB/s för /hana/data för I/O-storlekar på 16 MB och 64 MB.
- Skrivaktivitet på minst 250 MB/s för /hana/data med 16 MB och 64 MB I/O-storlekar.
De Azure NetApp Files dataflödesgränserna per 1 TiB volymkvot är:
- Premium Storage nivå – 64 MiB/s
- Ultra Storage-nivå – 128 MiB/s
För att uppfylla minimikraven för SAP-dataflöde för data och logg, och riktlinjerna för /hana/shared, skulle de rekommenderade storlekarna vara:
| Volym | Storlek på Premium Storage nivå |
Storlek på Ultra Storage-nivå |
NFS-protokoll som stöds |
|---|---|---|---|
| /hana/log/ | 4 TiB | 2 TiB | v4.1 |
| /hana/data | 6,3 TiB | 3,2 TiB | v4.1 |
| /hana/shared | 1xRAM per 4 arbetsnoder | 1xRAM per 4 arbetsnoder | v3 eller v4.1 |
Den SAP HANA konfigurationen för layouten som presenteras i den här artikeln, med hjälp Azure NetApp Files Ultra Storage-nivån, skulle vara:
| Volym | Storlek på Ultra Storage-nivå |
NFS-protokoll som stöds |
|---|---|---|
| /hana/log/mnt00001 | 2 TiB | v4.1 |
| /hana/log/mnt00002 | 2 TiB | v4.1 |
| /hana/data/mnt00001 | 3,2 TiB | v4.1 |
| /hana/data/mnt00002 | 3,2 TiB | v4.1 |
| /hana/shared | 2 TiB | v3 eller v4.1 |
Anteckning
De Azure NetApp Files storleksrekommendationer som anges här är avsedda att uppfylla minimikraven som SAP rekommenderar för sina infrastrukturleverantörer. I verkliga kunddistributioner och arbetsbelastningsscenarier kanske dessa storlekar inte är tillräckliga. Använd de här rekommendationerna som utgångspunkt och anpassa dem baserat på kraven för din specifika arbetsbelastning.
Tips
Du kan ändra Azure NetApp Files volymerna dynamiskt, utan att behöva demontera volymerna, stoppa de virtuella datorerna eller stoppa SAP HANA. Den här metoden ger flexibilitet för att uppfylla både förväntade och oförutsedda dataflödeskrav för ditt program.
Distribuera virtuella Linux-datorer via Azure Portal
Först måste du skapa de Azure NetApp Files volymerna. Gör sedan följande:
Skapa undernäten för virtuella Azure-nätverk i ditt virtuella Azure-nätverk.
Distribuera de virtuella datorerna.
Skapa de ytterligare nätverksgränssnitten och koppla nätverksgränssnitten till motsvarande virtuella datorer.
Varje virtuell dator har tre nätverksgränssnitt som motsvarar de tre virtuella Azure-nätverksundernäten (
clientstorageochhana).Mer information finns i Skapa en virtuell Linux-dator i Azure med flera nätverkskort.
Viktigt
Det är viktigt med låg fördröjning för SAP HANA-arbetsbelastningar. För att uppnå låg fördröjning bör du samarbeta med din Microsoft-representant för att säkerställa att de virtuella datorerna och Azure NetApp Files distribueras nära varandra. Skicka nödvändig information när du registrerar ett nytt SAP HANA-system som använder SAP HANA Azure NetApp Files.
Nästa instruktioner förutsätter att du redan har skapat resursgruppen, det virtuella Azure-nätverket och de tre virtuella Azure-nätverksundernäten: client storage och hana . När du distribuerar de virtuella datorerna väljer du klientundernätet så att klientnätverksgränssnittet är det primära gränssnittet på de virtuella datorerna. Du måste också konfigurera en explicit väg till det Azure NetApp Files delegerade undernätet via lagringsundernätsgatewayen.
Viktigt
Kontrollera att det operativsystem som du väljer är SAP-certifierat för SAP HANA på de specifika VM-typer som du använder. En lista över SAP HANA certifierade VM-typer och os-versioner för dessa typer finns på SAP HANA för IaaS-plattformar. Klicka på informationen för den angivna typen av virtuell dator för att få en fullständig lista SAP HANA operativsystems versioner som stöds för den typen.
Skapa en tillgänglighetsuppsättning för SAP HANA. Se till att ange den högsta uppdateringsdomänen.
Skapa tre virtuella datorer (hanadb1, hanadb2, hanadb3) genom att göra följande:
a. Använd en Red Hat Enterprise Linux bild i Azure-galleriet som stöds för SAP HANA. Vi använde en RHEL-SAP-HA 7.6-avbildning i det här exemplet.
b. Välj den tillgänglighetsuppsättning som du skapade tidigare för SAP HANA.
c. Välj det virtuella Azure-nätverkets klientundernät. Välj Accelererat nätverk.
När du distribuerar de virtuella datorerna genereras nätverksgränssnittsnamnet automatiskt. I de här instruktionerna för enkelhetens skull refererar vi till de automatiskt genererade nätverksgränssnitten, som är kopplade till klientens virtuella azure-nätverksundernät, som hanadb1-client, hanadb2-client och hanadb3-client.
Skapa tre nätverksgränssnitt, ett för varje virtuell dator, för det virtuella nätverkets undernät (i det här exemplet
storagehanadb1-storage, hanadb2-storage och hanadb3-storage).Skapa tre nätverksgränssnitt, ett för varje virtuell dator, för det virtuella nätverkets undernät (i det här exemplet
hanahanadb1-hana, hanadb2-hana och hanadb3-hana).Koppla de nyligen skapade virtuella nätverksgränssnitten till motsvarande virtuella datorer genom att göra följande:
a. Gå till den virtuella datorn i Azure Portal.
b. I den vänstra rutan väljer du Virtual Machines. Filtrera på namnet på den virtuella datorn (till exempel hanadb1) och välj sedan den virtuella datorn.
c. I fönstret Översikt väljer du Stoppa för att avallokera den virtuella datorn.
d. Välj Nätverk och koppla sedan nätverksgränssnittet. I listrutan Anslut nätverksgränssnitt väljer du de nätverksgränssnitt som redan har skapats för
storagehanaundernäten och .e. Välj Spara.
f. Upprepa steg b till e för de återstående virtuella datorerna (i vårt exempel hanadb2 och hanadb3).
ex. Låt de virtuella datorerna vara i stoppat tillstånd för tillfället. Nu ska vi aktivera accelererat nätverk för alla nyligen anslutna nätverksgränssnitt.
Aktivera accelererat nätverk för de ytterligare nätverksgränssnitten för
storagehanaundernäten och genom att göra följande:a. Öppna Azure Cloud Shell i Azure Portal.
b. Kör följande kommandon för att aktivera accelererat nätverk för de ytterligare nätverksgränssnitt som är kopplade till
storagehanaundernäten och .az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-storage --accelerated-networking true az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-storage --accelerated-networking true az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-storage --accelerated-networking true az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-hana --accelerated-networking true az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-hana --accelerated-networking true az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-hana --accelerated-networking trueStarta de virtuella datorerna genom att göra följande:
a. I den vänstra rutan väljer du Virtual Machines. Filtrera på namnet på den virtuella datorn (till exempel hanadb1) och välj det sedan.
b. I fönstret Översikt väljer du Starta.
Konfiguration och förberedelse av operativsystem
Anvisningarna i nästa avsnitt föregås av något av följande:
- [A]: Gäller för alla noder
- [1]: Gäller endast för nod 1
- [2]: Gäller endast för nod 2
- [3]: Gäller endast för nod 3
Konfigurera och förbered operativsystemet genom att göra följande:
[A] Underhålla värdfilerna på de virtuella datorerna. Inkludera poster för alla undernät. Följande poster har lagts till i för
/etc/hostsdet här exemplet.# Storage 10.9.3.4 hanadb1-storage 10.9.3.5 hanadb2-storage 10.9.3.6 hanadb3-storage # Client 10.9.1.5 hanadb1 10.9.1.6 hanadb2 10.9.1.7 hanadb3 # Hana 10.9.2.4 hanadb1-hana 10.9.2.5 hanadb2-hana 10.9.2.6 hanadb3-hana[A] Lägg till en nätverksväg så att kommunikationen till Azure NetApp Files går via lagringsnätverksgränssnittet.
I det här exemplet används
Networkmanagerför att konfigurera den ytterligare nätverksvägen. Följande instruktioner förutsätter att lagringsnätverksgränssnittet äreth1.
Börja med att fastställa anslutningsnamnet för enheteneth1. I det här exemplet är anslutningsnamnet företh1enhetenWired connection 1.# Execute as root nmcli connection # Result #NAME UUID TYPE DEVICE #System eth0 5fb06bd0-0bb0-7ffb-45f1-d6edd65f3e03 ethernet eth0 #Wired connection 1 4b0789d1-6146-32eb-83a1-94d61f8d60a7 ethernet eth1Konfigurera sedan ytterligare väg till det Azure NetApp Files delegerade nätverket via
eth1.# Add the following route # ANFDelegatedSubnet/cidr via StorageSubnetGW dev StorageNetworkInterfaceDevice nmcli connection modify "Wired connection 1" +ipv4.routes "10.9.0.0/26 10.9.3.1"Starta om den virtuella datorn för att aktivera ändringarna.
[A] Installera NFS-klientpaketet.
yum install nfs-utils[A] Förbered operativsystemet för att SAP HANA på Azure NetApp med NFS, enligt beskrivningen i NetApp SAP Applications på Microsoft Azure med Azure NetApp Files. Skapa konfigurationsfilen /etc/sysctl.d/netapp-hana.conf för NetApp-konfigurationsinställningarna.
vi /etc/sysctl.d/netapp-hana.conf # Add the following entries in the configuration file net.core.rmem_max = 16777216 net.core.wmem_max = 16777216 net.core.rmem_default = 16777216 net.core.wmem_default = 16777216 net.core.optmem_max = 16777216 net.ipv4.tcp_rmem = 65536 16777216 16777216 net.ipv4.tcp_wmem = 65536 16777216 16777216 net.core.netdev_max_backlog = 300000 net.ipv4.tcp_slow_start_after_idle=0 net.ipv4.tcp_no_metrics_save = 1 net.ipv4.tcp_moderate_rcvbuf = 1 net.ipv4.tcp_window_scaling = 1 net.ipv4.tcp_timestamps = 1 net.ipv4.tcp_sack = 1[A] Skapa konfigurationsfilen /etc/sysctl.d/ms-az.conf med ytterligare optimeringsinställningar.
vi /etc/sysctl.d/ms-az.conf # Add the following entries in the configuration file net.ipv6.conf.all.disable_ipv6 = 1 net.ipv4.tcp_max_syn_backlog = 16348 net.ipv4.conf.all.rp_filter = 0 sunrpc.tcp_slot_table_entries = 128 vm.swappiness=10
Tips
Undvik att net.ipv4.ip_local_port_range och net.ipv4.ip_local_reserved_ports uttryckligen i sysctl-konfigurationsfilerna så att SAP-värdagenten kan hantera portintervallen. Mer information finns i SAP-anteckningen 2382421.
[A] Justera inställningarna för sunrpc enligt rekommendationer i NetApp SAP Applications på Microsoft Azure med Azure NetApp Files.
vi /etc/modprobe.d/sunrpc.conf # Insert the following line options sunrpc tcp_max_slot_table_entries=128[A] Red Hat för HANA-konfiguration.
Konfigurera RHEL enligt beskrivningen i SAP [Note 2292690], 2455582, 2593824 och https://access.redhat.com/solutions/2447641 .
Anteckning
Om du installerar HANA 2.0 SP04 måste du installera paketet enligt beskrivningen i
compat-sap-c++-7SAP-anteckningen 2593824, innan du kan installera SAP HANA.
Montera Azure NetApp Files volymer
[A] Skapa monteringspunkter för HANA-databasvolymerna.
mkdir -p /hana/data/HN1/mnt00001 mkdir -p /hana/data/HN1/mnt00002 mkdir -p /hana/log/HN1/mnt00001 mkdir -p /hana/log/HN1/mnt00002 mkdir -p /hana/shared mkdir -p /usr/sap/HN1[1] Skapa nodspecifika kataloger för /usr/sap på HN1-shared.
# Create a temporary directory to mount HN1-shared mkdir /mnt/tmp # if using NFSv3 for this volume, mount with the following command mount 10.9.0.4:/HN1-shared /mnt/tmp # if using NFSv4.1 for this volume, mount with the following command mount -t nfs -o sec=sys,vers=4.1 10.9.0.4:/HN1-shared /mnt/tmp cd /mnt/tmp mkdir shared usr-sap-hanadb1 usr-sap-hanadb2 usr-sap-hanadb3 # unmount /hana/shared cd umount /mnt/tmp[A] Kontrollera NFS-domäninställningen. Kontrollera att domänen är konfigurerad som standarddomänen Azure NetApp Files, dvs. och att
defaultv4iddomain.commappningen är inställd på ingen.Viktigt
Se till att ange NFS-domänen i på den virtuella datorn så att den matchar
/etc/idmapd.confstandarddomänkonfigurationen på Azure NetApp Files:defaultv4iddomain.com. Om det finns ett matchningsfel mellan domänkonfigurationen på NFS-klienten (dvs. den virtuella datorn) och NFS-servern, d.v.s. Azure NetApp-konfigurationen, visas behörigheterna för filer på Azure NetApp-volymer som är monterade på de virtuella datorerna somnobody.sudo cat /etc/idmapd.conf # Example [General] Domain = defaultv4iddomain.com [Mapping] Nobody-User = nobody Nobody-Group = nobody[A] Verifiera
nfs4_disable_idmapping. Det ska vara inställt på Y. Kör monteringskommandotnfs4_disable_idmappingför att skapa katalogstrukturen där finns. Du kommer inte att kunna skapa katalogen manuellt under /sys/modules eftersom åtkomst är reserverad för kerneln/drivrutinerna.# Check nfs4_disable_idmapping cat /sys/module/nfs/parameters/nfs4_disable_idmapping # If you need to set nfs4_disable_idmapping to Y mkdir /mnt/tmp mount 10.9.0.4:/HN1-shared /mnt/tmp umount /mnt/tmp echo "Y" > /sys/module/nfs/parameters/nfs4_disable_idmapping # Make the configuration permanent echo "options nfs nfs4_disable_idmapping=Y" >> /etc/modprobe.d/nfs.confMer information om hur du ändrar
nfs4_disable_idmappingparameter finns i https://access.redhat.com/solutions/1749883 .[A] Montera de Azure NetApp Files volymerna.
sudo vi /etc/fstab # Add the following entries 10.9.0.4:/HN1-data-mnt00001 /hana/data/HN1/mnt00001 nfs rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 0 0 10.9.0.4:/HN1-data-mnt00002 /hana/data/HN1/mnt00002 nfs rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 0 0 10.9.0.4:/HN1-log-mnt00001 /hana/log/HN1/mnt00001 nfs rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 0 0 10.9.0.4:/HN1-log-mnt00002 /hana/log/HN1/mnt00002 nfs rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 0 0 10.9.0.4:/HN1-shared/shared /hana/shared nfs rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 0 0 # Mount all volumes sudo mount -a[1] Montera de nodspecifika volymerna på hanadb1.
sudo vi /etc/fstab # Add the following entries 10.9.0.4:/HN1-shared/usr-sap-hanadb1 /usr/sap/HN1 nfs rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 0 0 # Mount the volume sudo mount -a[2] Montera de nodspecifika volymerna på hanadb2.
sudo vi /etc/fstab # Add the following entries 10.9.0.4:/HN1-shared/usr-sap-hanadb2 /usr/sap/HN1 nfs rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 0 0 # Mount the volume sudo mount -a[3] Montera de nodspecifika volymerna på hanadb3.
sudo vi /etc/fstab # Add the following entries 10.9.0.4:/HN1-shared/usr-sap-hanadb3 /usr/sap/HN1 nfs rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 0 0 # Mount the volume sudo mount -a[A] Kontrollera att alla HANA-volymer är monterade med NFS-protokollversion NFSv4.
sudo nfsstat -m # Verify that flag vers is set to 4.1 # Example from hanadb1 /hana/data/HN1/mnt00001 from 10.9.0.4:/HN1-data-mnt00001 Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4 /hana/log/HN1/mnt00002 from 10.9.0.4:/HN1-log-mnt00002 Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4 /hana/data/HN1/mnt00002 from 10.9.0.4:/HN1-data-mnt00002 Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4 /hana/log/HN1/mnt00001 from 10.9.0.4:/HN1-log-mnt00001 Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4 /usr/sap/HN1 from 10.9.0.4:/HN1-shared/usr-sap-hanadb1 Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4 /hana/shared from 10.9.0.4:/HN1-shared/shared Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
Installation
I det här exemplet SAP HANA i utskalningskonfiguration med väntelägesnod med Azure har vi använt HANA 2.0 SP4.
Förbereda för HANA-installation
[A] Före HANA-installationen anger du rotlösenordet. Du kan inaktivera rotlösenordet när installationen har slutförts. Kör som
rootkommandopasswd.[1] Kontrollera att du kan logga in via SSH till hanadb2 och hanadb3 utan att behöva ange ett lösenord.
ssh root@hanadb2 ssh root@hanadb3[A] Installera ytterligare paket som krävs för HANA 2.0 SP4. Mer information finns i SAP Note 2593824.
yum install libgcc_s1 libstdc++6 compat-sap-c++-7 libatomic1[2], [3] Ändra ägarskap för SAP HANA
datalogoch kataloger till hn1 adm.# Execute as root sudo chown hn1adm:sapsys /hana/data/HN1 sudo chown hn1adm:sapsys /hana/log/HN1[A] Inaktivera brandväggen tillfälligt, så att den inte stör HANA-installationen. Du kan återaktivera det när HANA-installationen är klar.
# Execute as root systemctl stop firewalld systemctl disable firewalld
HANA-installation
[1] Installera SAP HANA genom att följa anvisningarna i SAP HANA 2.0 Installations- och uppdateringsguide. I det här exemplet installerar vi SAP HANA ut med huvudnod, en arbetsnod och en reservnod.
a. Starta hdblcm-programmet från katalogen med HANA-installationsprogramvaran. Använd
internal_networkparametern och skicka adressutrymmet för undernätet, som används för intern HANA-kommunikation mellan noder../hdblcm --internal_network=10.9.2.0/26b. Ange följande värden i kommandotolken:
- För Välj en åtgärd: ange 1 (för installation)
- För Ytterligare komponenter för installation anger du 2, 3
- För installationssökväg: Tryck på Retur (som standard /hana/shared)
- För Lokalt värdnamn: tryck på Retur för att acceptera standardvärdet
- Under Vill du lägga till värdar i systemet?: ange y
- För kommaavgränsade värdnamn som ska läggas till: ange hanadb2, hanadb3
- För rotanvändarnamn [root]: tryck på Retur för att acceptera standardvärdet
- För roller för värd hanadb2: ange 1 (för arbetsroller)
- För Värd redundansgrupp för värd hanadb2 [standard]: tryck på Retur för att acceptera standard
- För Storage partitionsnumret för värden hanadb2 [ <<assign automatically> > ]: tryck på Retur för att acceptera standardvärdet
- För Arbetsgrupp för värd hanadb2 [standard]: tryck på Retur för att acceptera standardvärdet
- För Välj roller för värd hanadb3: ange 2 (för vänteläge)
- För Värd redundansgrupp för värd hanadb3 [standard]: tryck på Retur för att acceptera standard
- För Arbetsgrupp för värd hanadb3 [standard]: tryck på Retur för att acceptera standardvärdet
- För SAP HANA system-ID: ange HN1
- För Instansnummer [00]: ange 03
- För Lokal värdarbetaregrupp [default]: tryck på Retur för att acceptera standardvärdet
- För Välj systemanvändning/Ange index [4] anger du 4 (för anpassat)
- För Plats för datavolymer [/hana/data/HN1]: tryck på Retur för att acceptera standardvärdet
- För Plats för loggvolymer [/hana/log/HN1]: tryck på Retur för att acceptera standardvärdet
- För Begränsa maximal minnesallokering? [n]: ange n
- För Certifikatvärdnamn för Värd hanadb1 [hanadb1]: tryck på Retur för att acceptera standardvärdet
- För Certifikatvärdnamn för Värd hanadb2 [hanadb2]: tryck på Retur för att acceptera standardvärdet
- För Certifikatvärdnamn för Värd hanadb3 [hanadb3]: tryck på Retur för att acceptera standardvärdet
- För Systemadministratörslösenord (hn1adm): ange lösenordet
- För System Database User (system)-lösenord: ange systemets lösenord
- För Bekräfta systemdatabasanvändarens (systemets) lösenord: anger du systemets lösenord
- För Omstartssystem efter omstart av datorn? [n]: ange n
- För Vill du fortsätta (j/n): validera sammanfattningen och om allt ser bra ut anger du y
[1] Verifiera global.ini
Visa global.ini och se till att konfigurationen för den interna SAP HANA kommunikation mellan noder är på plats. Kontrollera kommunikationsavsnittet. Det ska ha adressutrymmet för
hanaundernätet ochlisteninterfaceska vara inställt på.internal. Kontrollera internal_hostname_resolution avsnittet. Den ska ha IP-adresserna för de virtuella HANA-datorer som tillhörhanaundernätet.sudo cat /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini # Example #global.ini last modified 2019-09-10 00:12:45.192808 by hdbnameserve [communication] internal_network = 10.9.2.0/26 listeninterface = .internal [internal_hostname_resolution] 10.9.2.4 = hanadb1 10.9.2.5 = hanadb2 10.9.2.6 = hanadb3[1] Lägg till värdmappning för att säkerställa att klientens IP-adresser används för klientkommunikation. Lägg till
public_host_resolutionavsnitt och lägg till motsvarande IP-adresser från klientundernätet.sudo vi /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini #Add the section [public_hostname_resolution] map_hanadb1 = 10.9.1.5 map_hanadb2 = 10.9.1.6 map_hanadb3 = 10.9.1.7[1] Starta SAP HANA för att aktivera ändringarna.
sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StopSystem HDB sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StartSystem HDB[1] Kontrollera att klientgränssnittet kommer att använda IP-adresserna från
clientundernätet för kommunikation.# Execute as hn1adm /usr/sap/HN1/HDB03/exe/hdbsql -u SYSTEM -p "password" -i 03 -d SYSTEMDB 'select * from SYS.M_HOST_INFORMATION'|grep net_publicname # Expected result "hanadb3","net_publicname","10.9.1.7" "hanadb2","net_publicname","10.9.1.6" "hanadb1","net_publicname","10.9.1.5"Information om hur du verifierar konfigurationen finns i SAP Note 2183363 - Configuration of SAP HANA internal network.
[A] Återaktivera brandväggen.
Stoppa HANA
sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StopSystem HDBÅteraktivera brandväggen
# Execute as root systemctl start firewalld systemctl enable firewalldÖppna nödvändiga brandväggsportar
Viktigt
Skapa brandväggsregler för att tillåta HANA-kommunikation mellan noder och klienttrafik. De portar som krävs visas på TCP/IP-portar för alla SAP-produkter. Följande kommandon är bara ett exempel. I det här scenariot med använt systemnummer 03.
# Execute as root sudo firewall-cmd --zone=public --add-port=30301/tcp --permanent sudo firewall-cmd --zone=public --add-port=30301/tcp sudo firewall-cmd --zone=public --add-port=30303/tcp --permanent sudo firewall-cmd --zone=public --add-port=30303/tcp sudo firewall-cmd --zone=public --add-port=30306/tcp --permanent sudo firewall-cmd --zone=public --add-port=30306/tcp sudo firewall-cmd --zone=public --add-port=30307/tcp --permanent sudo firewall-cmd --zone=public --add-port=30307/tcp sudo firewall-cmd --zone=public --add-port=30313/tcp --permanent sudo firewall-cmd --zone=public --add-port=30313/tcp sudo firewall-cmd --zone=public --add-port=30315/tcp --permanent sudo firewall-cmd --zone=public --add-port=30315/tcp sudo firewall-cmd --zone=public --add-port=30317/tcp --permanent sudo firewall-cmd --zone=public --add-port=30317/tcp sudo firewall-cmd --zone=public --add-port=30340/tcp --permanent sudo firewall-cmd --zone=public --add-port=30340/tcp sudo firewall-cmd --zone=public --add-port=30341/tcp --permanent sudo firewall-cmd --zone=public --add-port=30341/tcp sudo firewall-cmd --zone=public --add-port=30342/tcp --permanent sudo firewall-cmd --zone=public --add-port=30342/tcp sudo firewall-cmd --zone=public --add-port=1128/tcp --permanent sudo firewall-cmd --zone=public --add-port=1128/tcp sudo firewall-cmd --zone=public --add-port=1129/tcp --permanent sudo firewall-cmd --zone=public --add-port=1129/tcp sudo firewall-cmd --zone=public --add-port=40302/tcp --permanent sudo firewall-cmd --zone=public --add-port=40302/tcp sudo firewall-cmd --zone=public --add-port=40301/tcp --permanent sudo firewall-cmd --zone=public --add-port=40301/tcp sudo firewall-cmd --zone=public --add-port=40307/tcp --permanent sudo firewall-cmd --zone=public --add-port=40307/tcp sudo firewall-cmd --zone=public --add-port=40303/tcp --permanent sudo firewall-cmd --zone=public --add-port=40303/tcp sudo firewall-cmd --zone=public --add-port=40340/tcp --permanent sudo firewall-cmd --zone=public --add-port=40340/tcp sudo firewall-cmd --zone=public --add-port=50313/tcp --permanent sudo firewall-cmd --zone=public --add-port=50313/tcp sudo firewall-cmd --zone=public --add-port=50314/tcp --permanent sudo firewall-cmd --zone=public --add-port=50314/tcp sudo firewall-cmd --zone=public --add-port=30310/tcp --permanent sudo firewall-cmd --zone=public --add-port=30310/tcp sudo firewall-cmd --zone=public --add-port=30302/tcp --permanent sudo firewall-cmd --zone=public --add-port=30302/tcpStarta HANA
sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StartSystem HDB
Om du SAP HANA för den underliggande Azure NetApp Files lagringen anger du följande SAP HANA parametrar:
max_parallel_io_requests128async_read_submitpåasync_write_submit_activepåasync_write_submit_blocksalla
Mer information finns i NetApp SAP Applications on Microsoft Azure using Azure NetApp Files.
Från och SAP HANA 2.0-system kan du ange parametrarna i
global.ini. Mer information finns i SAP Note 1999930.För SAP HANA 1.0-systemversionerna SPS12 och tidigare kan dessa parametrar anges under installationen, enligt beskrivningen i SAP Note 2267798.
Lagringen som används av Azure NetApp Files har en filstorleksbegränsning på 16 terabyte (TB). SAP HANA är inte implicit medveten om lagringsbegränsningen och skapar inte automatiskt en ny datafil när filstorleksgränsen på 16 TB nås. När SAP HANA försöker utöka filen till mer än 16 TB resulterar det i fel och så småningom att en indexserver kraschar.
Viktigt
Om du SAP HANA att försöka utöka datafilerna till mer än gränsen på 16 TB för underlagringssystemet anger du följande parametrar i
global.ini.
Testa SAP HANA redundans
Simulera en nodkrasch på en SAP HANA arbetsnod. Gör följande:
a. Innan du simulerar nodkrasch kör du följande kommandon som hn1 adm för att avbilda miljöns status:
# Check the landscape status python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py | Host | Host | Host | Failover | Remove | Storage | Storage | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host | Host | Worker | Worker | | | Active | Status | Status | Status | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | | | | | | | Partition | Partition | Group | Group | Role | Role | Role | Role | Roles | Roles | Groups | Groups | | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- | | hanadb1 | yes | ok | | | 1 | 1 | default | default | master 1 | master | worker | master | worker | worker | default | default | | hanadb2 | yes | ok | | | 2 | 2 | default | default | master 2 | slave | worker | slave | worker | worker | default | default | | hanadb3 | yes | ignore | | | 0 | 0 | default | default | master 3 | slave | standby | standby | standby | standby | default | - | # Check the instance status sapcontrol -nr 03 -function GetSystemInstanceList GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREENb. Om du vill simulera en nodkrasch kör du följande kommando som rot på arbetsnoden, som i det här fallet är hanadb2:
echo b > /proc/sysrq-triggerc. Övervaka systemet för slutförande av redundans. När redundansen har slutförts avbildar du statusen, som bör se ut så här:
# Check the instance status sapcontrol -nr 03 -function GetSystemInstanceList GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN # Check the landscape status python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py | Host | Host | Host | Failover | Remove | Storage | Storage | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host | Host | Worker | Worker | | | Active | Status | Status | Status | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | | | | | | | Partition | Partition | Group | Group | Role | Role | Role | Role | Roles | Roles | Groups | Groups | | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- | | hanadb1 | yes | ok | | | 1 | 1 | default | default | master 1 | master | worker | master | worker | worker | default | default | | hanadb2 | no | info | | | 2 | 0 | default | default | master 2 | slave | worker | standby | worker | standby | default | - | | hanadb3 | yes | info | | | 0 | 2 | default | default | master 3 | slave | standby | slave | standby | worker | default | default |Viktigt
När en nod får kernel-problem kan du undvika fördröjningar SAP HANA redundans genom att ange
kernel.panictill 20 sekunder på alla virtuella HANA-datorer. Konfigurationen görs i/etc/sysctl. Starta om de virtuella datorerna för att aktivera ändringen. Om den här ändringen inte utförs kan redundansväxlingen ta 10 eller fler minuter när en nod får kernel-problem.Gör så här för att ta bort namnservern:
a. Innan testet kontrollerar du statusen för miljön genom att köra följande kommandon som hn1 adm:
#Landscape status python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py | Host | Host | Host | Failover | Remove | Storage | Storage | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host | Host | Worker | Worker | | | Active | Status | Status | Status | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | | | | | | | Partition | Partition | Group | Group | Role | Role | Role | Role | Roles | Roles | Groups | Groups | | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- | | hanadb1 | yes | ok | | | 1 | 1 | default | default | master 1 | master | worker | master | worker | worker | default | default | | hanadb2 | yes | ok | | | 2 | 2 | default | default | master 2 | slave | worker | slave | worker | worker | default | default | | hanadb3 | yes | ignore | | | 0 | 0 | default | default | master 3 | slave | standby | standby | standby | standby | default | - | # Check the instance status sapcontrol -nr 03 -function GetSystemInstanceList GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREENb. Kör följande kommandon som hn1 adm på den aktiva huvudnoden, som i det här fallet är hanadb1:
hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB killReservnoden hanadb3 tar över som huvudnod. Här är resurstillståndet när redundanstestet har slutförts:
# Check the instance status sapcontrol -nr 03 -function GetSystemInstanceList GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY # Check the landscape status python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py | Host | Host | Host | Failover | Remove | Storage | Storage | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host | Host | Worker | Worker | | | Active | Status | Status | Status | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | | | | | | | Partition | Partition | Group | Group | Role | Role | Role | Role | Roles | Roles | Groups | Groups | | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- | | hanadb1 | no | info | | | 1 | 0 | default | default | master 1 | slave | worker | standby | worker | standby | default | - | | hanadb2 | yes | ok | | | 2 | 2 | default | default | master 2 | slave | worker | slave | worker | worker | default | default | | hanadb3 | yes | info | | | 0 | 1 | default | default | master 3 | master | standby | master | standby | worker | default | default |c. Starta om HANA-instansen på hanadb1 (det vill säga på samma virtuella dator där namnservern har avlivades). Noden hanadb1 återansluter till miljön och behåller sin vänteroll.
hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB startNär SAP HANA har startat på hanadb1 förväntar du dig följande status:
# Check the instance status sapcontrol -nr 03 -function GetSystemInstanceList GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN # Check the landscape status python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py | Host | Host | Host | Failover | Remove | Storage | Storage | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host | Host | Worker | Worker | | | Active | Status | Status | Status | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | | | | | | | Partition | Partition | Group | Group | Role | Role | Role | Role | Roles | Roles | Groups | Groups | | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- | | hanadb1 | no | info | | | 1 | 0 | default | default | master 1 | slave | worker | standby | worker | standby | default | - | | hanadb2 | yes | ok | | | 2 | 2 | default | default | master 2 | slave | worker | slave | worker | worker | default | default | | hanadb3 | yes | info | | | 0 | 1 | default | default | master 3 | master | standby | master | standby | worker | default | default |d. Igen, kill the name server on the currently active master node (det vill säga på noden hanadb3).
hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB killNode hanadb1 återupptar rollen som huvudnod. När redundanstestet har slutförts ser statusen ut så här:
# Check the instance status sapcontrol -nr 03 -function GetSystemInstanceList GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GRAY hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN # Check the landscape status python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py | Host | Host | Host | Failover | Remove | Storage | Storage | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host | Host | Worker | Worker | | | Active | Status | Status | Status | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | | | | | | | Partition | Partition | Group | Group | Role | Role | Role | Role | Roles | Roles | Groups | Groups | | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- | | hanadb1 | yes | ok | | | 1 | 1 | default | default | master 1 | master | worker | master | worker | worker | default | default | | hanadb2 | yes | ok | | | 2 | 2 | default | default | master 2 | slave | worker | slave | worker | worker | default | default | | hanadb3 | no | ignore | | | 0 | 0 | default | default | master 3 | slave | standby | standby | standby | standby | default | - |e. Starta SAP HANA hanadb3, som är redo att fungera som en reservnod.
hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB startNär SAP HANA har startat på hanadb3 ser statusen ut så här:
# Check the instance status sapcontrol -nr 03 -function GetSystemInstanceList & python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN # Check the landscape status python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py | Host | Host | Host | Failover | Remove | Storage | Storage | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host | Host | Worker | Worker | | | Active | Status | Status | Status | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | | | | | | | Partition | Partition | Group | Group | Role | Role | Role | Role | Roles | Roles | Groups | Groups | | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- | | hanadb1 | yes | ok | | | 1 | 1 | default | default | master 1 | master | worker | master | worker | worker | default | default | | hanadb2 | yes | ok | | | 2 | 2 | default | default | master 2 | slave | worker | slave | worker | worker | default | default | | hanadb3 | no | ignore | | | 0 | 0 | default | default | master 3 | slave | standby | standby | standby | standby | default | - |
Nästa steg
- Azure Virtual Machines planering och implementering för SAP
- Azure Virtual Machines distribution för SAP
- Azure Virtual Machines DBMS-distribution för SAP
- NFS v4.1-volymer på Azure NetApp Files för SAP HANA
- Information om hur du etablerar hög tillgänglighet och planerar för haveriberedskap för SAP HANA på virtuella Azure-datorer finns i Hög tillgänglighet för SAP HANA på Azure Virtual Machines (VM).