Implementeer een SAP HANA scale-out systeem met stand-by-knooppunt op virtuele Azure-Azure NetApp Files op Red Hat Enterprise Linux
In dit artikel wordt beschreven hoe u een SAP HANA-systeem met hoge beschikbaarheid implementeert in een scale-out configuratie met stand-by op virtuele Azure Red Hat Enterprise Linux-machines (VM's), met behulp van Azure NetApp Files voor de gedeelde opslagvolumes.
In de voorbeeldconfiguraties, installatieopdrachten, en meer, is het HANA-exemplaar 03 en is de HANA-systeem-id HN1. De voorbeelden zijn gebaseerd op HANA 2.0 SP4 en Red Hat Enterprise Linux voor SAP 7.6.
Notitie
Dit artikel bevat verwijzingen naar de termen master en slave, termen die Microsoft niet meer gebruikt. Wanneer deze termen uit de software worden verwijderd, worden deze uit dit artikel verwijderd.
Raadpleeg de volgende SAP-opmerkingen en -documenten voordat u begint:
- Azure NetApp Files documentatie
- [SAP-1928533] omvat:
- Een lijst met Azure VM-grootten die worden ondersteund voor de implementatie van SAP-software
- Belangrijke capaciteitsinformatie voor Azure VM-grootten
- Ondersteunde combinaties van SAP-software en besturingssysteem (besturingssysteem) en database
- De vereiste SAP-kernelversie voor Windows linux op Microsoft Azure
- [SAP-2015553:]hier vindt u een lijst met vereisten voor SAP-ondersteunde SAP-software-implementaties in Azure
- SAP-opmerking [2002167] heeft aanbevolen besturingssysteeminstellingen voor Red Hat Enterprise Linux
- [SAP-2009879] heeft SAP HANA richtlijnen voor Red Hat Enterprise Linux
- [SAP-2178632:]bevat gedetailleerde informatie over alle metrische bewakingsgegevens die zijn gerapporteerd voor SAP in Azure
- [SAP-2191498:]bevat de vereiste versie van de SAP-hostagent voor Linux in Azure
- SAP Note [2243692:]bevat informatie over SAP-licenties op Linux in Azure
- [SAP-1999351:]bevat aanvullende informatie over probleemoplossing voor de verbeterde bewakingsextensie van Azure voor SAP
- SAP Note [1900823:]bevat informatie over SAP HANA opslagvereisten
- SAP Community Wiki:bevat alle vereiste SAP-notities voor Linux
- Azure Virtual Machines en implementatie voor SAP on Linux
- Azure Virtual Machines-implementatie voor SAP op Linux
- Azure Virtual Machines DBMS-implementatie voor SAP op Linux
- Algemene RHEL-documentatie
- Azure-specifieke RHEL-documentatie:
- NetApp SAP-toepassingen op Microsoft Azure met Azure NetApp Files
- NFS v4.1-volumes in Azure NetApp Files voor SAP HANA
Overzicht
Een manier om hoge beschikbaarheid van HANA te bereiken, is door automatische failover van de host te configureren. Als u automatische failover van de host wilt configureren, voegt u een of meer virtuele machines toe aan het HANA-systeem en configureert u deze als stand-byknooppunten. Wanneer het actieve knooppunt uitvalt, neemt een stand-by-knooppunt het automatisch over. In de gepresenteerde configuratie met virtuele Azure-machines bereikt u automatische failover met behulp van NFS op Azure NetApp Files.
Notitie
Het stand-by-knooppunt moet toegang hebben tot alle databasevolumes. De HANA-volumes moeten worden bevestigd als NFSv4-volumes. Het verbeterde vergrendelingsmechanisme op basis van een bestandslease in het NFSv4-protocol wordt gebruikt voor I/O fencing.
Belangrijk
Als u de ondersteunde configuratie wilt bouwen, moet u de HANA-gegevens en logboekvolumes implementeren als NFSv4.1-volumes en deze met behulp van het NFSv4.1-protocol aan elkaar monteren. De configuratie van de automatische failover van de HANA-host met stand-by-knooppunt wordt niet ondersteund met NFSv3.

In het voorgaande diagram, dat volgt op SAP HANA netwerkaanbevelingen, worden drie subnetten weergegeven binnen één virtueel Azure-netwerk:
- Voor clientcommunicatie
- Voor communicatie met het opslagsysteem
- Voor interne communicatie tussen knooppunts van HANA
De Azure NetApp-volumes zijn in een afzonderlijk subnet, gedelegeerd aan Azure NetApp Files.
Voor deze voorbeeldconfiguratie zijn de subnetten:
client10.9.1.0/26storage10.9.3.0/26hana10.9.2.0/26anf10.9.0.0/26 (gedelegeerd subnet naar Azure NetApp Files)
De infrastructuur voor Azure NetApp Files instellen
Voordat u verdergaat met de installatie van Azure NetApp Files infrastructuur, moet u zich vertrouwd maken met de Azure NetApp Files documentatie.
Azure NetApp Files is beschikbaar in verschillende Azure-regio's. Controleer of uw geselecteerde Azure-regio een Azure NetApp Files.
Zie Beschikbaarheid per Azure Azure NetApp Files regio voor meer informatie over de beschikbaarheid Azure NetApp Files azure-regio.
Uw Azure NetApp Files implementeren
In de volgende instructies wordt ervan uit gegaan dat u uw virtuele Azure-netwerk al hebt geïmplementeerd. De Azure NetApp Files resources en VM's, waar de Azure NetApp Files-resources worden aangesloten, moeten worden geïmplementeerd in hetzelfde virtuele Azure-netwerk of in virtuele Azure-peernetwerken.
Maak een NetApp-account in de geselecteerde Azure-regio door de instructies in Een NetApp-account maken te volgen.
Stel een Azure NetApp Files-capaciteitspool in door de instructies in Set up an Azure NetApp Files capacity pool (Een Azure NetApp Files-capaciteitspool instellen).
De HANA-architectuur die in dit artikel wordt gepresenteerd, maakt gebruik van één Azure NetApp Files capaciteitspool op Ultra Service-niveau. Voor HANA-workloads in Azure raden we u aan een Azure NetApp Files Ultra- of Premium serviceniveau te gebruiken.
Delegeer een subnet aan Azure NetApp Files, zoals beschreven in de instructies in Een subnet delegeren aan Azure NetApp Files.
Implementeer Azure NetApp Files volumes door de instructies te volgen in Een NFS-volume voor Azure NetApp Files.
Wanneer u de volumes implementeert, moet u de versie NFSv4.1 selecteren. Implementeer de volumes in het Azure NetApp Files subnet. De IP-adressen van de Azure NetApp-volumes worden automatisch toegewezen.
Houd er rekening mee dat de Azure NetApp Files en de Azure-VM's zich in hetzelfde virtuele Azure-netwerk of in peered virtuele Azure-netwerken moeten zijn. Bijvoorbeeld, HN1-data-mnt00001, HN1-log-mnt00001, en meer, zijn de volumenamen en nfs://10.9.0.4/HN1-data-mnt00001, nfs://10.9.0.4/HN1-log-mnt00001, en verder, zijn de bestandspaden voor de Azure NetApp Files volumes.
- volume HN1-data-mnt00001 (nfs://10.9.0.4/HN1-data-mnt00001)
- volume HN1-data-mnt00002 (nfs://10.9.0.4/HN1-data-mnt00002)
- volume HN1-log-mnt00001 (nfs://10.9.0.4/HN1-log-mnt00001)
- volume HN1-log-mnt00002 (nfs://10.9.0.4/HN1-log-mnt00002)
- volume HN1-shared (nfs://10.9.0.4/HN1-shared)
In dit voorbeeld hebben we een afzonderlijk volume Azure NetApp Files gebruikt voor elk HANA-gegevens- en logboekvolume. Voor een meer kosten-geoptimaliseerde configuratie op kleinere of niet-productieve systemen is het mogelijk om alle gegevens mounts op één volume en alle logboeken op een ander volume te plaatsen.
Belangrijke overwegingen
Wanneer u uw Azure NetApp Files voor SAP HANA scenario voor uitschalen met stand-by-knooppunten, moet u rekening houden met de volgende belangrijke overwegingen:
- De minimale capaciteitspool is 4 tebibyte (TiB).
- De minimale volumegrootte is 100 gibibyte (GiB).
- Azure NetApp Files en alle virtuele machines waarop de Azure NetApp Files-volumes worden aangesloten, moeten zich in hetzelfde virtuele Azure-netwerk of in virtuele peernetwerken in dezelfde regio.
- Het geselecteerde virtuele netwerk moet een subnet hebben dat wordt gedelegeerd aan Azure NetApp Files.
- De doorvoer van een Azure NetApp Files volume is een functie van het volumequotum en serviceniveau, zoals beschreven in Serviceniveau voor Azure NetApp Files. Wanneer u de HANA Azure NetApp-volumes wilt indelen, moet u ervoor zorgen dat de resulterende doorvoer voldoet aan de HANA-systeemvereisten.
- Met het Azure NetApp Files exportbeleidkunt u de toegestane clients, het toegangstype (lezen-schrijven, alleen-lezen, etc.) bepalen.
- De Azure NetApp Files functie is nog niet zonebewust. Op dit moment is de functie niet geïmplementeerd in alle beschikbaarheidszones in een Azure-regio. Let op de mogelijke gevolgen voor latentie in sommige Azure-regio's.
Belangrijk
Voor SAP HANA workloads is lage latentie essentieel. Werk samen met uw Microsoft-vertegenwoordiger om ervoor te zorgen dat de virtuele machines en Azure NetApp Files volumes dicht bij elkaar worden geïmplementeerd.
De HANA-database op een Azure NetApp Files
De doorvoer van een Azure NetApp Files volume is een functie van de volumegrootte en het serviceniveau, zoals beschreven in Serviceniveau voor Azure NetApp Files.
Wanneer u de infrastructuur voor SAP in Azure ontwerpt, moet u rekening houden met enkele minimale opslagvereisten van SAP. Deze worden omgezet in minimale doorvoerkenmerken:
- Lezen/schrijven in /hana/log van 250 MB/s (MB/s) met I/O-grootten van 1 MB.
- Leesactiviteit van ten minste 400 MB/s voor /hana/data voor I/O-grootten van 16 MB en 64 MB.
- Schrijfactiviteit van ten minste 250 MB/s voor /hana/gegevens met een I/O-grootte van 16 MB en 64 MB.
De Azure NetApp Files doorvoerlimieten per 1 TiB volumequotum zijn:
- Premium Storage-laag - 64 MiB/s
- Ultra Storage-laag - 128 MiB/s
Om te voldoen aan de minimale sap-doorvoervereisten voor gegevens en logboeken en de richtlijnen voor /hana/shared, zijn de aanbevolen grootten:
| Volume | Grootte van Premium Storage-laag |
Grootte van Ultra Storage laag |
Ondersteund NFS-protocol |
|---|---|---|---|
| /hana/log/ | 4 TiB | 2 TiB | v4.1 |
| /hana/data | 6,3 TiB | 3,2 TiB | v4.1 |
| /hana/shared | 1xRAM per 4 werkknooppunten | 1xRAM per 4 werkknooppunten | v3 of v4.1 |
De SAP HANA voor de indeling die in dit artikel wordt weergegeven, met behulp van Azure NetApp Files Ultra Storage-laag, zou als volgende zijn:
| Volume | Grootte van Ultra Storage laag |
Ondersteund NFS-protocol |
|---|---|---|
| /hana/log/mnt00001 | 2 TiB | v4.1 |
| /hana/log/mnt00002 | 2 TiB | v4.1 |
| /hana/data/mnt00001 | 3,2 TiB | v4.1 |
| /hana/data/mnt00002 | 3,2 TiB | v4.1 |
| /hana/shared | 2 TiB | v3 of v4.1 |
Notitie
De Azure NetApp Files die hier worden vermeld, zijn bedoeld om te voldoen aan de minimale vereisten die SAP aanbeveelt voor hun infrastructuurproviders. In echte klantimplementaties en workloadscenario's zijn deze grootten mogelijk niet voldoende. Gebruik deze aanbevelingen als uitgangspunt en pas deze aan op basis van de vereisten van uw specifieke workload.
Tip
U kunt het Azure NetApp Files volumes dynamisch veranderen, zonder dat u de volumes moet ontkoppelen, de virtuele machines moet stoppen of SAP HANA. Deze aanpak biedt flexibiliteit om te voldoen aan zowel de verwachte als onvoorziene doorvoervraag van uw toepassing.
Virtuele Linux-machines implementeren via de Azure Portal
Eerst moet u de Azure NetApp Files maken. Ga vervolgens als volgt te werk:
Maak de subnetten van het virtuele Azure-netwerk in uw virtuele Azure-netwerk.
Implementeer de VM's.
Maak de extra netwerkinterfaces en koppel de netwerkinterfaces aan de bijbehorende VM's.
Elke virtuele machine heeft drie netwerkinterfaces die overeenkomen met de drie subnetten van het virtuele Azure-netwerk (
clientenstoragehana).Zie Een virtuele Linux-machine maken in Azure met meerdere netwerkinterfacekaartenvoor meer informatie.
Belangrijk
Voor SAP HANA workloads is lage latentie essentieel. Werk samen met uw Microsoft-vertegenwoordiger om ervoor te zorgen dat de virtuele machines en de Azure NetApp Files volumes dicht bij elkaar worden geïmplementeerd om een lage latentie te bereiken. Wanneer u onboarding van een nieuw SAP HANA dat gebruik maakt van SAP HANA Azure NetApp Files, dient u de benodigde gegevens in.
In de volgende instructies wordt ervan uit gegaan dat u de resourcegroep, het virtuele Azure-netwerk en de drie subnetten van het virtuele Azure-netwerk al client hebt gemaakt: , storage en hana . Wanneer u de VM's implementeert, selecteert u het clientsubnet, zodat de clientnetwerkinterface de primaire interface op de VM's is. U moet ook een expliciete route naar het Azure NetApp Files gedelegeerd subnet configureren via de opslagsubnetgateway.
Belangrijk
Zorg ervoor dat het besturingssysteem dat u selecteert SAP-gecertificeerd is SAP HANA de specifieke VM-typen die u gebruikt. Ga voor een lijst SAP HANA gecertificeerde VM-typen en besturingssysteemreleases voor deze typen naar de site SAP HANA gecertificeerde IaaS-platformen. Klik op de details van het vermelde VM-type om de volledige lijst met door SAP HANA ondersteunde besturingssysteemreleases voor dat type op te halen.
Maak een beschikbaarheidsset voor SAP HANA. Zorg ervoor dat u het maximale updatedomein in stelt.
Gebruik de volgende stappen om drie virtuele machines te maken (;adb1, handtekeningadb2, handtekeningadb3):
a. Gebruik een Red Hat Enterprise Linux in de Azure-galerie die wordt ondersteund voor SAP HANA. In dit voorbeeld hebben we een RHEL-SAP-HA 7.6-afbeelding gebruikt.
b. Selecteer de beschikbaarheidsset die u eerder hebt gemaakt voor SAP HANA.
c. Selecteer het subnet van het virtuele Azure-netwerk van de client. Selecteer Versneld netwerk.
Wanneer u de virtuele machines implementeert, wordt de naam van de netwerkinterface automatisch gegenereerd. In deze instructies voor het gemak verwijzen we naar de automatisch gegenereerde netwerkinterfaces, die zijn gekoppeld aan het subnet van het virtuele Azure-clientnetwerk, zoals :adb1-client, kunt uadb2-client en handtekeningadb3-client gebruiken.
Maak drie netwerkinterfaces, één voor elke virtuele machine, voor het subnet van het virtuele netwerk (in dit voorbeeld
storagezijn dat: moetadb1-storage, nuadb2-storage enbouwadb3-storage).Maak drie netwerkinterfaces, één voor elke virtuele machine, voor het subnet van het virtuele netwerk (in dit voorbeeld
hanazijn dat: moetadb1-hana, wanneeradb2-hana en handtekeningadb3-hana).Koppel de zojuist gemaakte virtuele netwerkinterfaces aan de bijbehorende virtuele machines door de volgende stappen uit te voeren:
a. Ga naar de virtuele machine in de Azure Portal.
b. Selecteer in het linkerdeelvenster Virtual Machines. Filter op de naam van de virtuele machine (bijvoorbeeld : nuadb1) en selecteer vervolgens de virtuele machine.
c. Selecteer in het deelvenster Overzicht de optie Stoppen om de toewijzing van de virtuele machine op te geven.
d. Selecteer Netwerken en koppel vervolgens de netwerkinterface. Selecteer in de vervolgkeuzelijst Netwerkinterface koppelen de al gemaakte netwerkinterfaces voor de
storagesubnetten enhana.e. Selecteer Opslaan.
f. Herhaal de stappen b tot en met e voor de resterende virtuele machines (in ons voorbeeld zijn dat nu : nu zijn dat: nu is dat : nu zijn dat nog steeds de virtuele machines).
g. Laat de virtuele machines nu in de status Gestopt staan. Vervolgens gaan we versneld netwerken inschakelen voor alle nieuw gekoppelde netwerkinterfaces.
Schakel versneld netwerken in voor de extra netwerkinterfaces voor de subnetten en door
storagede volgende stappen uit tehanavoeren:a. Open Azure Cloud Shell in Azure Portal.
b. Voer de volgende opdrachten uit om versneld netwerken in te stellen voor de extra netwerkinterfaces die zijn gekoppeld aan de
storagesubnetten enhana.az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-storage --accelerated-networking true az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-storage --accelerated-networking true az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-storage --accelerated-networking true az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-hana --accelerated-networking true az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-hana --accelerated-networking true az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-hana --accelerated-networking trueStart de virtuele machines door de volgende stappen uit te voeren:
a. Selecteer in het linkerdeelvenster Virtual Machines. Filter op de naam van de virtuele machine (bijvoorbeeld ;adb1) en selecteer deze.
b. Selecteer start in het deelvenster Overzicht.
Configuratie en voorbereiding van besturingssysteem
De instructies in de volgende secties hebben een van de volgende voorvoegsels:
- [A]: Van toepassing op alle knooppunten
- [1]: Alleen van toepassing op knooppunt 1
- [2]: Alleen van toepassing op knooppunt 2
- [3]: Alleen van toepassing op knooppunt 3
Configureer en bereid uw besturingssysteem voor door de volgende stappen uit te voeren:
[A] Onderhoud de hostbestanden op de virtuele machines. Vermeldingen voor alle subnetten opnemen. De volgende vermeldingen zijn toegevoegd aan
/etc/hostsvoor dit voorbeeld.# Storage 10.9.3.4 hanadb1-storage 10.9.3.5 hanadb2-storage 10.9.3.6 hanadb3-storage # Client 10.9.1.5 hanadb1 10.9.1.6 hanadb2 10.9.1.7 hanadb3 # Hana 10.9.2.4 hanadb1-hana 10.9.2.5 hanadb2-hana 10.9.2.6 hanadb3-hana[A] Voeg een netwerkroute toe, zodat de communicatie met de Azure NetApp Files verloopt via de interface van het opslagnetwerk.
In dit voorbeeld wordt gebruikt om
Networkmanagerde extra netwerkroute te configureren. In de volgende instructies wordt ervan uit gegaan dat de opslagnetwerkinterfaceeth1is.
Bepaal eerst de verbindingsnaam voor het apparaateth1. In dit voorbeeld is de naam van de verbinding vooreth1het apparaatWired connection 1.# Execute as root nmcli connection # Result #NAME UUID TYPE DEVICE #System eth0 5fb06bd0-0bb0-7ffb-45f1-d6edd65f3e03 ethernet eth0 #Wired connection 1 4b0789d1-6146-32eb-83a1-94d61f8d60a7 ethernet eth1Configureer vervolgens een aanvullende route naar Azure NetApp Files gedelegeerd netwerk via
eth1.# Add the following route # ANFDelegatedSubnet/cidr via StorageSubnetGW dev StorageNetworkInterfaceDevice nmcli connection modify "Wired connection 1" +ipv4.routes "10.9.0.0/26 10.9.3.1"Start de VM opnieuw op om de wijzigingen te activeren.
[A] Installeer het NFS-clientpakket.
yum install nfs-utils[A] Bereid het besturingssysteem voor op het uitvoeren van SAP HANA in Azure NetApp met NFS, zoals beschreven in NetApp SAP Applications on Microsoft Azure using Azure NetApp Files. Maak het configuratiebestand /etc/sysctl.d/netapp-hana.conf voor de NetApp-configuratie-instellingen.
vi /etc/sysctl.d/netapp-hana.conf # Add the following entries in the configuration file net.core.rmem_max = 16777216 net.core.wmem_max = 16777216 net.core.rmem_default = 16777216 net.core.wmem_default = 16777216 net.core.optmem_max = 16777216 net.ipv4.tcp_rmem = 65536 16777216 16777216 net.ipv4.tcp_wmem = 65536 16777216 16777216 net.core.netdev_max_backlog = 300000 net.ipv4.tcp_slow_start_after_idle=0 net.ipv4.tcp_no_metrics_save = 1 net.ipv4.tcp_moderate_rcvbuf = 1 net.ipv4.tcp_window_scaling = 1 net.ipv4.tcp_timestamps = 1 net.ipv4.tcp_sack = 1[A] Maak het configuratiebestand /etc/sysctl.d/ms-az.conf met aanvullende optimalisatie-instellingen.
vi /etc/sysctl.d/ms-az.conf # Add the following entries in the configuration file net.ipv6.conf.all.disable_ipv6 = 1 net.ipv4.tcp_max_syn_backlog = 16348 net.ipv4.conf.all.rp_filter = 0 sunrpc.tcp_slot_table_entries = 128 vm.swappiness=10
Tip
Voorkom dat net.ipv4.ip_local_port_range en net.ipv4.ip_local_reserved_ports expliciet in de sysctl-configuratiebestanden worden opgeslagen zodat sap-hostagent de poortbereiken kan beheren. Zie SAP-opmerking voor meer informatie 2382421.
[A] Pas de sunrpc-instellingen aan, zoals aanbevolen in NetApp SAP Applications on Microsoft Azure using Azure NetApp Files.
vi /etc/modprobe.d/sunrpc.conf # Insert the following line options sunrpc tcp_max_slot_table_entries=128[A] Red Hat voor HANA-configuratie.
Configureer RHEL zoals beschreven in SAP Note 2292690, 2455582, 2593824 en https://access.redhat.com/solutions/2447641 .
Notitie
Als u HANA 2.0 SP04 installeert, moet u het pakket installeren zoals beschreven in SAP-notitie 2593824 , voordat u het
compat-sap-c++-7SAP HANA. []
De Azure NetApp Files volumes
[A] Maak bevestigingspunten voor de HANA-databasevolumes.
mkdir -p /hana/data/HN1/mnt00001 mkdir -p /hana/data/HN1/mnt00002 mkdir -p /hana/log/HN1/mnt00001 mkdir -p /hana/log/HN1/mnt00002 mkdir -p /hana/shared mkdir -p /usr/sap/HN1[1] Knooppunt-specifieke directories maken voor /usr/sap op HN1-gedeeld.
# Create a temporary directory to mount HN1-shared mkdir /mnt/tmp # if using NFSv3 for this volume, mount with the following command mount 10.9.0.4:/HN1-shared /mnt/tmp # if using NFSv4.1 for this volume, mount with the following command mount -t nfs -o sec=sys,vers=4.1 10.9.0.4:/HN1-shared /mnt/tmp cd /mnt/tmp mkdir shared usr-sap-hanadb1 usr-sap-hanadb2 usr-sap-hanadb3 # unmount /hana/shared cd umount /mnt/tmp[A] Controleer de NFS-domeininstelling. Zorg ervoor dat het domein is geconfigureerd als het standaarddomein Azure NetApp Files, dat wil zeggen en dat de toewijzing
defaultv4iddomain.comis ingesteld op niemand.Belangrijk
Zorg ervoor dat u het NFS-domein in op de VM in stelt om te overeenkomen met de
/etc/idmapd.confstandaarddomeinconfiguratie op Azure NetApp Files:defaultv4iddomain.com. Als er een verschil is tussen de domeinconfiguratie op de NFS-client (dat wil zeggen de VM) en de NFS-server, dat wil zeggen de Azure NetApp-configuratie, worden de machtigingen voor bestanden op Azure NetApp-volumes die zijn bevestigd op de VM's weergegeven alsnobody.sudo cat /etc/idmapd.conf # Example [General] Domain = defaultv4iddomain.com [Mapping] Nobody-User = nobody Nobody-Group = nobody[A] Controleer
nfs4_disable_idmapping. Deze moet worden ingesteld op Y. Als u de mapstructuur wilt maken waarnfs4_disable_idmappingzich bevindt, voert u de mount-opdracht uit. U kunt de map niet handmatig maken onder /sys/modules, omdat toegang is gereserveerd voor de kernel/stuurprogramma's.# Check nfs4_disable_idmapping cat /sys/module/nfs/parameters/nfs4_disable_idmapping # If you need to set nfs4_disable_idmapping to Y mkdir /mnt/tmp mount 10.9.0.4:/HN1-shared /mnt/tmp umount /mnt/tmp echo "Y" > /sys/module/nfs/parameters/nfs4_disable_idmapping # Make the configuration permanent echo "options nfs nfs4_disable_idmapping=Y" >> /etc/modprobe.d/nfs.confZie voor meer informatie over het wijzigen
nfs4_disable_idmappingvan de parameter https://access.redhat.com/solutions/1749883 .[A] De gedeelde Azure NetApp Files volumes.
sudo vi /etc/fstab # Add the following entries 10.9.0.4:/HN1-data-mnt00001 /hana/data/HN1/mnt00001 nfs rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 0 0 10.9.0.4:/HN1-data-mnt00002 /hana/data/HN1/mnt00002 nfs rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 0 0 10.9.0.4:/HN1-log-mnt00001 /hana/log/HN1/mnt00001 nfs rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 0 0 10.9.0.4:/HN1-log-mnt00002 /hana/log/HN1/mnt00002 nfs rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 0 0 10.9.0.4:/HN1-shared/shared /hana/shared nfs rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 0 0 # Mount all volumes sudo mount -a[1] Bevestig de knooppuntspecifieke volumes op ;adb1.
sudo vi /etc/fstab # Add the following entries 10.9.0.4:/HN1-shared/usr-sap-hanadb1 /usr/sap/HN1 nfs rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 0 0 # Mount the volume sudo mount -a[2] Bevestig de knooppuntspecifieke volumes op ;adb2.
sudo vi /etc/fstab # Add the following entries 10.9.0.4:/HN1-shared/usr-sap-hanadb2 /usr/sap/HN1 nfs rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 0 0 # Mount the volume sudo mount -a[3] De knooppuntspecifieke volumes aan de hand van een knooppunt aan de hand van de drie knooppuntvolumes.
sudo vi /etc/fstab # Add the following entries 10.9.0.4:/HN1-shared/usr-sap-hanadb3 /usr/sap/HN1 nfs rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys 0 0 # Mount the volume sudo mount -a[A] Controleer of alle HANA-volumes zijn bevestigd met NFS-protocolversie NFSv4.
sudo nfsstat -m # Verify that flag vers is set to 4.1 # Example from hanadb1 /hana/data/HN1/mnt00001 from 10.9.0.4:/HN1-data-mnt00001 Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4 /hana/log/HN1/mnt00002 from 10.9.0.4:/HN1-log-mnt00002 Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4 /hana/data/HN1/mnt00002 from 10.9.0.4:/HN1-data-mnt00002 Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4 /hana/log/HN1/mnt00001 from 10.9.0.4:/HN1-log-mnt00001 Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4 /usr/sap/HN1 from 10.9.0.4:/HN1-shared/usr-sap-hanadb1 Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4 /hana/shared from 10.9.0.4:/HN1-shared/shared Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
Installatie
In dit voorbeeld voor het implementeren SAP HANA in scale-out configuratie met stand-by-knooppunt met Azure, hebben we HANA 2.0 SP4 gebruikt.
Voorbereiden op HANA-installatie
[A] Vóór de HANA-installatie stelt u het hoofdwachtwoord in. U kunt het hoofdwachtwoord uitschakelen nadat de installatie is voltooid. Voer uit als
rootopdrachtpasswd.[1] Controleer of u zich via SSH kunt aanmelden bijb2 enadb3, zonder dat u om een wachtwoord wordt gevraagd.
ssh root@hanadb2 ssh root@hanadb3[A] Installeer aanvullende pakketten die vereist zijn voor HANA 2.0 SP4. Zie SAP Note 2593824 voor meer informatie.
yum install libgcc_s1 libstdc++6 compat-sap-c++-7 libatomic1[2], [3] Wijzig het eigendom van SAP HANA
datalogen de directories in hn1 adm.# Execute as root sudo chown hn1adm:sapsys /hana/data/HN1 sudo chown hn1adm:sapsys /hana/log/HN1[A] Schakel de firewall tijdelijk uit, zodat deze geen invloed heeft op de HANA-installatie. U kunt deze opnieuw inschakelen nadat de HANA-installatie is uitgevoerd.
# Execute as root systemctl stop firewalld systemctl disable firewalld
HANA-installatie
[1] Installeer SAP HANA door de instructies te volgen in SAP HANA 2.0 Installation and Update guide (Installatie- en updatehandleiding voor SAP HANA 2.0). In dit voorbeeld installeren we SAP HANA uitschalen met hoofd, één werkster en één stand-by-knooppunt.
a. Start het hdblcm-programma vanuit de HANA-installatiesoftwaremap. Gebruik de
internal_networkparameter en geef de adresruimte door voor het subnet, dat wordt gebruikt voor de interne communicatie tussen knooppunts van HANA../hdblcm --internal_network=10.9.2.0/26b. Voer bij de prompt de volgende waarden in:
- Voor Kies een actie: voer 1 in (voor installatie)
- Voor Aanvullende onderdelen voor installatie: voer 2, 3 in
- Voor het installatiepad: druk op Enter (standaard ingesteld op /hana/shared)
- Voor Lokale hostnaam: druk op Enter om de standaardinstelling te accepteren
- Onder Wilt u hosts toevoegen aan het systeem?: voer y in
- Als u door komma's gescheiden hostnamen wilt toevoegen, voegt u toe: voer bijenadb2, handtekeningadb3 in
- Voor Root User Name [root]: druk op Enter om de standaardinstelling te accepteren
- Voor rollen voor hostadb2: voer 1 in (voor werkrol)
- Voor Host-failovergroep voor hostadb2 [standaard]: druk op Enter om de standaardinstelling te accepteren
- Voor Storage partitienummer voor hostadb2 [ ]: druk <<assign automatically> > op Enter om de standaardwaarde te accepteren
- Voor Werkgroep voor hostadb2 [standaard]: druk op Enter om de standaardwaarde te accepteren
- Voor Rollen selecteren voor hostadb3: voer 2 in (voor stand-by)
- Voor Host-failovergroep voor hostadb3 [standaard]: druk op Enter om de standaardinstelling te accepteren
- Voor Werkgroep voor hostadb3 [standaard]: druk op Enter om de standaardinstelling te accepteren
- Voor SAP HANA-systeem-id: voer HN1 in
- Bij Exemplaarnummer [00]: voer 03 in
- Voor Lokale hostwerkergroep [standaard]: druk op Enter om de standaardinstelling te accepteren
- Voor Select System Usage /Enter index [4]: voer 4 in (voor aangepast)
- Voor locatie van gegevensvolumes [/hana/data/HN1]: druk op Enter om de standaardwaarde te accepteren
- Voor locatie van logboekvolumes [/hana/log/HN1]: druk op Enter om de standaardwaarde te accepteren
- Voor Maximale geheugentoewijzing beperken [n]: voer n in
- Voor Hostnaam van certificaat voor hostadb1 [handtekeningadb1]: druk op Enter om de standaardwaarde te accepteren
- Voor Hostnaam van certificaat voor Hostadb2 [handtekeningadb2]: druk op Enter om de standaardwaarde te accepteren
- Voor Hostnaam van certificaat voor hostadb3 [handtekeningadb3]: druk op Enter om de standaardwaarde te accepteren
- Voor het wachtwoord van de systeembeheerder (hn1adm): voer het wachtwoord in
- Voor Het wachtwoord van de systeemdatabasegebruiker (systeem): voer het wachtwoord van het systeem in
- Voor Systeemdatabasegebruikerswachtwoord (systeem) bevestigen: voer het wachtwoord van het systeem in
- Voor het opnieuw opstarten van het systeem na het opnieuw opstarten van de machine? [n]: voer n in
- Voor Wilt u doorgaan (y/n): valideer de samenvatting en als alles er goed uitziet, voert u y in
[1] Controleer global.ini
Geef global.ini weer en zorg ervoor dat de configuratie voor de interne SAP HANA communicatie tussen knooppunt is. Controleer de communicatiesectie. Deze moet de adresruimte voor het
hanasubnet hebben enlisteninterfacemoet worden ingesteld op.internal. Controleer de internal_hostname_resolution sectie. Deze moet de IP-adressen hebben voor de virtuele HANA-machines die deel uitmaken van hethanasubnet.sudo cat /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini # Example #global.ini last modified 2019-09-10 00:12:45.192808 by hdbnameserve [communication] internal_network = 10.9.2.0/26 listeninterface = .internal [internal_hostname_resolution] 10.9.2.4 = hanadb1 10.9.2.5 = hanadb2 10.9.2.6 = hanadb3[1] Voeg hosttoewijzing toe om ervoor te zorgen dat de IP-adressen van de client worden gebruikt voor clientcommunicatie. Voeg sectie
public_host_resolutiontoe en voeg de bijbehorende IP-adressen van het clientsubnet toe.sudo vi /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini #Add the section [public_hostname_resolution] map_hanadb1 = 10.9.1.5 map_hanadb2 = 10.9.1.6 map_hanadb3 = 10.9.1.7[1] Start de SAP HANA om de wijzigingen te activeren.
sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StopSystem HDB sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StartSystem HDB[1] Controleer of de clientinterface de IP-adressen van het subnet gebruikt
clientvoor communicatie.# Execute as hn1adm /usr/sap/HN1/HDB03/exe/hdbsql -u SYSTEM -p "password" -i 03 -d SYSTEMDB 'select * from SYS.M_HOST_INFORMATION'|grep net_publicname # Expected result "hanadb3","net_publicname","10.9.1.7" "hanadb2","net_publicname","10.9.1.6" "hanadb1","net_publicname","10.9.1.5"Zie SAP Note 2183363 - Configuration of SAP HANA internal network voor meer informatie over het controleren van de configuratie.
[A] Schakel de firewall opnieuw in.
HANA stoppen
sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StopSystem HDBDe firewall opnieuw inschakelen
# Execute as root systemctl start firewalld systemctl enable firewalldOpen de benodigde firewallpoorten
Belangrijk
Maak firewallregels om communicatie tussen HANA-knooppunt en clientverkeer toe te staan. De vereiste poorten worden vermeld op TCP/IP-poorten van alle SAP-producten. De volgende opdrachten zijn slechts een voorbeeld. In dit scenario met het gebruikte systeemnummer 03.
# Execute as root sudo firewall-cmd --zone=public --add-port=30301/tcp --permanent sudo firewall-cmd --zone=public --add-port=30301/tcp sudo firewall-cmd --zone=public --add-port=30303/tcp --permanent sudo firewall-cmd --zone=public --add-port=30303/tcp sudo firewall-cmd --zone=public --add-port=30306/tcp --permanent sudo firewall-cmd --zone=public --add-port=30306/tcp sudo firewall-cmd --zone=public --add-port=30307/tcp --permanent sudo firewall-cmd --zone=public --add-port=30307/tcp sudo firewall-cmd --zone=public --add-port=30313/tcp --permanent sudo firewall-cmd --zone=public --add-port=30313/tcp sudo firewall-cmd --zone=public --add-port=30315/tcp --permanent sudo firewall-cmd --zone=public --add-port=30315/tcp sudo firewall-cmd --zone=public --add-port=30317/tcp --permanent sudo firewall-cmd --zone=public --add-port=30317/tcp sudo firewall-cmd --zone=public --add-port=30340/tcp --permanent sudo firewall-cmd --zone=public --add-port=30340/tcp sudo firewall-cmd --zone=public --add-port=30341/tcp --permanent sudo firewall-cmd --zone=public --add-port=30341/tcp sudo firewall-cmd --zone=public --add-port=30342/tcp --permanent sudo firewall-cmd --zone=public --add-port=30342/tcp sudo firewall-cmd --zone=public --add-port=1128/tcp --permanent sudo firewall-cmd --zone=public --add-port=1128/tcp sudo firewall-cmd --zone=public --add-port=1129/tcp --permanent sudo firewall-cmd --zone=public --add-port=1129/tcp sudo firewall-cmd --zone=public --add-port=40302/tcp --permanent sudo firewall-cmd --zone=public --add-port=40302/tcp sudo firewall-cmd --zone=public --add-port=40301/tcp --permanent sudo firewall-cmd --zone=public --add-port=40301/tcp sudo firewall-cmd --zone=public --add-port=40307/tcp --permanent sudo firewall-cmd --zone=public --add-port=40307/tcp sudo firewall-cmd --zone=public --add-port=40303/tcp --permanent sudo firewall-cmd --zone=public --add-port=40303/tcp sudo firewall-cmd --zone=public --add-port=40340/tcp --permanent sudo firewall-cmd --zone=public --add-port=40340/tcp sudo firewall-cmd --zone=public --add-port=50313/tcp --permanent sudo firewall-cmd --zone=public --add-port=50313/tcp sudo firewall-cmd --zone=public --add-port=50314/tcp --permanent sudo firewall-cmd --zone=public --add-port=50314/tcp sudo firewall-cmd --zone=public --add-port=30310/tcp --permanent sudo firewall-cmd --zone=public --add-port=30310/tcp sudo firewall-cmd --zone=public --add-port=30302/tcp --permanent sudo firewall-cmd --zone=public --add-port=30302/tcpHANA starten
sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StartSystem HDB
Als u de SAP HANA voor de onderliggende Azure NetApp Files opslag wilt optimaliseren, stelt u de volgende SAP HANA parameters in:
max_parallel_io_requests128async_read_submitaanasync_write_submit_activeaanasync_write_submit_blocksalle
Zie NetApp SAP Applications on Microsoft Azure using Azure NetApp Files (NetApp SAP-toepassingenop een Azure NetApp Files) voor meer Azure NetApp Files.
Vanaf SAP HANA 2.0-systemen kunt u de parameters instellen in
global.ini. Zie SAP Note 1999930 voor meer informatie.Voor SAP HANA 1.0-systeemversies SPS12 en eerder kunnen deze parameters worden ingesteld tijdens de installatie, zoals beschreven in SAP Note 2267798.
De opslag die wordt gebruikt door Azure NetApp Files heeft een bestandsgroottelimiet van 16 terabyte (TB). SAP HANA niet impliciet op de hoogte is van de opslagbeperking en er wordt niet automatisch een nieuw gegevensbestand gemaakt wanneer de bestandsgroottelimiet van 16 TB is bereikt. Wanneer SAP HANA bestand probeert uit te groeien tot meer dan 16 TB, leidt deze poging tot fouten en uiteindelijk een crash van een indexserver.
Belangrijk
Om te voorkomen SAP HANA gegevensbestanden groter te maken dan de limiet van 16 TB van het opslagsubsysteem, stelt u de volgende parameters in in
global.ini.- datavolume_striping = true
- datavolume_striping_size_gb = 15000 Zie SAP Note 2400005 voor meer 2400005. Let op sap note 2631285.
Failover SAP HANA testen
Simuleer een knooppuntcrash op een SAP HANA worker-knooppunt. Ga als volgt te werk:
a. Voordat u het vastgelopen knooppunt simuleert, voert u de volgende opdrachten uit als hn1 adm om de status van de omgeving vast te leggen:
# Check the landscape status python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py | Host | Host | Host | Failover | Remove | Storage | Storage | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host | Host | Worker | Worker | | | Active | Status | Status | Status | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | | | | | | | Partition | Partition | Group | Group | Role | Role | Role | Role | Roles | Roles | Groups | Groups | | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- | | hanadb1 | yes | ok | | | 1 | 1 | default | default | master 1 | master | worker | master | worker | worker | default | default | | hanadb2 | yes | ok | | | 2 | 2 | default | default | master 2 | slave | worker | slave | worker | worker | default | default | | hanadb3 | yes | ignore | | | 0 | 0 | default | default | master 3 | slave | standby | standby | standby | standby | default | - | # Check the instance status sapcontrol -nr 03 -function GetSystemInstanceList GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREENb. Als u een crash van een knooppunt wilt simuleren, moet u de volgende opdracht uitvoeren als root op het worker-knooppunt. In dit geval is dat :
echo b > /proc/sysrq-triggerc. Controleer het systeem op failover-voltooiing. Wanneer de failover is voltooid, legt u de status vast. Deze ziet er als volgt uit:
# Check the instance status sapcontrol -nr 03 -function GetSystemInstanceList GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN # Check the landscape status python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py | Host | Host | Host | Failover | Remove | Storage | Storage | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host | Host | Worker | Worker | | | Active | Status | Status | Status | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | | | | | | | Partition | Partition | Group | Group | Role | Role | Role | Role | Roles | Roles | Groups | Groups | | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- | | hanadb1 | yes | ok | | | 1 | 1 | default | default | master 1 | master | worker | master | worker | worker | default | default | | hanadb2 | no | info | | | 2 | 0 | default | default | master 2 | slave | worker | standby | worker | standby | default | - | | hanadb3 | yes | info | | | 0 | 2 | default | default | master 3 | slave | standby | slave | standby | worker | default | default |Belangrijk
Wanneer een knooppunt in de kernel in de problemen raakt, vermijdt u vertragingen met SAP HANA failover door in te stellen op 20 seconden op alle
kernel.panicvirtuele HANA-machines. De configuratie wordt uitgevoerd in/etc/sysctl. Start de virtuele machines opnieuw op om de wijziging te activeren. Als deze wijziging niet wordt uitgevoerd, kan de failover 10 of meer minuten duren wanneer een knooppunt kernelpaniek ondervindt.Doe het volgende om de naamserver af te maken:
a. Controleer voorafgaand aan de test de status van de omgeving door de volgende opdrachten uit te voeren als hn1 adm:
#Landscape status python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py | Host | Host | Host | Failover | Remove | Storage | Storage | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host | Host | Worker | Worker | | | Active | Status | Status | Status | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | | | | | | | Partition | Partition | Group | Group | Role | Role | Role | Role | Roles | Roles | Groups | Groups | | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- | | hanadb1 | yes | ok | | | 1 | 1 | default | default | master 1 | master | worker | master | worker | worker | default | default | | hanadb2 | yes | ok | | | 2 | 2 | default | default | master 2 | slave | worker | slave | worker | worker | default | default | | hanadb3 | yes | ignore | | | 0 | 0 | default | default | master 3 | slave | standby | standby | standby | standby | default | - | # Check the instance status sapcontrol -nr 03 -function GetSystemInstanceList GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREENb. Voer de volgende opdrachten uit als hn1 adm op het actieve hoofd-knooppunt. In dit geval is dat:
hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB killHet stand-by-knooppuntb3 neemt het over als hoofd-knooppunt. Dit is de resourcetoestand nadat de failovertest is voltooid:
# Check the instance status sapcontrol -nr 03 -function GetSystemInstanceList GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY # Check the landscape status python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py | Host | Host | Host | Failover | Remove | Storage | Storage | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host | Host | Worker | Worker | | | Active | Status | Status | Status | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | | | | | | | Partition | Partition | Group | Group | Role | Role | Role | Role | Roles | Roles | Groups | Groups | | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- | | hanadb1 | no | info | | | 1 | 0 | default | default | master 1 | slave | worker | standby | worker | standby | default | - | | hanadb2 | yes | ok | | | 2 | 2 | default | default | master 2 | slave | worker | slave | worker | worker | default | default | | hanadb3 | yes | info | | | 0 | 1 | default | default | master 3 | master | standby | master | standby | worker | default | default |c. Start het HANA-exemplaar opnieuw op basis vanadb1 (dat wil zeggen, op dezelfde virtuele machine, waar de naamserver is omgebracht). Het knooppuntb1 wordt opnieuw aan de omgeving verbonden en de stand-byrol blijft behouden.
hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB startNadat SAP HANA gestart op basisadb1, kunt u de volgende status verwachten:
# Check the instance status sapcontrol -nr 03 -function GetSystemInstanceList GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN # Check the landscape status python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py | Host | Host | Host | Failover | Remove | Storage | Storage | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host | Host | Worker | Worker | | | Active | Status | Status | Status | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | | | | | | | Partition | Partition | Group | Group | Role | Role | Role | Role | Roles | Roles | Groups | Groups | | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- | | hanadb1 | no | info | | | 1 | 0 | default | default | master 1 | slave | worker | standby | worker | standby | default | - | | hanadb2 | yes | ok | | | 2 | 2 | default | default | master 2 | slave | worker | slave | worker | worker | default | default | | hanadb3 | yes | info | | | 0 | 1 | default | default | master 3 | master | standby | master | standby | worker | default | default |d. Gebruik nogmaals de naamserver op het momenteel actieve hoofd-knooppunt (dat wil zeggen, op knooppuntadb3).
hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB killKnooppuntadb1 hervat de rol van hoofd-knooppunt. Nadat de failovertest is voltooid, ziet de status er als volgende uit:
# Check the instance status sapcontrol -nr 03 -function GetSystemInstanceList GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GRAY hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN # Check the landscape status python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py | Host | Host | Host | Failover | Remove | Storage | Storage | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host | Host | Worker | Worker | | | Active | Status | Status | Status | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | | | | | | | Partition | Partition | Group | Group | Role | Role | Role | Role | Roles | Roles | Groups | Groups | | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- | | hanadb1 | yes | ok | | | 1 | 1 | default | default | master 1 | master | worker | master | worker | worker | default | default | | hanadb2 | yes | ok | | | 2 | 2 | default | default | master 2 | slave | worker | slave | worker | worker | default | default | | hanadb3 | no | ignore | | | 0 | 0 | default | default | master 3 | slave | standby | standby | standby | standby | default | - |e. Start SAP HANA opb3, dat klaar is om te fungeren als stand-by-knooppunt.
hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB startNadat SAP HANA gestart op basis vanadb3, ziet de status er als volgt uit:
# Check the instance status sapcontrol -nr 03 -function GetSystemInstanceList & python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus GetSystemInstanceList OK hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN # Check the landscape status python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py | Host | Host | Host | Failover | Remove | Storage | Storage | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host | Host | Worker | Worker | | | Active | Status | Status | Status | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | Config | Actual | | | | | | | Partition | Partition | Group | Group | Role | Role | Role | Role | Roles | Roles | Groups | Groups | | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- | | hanadb1 | yes | ok | | | 1 | 1 | default | default | master 1 | master | worker | master | worker | worker | default | default | | hanadb2 | yes | ok | | | 2 | 2 | default | default | master 2 | slave | worker | slave | worker | worker | default | default | | hanadb3 | no | ignore | | | 0 | 0 | default | default | master 3 | slave | standby | standby | standby | standby | default | - |
Volgende stappen
- Azure Virtual Machines planning en implementatie voor SAP
- Azure Virtual Machines-implementatie voor SAP
- Azure Virtual Machines DBMS-implementatie voor SAP
- NFS v4.1-volumes in Azure NetApp Files voor SAP HANA
- Zie Hoge beschikbaarheid van SAP HANA op Azure Virtual Machines (VM's) voor meer informatie over het tot stand brengen van hoge beschikbaarheid en het plannen van herstel na noodherstel van SAP HANA op Azure-VM's.