Implementeer een SAP HANA scale-out systeem met stand-by-knooppunt op virtuele Azure-Azure NetApp Files op Red Hat Enterprise Linux

In dit artikel wordt beschreven hoe u een SAP HANA-systeem met hoge beschikbaarheid implementeert in een scale-out configuratie met stand-by op virtuele Azure Red Hat Enterprise Linux-machines (VM's), met behulp van Azure NetApp Files voor de gedeelde opslagvolumes.

In de voorbeeldconfiguraties, installatieopdrachten, en meer, is het HANA-exemplaar 03 en is de HANA-systeem-id HN1. De voorbeelden zijn gebaseerd op HANA 2.0 SP4 en Red Hat Enterprise Linux voor SAP 7.6.

Notitie

Dit artikel bevat verwijzingen naar de termen master en slave, termen die Microsoft niet meer gebruikt. Wanneer deze termen uit de software worden verwijderd, worden deze uit dit artikel verwijderd.

Raadpleeg de volgende SAP-opmerkingen en -documenten voordat u begint:

Overzicht

Een manier om hoge beschikbaarheid van HANA te bereiken, is door automatische failover van de host te configureren. Als u automatische failover van de host wilt configureren, voegt u een of meer virtuele machines toe aan het HANA-systeem en configureert u deze als stand-byknooppunten. Wanneer het actieve knooppunt uitvalt, neemt een stand-by-knooppunt het automatisch over. In de gepresenteerde configuratie met virtuele Azure-machines bereikt u automatische failover met behulp van NFS op Azure NetApp Files.

Notitie

Het stand-by-knooppunt moet toegang hebben tot alle databasevolumes. De HANA-volumes moeten worden bevestigd als NFSv4-volumes. Het verbeterde vergrendelingsmechanisme op basis van een bestandslease in het NFSv4-protocol wordt gebruikt voor I/O fencing.

Belangrijk

Als u de ondersteunde configuratie wilt bouwen, moet u de HANA-gegevens en logboekvolumes implementeren als NFSv4.1-volumes en deze met behulp van het NFSv4.1-protocol aan elkaar monteren. De configuratie van de automatische failover van de HANA-host met stand-by-knooppunt wordt niet ondersteund met NFSv3.

Overzicht van SAP NetWeaver Hoge beschikbaarheid

In het voorgaande diagram, dat volgt op SAP HANA netwerkaanbevelingen, worden drie subnetten weergegeven binnen één virtueel Azure-netwerk:

  • Voor clientcommunicatie
  • Voor communicatie met het opslagsysteem
  • Voor interne communicatie tussen knooppunts van HANA

De Azure NetApp-volumes zijn in een afzonderlijk subnet, gedelegeerd aan Azure NetApp Files.

Voor deze voorbeeldconfiguratie zijn de subnetten:

  • client 10.9.1.0/26
  • storage 10.9.3.0/26
  • hana 10.9.2.0/26
  • anf 10.9.0.0/26 (gedelegeerd subnet naar Azure NetApp Files)

De infrastructuur voor Azure NetApp Files instellen

Voordat u verdergaat met de installatie van Azure NetApp Files infrastructuur, moet u zich vertrouwd maken met de Azure NetApp Files documentatie.

Azure NetApp Files is beschikbaar in verschillende Azure-regio's. Controleer of uw geselecteerde Azure-regio een Azure NetApp Files.

Zie Beschikbaarheid per Azure Azure NetApp Files regio voor meer informatie over de beschikbaarheid Azure NetApp Files azure-regio.

Uw Azure NetApp Files implementeren

In de volgende instructies wordt ervan uit gegaan dat u uw virtuele Azure-netwerk al hebt geïmplementeerd. De Azure NetApp Files resources en VM's, waar de Azure NetApp Files-resources worden aangesloten, moeten worden geïmplementeerd in hetzelfde virtuele Azure-netwerk of in virtuele Azure-peernetwerken.

  1. Maak een NetApp-account in de geselecteerde Azure-regio door de instructies in Een NetApp-account maken te volgen.

  2. Stel een Azure NetApp Files-capaciteitspool in door de instructies in Set up an Azure NetApp Files capacity pool (Een Azure NetApp Files-capaciteitspool instellen).

    De HANA-architectuur die in dit artikel wordt gepresenteerd, maakt gebruik van één Azure NetApp Files capaciteitspool op Ultra Service-niveau. Voor HANA-workloads in Azure raden we u aan een Azure NetApp Files Ultra- of Premium serviceniveau te gebruiken.

  3. Delegeer een subnet aan Azure NetApp Files, zoals beschreven in de instructies in Een subnet delegeren aan Azure NetApp Files.

  4. Implementeer Azure NetApp Files volumes door de instructies te volgen in Een NFS-volume voor Azure NetApp Files.

    Wanneer u de volumes implementeert, moet u de versie NFSv4.1 selecteren. Implementeer de volumes in het Azure NetApp Files subnet. De IP-adressen van de Azure NetApp-volumes worden automatisch toegewezen.

    Houd er rekening mee dat de Azure NetApp Files en de Azure-VM's zich in hetzelfde virtuele Azure-netwerk of in peered virtuele Azure-netwerken moeten zijn. Bijvoorbeeld, HN1-data-mnt00001, HN1-log-mnt00001, en meer, zijn de volumenamen en nfs://10.9.0.4/HN1-data-mnt00001, nfs://10.9.0.4/HN1-log-mnt00001, en verder, zijn de bestandspaden voor de Azure NetApp Files volumes.

    • volume HN1-data-mnt00001 (nfs://10.9.0.4/HN1-data-mnt00001)
    • volume HN1-data-mnt00002 (nfs://10.9.0.4/HN1-data-mnt00002)
    • volume HN1-log-mnt00001 (nfs://10.9.0.4/HN1-log-mnt00001)
    • volume HN1-log-mnt00002 (nfs://10.9.0.4/HN1-log-mnt00002)
    • volume HN1-shared (nfs://10.9.0.4/HN1-shared)

    In dit voorbeeld hebben we een afzonderlijk volume Azure NetApp Files gebruikt voor elk HANA-gegevens- en logboekvolume. Voor een meer kosten-geoptimaliseerde configuratie op kleinere of niet-productieve systemen is het mogelijk om alle gegevens mounts op één volume en alle logboeken op een ander volume te plaatsen.

Belangrijke overwegingen

Wanneer u uw Azure NetApp Files voor SAP HANA scenario voor uitschalen met stand-by-knooppunten, moet u rekening houden met de volgende belangrijke overwegingen:

  • De minimale capaciteitspool is 4 tebibyte (TiB).
  • De minimale volumegrootte is 100 gibibyte (GiB).
  • Azure NetApp Files en alle virtuele machines waarop de Azure NetApp Files-volumes worden aangesloten, moeten zich in hetzelfde virtuele Azure-netwerk of in virtuele peernetwerken in dezelfde regio.
  • Het geselecteerde virtuele netwerk moet een subnet hebben dat wordt gedelegeerd aan Azure NetApp Files.
  • De doorvoer van een Azure NetApp Files volume is een functie van het volumequotum en serviceniveau, zoals beschreven in Serviceniveau voor Azure NetApp Files. Wanneer u de HANA Azure NetApp-volumes wilt indelen, moet u ervoor zorgen dat de resulterende doorvoer voldoet aan de HANA-systeemvereisten.
  • Met het Azure NetApp Files exportbeleidkunt u de toegestane clients, het toegangstype (lezen-schrijven, alleen-lezen, etc.) bepalen.
  • De Azure NetApp Files functie is nog niet zonebewust. Op dit moment is de functie niet geïmplementeerd in alle beschikbaarheidszones in een Azure-regio. Let op de mogelijke gevolgen voor latentie in sommige Azure-regio's.

Belangrijk

Voor SAP HANA workloads is lage latentie essentieel. Werk samen met uw Microsoft-vertegenwoordiger om ervoor te zorgen dat de virtuele machines en Azure NetApp Files volumes dicht bij elkaar worden geïmplementeerd.

De HANA-database op een Azure NetApp Files

De doorvoer van een Azure NetApp Files volume is een functie van de volumegrootte en het serviceniveau, zoals beschreven in Serviceniveau voor Azure NetApp Files.

Wanneer u de infrastructuur voor SAP in Azure ontwerpt, moet u rekening houden met enkele minimale opslagvereisten van SAP. Deze worden omgezet in minimale doorvoerkenmerken:

  • Lezen/schrijven in /hana/log van 250 MB/s (MB/s) met I/O-grootten van 1 MB.
  • Leesactiviteit van ten minste 400 MB/s voor /hana/data voor I/O-grootten van 16 MB en 64 MB.
  • Schrijfactiviteit van ten minste 250 MB/s voor /hana/gegevens met een I/O-grootte van 16 MB en 64 MB.

De Azure NetApp Files doorvoerlimieten per 1 TiB volumequotum zijn:

  • Premium Storage-laag - 64 MiB/s
  • Ultra Storage-laag - 128 MiB/s

Om te voldoen aan de minimale sap-doorvoervereisten voor gegevens en logboeken en de richtlijnen voor /hana/shared, zijn de aanbevolen grootten:

Volume Grootte van
Premium Storage-laag
Grootte van
Ultra Storage laag
Ondersteund NFS-protocol
/hana/log/ 4 TiB 2 TiB v4.1
/hana/data 6,3 TiB 3,2 TiB v4.1
/hana/shared 1xRAM per 4 werkknooppunten 1xRAM per 4 werkknooppunten v3 of v4.1

De SAP HANA voor de indeling die in dit artikel wordt weergegeven, met behulp van Azure NetApp Files Ultra Storage-laag, zou als volgende zijn:

Volume Grootte van
Ultra Storage laag
Ondersteund NFS-protocol
/hana/log/mnt00001 2 TiB v4.1
/hana/log/mnt00002 2 TiB v4.1
/hana/data/mnt00001 3,2 TiB v4.1
/hana/data/mnt00002 3,2 TiB v4.1
/hana/shared 2 TiB v3 of v4.1

Notitie

De Azure NetApp Files die hier worden vermeld, zijn bedoeld om te voldoen aan de minimale vereisten die SAP aanbeveelt voor hun infrastructuurproviders. In echte klantimplementaties en workloadscenario's zijn deze grootten mogelijk niet voldoende. Gebruik deze aanbevelingen als uitgangspunt en pas deze aan op basis van de vereisten van uw specifieke workload.

Tip

U kunt het Azure NetApp Files volumes dynamisch veranderen, zonder dat u de volumes moet ontkoppelen, de virtuele machines moet stoppen of SAP HANA. Deze aanpak biedt flexibiliteit om te voldoen aan zowel de verwachte als onvoorziene doorvoervraag van uw toepassing.

Virtuele Linux-machines implementeren via de Azure Portal

Eerst moet u de Azure NetApp Files maken. Ga vervolgens als volgt te werk:

  1. Maak de subnetten van het virtuele Azure-netwerk in uw virtuele Azure-netwerk.

  2. Implementeer de VM's.

  3. Maak de extra netwerkinterfaces en koppel de netwerkinterfaces aan de bijbehorende VM's.

    Elke virtuele machine heeft drie netwerkinterfaces die overeenkomen met de drie subnetten van het virtuele Azure-netwerk ( client en storage hana ).

    Zie Een virtuele Linux-machine maken in Azure met meerdere netwerkinterfacekaartenvoor meer informatie.

Belangrijk

Voor SAP HANA workloads is lage latentie essentieel. Werk samen met uw Microsoft-vertegenwoordiger om ervoor te zorgen dat de virtuele machines en de Azure NetApp Files volumes dicht bij elkaar worden geïmplementeerd om een lage latentie te bereiken. Wanneer u onboarding van een nieuw SAP HANA dat gebruik maakt van SAP HANA Azure NetApp Files, dient u de benodigde gegevens in.

In de volgende instructies wordt ervan uit gegaan dat u de resourcegroep, het virtuele Azure-netwerk en de drie subnetten van het virtuele Azure-netwerk al client hebt gemaakt: , storage en hana . Wanneer u de VM's implementeert, selecteert u het clientsubnet, zodat de clientnetwerkinterface de primaire interface op de VM's is. U moet ook een expliciete route naar het Azure NetApp Files gedelegeerd subnet configureren via de opslagsubnetgateway.

Belangrijk

Zorg ervoor dat het besturingssysteem dat u selecteert SAP-gecertificeerd is SAP HANA de specifieke VM-typen die u gebruikt. Ga voor een lijst SAP HANA gecertificeerde VM-typen en besturingssysteemreleases voor deze typen naar de site SAP HANA gecertificeerde IaaS-platformen. Klik op de details van het vermelde VM-type om de volledige lijst met door SAP HANA ondersteunde besturingssysteemreleases voor dat type op te halen.

  1. Maak een beschikbaarheidsset voor SAP HANA. Zorg ervoor dat u het maximale updatedomein in stelt.

  2. Gebruik de volgende stappen om drie virtuele machines te maken (;adb1, handtekeningadb2, handtekeningadb3):

    a. Gebruik een Red Hat Enterprise Linux in de Azure-galerie die wordt ondersteund voor SAP HANA. In dit voorbeeld hebben we een RHEL-SAP-HA 7.6-afbeelding gebruikt.

    b. Selecteer de beschikbaarheidsset die u eerder hebt gemaakt voor SAP HANA.

    c. Selecteer het subnet van het virtuele Azure-netwerk van de client. Selecteer Versneld netwerk.

    Wanneer u de virtuele machines implementeert, wordt de naam van de netwerkinterface automatisch gegenereerd. In deze instructies voor het gemak verwijzen we naar de automatisch gegenereerde netwerkinterfaces, die zijn gekoppeld aan het subnet van het virtuele Azure-clientnetwerk, zoals :adb1-client, kunt uadb2-client en handtekeningadb3-client gebruiken.

  3. Maak drie netwerkinterfaces, één voor elke virtuele machine, voor het subnet van het virtuele netwerk (in dit voorbeeld storage zijn dat: moetadb1-storage, nuadb2-storage enbouwadb3-storage).

  4. Maak drie netwerkinterfaces, één voor elke virtuele machine, voor het subnet van het virtuele netwerk (in dit voorbeeld hana zijn dat: moetadb1-hana, wanneeradb2-hana en handtekeningadb3-hana).

  5. Koppel de zojuist gemaakte virtuele netwerkinterfaces aan de bijbehorende virtuele machines door de volgende stappen uit te voeren:

    a. Ga naar de virtuele machine in de Azure Portal.

    b. Selecteer in het linkerdeelvenster Virtual Machines. Filter op de naam van de virtuele machine (bijvoorbeeld : nuadb1) en selecteer vervolgens de virtuele machine.

    c. Selecteer in het deelvenster Overzicht de optie Stoppen om de toewijzing van de virtuele machine op te geven.

    d. Selecteer Netwerken en koppel vervolgens de netwerkinterface. Selecteer in de vervolgkeuzelijst Netwerkinterface koppelen de al gemaakte netwerkinterfaces voor de storage subnetten en hana .

    e. Selecteer Opslaan.

    f. Herhaal de stappen b tot en met e voor de resterende virtuele machines (in ons voorbeeld zijn dat nu : nu zijn dat: nu is dat : nu zijn dat nog steeds de virtuele machines).

    g. Laat de virtuele machines nu in de status Gestopt staan. Vervolgens gaan we versneld netwerken inschakelen voor alle nieuw gekoppelde netwerkinterfaces.

  6. Schakel versneld netwerken in voor de extra netwerkinterfaces voor de subnetten en door storage de volgende stappen uit te hana voeren:

    a. Open Azure Cloud Shell in Azure Portal.

    b. Voer de volgende opdrachten uit om versneld netwerken in te stellen voor de extra netwerkinterfaces die zijn gekoppeld aan de storage subnetten en hana .

    
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-storage --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-storage --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-storage --accelerated-networking true
    
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-hana --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-hana --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-hana --accelerated-networking true
    
     
  7. Start de virtuele machines door de volgende stappen uit te voeren:

    a. Selecteer in het linkerdeelvenster Virtual Machines. Filter op de naam van de virtuele machine (bijvoorbeeld ;adb1) en selecteer deze.

    b. Selecteer start in het deelvenster Overzicht.

Configuratie en voorbereiding van besturingssysteem

De instructies in de volgende secties hebben een van de volgende voorvoegsels:

  • [A]: Van toepassing op alle knooppunten
  • [1]: Alleen van toepassing op knooppunt 1
  • [2]: Alleen van toepassing op knooppunt 2
  • [3]: Alleen van toepassing op knooppunt 3

Configureer en bereid uw besturingssysteem voor door de volgende stappen uit te voeren:

  1. [A] Onderhoud de hostbestanden op de virtuele machines. Vermeldingen voor alle subnetten opnemen. De volgende vermeldingen zijn toegevoegd aan /etc/hosts voor dit voorbeeld.

    
     # Storage
     10.9.3.4   hanadb1-storage
     10.9.3.5   hanadb2-storage
     10.9.3.6   hanadb3-storage
     # Client
     10.9.1.5   hanadb1
     10.9.1.6   hanadb2
     10.9.1.7   hanadb3
     # Hana
     10.9.2.4   hanadb1-hana
     10.9.2.5   hanadb2-hana
     10.9.2.6   hanadb3-hana
     
  2. [A] Voeg een netwerkroute toe, zodat de communicatie met de Azure NetApp Files verloopt via de interface van het opslagnetwerk.

    In dit voorbeeld wordt gebruikt om Networkmanager de extra netwerkroute te configureren. In de volgende instructies wordt ervan uit gegaan dat de opslagnetwerkinterface eth1 is.
    Bepaal eerst de verbindingsnaam voor het apparaat eth1 . In dit voorbeeld is de naam van de verbinding voor eth1 het apparaat Wired connection 1 .

    
     # Execute as root
     nmcli connection
     # Result
     #NAME                UUID                                  TYPE      DEVICE
     #System eth0         5fb06bd0-0bb0-7ffb-45f1-d6edd65f3e03  ethernet  eth0
     #Wired connection 1  4b0789d1-6146-32eb-83a1-94d61f8d60a7  ethernet  eth1
     

    Configureer vervolgens een aanvullende route naar Azure NetApp Files gedelegeerd netwerk via eth1 .

    
     # Add the following route 
     # ANFDelegatedSubnet/cidr via StorageSubnetGW dev StorageNetworkInterfaceDevice
     nmcli connection modify "Wired connection 1" +ipv4.routes "10.9.0.0/26 10.9.3.1"
     

    Start de VM opnieuw op om de wijzigingen te activeren.

  3. [A] Installeer het NFS-clientpakket.

    
     yum install nfs-utils
     
  4. [A] Bereid het besturingssysteem voor op het uitvoeren van SAP HANA in Azure NetApp met NFS, zoals beschreven in NetApp SAP Applications on Microsoft Azure using Azure NetApp Files. Maak het configuratiebestand /etc/sysctl.d/netapp-hana.conf voor de NetApp-configuratie-instellingen.

    
     vi /etc/sysctl.d/netapp-hana.conf
     # Add the following entries in the configuration file
     net.core.rmem_max = 16777216
     net.core.wmem_max = 16777216
     net.core.rmem_default = 16777216
     net.core.wmem_default = 16777216
     net.core.optmem_max = 16777216
     net.ipv4.tcp_rmem = 65536 16777216 16777216
     net.ipv4.tcp_wmem = 65536 16777216 16777216
     net.core.netdev_max_backlog = 300000 
     net.ipv4.tcp_slow_start_after_idle=0 
     net.ipv4.tcp_no_metrics_save = 1
     net.ipv4.tcp_moderate_rcvbuf = 1
     net.ipv4.tcp_window_scaling = 1
     net.ipv4.tcp_timestamps = 1
     net.ipv4.tcp_sack = 1
     
  5. [A] Maak het configuratiebestand /etc/sysctl.d/ms-az.conf met aanvullende optimalisatie-instellingen.

    
     vi /etc/sysctl.d/ms-az.conf
     # Add the following entries in the configuration file
     net.ipv6.conf.all.disable_ipv6 = 1
     net.ipv4.tcp_max_syn_backlog = 16348
     net.ipv4.conf.all.rp_filter = 0
     sunrpc.tcp_slot_table_entries = 128
     vm.swappiness=10
     

Tip

Voorkom dat net.ipv4.ip_local_port_range en net.ipv4.ip_local_reserved_ports expliciet in de sysctl-configuratiebestanden worden opgeslagen zodat sap-hostagent de poortbereiken kan beheren. Zie SAP-opmerking voor meer informatie 2382421.

  1. [A] Pas de sunrpc-instellingen aan, zoals aanbevolen in NetApp SAP Applications on Microsoft Azure using Azure NetApp Files.

    
     vi /etc/modprobe.d/sunrpc.conf
     # Insert the following line
     options sunrpc tcp_max_slot_table_entries=128
     
  2. [A] Red Hat voor HANA-configuratie.

    Configureer RHEL zoals beschreven in SAP Note 2292690, 2455582, 2593824 en https://access.redhat.com/solutions/2447641 .

    Notitie

    Als u HANA 2.0 SP04 installeert, moet u het pakket installeren zoals beschreven in SAP-notitie 2593824 , voordat u het compat-sap-c++-7 SAP HANA. []

De Azure NetApp Files volumes

  1. [A] Maak bevestigingspunten voor de HANA-databasevolumes.

    
     mkdir -p /hana/data/HN1/mnt00001
     mkdir -p /hana/data/HN1/mnt00002
     mkdir -p /hana/log/HN1/mnt00001
     mkdir -p /hana/log/HN1/mnt00002
     mkdir -p /hana/shared
     mkdir -p /usr/sap/HN1
     
  2. [1] Knooppunt-specifieke directories maken voor /usr/sap op HN1-gedeeld.

    
     # Create a temporary directory to mount HN1-shared
     mkdir /mnt/tmp
     # if using NFSv3 for this volume, mount with the following command
     mount 10.9.0.4:/HN1-shared /mnt/tmp
     # if using NFSv4.1 for this volume, mount with the following command
     mount -t nfs -o sec=sys,vers=4.1 10.9.0.4:/HN1-shared /mnt/tmp
     cd /mnt/tmp
     mkdir shared usr-sap-hanadb1 usr-sap-hanadb2 usr-sap-hanadb3
     # unmount /hana/shared
     cd
     umount /mnt/tmp
     
  3. [A] Controleer de NFS-domeininstelling. Zorg ervoor dat het domein is geconfigureerd als het standaarddomein Azure NetApp Files, dat wil zeggen en dat de toewijzing defaultv4iddomain.com is ingesteld op niemand.

    Belangrijk

    Zorg ervoor dat u het NFS-domein in op de VM in stelt om te overeenkomen met de /etc/idmapd.conf standaarddomeinconfiguratie op Azure NetApp Files: defaultv4iddomain.com . Als er een verschil is tussen de domeinconfiguratie op de NFS-client (dat wil zeggen de VM) en de NFS-server, dat wil zeggen de Azure NetApp-configuratie, worden de machtigingen voor bestanden op Azure NetApp-volumes die zijn bevestigd op de VM's weergegeven als nobody .

    
     sudo cat /etc/idmapd.conf
     # Example
     [General]
     Domain = defaultv4iddomain.com
     [Mapping]
     Nobody-User = nobody
     Nobody-Group = nobody
     
  4. [A] Controleer nfs4_disable_idmapping . Deze moet worden ingesteld op Y. Als u de mapstructuur wilt maken waar nfs4_disable_idmapping zich bevindt, voert u de mount-opdracht uit. U kunt de map niet handmatig maken onder /sys/modules, omdat toegang is gereserveerd voor de kernel/stuurprogramma's.

    
     # Check nfs4_disable_idmapping 
     cat /sys/module/nfs/parameters/nfs4_disable_idmapping
     # If you need to set nfs4_disable_idmapping to Y
     mkdir /mnt/tmp
     mount 10.9.0.4:/HN1-shared /mnt/tmp
     umount  /mnt/tmp
     echo "Y" > /sys/module/nfs/parameters/nfs4_disable_idmapping
     # Make the configuration permanent
     echo "options nfs nfs4_disable_idmapping=Y" >> /etc/modprobe.d/nfs.conf
     

    Zie voor meer informatie over het wijzigen nfs4_disable_idmapping van de parameter https://access.redhat.com/solutions/1749883 .

  5. [A] De gedeelde Azure NetApp Files volumes.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.9.0.4:/HN1-data-mnt00001 /hana/data/HN1/mnt00001  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.9.0.4:/HN1-data-mnt00002 /hana/data/HN1/mnt00002  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.9.0.4:/HN1-log-mnt00001 /hana/log/HN1/mnt00001  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.9.0.4:/HN1-log-mnt00002 /hana/log/HN1/mnt00002  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.9.0.4:/HN1-shared/shared /hana/shared  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount all volumes
     sudo mount -a 
     
  6. [1] Bevestig de knooppuntspecifieke volumes op ;adb1.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.9.0.4:/HN1-shared/usr-sap-hanadb1 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  7. [2] Bevestig de knooppuntspecifieke volumes op ;adb2.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.9.0.4:/HN1-shared/usr-sap-hanadb2 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  8. [3] De knooppuntspecifieke volumes aan de hand van een knooppunt aan de hand van de drie knooppuntvolumes.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.9.0.4:/HN1-shared/usr-sap-hanadb3 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  9. [A] Controleer of alle HANA-volumes zijn bevestigd met NFS-protocolversie NFSv4.

    
    sudo nfsstat -m
    # Verify that flag vers is set to 4.1 
    # Example from hanadb1
    /hana/data/HN1/mnt00001 from 10.9.0.4:/HN1-data-mnt00001
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /hana/log/HN1/mnt00002 from 10.9.0.4:/HN1-log-mnt00002
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /hana/data/HN1/mnt00002 from 10.9.0.4:/HN1-data-mnt00002
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /hana/log/HN1/mnt00001 from 10.9.0.4:/HN1-log-mnt00001
    Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /usr/sap/HN1 from 10.9.0.4:/HN1-shared/usr-sap-hanadb1
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /hana/shared from 10.9.0.4:/HN1-shared/shared
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    

Installatie

In dit voorbeeld voor het implementeren SAP HANA in scale-out configuratie met stand-by-knooppunt met Azure, hebben we HANA 2.0 SP4 gebruikt.

Voorbereiden op HANA-installatie

  1. [A] Vóór de HANA-installatie stelt u het hoofdwachtwoord in. U kunt het hoofdwachtwoord uitschakelen nadat de installatie is voltooid. Voer uit als root opdracht passwd .

  2. [1] Controleer of u zich via SSH kunt aanmelden bijb2 enadb3, zonder dat u om een wachtwoord wordt gevraagd.

    
     ssh root@hanadb2
     ssh root@hanadb3
     
  3. [A] Installeer aanvullende pakketten die vereist zijn voor HANA 2.0 SP4. Zie SAP Note 2593824 voor meer informatie.

    
     yum install libgcc_s1 libstdc++6 compat-sap-c++-7 libatomic1 
     
  4. [2], [3] Wijzig het eigendom van SAP HANA data log en de directories in hn1 adm.

    
     # Execute as root
     sudo chown hn1adm:sapsys /hana/data/HN1
     sudo chown hn1adm:sapsys /hana/log/HN1
     
  5. [A] Schakel de firewall tijdelijk uit, zodat deze geen invloed heeft op de HANA-installatie. U kunt deze opnieuw inschakelen nadat de HANA-installatie is uitgevoerd.

    
     # Execute as root
     systemctl stop firewalld
     systemctl disable firewalld
    

HANA-installatie

  1. [1] Installeer SAP HANA door de instructies te volgen in SAP HANA 2.0 Installation and Update guide (Installatie- en updatehandleiding voor SAP HANA 2.0). In dit voorbeeld installeren we SAP HANA uitschalen met hoofd, één werkster en één stand-by-knooppunt.

    a. Start het hdblcm-programma vanuit de HANA-installatiesoftwaremap. Gebruik de internal_network parameter en geef de adresruimte door voor het subnet, dat wordt gebruikt voor de interne communicatie tussen knooppunts van HANA.

    
     ./hdblcm --internal_network=10.9.2.0/26
     

    b. Voer bij de prompt de volgende waarden in:

    • Voor Kies een actie: voer 1 in (voor installatie)
    • Voor Aanvullende onderdelen voor installatie: voer 2, 3 in
    • Voor het installatiepad: druk op Enter (standaard ingesteld op /hana/shared)
    • Voor Lokale hostnaam: druk op Enter om de standaardinstelling te accepteren
    • Onder Wilt u hosts toevoegen aan het systeem?: voer y in
    • Als u door komma's gescheiden hostnamen wilt toevoegen, voegt u toe: voer bijenadb2, handtekeningadb3 in
    • Voor Root User Name [root]: druk op Enter om de standaardinstelling te accepteren
    • Voor rollen voor hostadb2: voer 1 in (voor werkrol)
    • Voor Host-failovergroep voor hostadb2 [standaard]: druk op Enter om de standaardinstelling te accepteren
    • Voor Storage partitienummer voor hostadb2 [ ]: druk <<assign automatically> > op Enter om de standaardwaarde te accepteren
    • Voor Werkgroep voor hostadb2 [standaard]: druk op Enter om de standaardwaarde te accepteren
    • Voor Rollen selecteren voor hostadb3: voer 2 in (voor stand-by)
    • Voor Host-failovergroep voor hostadb3 [standaard]: druk op Enter om de standaardinstelling te accepteren
    • Voor Werkgroep voor hostadb3 [standaard]: druk op Enter om de standaardinstelling te accepteren
    • Voor SAP HANA-systeem-id: voer HN1 in
    • Bij Exemplaarnummer [00]: voer 03 in
    • Voor Lokale hostwerkergroep [standaard]: druk op Enter om de standaardinstelling te accepteren
    • Voor Select System Usage /Enter index [4]: voer 4 in (voor aangepast)
    • Voor locatie van gegevensvolumes [/hana/data/HN1]: druk op Enter om de standaardwaarde te accepteren
    • Voor locatie van logboekvolumes [/hana/log/HN1]: druk op Enter om de standaardwaarde te accepteren
    • Voor Maximale geheugentoewijzing beperken [n]: voer n in
    • Voor Hostnaam van certificaat voor hostadb1 [handtekeningadb1]: druk op Enter om de standaardwaarde te accepteren
    • Voor Hostnaam van certificaat voor Hostadb2 [handtekeningadb2]: druk op Enter om de standaardwaarde te accepteren
    • Voor Hostnaam van certificaat voor hostadb3 [handtekeningadb3]: druk op Enter om de standaardwaarde te accepteren
    • Voor het wachtwoord van de systeembeheerder (hn1adm): voer het wachtwoord in
    • Voor Het wachtwoord van de systeemdatabasegebruiker (systeem): voer het wachtwoord van het systeem in
    • Voor Systeemdatabasegebruikerswachtwoord (systeem) bevestigen: voer het wachtwoord van het systeem in
    • Voor het opnieuw opstarten van het systeem na het opnieuw opstarten van de machine? [n]: voer n in
    • Voor Wilt u doorgaan (y/n): valideer de samenvatting en als alles er goed uitziet, voert u y in
  2. [1] Controleer global.ini

    Geef global.ini weer en zorg ervoor dat de configuratie voor de interne SAP HANA communicatie tussen knooppunt is. Controleer de communicatiesectie. Deze moet de adresruimte voor het hana subnet hebben en listeninterface moet worden ingesteld op .internal . Controleer de internal_hostname_resolution sectie. Deze moet de IP-adressen hebben voor de virtuele HANA-machines die deel uitmaken van het hana subnet.

    
     sudo cat /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini
     # Example 
     #global.ini last modified 2019-09-10 00:12:45.192808 by hdbnameserve
     [communication]
     internal_network = 10.9.2.0/26
     listeninterface = .internal
     [internal_hostname_resolution]
     10.9.2.4 = hanadb1
     10.9.2.5 = hanadb2
     10.9.2.6 = hanadb3
    
  3. [1] Voeg hosttoewijzing toe om ervoor te zorgen dat de IP-adressen van de client worden gebruikt voor clientcommunicatie. Voeg sectie public_host_resolution toe en voeg de bijbehorende IP-adressen van het clientsubnet toe.

    
     sudo vi /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini
     #Add the section
     [public_hostname_resolution]
     map_hanadb1 = 10.9.1.5
     map_hanadb2 = 10.9.1.6
     map_hanadb3 = 10.9.1.7
    
  4. [1] Start de SAP HANA om de wijzigingen te activeren.

    
     sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StopSystem HDB
     sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StartSystem HDB
    
  5. [1] Controleer of de clientinterface de IP-adressen van het subnet gebruikt client voor communicatie.

    
     # Execute as hn1adm
     /usr/sap/HN1/HDB03/exe/hdbsql -u SYSTEM -p "password" -i 03 -d SYSTEMDB 'select * from SYS.M_HOST_INFORMATION'|grep net_publicname
     # Expected result
     "hanadb3","net_publicname","10.9.1.7"
     "hanadb2","net_publicname","10.9.1.6"
     "hanadb1","net_publicname","10.9.1.5"
    

    Zie SAP Note 2183363 - Configuration of SAP HANA internal network voor meer informatie over het controleren van de configuratie.

  6. [A] Schakel de firewall opnieuw in.

    • HANA stoppen

      
         sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StopSystem HDB
        
    • De firewall opnieuw inschakelen

      
         # Execute as root
         systemctl start firewalld
         systemctl enable firewalld
        
    • Open de benodigde firewallpoorten

      Belangrijk

      Maak firewallregels om communicatie tussen HANA-knooppunt en clientverkeer toe te staan. De vereiste poorten worden vermeld op TCP/IP-poorten van alle SAP-producten. De volgende opdrachten zijn slechts een voorbeeld. In dit scenario met het gebruikte systeemnummer 03.

      
         # Execute as root
         sudo firewall-cmd --zone=public --add-port=30301/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30301/tcp
         sudo firewall-cmd --zone=public --add-port=30303/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30303/tcp
         sudo firewall-cmd --zone=public --add-port=30306/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30306/tcp
         sudo firewall-cmd --zone=public --add-port=30307/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30307/tcp
         sudo firewall-cmd --zone=public --add-port=30313/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30313/tcp
         sudo firewall-cmd --zone=public --add-port=30315/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30315/tcp
         sudo firewall-cmd --zone=public --add-port=30317/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30317/tcp
         sudo firewall-cmd --zone=public --add-port=30340/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30340/tcp
         sudo firewall-cmd --zone=public --add-port=30341/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30341/tcp
         sudo firewall-cmd --zone=public --add-port=30342/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30342/tcp
         sudo firewall-cmd --zone=public --add-port=1128/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=1128/tcp
         sudo firewall-cmd --zone=public --add-port=1129/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=1129/tcp
         sudo firewall-cmd --zone=public --add-port=40302/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40302/tcp
         sudo firewall-cmd --zone=public --add-port=40301/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40301/tcp
         sudo firewall-cmd --zone=public --add-port=40307/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40307/tcp
         sudo firewall-cmd --zone=public --add-port=40303/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40303/tcp
         sudo firewall-cmd --zone=public --add-port=40340/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40340/tcp
         sudo firewall-cmd --zone=public --add-port=50313/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=50313/tcp
         sudo firewall-cmd --zone=public --add-port=50314/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=50314/tcp
         sudo firewall-cmd --zone=public --add-port=30310/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30310/tcp
         sudo firewall-cmd --zone=public --add-port=30302/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30302/tcp
        
    • HANA starten

      
         sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StartSystem HDB
        
  7. Als u de SAP HANA voor de onderliggende Azure NetApp Files opslag wilt optimaliseren, stelt u de volgende SAP HANA parameters in:

    • max_parallel_io_requests128
    • async_read_submitaan
    • async_write_submit_activeaan
    • async_write_submit_blocksalle

    Zie NetApp SAP Applications on Microsoft Azure using Azure NetApp Files (NetApp SAP-toepassingenop een Azure NetApp Files) voor meer Azure NetApp Files.

    Vanaf SAP HANA 2.0-systemen kunt u de parameters instellen in global.ini . Zie SAP Note 1999930 voor meer informatie.

    Voor SAP HANA 1.0-systeemversies SPS12 en eerder kunnen deze parameters worden ingesteld tijdens de installatie, zoals beschreven in SAP Note 2267798.

  8. De opslag die wordt gebruikt door Azure NetApp Files heeft een bestandsgroottelimiet van 16 terabyte (TB). SAP HANA niet impliciet op de hoogte is van de opslagbeperking en er wordt niet automatisch een nieuw gegevensbestand gemaakt wanneer de bestandsgroottelimiet van 16 TB is bereikt. Wanneer SAP HANA bestand probeert uit te groeien tot meer dan 16 TB, leidt deze poging tot fouten en uiteindelijk een crash van een indexserver.

    Belangrijk

    Om te voorkomen SAP HANA gegevensbestanden groter te maken dan de limiet van 16 TB van het opslagsubsysteem, stelt u de volgende parameters in in global.ini .

Failover SAP HANA testen

  1. Simuleer een knooppuntcrash op een SAP HANA worker-knooppunt. Ga als volgt te werk:

    a. Voordat u het vastgelopen knooppunt simuleert, voert u de volgende opdrachten uit als hn1 adm om de status van de omgeving vast te leggen:

    
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | yes    | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
    

    b. Als u een crash van een knooppunt wilt simuleren, moet u de volgende opdracht uitvoeren als root op het worker-knooppunt. In dit geval is dat :

    
     echo b > /proc/sysrq-trigger
    

    c. Controleer het systeem op failover-voltooiing. Wanneer de failover is voltooid, legt u de status vast. Deze ziet er als volgt uit:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | no     | info   |          |        |         2 |         0 | default  | default  | master 2   | slave      | worker      | standby     | worker  | standby | default | -       |
     | hanadb3 | yes    | info   |          |        |         0 |         2 | default  | default  | master 3   | slave      | standby     | slave       | standby | worker  | default | default |
    

    Belangrijk

    Wanneer een knooppunt in de kernel in de problemen raakt, vermijdt u vertragingen met SAP HANA failover door in te stellen op 20 seconden op alle kernel.panic virtuele HANA-machines. De configuratie wordt uitgevoerd in /etc/sysctl . Start de virtuele machines opnieuw op om de wijziging te activeren. Als deze wijziging niet wordt uitgevoerd, kan de failover 10 of meer minuten duren wanneer een knooppunt kernelpaniek ondervindt.

  2. Doe het volgende om de naamserver af te maken:

    a. Controleer voorafgaand aan de test de status van de omgeving door de volgende opdrachten uit te voeren als hn1 adm:

    
     #Landscape status 
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | yes    | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
    

    b. Voer de volgende opdrachten uit als hn1 adm op het actieve hoofd-knooppunt. In dit geval is dat:

    
         hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB kill
     

    Het stand-by-knooppuntb3 neemt het over als hoofd-knooppunt. Dit is de resourcetoestand nadat de failovertest is voltooid:

    
      # Check the instance status
      sapcontrol -nr 03  -function GetSystemInstanceList
      GetSystemInstanceList
      OK
      hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
      hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
      hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY
      # Check the landscape status
      python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
      | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
      |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
      |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
      | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
      | hanadb1 | no     | info   |          |        |         1 |         0 | default  | default  | master 1   | slave      | worker      | standby     | worker  | standby | default | -       |
      | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
      | hanadb3 | yes    | info   |          |        |         0 |         1 | default  | default  | master 3   | master     | standby     | master      | standby | worker  | default | default |
     

    c. Start het HANA-exemplaar opnieuw op basis vanadb1 (dat wil zeggen, op dezelfde virtuele machine, waar de naamserver is omgebracht). Het knooppuntb1 wordt opnieuw aan de omgeving verbonden en de stand-byrol blijft behouden.

    
     hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB start
    

    Nadat SAP HANA gestart op basisadb1, kunt u de volgende status verwachten:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | no     | info   |          |        |         1 |         0 | default  | default  | master 1   | slave      | worker      | standby     | worker  | standby | default | -       |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | yes    | info   |          |        |         0 |         1 | default  | default  | master 3   | master     | standby     | master      | standby | worker  | default | default |
    

    d. Gebruik nogmaals de naamserver op het momenteel actieve hoofd-knooppunt (dat wil zeggen, op knooppuntadb3).

    
     hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB kill
    

    Knooppuntadb1 hervat de rol van hoofd-knooppunt. Nadat de failovertest is voltooid, ziet de status er als volgende uit:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GRAY
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
    

    e. Start SAP HANA opb3, dat klaar is om te fungeren als stand-by-knooppunt.

    
     hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB start
    

    Nadat SAP HANA gestart op basis vanadb3, ziet de status er als volgt uit:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList & python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
    

Volgende stappen