Implementeer een SAP HANA scale-out systeem met stand-by-knooppunt op Virtuele Azure-Azure NetApp Files op SUSE Linux Enterprise Server

In dit artikel wordt beschreven hoe u een SAP HANA-systeem met hoge beschikbaarheid implementeert in een scale-out configuratie met stand-by op virtuele Azure-machines (VM's) met behulp van Azure NetApp Files voor de gedeelde opslagvolumes.

In de voorbeeldconfiguraties, installatieopdrachten, en meer, is het HANA-exemplaar 03 en is de HANA-systeem-id HN1. De voorbeelden zijn gebaseerd op HANA 2.0 SP4 en SUSE Linux Enterprise Server voor SAP 12 SP4.

Raadpleeg de volgende SAP-opmerkingen en -documenten voordat u begint:

Overzicht

Een manier om hoge beschikbaarheid van HANA te bereiken, is door automatische failover van de host te configureren. Als u automatische failover van de host wilt configureren, voegt u een of meer virtuele machines toe aan het HANA-systeem en configureert u deze als stand-byknooppunten. Wanneer het actieve knooppunt uitvalt, neemt een stand-by-knooppunt het automatisch over. In de gepresenteerde configuratie met virtuele Azure-machines bereikt u automatische failover met behulp van NFS op Azure NetApp Files.

Notitie

Het stand-by-knooppunt moet toegang hebben tot alle databasevolumes. De HANA-volumes moeten worden bevestigd als NFSv4-volumes. Het verbeterde vergrendelingsmechanisme op basis van een bestandslease in het NFSv4-protocol wordt gebruikt voor I/O fencing.

Belangrijk

Als u de ondersteunde configuratie wilt bouwen, moet u de HANA-gegevens en logboekvolumes implementeren als NFSv4.1-volumes en deze met behulp van het NFSv4.1-protocol aan elkaar monteren. De configuratie van de automatische failover van de HANA-host met stand-by-knooppunt wordt niet ondersteund met NFSv3.

Overzicht van SAP NetWeaver Hoge beschikbaarheid

In het voorgaande diagram, dat volgt op SAP HANA netwerkaanbevelingen, worden drie subnetten weergegeven binnen één virtueel Azure-netwerk:

  • Voor clientcommunicatie
  • Voor communicatie met het opslagsysteem
  • Voor interne communicatie tussen knooppunts van HANA

De Azure NetApp-volumes zijn in een afzonderlijk subnet, gedelegeerd aan Azure NetApp Files.

Voor deze voorbeeldconfiguratie zijn de subnetten:

  • client 10.23.0.0/24
  • storage 10.23.2.0/24
  • hana 10.23.3.0/24
  • anf 10.23.1.0/26

De infrastructuur voor Azure NetApp Files instellen

Voordat u verdergaat met de installatie van Azure NetApp Files-infrastructuur, moet u zich vertrouwd maken met de Azure NetApp Files documentatie.

Azure NetApp Files is beschikbaar in verschillende Azure-regio's. Controleer of uw geselecteerde Azure-regio een Azure NetApp Files.

Zie Beschikbaarheid per Azure Azure NetApp Files regio voor meer informatie over Azure NetApp Files beschikbaarheid per Azure-regio.

Resources Azure NetApp Files implementeren

In de volgende instructies wordt ervan uit gegaan dat u uw virtuele Azure-netwerk al hebt geïmplementeerd. De Azure NetApp Files resources en VM's, waar de Azure NetApp Files-resources worden aangesloten, moeten worden geïmplementeerd in hetzelfde virtuele Azure-netwerk of in virtuele Azure-peernetwerken.

  1. Maak een NetApp-account in de geselecteerde Azure-regio door de instructies in Een NetApp-account maken te volgen.

  2. Stel een Azure NetApp Files-capaciteitspool in door de instructies te volgen in Set up an Azure NetApp Files capacity pool (Een Azure NetApp Files-capaciteitspool instellen).

    De HANA-architectuur die in dit artikel wordt gepresenteerd, maakt gebruik van één Azure NetApp Files capaciteitspool op Ultra Service-niveau. Voor HANA-workloads in Azure raden we u aan een Azure NetApp Files Ultra- of Premium serviceniveau te gebruiken.

  3. Delegeer een subnet aan Azure NetApp Files, zoals beschreven in Delegeren van een subnet aan Azure NetApp Files.

  4. Implementeer Azure NetApp Files volumes door de instructies te volgen in Een NFS-volume maken voor Azure NetApp Files.

    Wanneer u de volumes implementeert, moet u de versie NFSv4.1 selecteren. Op dit moment moet toegang tot NFSv4.1 worden toegevoegd aan een allowlist. Implementeer de volumes in het Azure NetApp Files subnet. De IP-adressen van de Azure NetApp-volumes worden automatisch toegewezen.

    Houd er rekening mee dat de Azure NetApp Files en de Azure-VM's zich in hetzelfde virtuele Azure-netwerk of in peered virtuele Azure-netwerken moeten zijn. Bijvoorbeeld HN1-data-mnt00001, HN1-log-mnt00001, en meer, zijn de volumenamen en nfs://10.23.1.5/HN1-data-mnt00001, nfs://10.23.1.4/HN1-log-mnt00001, en zo verder, zijn de bestandspaden voor de Azure NetApp Files volumes.

    • volume HN1-data-mnt00001 (nfs://10.23.1.5/HN1-data-mnt00001)
    • volume HN1-data-mnt00002 (nfs://10.23.1.6/HN1-data-mnt00002)
    • volume HN1-log-mnt00001 (nfs://10.23.1.4/HN1-log-mnt00001)
    • volume HN1-log-mnt00002 (nfs://10.23.1.6/HN1-log-mnt00002)
    • volume HN1-shared (nfs://10.23.1.4/HN1-shared)

    In dit voorbeeld hebben we een afzonderlijk volume Azure NetApp Files gebruikt voor elk HANA-gegevens- en logboekvolume. Voor een meer kosten-geoptimaliseerde configuratie op kleinere of niet-productieve systemen is het mogelijk om alle gegevens mounts en alle logboeken op één volume te plaatsen.

Belangrijke overwegingen

Wanneer u uw Azure NetApp Files voor SAP NetWeaver op SUSE-architectuur met hoge beschikbaarheid maakt, moet u rekening houden met de volgende belangrijke overwegingen:

  • De minimale capaciteitspool is 4 tebibyte (TiB).
  • De minimale volumegrootte is 100 gibibyte (GiB).
  • Azure NetApp Files en alle virtuele machines waarop de Azure NetApp Files-volumes worden aangesloten, moeten zich in hetzelfde virtuele Azure-netwerk of in virtuele peernetwerken in dezelfde regio.
  • Het geselecteerde virtuele netwerk moet een subnet hebben dat wordt gedelegeerd aan Azure NetApp Files.
  • De doorvoer van een Azure NetApp Files volume is een functie van het volumequotum en serviceniveau, zoals beschreven in Serviceniveau voor Azure NetApp Files. Wanneer u de HANA Azure NetApp-volumes wilt indelen, moet u ervoor zorgen dat de resulterende doorvoer voldoet aan de HANA-systeemvereisten.
  • Met het Azure NetApp Files exportbeleidkunt u de toegestane clients, het toegangstype (lezen-schrijven, alleen-lezen, etc.) bepalen.
  • De Azure NetApp Files is nog niet zonebewust. Op dit moment is de functie niet geïmplementeerd in alle beschikbaarheidszones in een Azure-regio. Let op de mogelijke gevolgen voor latentie in sommige Azure-regio's.

Belangrijk

Voor SAP HANA workloads is lage latentie essentieel. Werk samen met uw Microsoft-vertegenwoordiger om ervoor te zorgen dat de virtuele machines en Azure NetApp Files volumes dicht bij elkaar worden geïmplementeerd.

De HANA-database op een Azure NetApp Files

De doorvoer van een Azure NetApp Files volume is een functie van de volumegrootte en het serviceniveau, zoals beschreven in Serviceniveau voor Azure NetApp Files.

Wanneer u de infrastructuur voor SAP in Azure ontwerpt, moet u rekening houden met enkele minimale opslagvereisten van SAP, die worden omgezet in minimale doorvoerkenmerken:

  • Lees-/schrijfproces inschakelen op /hana/log van 250 MB per seconde (MB/s) met I/O-grootten van 1 MB.
  • Leesactiviteit van ten minste 400 MB/s inschakelen voor /hana/data voor I/O-grootten van 16 MB en 64 MB.
  • Schrijfactiviteit van ten minste 250 MB/s inschakelen voor /hana/data met een I/O-grootte van 16 MB en 64 MB.

De Azure NetApp Files doorvoerlimieten per volumequotum van 1 TiB zijn:

  • Premium Storage-laag - 64 MiB/s
  • Ultra Storage laag - 128 MiB/s

Om te voldoen aan de minimale sap-doorvoervereisten voor gegevens en logboeken en de richtlijnen voor /hana/shared, zijn de aanbevolen grootten:

Volume Grootte van
Premium Storage laag
Grootte van
Ultra Storage laag
Ondersteund NFS-protocol
/hana/log/ 4 TiB 2 TiB v4.1
/hana/data 6,3 TiB 3,2 TiB v4.1
/hana/shared Max (512 GB, 1xRAM) per 4 werkknooppunten Max (512 GB, 1xRAM) per 4 werkknooppunten v3 of v4.1

De SAP HANA configuratie voor de indeling die in dit artikel wordt weergegeven, met behulp van Azure NetApp Files Ultra Storage-laag, is:

Volume Grootte van
Ultra Storage laag
Ondersteund NFS-protocol
/hana/log/mnt00001 2 TiB v4.1
/hana/log/mnt00002 2 TiB v4.1
/hana/data/mnt00001 3,2 TiB v4.1
/hana/data/mnt00002 3,2 TiB v4.1
/hana/shared 2 TiB v3 of v4.1

Notitie

De Azure NetApp Files die hier worden vermeld, zijn bedoeld om te voldoen aan de minimale vereisten die SAP aanbeveelt voor hun infrastructuurproviders. In echte klantimplementaties en workloadscenario's zijn deze grootten mogelijk niet voldoende. Gebruik deze aanbevelingen als uitgangspunt en pas deze aan op basis van de vereisten van uw specifieke workload.

Tip

U kunt de volumes dynamisch Azure NetApp Files, zonder de volumes te ontkoppelen, de virtuele machines te stoppen of SAP HANA. Deze aanpak biedt flexibiliteit om te voldoen aan zowel de verwachte als onvoorziene doorvoervraag van uw toepassing.

Virtuele Linux-machines implementeren via de Azure Portal

Eerst moet u de volumes Azure NetApp Files maken. Ga vervolgens als volgt te werk:

  1. Maak de subnetten van het virtuele Azure-netwerk in uw virtuele Azure-netwerk.

  2. Implementeer de VM's.

  3. Maak de extra netwerkinterfaces en koppel de netwerkinterfaces aan de bijbehorende VM's.

    Elke virtuele machine heeft drie netwerkinterfaces die overeenkomen met de drie subnetten van het virtuele Azure-netwerk ( client en storage hana ).

    Zie Een virtuele Linux-machine maken in Azure met meerdere netwerkinterfacekaartenvoor meer informatie.

Belangrijk

Voor SAP HANA workloads is lage latentie essentieel. Werk samen met uw Microsoft-vertegenwoordiger om ervoor te zorgen dat de virtuele machines en de Azure NetApp Files volumes dicht bij elkaar worden geïmplementeerd om een lage latentie te bereiken. Wanneer u een nieuw systeem onboardt SAP HANA dat gebruik maakt van SAP HANA Azure NetApp Files, dient u de benodigde gegevens in.

In de volgende instructies wordt ervan uit gegaan dat u de resourcegroep, het virtuele Azure-netwerk en de drie subnetten van het virtuele Azure-netwerk al client hebt storage gemaakt: en hana . Wanneer u de VM's implementeert, selecteert u het clientsubnet, zodat de clientnetwerkinterface de primaire interface op de VM's is. U moet ook een expliciete route naar het Azure NetApp Files gedelegeerd subnet configureren via de gateway van het opslagsubnet.

Belangrijk

Zorg ervoor dat het besturingssysteem dat u selecteert SAP-gecertificeerd is SAP HANA de specifieke VM-typen die u gebruikt. Voor een lijst met SAP HANA VM-typen en besturingssysteemreleases voor deze typen gaat u naar de site SAP HANA gecertificeerde IaaS-platforms. Klik op de details van het vermelde VM-type om de volledige lijst met door SAP HANA ondersteunde besturingssysteemreleases voor dat type op te halen.

  1. Maak een beschikbaarheidsset voor SAP HANA. Zorg ervoor dat u het maximale updatedomein in stelt.

  2. Gebruik de volgende stappen om drie virtuele machines te maken (;adb1, kuntadb2, handtekeningadb3):

    a. Gebruik een SLES4SAP-afbeelding in de Azure-galerie die wordt ondersteund voor SAP HANA. In dit voorbeeld hebben we een SLES4SAP 12 SP4-afbeelding gebruikt.

    b. Selecteer de beschikbaarheidsset die u eerder hebt gemaakt voor SAP HANA.

    c. Selecteer het subnet van het virtuele Azure-netwerk van de client. Selecteer Versneld netwerk.

    Wanneer u de virtuele machines implementeert, wordt de naam van de netwerkinterface automatisch gegenereerd. In deze instructies voor het gemak verwijzen we naar de automatisch gegenereerde netwerkinterfaces, die zijn gekoppeld aan het subnet van het virtuele Azure-clientnetwerk, zoals wanneeradb1-client, kunt uadb2-client en kunt gebruikenadb3-client.

  3. Maak drie netwerkinterfaces, één voor elke virtuele machine, voor het subnet van het virtuele netwerk (in dit voorbeeld zijn dat: kunt u de volgende gebruiken: storage kunt uadb1-opslag, wanneer uadb2-opslag gebruikt en kunt u ook de 3-opslag gebruiken).

  4. Maak drie netwerkinterfaces, één voor elke virtuele machine, voor het subnet van het virtuele netwerk (in dit voorbeeld hana zijn dat: nu zijn dat: nu zijn dat: handtekeningadb1-hana, wanneeradb2-hana en als enigeadb3-hana).

  5. Koppel de zojuist gemaakte virtuele netwerkinterfaces aan de bijbehorende virtuele machines door de volgende stappen uit te voeren:

    a. Ga naar de virtuele machine in de Azure Portal.

    b. Selecteer in het linkerdeelvenster Virtual Machines. Filter op de naam van de virtuele machine (bijvoorbeeld ;adb1) en selecteer vervolgens de virtuele machine.

    c. Selecteer in het deelvenster Overzicht de optie Stoppen om de toewijzing van de virtuele machine op te geven.

    d. Selecteer Netwerken en koppel vervolgens de netwerkinterface. Selecteer in de vervolgkeuzelijst Netwerkinterface koppelen de al gemaakte netwerkinterfaces voor de storage subnetten en hana .

    e. Selecteer Opslaan.

    f. Herhaal de stappen b tot en met e voor de resterende virtuele machines (in ons voorbeeld zijn dat nu : nu zijn dat: nu is dat : nu zijn dat nog steeds de virtuele machines).

    g. Laat de virtuele machines nu in de status Gestopt staan. Vervolgens gaan we versneld netwerken inschakelen voor alle nieuw gekoppelde netwerkinterfaces.

  6. Schakel versneld netwerken in voor de extra netwerkinterfaces voor de subnetten en door storage de volgende stappen uit te hana voeren:

    a. Open Azure Cloud Shell in Azure Portal.

    b. Voer de volgende opdrachten uit om versneld netwerken in te stellen voor de extra netwerkinterfaces die zijn gekoppeld aan de storage subnetten en hana .

    
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-storage --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-storage --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-storage --accelerated-networking true
    
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-hana --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-hana --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-hana --accelerated-networking true
    
     
  7. Start de virtuele machines door de volgende stappen uit te voeren:

    a. Selecteer in het linkerdeelvenster Virtual Machines. Filter op de naam van de virtuele machine (bijvoorbeeld ;adb1) en selecteer deze.

    b. Selecteer start in het deelvenster Overzicht.

Configuratie en voorbereiding van besturingssysteem

De instructies in de volgende secties hebben een van de volgende voorvoegsels:

  • [A]: Van toepassing op alle knooppunten
  • [1]: Alleen van toepassing op knooppunt 1
  • [2]: Alleen van toepassing op knooppunt 2
  • [3]: Alleen van toepassing op knooppunt 3

Configureer en bereid uw besturingssysteem voor door de volgende stappen uit te voeren:

  1. [A] Onderhoud de hostbestanden op de virtuele machines. Vermeldingen voor alle subnetten opnemen. De volgende vermeldingen zijn toegevoegd aan /etc/hosts voor dit voorbeeld.

    
     # Storage
     10.23.2.4   hanadb1-storage
     10.23.2.5   hanadb2-storage
     10.23.2.6   hanadb3-storage
     # Client
     10.23.0.5   hanadb1
     10.23.0.6   hanadb2
     10.23.0.7   hanadb3
     # Hana
     10.23.3.4   hanadb1-hana
     10.23.3.5   hanadb2-hana
     10.23.3.6   hanadb3-hana
     
  2. [A] Wijzig de dhcp- en cloud-configuratie-instellingen voor de netwerkinterface voor opslag om onbedoelde wijzigingen in de hostnaam te voorkomen.

    In de volgende instructies wordt ervan uit gegaan dat de opslagnetwerkinterface eth1 is.

    
     vi /etc/sysconfig/network/dhcp
     # Change the following DHCP setting to "no"
     DHCLIENT_SET_HOSTNAME="no"
     vi /etc/sysconfig/network/ifcfg-eth1
     # Edit ifcfg-eth1 
     #Change CLOUD_NETCONFIG_MANAGE='yes' to "no"
     CLOUD_NETCONFIG_MANAGE='no'
     
  3. [A] Voeg een netwerkroute toe, zodat de communicatie met de Azure NetApp Files verloopt via de interface van het opslagnetwerk.

    In de volgende instructies wordt ervan uit gegaan dat de opslagnetwerkinterface eth1 is.

    
     vi /etc/sysconfig/network/ifroute-eth1
     # Add the following routes 
     # RouterIPforStorageNetwork - - -
     # ANFNetwork/cidr RouterIPforStorageNetwork - -
     10.23.2.1 - - -
     10.23.1.0/26 10.23.2.1 - -
     

    Start de VM opnieuw op om de wijzigingen te activeren.

  4. [A] Bereid het besturingssysteem voor op het uitvoeren SAP HANA op NetApp Systems met NFS, zoals beschreven in NetApp SAP Applications on Microsoft Azure using Azure NetApp Files. Maak het configuratiebestand /etc/sysctl.d/netapp-hana.conf voor de NetApp-configuratie-instellingen.

    
     vi /etc/sysctl.d/netapp-hana.conf
     # Add the following entries in the configuration file
     net.core.rmem_max = 16777216
     net.core.wmem_max = 16777216
     net.core.rmem_default = 16777216
     net.core.wmem_default = 16777216
     net.core.optmem_max = 16777216
     net.ipv4.tcp_rmem = 65536 16777216 16777216
     net.ipv4.tcp_wmem = 65536 16777216 16777216
     net.core.netdev_max_backlog = 300000
     net.ipv4.tcp_slow_start_after_idle=0
     net.ipv4.tcp_no_metrics_save = 1
     net.ipv4.tcp_moderate_rcvbuf = 1
     net.ipv4.tcp_window_scaling = 1
     net.ipv4.tcp_timestamps = 1
     net.ipv4.tcp_sack = 1
     
  5. [A] Maak configuratiebestand /etc/sysctl.d/ms-az.conf met Microsoft voor Azure-configuratie-instellingen.

    
     vi /etc/sysctl.d/ms-az.conf
     # Add the following entries in the configuration file
     net.ipv6.conf.all.disable_ipv6 = 1
     net.ipv4.tcp_max_syn_backlog = 16348
     net.ipv4.conf.all.rp_filter = 0
     sunrpc.tcp_slot_table_entries = 128
     vm.swappiness=10
     

Tip

Voorkom dat net.ipv4.ip_local_port_range en net.ipv4.ip_local_reserved_ports expliciet in de sysctl-configuratiebestanden worden opgeslagen zodat sap-hostagent de poortbereiken kan beheren. Zie SAP-opmerking voor meer informatie 2382421.

  1. [A] Pas de sunrpc-instellingen aan, zoals aanbevolen in NetApp SAP Applications on Microsoft Azure using Azure NetApp Files.

    
     vi /etc/modprobe.d/sunrpc.conf
     # Insert the following line
     options sunrpc tcp_max_slot_table_entries=128
     

De Azure NetApp Files volumes

  1. [A] Maak bevestigingspunten voor de HANA-databasevolumes.

    
     mkdir -p /hana/data/HN1/mnt00001
     mkdir -p /hana/data/HN1/mnt00002
     mkdir -p /hana/log/HN1/mnt00001
     mkdir -p /hana/log/HN1/mnt00002
     mkdir -p /hana/shared
     mkdir -p /usr/sap/HN1
     
  2. [1] Knooppunt-specifieke directories maken voor /usr/sap op HN1-gedeeld.

    
     # Create a temporary directory to mount HN1-shared
     mkdir /mnt/tmp
     # if using NFSv3 for this volume, mount with the following command
     mount 10.23.1.4:/HN1-shared /mnt/tmp
     # if using NFSv4.1 for this volume, mount with the following command
     mount -t nfs -o sec=sys,vers=4.1 10.23.1.4:/HN1-shared /mnt/tmp
     cd /mnt/tmp
     mkdir shared usr-sap-hanadb1 usr-sap-hanadb2 usr-sap-hanadb3
     # unmount /hana/shared
     cd
     umount /mnt/tmp
     
  3. [A] Controleer de NFS-domeininstelling. Zorg ervoor dat het domein is geconfigureerd als het standaarddomein Azure NetApp Files, dat wil zeggen en dat de toewijzing defaultv4iddomain.com is ingesteld op niemand.

    Belangrijk

    Zorg ervoor dat u het NFS-domein in op de VM in stelt om te overeenkomen met de /etc/idmapd.conf standaarddomeinconfiguratie op Azure NetApp Files: defaultv4iddomain.com . Als er een verschil is tussen de domeinconfiguratie op de NFS-client (dat wil zeggen de VM) en de NFS-server, dat wil zeggen de Azure NetApp-configuratie, worden de machtigingen voor bestanden op Azure NetApp-volumes die zijn bevestigd op de VM's weergegeven als nobody .

    
     sudo cat /etc/idmapd.conf
     # Example
     [General]
     Verbosity = 0
     Pipefs-Directory = /var/lib/nfs/rpc_pipefs
     Domain = defaultv4iddomain.com
     [Mapping]
     Nobody-User = nobody
     Nobody-Group = nobody
     
  4. [A] Controleer nfs4_disable_idmapping . Deze moet worden ingesteld op Y. Als u de mapstructuur wilt maken waar nfs4_disable_idmapping zich bevindt, voert u de mount-opdracht uit. U kunt de map niet handmatig maken onder /sys/modules, omdat toegang is gereserveerd voor de kernel/stuurprogramma's.

    
     # Check nfs4_disable_idmapping 
     cat /sys/module/nfs/parameters/nfs4_disable_idmapping
     # If you need to set nfs4_disable_idmapping to Y
     mkdir /mnt/tmp
     mount 10.23.1.4:/HN1-shared /mnt/tmp
     umount  /mnt/tmp
     echo "Y" > /sys/module/nfs/parameters/nfs4_disable_idmapping
     # Make the configuration permanent
     echo "options nfs nfs4_disable_idmapping=Y" >> /etc/modprobe.d/nfs.conf
     
  5. [A] Maak de SAP HANA en gebruiker handmatig. De ID's voor groep sapsys en gebruiker hn1 adm moeten worden ingesteld op dezelfde ID's die worden opgegeven tijdens de onboarding. (In dit voorbeeld zijn de ID's ingesteld op 1001.) Als de ID's niet correct zijn ingesteld, hebt u geen toegang tot de volumes. De ID's voor groep sapsys en gebruikersaccounts hn1 adm en sapadm moeten hetzelfde zijn op alle virtuele machines.

    
     # Create user group 
     sudo groupadd -g 1001 sapsys
     # Create  users 
     sudo useradd hn1adm -u 1001 -g 1001 -d /usr/sap/HN1/home -c "SAP HANA Database System" -s /bin/sh
     sudo useradd sapadm -u 1002 -g 1001 -d /home/sapadm -c "SAP Local Administrator" -s /bin/sh
     # Set the password  for both user ids
     sudo passwd hn1adm
     sudo passwd sapadm
     
  6. [A] De gedeelde Azure NetApp Files volumes.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.23.1.5:/HN1-data-mnt00001 /hana/data/HN1/mnt00001  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.23.1.6:/HN1-data-mnt00002 /hana/data/HN1/mnt00002  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.23.1.4:/HN1-log-mnt00001 /hana/log/HN1/mnt00001  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.23.1.6:/HN1-log-mnt00002 /hana/log/HN1/mnt00002  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.23.1.4:/HN1-shared/shared /hana/shared  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount all volumes
     sudo mount -a 
     
  7. [1] Bevestig de knooppuntspecifieke volumes op ;adb1.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.23.1.4:/HN1-shared/usr-sap-hanadb1 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  8. [2] Bevestig de knooppuntspecifieke volumes op ;adb2.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.23.1.4:/HN1-shared/usr-sap-hanadb2 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  9. [3] De knooppuntspecifieke volumes aan de hand van een knooppunt aan de hand van de drie knooppuntvolumes.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.23.1.4:/HN1-shared/usr-sap-hanadb3 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  10. [A] Controleer of alle HANA-volumes zijn bevestigd met NFS-protocolversie NFSv4.

    
    sudo nfsstat -m
    # Verify that flag vers is set to 4.1 
    # Example from hanadb1
    /hana/data/HN1/mnt00001 from 10.23.1.5:/HN1-data-mnt00001
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.5
    /hana/log/HN1/mnt00002 from 10.23.1.6:/HN1-log-mnt00002
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.6
    /hana/data/HN1/mnt00002 from 10.23.1.6:/HN1-data-mnt00002
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.6
    /hana/log/HN1/mnt00001 from 10.23.1.4:/HN1-log-mnt00001
    Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.4
    /usr/sap/HN1 from 10.23.1.4:/HN1-shared/usr-sap-hanadb1
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.4
    /hana/shared from 10.23.1.4:/HN1-shared/shared
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.23.2.4,local_lock=none,addr=10.23.1.4
    

Installatie

In dit voorbeeld voor het implementeren SAP HANA in scale-out configuratie met stand-by-knooppunt met Azure, hebben we HANA 2.0 SP4 gebruikt.

Voorbereiden op HANA-installatie

  1. [A] Vóór de HANA-installatie stelt u het hoofdwachtwoord in. U kunt het hoofdwachtwoord uitschakelen nadat de installatie is voltooid. Voer uit als root opdracht passwd .

  2. [1] Controleer of u zich via SSH kunt aanmelden bijb2 enadb3, zonder dat u om een wachtwoord wordt gevraagd.

    
     ssh root@hanadb2
     ssh root@hanadb3
     
  3. [A] Installeer aanvullende pakketten die vereist zijn voor HANA 2.0 SP4. Zie SAP Note 2593824 voor meer informatie.

    
     sudo zypper install libgcc_s1 libstdc++6 libatomic1 
     
  4. [2], [3] Wijzig het eigendom van SAP HANA data log en de directories in hn1 adm.

    
     # Execute as root
     sudo chown hn1adm:sapsys /hana/data/HN1
     sudo chown hn1adm:sapsys /hana/log/HN1
     

HANA-installatie

  1. [1] Installeer SAP HANA door de instructies te volgen in de SAP HANA 2.0-installatie- en updatehandleiding. In dit voorbeeld installeren we SAP HANA uitschalen met hoofd, één werkster en één stand-by-knooppunt.

    a. Start het hdblcm-programma vanuit de HANA-installatiesoftwaremap. Gebruik de internal_network parameter en geef de adresruimte door voor het subnet, dat wordt gebruikt voor de interne communicatie tussen knooppunts van HANA.

    
     ./hdblcm --internal_network=10.23.3.0/24
     

    b. Voer bij de prompt de volgende waarden in:

    • Voor Kies een actie: voer 1 in (voor installatie)
    • Voor Aanvullende onderdelen voor installatie: voer 2, 3 in
    • Voor het installatiepad: druk op Enter (standaard ingesteld op /hana/shared)
    • Voor Lokale hostnaam: druk op Enter om de standaardinstelling te accepteren
    • Onder Wilt u hosts toevoegen aan het systeem?: voer y in
    • Als u door komma's gescheiden hostnamen wilt toevoegen, voegt u toe: voer bijenadb2, handtekeningadb3 in
    • Voor Root User Name [root]: druk op Enter om de standaardinstelling te accepteren
    • Bij Hoofdgebruikerswachtwoord: voer het wachtwoord van de hoofdgebruiker in
    • Voor rollen voor hostadb2: voer 1 in (voor werkrol)
    • Voor Host-failovergroep voor hostadb2 [standaard]: druk op Enter om de standaardinstelling te accepteren
    • Voor Storage partitienummer voor hostadb2 [ ]: druk op Enter om de <<assign automatically> > standaardwaarde te accepteren
    • Voor Werkgroep voor hostadb2 [standaard]: druk op Enter om de standaardwaarde te accepteren
    • Voor Rollen selecteren voor hostadb3: voer 2 in (voor stand-by)
    • Voor Host-failovergroep voor hostadb3 [standaard]: druk op Enter om de standaardinstelling te accepteren
    • Voor Werkgroep voor hostadb3 [standaard]: druk op Enter om de standaardwaarde te accepteren
    • Voor SAP HANA systeem-id: voer HN1 in
    • Bij Exemplaarnummer [00]: voer 03 in
    • Voor Lokale hostwerkergroep [standaard]: druk op Enter om de standaardinstelling te accepteren
    • Voor Select System Usage /Enter index [4]: voer 4 in (voor aangepast)
    • Voor locatie van gegevensvolumes [/hana/data/HN1]: druk op Enter om de standaardwaarde te accepteren
    • Voor locatie van logboekvolumes [/hana/log/HN1]: druk op Enter om de standaardwaarde te accepteren
    • Voor Maximale geheugentoewijzing beperken [n]: voer n in
    • Voor Hostnaam van certificaat voor hostadb1 [handtekeningadb1]: druk op Enter om de standaardwaarde te accepteren
    • Voor Hostnaam van certificaat voor Hostadb2 [handtekeningadb2]: druk op Enter om de standaardwaarde te accepteren
    • Voor Hostnaam van certificaat voor hostadb3 [handtekeningadb3]: druk op Enter om de standaardwaarde te accepteren
    • Voor het wachtwoord van de systeembeheerder (hn1adm): voer het wachtwoord in
    • Bij System Database User (system) Password: voer het wachtwoord van het systeem in
    • Bij Confirm System Database User (system) Password: voer het wachtwoord van het systeem in
    • Voor Systeem opnieuw opstarten na het opnieuw opstarten van de machine? [n]: voer n in
    • Voor Wilt u doorgaan (y/n): valideer de samenvatting en als alles er goed uitziet, voert u y in
  2. [1] Controleer global.ini

    Geef global.ini weer en zorg ervoor dat de configuratie voor de interne SAP HANA communicatie tussen knooppunt is. Controleer de communicatiesectie. Deze moet de adresruimte voor het hana subnet hebben en listeninterface moet worden ingesteld op .internal . Controleer de internal_hostname_resolution sectie. Deze moet de IP-adressen hebben voor de virtuele HANA-machines die deel uitmaken van het hana subnet.

    
     sudo cat /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini
     # Example 
     #global.ini last modified 2019-09-10 00:12:45.192808 by hdbnameserve
     [communication]
     internal_network = 10.23.3/24
     listeninterface = .internal
     [internal_hostname_resolution]
     10.23.3.4 = hanadb1
     10.23.3.5 = hanadb2
     10.23.3.6 = hanadb3
    
  3. [1] Voeg hosttoewijzing toe om ervoor te zorgen dat de IP-adressen van de client worden gebruikt voor clientcommunicatie. Voeg sectie public_host_resolution toe en voeg de bijbehorende IP-adressen uit het clientsubnet toe.

    
     sudo vi /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini
     #Add the section
     [public_hostname_resolution]
     map_hanadb1 = 10.23.0.5
     map_hanadb2 = 10.23.0.6
     map_hanadb3 = 10.23.0.7
    
  4. [1] Start SAP HANA om de wijzigingen te activeren.

    
     sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StopSystem HDB
     sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StartSystem HDB
    
  5. [1] Controleer of de clientinterface de IP-adressen van het subnet gebruikt client voor communicatie.

    
     sudo -u hn1adm /usr/sap/HN1/HDB03/exe/hdbsql -u SYSTEM -p "password" -i 03 -d SYSTEMDB 'select * from SYS.M_HOST_INFORMATION'|grep net_publicname
     # Expected result
     "hanadb3","net_publicname","10.23.0.7"
     "hanadb2","net_publicname","10.23.0.6"
     "hanadb1","net_publicname","10.23.0.5"
    

    Zie SAP Note 2183363 - Configuration of SAP HANA internal network voor meer informatie over het controleren van de configuratie.

  6. Als u de SAP HANA voor de onderliggende opslag Azure NetApp Files, stelt u de volgende parameters SAP HANA in:

    • max_parallel_io_requests128
    • async_read_submitop
    • async_write_submit_activeop
    • async_write_submit_blocksalle

    Zie NetApp SAP Applications on Microsoft Azure using Azure NetApp Files (NetApp SAP-toepassingenop Azure NetApp Files) voor meer Azure NetApp Files.

    Vanaf SAP HANA 2.0-systemen kunt u de parameters instellen in global.ini . Zie SAP Note 1999930 voor meer informatie.

    Voor SAP HANA 1.0-systeemversies SPS12 en eerder kunnen deze parameters tijdens de installatie worden ingesteld, zoals beschreven in SAP Note 2267798.

  7. De opslag die wordt gebruikt door Azure NetApp Files heeft een bestandsgrootte van 16 terabyte (TB). SAP HANA is niet impliciet op de hoogte van de opslaglimiet en wordt er niet automatisch een nieuw gegevensbestand gemaakt wanneer de bestandsgroottelimiet van 16 TB is bereikt. Als SAP HANA probeert het bestand groter te maken dan 16 TB, resulteert deze poging in fouten en uiteindelijk in een crash van een indexserver.

    Belangrijk

    Om te voorkomen SAP HANA gegevensbestanden groter te maken dan de limiet van 16 TB van het opslagsubsysteem, stelt u de volgende parameters in in global.ini .

    • datavolume_striping = true
    • datavolume_striping_size_gb = 15000 Zie SAP Note 2400005 . Let op sap note 2631285.

Failover SAP HANA testen

Notitie

Dit artikel bevat verwijzingen naar de termen master en slave, termen die Microsoft niet meer gebruikt. Wanneer deze termen uit de software worden verwijderd, worden deze uit dit artikel verwijderd.

  1. Simuleer een knooppuntcrash op een SAP HANA worker-knooppunt. Ga als volgt te werk:

    a. Voordat u het vastgelopen knooppunt simuleert, voert u de volgende opdrachten uit als hn1 adm om de status van de omgeving vast te leggen:

    
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | yes    | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
    

    b. Als u een crash van een knooppunt wilt simuleren, moet u de volgende opdracht uitvoeren als root op het worker-knooppunt. In dit geval is dat :

    
     echo b > /proc/sysrq-trigger
    

    c. Controleer het systeem op voltooiing van de failover. Wanneer de failover is voltooid, legt u de status vast. Deze ziet er als volgt uit:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY
     # Check the landscape status
     /usr/sap/HN1/HDB03/exe/python_support> python landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | no     | info   |          |        |         2 |         0 | default  | default  | master 2   | slave      | worker      | standby     | worker  | standby | default | -       |
     | hanadb3 | yes    | info   |          |        |         0 |         2 | default  | default  | master 3   | slave      | standby     | slave       | standby | worker  | default | default |
    

    Belangrijk

    Wanneer een knooppunt kernel-probleem ervaart, vermijdt u vertragingen met SAP HANA failover door in te stellen op 20 seconden op alle kernel.panic virtuele HANA-machines. De configuratie wordt uitgevoerd in /etc/sysctl . Start de virtuele machines opnieuw op om de wijziging te activeren. Als deze wijziging niet wordt uitgevoerd, kan de failover 10 of meer minuten duren wanneer een knooppunt kernel-probleem ondervindt.

  2. Doe het volgende om de naamserver af te maken:

    a. Controleer voorafgaand aan de test de status van de omgeving door de volgende opdrachten uit te voeren als hn1 adm:

    
     #Landscape status 
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GRAY
    

    b. Voer de volgende opdrachten uit als hn1 adm op het actieve hoofd-knooppunt. In dit geval is dat:

    
         hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB kill
     

    Het stand-by-knooppuntadb3 neemt het over als hoofd-knooppunt. Dit is de resourcetoestand nadat de failovertest is voltooid:

    
         # Check the instance status
         sapcontrol -nr 03 -function GetSystemInstanceList
         GetSystemInstanceList
         OK
         hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
         hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
         hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY
         hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
         # Check the landscape status
         python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
         | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
         |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
         |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
         | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
         | hanadb1 | no     | info   |          |        |         1 |         0 | default  | default  | master 1   | slave      | worker      | standby     | worker  | standby | default | -       |
         | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
         | hanadb3 | yes    | info   |          |        |         0 |         1 | default  | default  | master 3   | master     | standby     | master      | standby | worker  | default | default |
     

    c. Start het HANA-exemplaar opnieuw op basis vanadb1 (dat wil zeggen, op dezelfde virtuele machine, waar de naamserver is uitgekomen). Het knooppunt inspectieadb1 wordt opnieuw aan de omgeving en blijft de stand-byfunctie behouden.

    
     hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB start
    

    Nadat SAP HANA gestart opb1, kunt u de volgende status verwachten:

    
     # Check the instance status
     sapcontrol -nr 03 -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | info   |          |        |         1 |         0 | default  | default  | master 1   | slave      | worker      | standby     | worker  | standby | default | -       |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | yes    | info   |          |        |         0 |         1 | default  | default  | master 3   | master     | standby     | master      | standby | worker  | default | default |
    

    d. Ook hier moet u de naamserver op het momenteel actieve hoofd-knooppunt (dat wil zeggen, op knooppuntbeheeradb3) killen.

    
     hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB kill
    

    Nodeb1 hervat de rol van hoofd-knooppunt. Nadat de failovertest is voltooid, ziet de status er als volgende uit:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList & python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GRAY
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
    

    e. Start SAP HANA opb3, dat klaar is om te fungeren als stand-by-knooppunt.

    
     hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB start
    

    Nadat SAP HANA gestart opb3, ziet de status er als volgt uit:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList & python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GRAY
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
    

Volgende stappen