Hoge beschikbaarheid voor NFS op Virtuele Azure-SUSE Linux Enterprise Server
In dit artikel wordt beschreven hoe u de virtuele machines implementeert, de virtuele machines configureert, het clusterkader installeert en een uiterst beschikbare NFS-server installeert die kan worden gebruikt om de gedeelde gegevens van een SAP-systeem met hoge beschikbare gegevens op te slaan. In deze handleiding wordt beschreven hoe u een maximaal beschikbare NFS-server in kunt stellen die wordt gebruikt door twee SAP-systemen, NW1 en NW2. Bij de namen van de resources (bijvoorbeeld virtuele machines, virtuele netwerken) in het voorbeeld wordt ervan uitgenomen dat u de SAP-bestandsserversjabloon met het voorvoegsel van de resource hebt gebruikt.
Notitie
Dit artikel bevat verwijzingen naar de termen slave en master, termen die Microsoft niet meer gebruikt. Wanneer de voorwaarden uit de software worden verwijderd, worden deze uit dit artikel verwijderd.
Lees eerst de volgende SAP-notities en -documenten
SAP Note [1928533,]dat het volgende heeft:
- Lijst met Azure VM-grootten die worden ondersteund voor de implementatie van SAP-software
- Belangrijke capaciteitsinformatie voor Azure VM-grootten
- Ondersteunde combinaties van SAP-software en besturingssysteem (besturingssysteem) en database
- Vereiste SAP-kernelversie voor Windows linux op Microsoft Azure
SAP Note [2015553 bevat] een lijst met vereisten voor SAP-ondersteunde SAP-software-implementaties in Azure.
SAP Note [2205917 heeft] aanbevolen besturingssysteeminstellingen voor SUSE Linux Enterprise Server sap-toepassingen
SAP Note [1944799 heeft] SAP HANA richtlijnen voor SUSE Linux Enterprise Server sap-toepassingen
SAP Note [2178632 heeft] gedetailleerde informatie over alle metrische bewakingsgegevens die zijn gerapporteerd voor SAP in Azure.
SAP Note 2191498 heeft de vereiste sap-hostagentversie voor Linux in Azure.
SAP Note [2243692 heeft] informatie over SAP-licenties op Linux in Azure.
SAP Note [1984787 heeft] algemene informatie over SUSE Linux Enterprise Server 12.
SAP Note [1999351 heeft] aanvullende informatie over probleemoplossing voor de Uitgebreide bewakingsextensie van Azure voor SAP.
SAP Community WIKI heeft alle vereiste SAP-notities voor Linux.
Azure Virtual Machines planning en implementatie voor SAP on Linux
Azure Virtual Machines-implementatie voor SAP on Linux (dit artikel)
Handleidingen voor best practices voor SUSE Linux Enterprise High Availability Extension 12 SP3
- NFS-Storage met DRBD en Pacemaker
SUSE Linux Enterprise Server voor best practices voor SAP Applications 12 SP3
Opmerkingen bij de release van SUSE High Availability Extension 12 SP3
Overzicht
Voor hoge beschikbaarheid is voor SAP NetWeaver een NFS-server vereist. De NFS-server is geconfigureerd in een afzonderlijk cluster en kan worden gebruikt door meerdere SAP-systemen.

De NFS-server gebruikt een toegewezen virtuele hostnaam en virtuele IP-adressen voor elk SAP-systeem dat gebruikmaakt van deze NFS-server. In Azure is een load balancer vereist voor het gebruik van een virtueel IP-adres. In de volgende lijst ziet u de configuratie van de load balancer.
- Front-endconfiguratie
- IP-adres 10.0.0.4 voor NW1
- IP-adres 10.0.0.5 voor NW2
- Back-endconfiguratie
- Verbonden met primaire netwerkinterfaces van alle virtuele machines die deel moeten uitmaken van het NFS-cluster
- Testpoort
- Poort 61000 voor NW1
- Poort 61001 voor NW2
- Taakverdelingsregels (als u basisregels load balancer)
- 2049 TCP voor NW1
- 2049 UDP voor NW1
- 2049 TCP voor NW2
- 2049 UDP voor NW2
Een maximaal beschikbare NFS-server instellen
U kunt een Azure-sjabloon van GitHub gebruiken om alle vereiste Azure-resources te implementeren, met inbegrip van de virtuele machines, beschikbaarheidsset en load balancer of u kunt de resources handmatig implementeren.
Linux implementeren via Azure Template
De Azure Marketplace bevat een afbeelding voor SUSE Linux Enterprise Server voor SAP-toepassingen 12 die u kunt gebruiken om nieuwe virtuele machines te implementeren. U kunt een van de quickstartsjablonen op GitHub alle vereiste resources te implementeren. Met de sjabloon worden de virtuele machines, de load balancer, beschikbaarheidsset, enzovoort geïmplementeerd. Volg deze stappen om de sjabloon te implementeren:
- Open de sap-bestandsserversjabloon in Azure Portal
- Voer de volgende parameters in
- Resource-voorvoegsel
Voer het voorvoegsel in dat u wilt gebruiken. De waarde wordt gebruikt als voorvoegsel voor de resources die worden geïmplementeerd. - SAP-systeemtelling
Voer het aantal SAP-systemen in dat gebruik gaat maken van deze bestandsserver. Hiermee wordt de vereiste hoeveelheid front-endconfiguraties, taakverdelingsregels, testpoorten, schijven, enzovoort geïmplementeerd. - Type besturingssysteem
Selecteer een van de Linux-distributies. Selecteer voor dit voorbeeld SLES 12 - Gebruikersnaam van beheerder en beheerderswachtwoord
Er wordt een nieuwe gebruiker gemaakt die kan worden gebruikt om u aan te melden bij de computer. - Subnet-id
Als u de virtuele machine wilt implementeren in een bestaand VNet waar u een subnet hebt gedefinieerd, moet de VM worden toegewezen aan , noemt u de id van dat specifieke subnet. De id ziet er meestal uit als /subscriptions/< > subscription ID/resourceGroups/ resource group < name >/providers/Microsoft.Network/virtualNetworks/ virtual network < name >/subnets/< subnet name >
- Resource-voorvoegsel
Linux handmatig implementeren via Azure Portal
U moet eerst de virtuele machines voor dit NFS-cluster maken. Daarna maakt u een load balancer en gebruikt u de virtuele machines in de back-endpools.
- Een resourcegroep maken
- Een Virtual Network maken
- Een beschikbaarheidsset maken
Maximaal updatedomein instellen - Virtuele machine maken 1 Gebruik ten minste SLES4SAP 12 SP3. In dit voorbeeld wordt de SLES4SAP 12 SP3 BYOS-afbeelding SLES For SAP Applications 12 SP3 (BYOS) gebruikt
Selecteer Beschikbaarheidsset die u eerder hebt gemaakt - Virtuele machine maken 2 Gebruik ten minste SLES4SAP 12 SP3, in dit voorbeeld de SLES4SAP 12 SP3 BYOS-afbeelding
SLES For SAP Applications 12 SP3 (BYOS) wordt gebruikt
Selecteer Beschikbaarheidsset die u eerder hebt gemaakt - Voeg één gegevensschijf voor elk SAP-systeem toe aan beide virtuele machines.
- Maak een Load Balancer (intern). We raden u aan load balancer.
- Volg deze instructies voor het maken van een standaard load balancer:
- De front-end-IP-adressen maken
- IP-adres 10.0.0.4 voor NW1
- Open de load balancer, selecteer front-end-IP-adresgroep en klik op Toevoegen
- Voer de naam van de nieuwe front-end-IP-adresgroep in (bijvoorbeeld nw1-frontend)
- Stel Toewijzing in op Statisch en voer het IP-adres in (bijvoorbeeld 10.0.0.4)
- Klik op OK
- IP-adres 10.0.0.5 voor NW2
- Herhaal de bovenstaande stappen voor NW2
- IP-adres 10.0.0.4 voor NW1
- De back-endpools maken
- Verbonden met primaire netwerkinterfaces van alle virtuele machines die deel moeten uitmaken van het NFS-cluster
- Open het load balancer, selecteer back-endpools en klik op Toevoegen
- Voer de naam van de nieuwe back-endpool in (bijvoorbeeld nw-backend)
- Selecteer Virtual Network
- Klik op Een virtuele machine toevoegen
- Selecteer de virtuele machines van het NFS-cluster en hun IP-adressen.
- Klik op Toevoegen.
- Verbonden met primaire netwerkinterfaces van alle virtuele machines die deel moeten uitmaken van het NFS-cluster
- De statustests maken
- Poort 61000 voor NW1
- Open het load balancer, selecteer statustests en klik op Toevoegen
- Voer de naam van de nieuwe statustest in (bijvoorbeeld nw1-hp)
- Selecteer TCP als protocol, poort 610 00, houd Interval 5 en drempelwaarde voor onjuiste status 2
- Klik op OK
- Poort 61001 voor NW2
- Herhaal de bovenstaande stappen om een statustest voor NW2 te maken
- Poort 61000 voor NW1
- Taakverdelingsregels
- Open de load balancer, selecteer Taakverdelingsregels en klik op Toevoegen
- Voer de naam van de nieuwe load balancer in (bijvoorbeeld nw1-lb)
- Selecteer het front-en-do-IP-adres, de back-endpool en de statustest die u eerder hebt gemaakt (bijvoorbeeld nw1-frontend. nw-backend en nw1-hp)
- Selecteer HA-poorten.
- Zorg ervoor dat zwevend IP-adres is ingeschakeld
- Klik op OK
- Herhaal de bovenstaande stappen om een taakverdelingsregel voor NW2 te maken
- De front-end-IP-adressen maken
- Als voor uw scenario basiskennis van load balancer is vereist, volgt u deze instructies:
- De front-end-IP-adressen maken
- IP-adres 10.0.0.4 voor NW1
- Open de load balancer, selecteer front-end-IP-adresgroep en klik op Toevoegen
- Voer de naam van de nieuwe front-end-IP-adresgroep in (bijvoorbeeld nw1-frontend)
- Stel Toewijzing in op Statisch en voer het IP-adres in (bijvoorbeeld 10.0.0.4)
- Klik op OK
- IP-adres 10.0.0.5 voor NW2
- Herhaal de bovenstaande stappen voor NW2
- IP-adres 10.0.0.4 voor NW1
- De back-endpools maken
- Verbonden met primaire netwerkinterfaces van alle virtuele machines die deel moeten uitmaken van het NFS-cluster
- Open het load balancer, selecteer back-endpools en klik op Toevoegen
- Voer de naam van de nieuwe back-endpool in (bijvoorbeeld nw-backend)
- Klik op Een virtuele machine toevoegen
- Selecteer de beschikbaarheidsset die u eerder hebt gemaakt
- De virtuele machines van het NFS-cluster selecteren
- Klik op OK
- Verbonden met primaire netwerkinterfaces van alle virtuele machines die deel moeten uitmaken van het NFS-cluster
- De statustests maken
- Poort 61000 voor NW1
- Open het load balancer, selecteer statustests en klik op Toevoegen
- Voer de naam van de nieuwe statustest in (bijvoorbeeld nw1-hp)
- Selecteer TCP als protocol, poort 610 00, houd Interval 5 en drempelwaarde voor onjuiste status 2
- Klik op OK
- Poort 61001 voor NW2
- Herhaal de bovenstaande stappen om een statustest voor NW2 te maken
- Poort 61000 voor NW1
- Taakverdelingsregels
- 2049 TCP voor NW1
- Open de load balancer, selecteer Taakverdelingsregels en klik op Toevoegen
- Voer de naam van de nieuwe load balancer in (bijvoorbeeld nw1-lb-2049)
- Selecteer het FRONT-adres, de back-endpool en de statustest die u eerder hebt gemaakt (bijvoorbeeld nw1-frontend)
- Protocol TCP behouden, poort 2049 invoeren
- Time-out voor inactief verhogen naar 30 minuten
- Zorg ervoor dat zwevend IP-adres is ingeschakeld
- Klik op OK
- 2049 UDP voor NW1
- Herhaal de bovenstaande stappen voor poort 2049 en UDP voor NW1
- 2049 TCP voor NW2
- Herhaal de bovenstaande stappen voor poort 2049 en TCP voor NW2
- 2049 UDP voor NW2
- Herhaal de bovenstaande stappen voor poort 2049 en UDP voor NW2
- 2049 TCP voor NW1
- De front-end-IP-adressen maken
- Volg deze instructies voor het maken van een standaard load balancer:
Belangrijk
Zwevend IP wordt niet ondersteund op een secundaire IP-configuratie van een NIC in taakverdelingsscenario's. Zie Beperkingen voor Azure Load Balancer voor meer informatie. Als u een extra IP-adres voor de VM nodig hebt, implementeert u een tweede NIC.
Notitie
Wanneer VM's zonder openbare IP-adressen in de back-endpool van interne (geen openbaar IP-adres) Standard Azure load balancer worden geplaatst, is er geen uitgaande internetverbinding, tenzij er aanvullende configuratie wordt uitgevoerd om routering naar openbare eindpunten toe te staan. Zie Public endpoint connectivity for Virtual Machines using Azure Standard Load Balancer in SAP high-availability scenarios(Openbare eindpuntconnectiviteit voor Virtual Machines met behulp van Azure Standard Load Balancer in SAP-scenario's voor hoge beschikbaarheid) voor meer informatie over het bereiken van uitgaande connectiviteit.
Belangrijk
Schakel geen TCP-tijdstempels in op Virtuele Azure-VM's die achter de Azure Load Balancer. Als u TCP-tijdstempels inschakelen, mislukken de statustests. Stel parameter net.ipv4.tcp_timestamps in op 0. Zie statustests Load Balancer meer informatie.
Pacemaker-cluster maken
Volg de stappen in Pacemaker instellen op SUSE Linux Enterprise Server in Azure om een eenvoudig Pacemaker-cluster voor deze NFS-server te maken.
NFS-server configureren
De volgende items hebben het voorvoegsel [A] - van toepassing op alle knooppunten, [1] - alleen van toepassing op knooppunt 1 of [2] - alleen van toepassing op knooppunt 2.
[A] Hostnaamoplossing instellen
U kunt een DNS-server gebruiken of de /etc/hosts op alle knooppunten wijzigen. In dit voorbeeld ziet u hoe u het bestand /etc/hosts gebruikt. Vervang het IP-adres en de hostnaam in de volgende opdrachten
sudo vi /etc/hostsVoeg de volgende regels toe aan /etc/hosts. Wijzig het IP-adres en de hostnaam in uw omgeving
# IP address of the load balancer frontend configuration for NFS 10.0.0.4 nw1-nfs 10.0.0.5 nw2-nfs[A] NFS-server inschakelen
De hoofd-NFS-exportinvoer maken
sudo sh -c 'echo /srv/nfs/ *\(rw,no_root_squash,fsid=0\)>/etc/exports' sudo mkdir /srv/nfs/[A] Drbd-onderdelen installeren
sudo zypper install drbd drbd-kmp-default drbd-utils[A] Een partitie maken voor de drbd-apparaten
Een lijst maken van alle beschikbare gegevensschijven
sudo ls /dev/disk/azure/scsi1/Voorbeelduitvoer
lun0 lun1Partities maken voor elke gegevensschijf
sudo sh -c 'echo -e "n\n\n\n\n\nw\n" | fdisk /dev/disk/azure/scsi1/lun0' sudo sh -c 'echo -e "n\n\n\n\n\nw\n" | fdisk /dev/disk/azure/scsi1/lun1'[A] LVM-configuraties maken
Een lijst met alle beschikbare partities maken
ls /dev/disk/azure/scsi1/lun*-part*Voorbeelduitvoer
/dev/disk/azure/scsi1/lun0-part1 /dev/disk/azure/scsi1/lun1-part1LVM-volumes maken voor elke partitie
sudo pvcreate /dev/disk/azure/scsi1/lun0-part1 sudo vgcreate vg-NW1-NFS /dev/disk/azure/scsi1/lun0-part1 sudo lvcreate -l 100%FREE -n NW1 vg-NW1-NFS sudo pvcreate /dev/disk/azure/scsi1/lun1-part1 sudo vgcreate vg-NW2-NFS /dev/disk/azure/scsi1/lun1-part1 sudo lvcreate -l 100%FREE -n NW2 vg-NW2-NFS[A] Drbd configureren
sudo vi /etc/drbd.confZorg ervoor dat het bestand drbd.conf de volgende twee regels bevat
include "drbd.d/global_common.conf"; include "drbd.d/*.res";De algemene drbd-configuratie wijzigen
sudo vi /etc/drbd.d/global_common.confVoeg de volgende vermeldingen toe aan de sectie handler en net.
global { usage-count no; } common { handlers { fence-peer "/usr/lib/drbd/crm-fence-peer.sh"; after-resync-target "/usr/lib/drbd/crm-unfence-peer.sh"; split-brain "/usr/lib/drbd/notify-split-brain.sh root"; pri-lost-after-sb "/usr/lib/drbd/notify-pri-lost-after-sb.sh; /usr/lib/drbd/notify-emergency-reboot.sh; echo b > /proc/sysrq-trigger ; reboot -f"; } startup { wfc-timeout 0; } options { } disk { md-flushes yes; disk-flushes yes; c-plan-ahead 1; c-min-rate 100M; c-fill-target 20M; c-max-rate 4G; } net { after-sb-0pri discard-younger-primary; after-sb-1pri discard-secondary; after-sb-2pri call-pri-lost-after-sb; protocol C; tcp-cork yes; max-buffers 20000; max-epoch-size 20000; sndbuf-size 0; rcvbuf-size 0; } }[A] De NFS-drbd-apparaten maken
sudo vi /etc/drbd.d/NW1-nfs.resDe configuratie voor het nieuwe drbd-apparaat invoegen en afsluiten
resource NW1-nfs { protocol C; disk { on-io-error detach; } on prod-nfs-0 { address 10.0.0.6:7790; device /dev/drbd0; disk /dev/vg-NW1-NFS/NW1; meta-disk internal; } on prod-nfs-1 { address 10.0.0.7:7790; device /dev/drbd0; disk /dev/vg-NW1-NFS/NW1; meta-disk internal; } }sudo vi /etc/drbd.d/NW2-nfs.resDe configuratie voor het nieuwe drbd-apparaat invoegen en afsluiten
resource NW2-nfs { protocol C; disk { on-io-error detach; } on prod-nfs-0 { address 10.0.0.6:7791; device /dev/drbd1; disk /dev/vg-NW2-NFS/NW2; meta-disk internal; } on prod-nfs-1 { address 10.0.0.7:7791; device /dev/drbd1; disk /dev/vg-NW2-NFS/NW2; meta-disk internal; } }Het drbd-apparaat maken en starten
sudo drbdadm create-md NW1-nfs sudo drbdadm create-md NW2-nfs sudo drbdadm up NW1-nfs sudo drbdadm up NW2-nfs[1] Initiële synchronisatie overslaan
sudo drbdadm new-current-uuid --clear-bitmap NW1-nfs sudo drbdadm new-current-uuid --clear-bitmap NW2-nfs[1] Het primaire knooppunt instellen
sudo drbdadm primary --force NW1-nfs sudo drbdadm primary --force NW2-nfs[1] Wacht tot de nieuwe drbd-apparaten zijn gesynchroniseerd
sudo drbdsetup wait-sync-resource NW1-nfs sudo drbdsetup wait-sync-resource NW2-nfs[1] Bestandssystemen maken op de drbd-apparaten
sudo mkfs.xfs /dev/drbd0 sudo mkdir /srv/nfs/NW1 sudo chattr +i /srv/nfs/NW1 sudo mount -t xfs /dev/drbd0 /srv/nfs/NW1 sudo mkdir /srv/nfs/NW1/sidsys sudo mkdir /srv/nfs/NW1/sapmntsid sudo mkdir /srv/nfs/NW1/trans sudo mkdir /srv/nfs/NW1/ASCS sudo mkdir /srv/nfs/NW1/ASCSERS sudo mkdir /srv/nfs/NW1/SCS sudo mkdir /srv/nfs/NW1/SCSERS sudo umount /srv/nfs/NW1 sudo mkfs.xfs /dev/drbd1 sudo mkdir /srv/nfs/NW2 sudo chattr +i /srv/nfs/NW2 sudo mount -t xfs /dev/drbd1 /srv/nfs/NW2 sudo mkdir /srv/nfs/NW2/sidsys sudo mkdir /srv/nfs/NW2/sapmntsid sudo mkdir /srv/nfs/NW2/trans sudo mkdir /srv/nfs/NW2/ASCS sudo mkdir /srv/nfs/NW2/ASCSERS sudo mkdir /srv/nfs/NW2/SCS sudo mkdir /srv/nfs/NW2/SCSERS sudo umount /srv/nfs/NW2[A] Drbd split-brain detectie instellen
Wanneer u drbd gebruikt om gegevens van de ene host naar de andere te synchroniseren, kan er een zogenaamd gesplitst brein optreden. Een gesplitst brein is een scenario waarin beide clusterknooppunten het drbd-apparaat als primair hebben gepromoveerd en niet meer gesynchroniseerd zijn. Het kan een zeldzame situatie zijn, maar u wilt een gesplitst brein nog steeds zo snel mogelijk afhandelen en oplossen. Het is daarom belangrijk om een melding te ontvangen wanneer er een splitsbrein is gebeurd.
Lees de officiële drbd-documentatie over het instellen van een split brain notification.
Het is ook mogelijk om automatisch te herstellen van een split brain scenario. Lees Automatic split brain recovery policies (Automatisch afsplitsen van brain recovery-beleid) voor meer informatie
Cluster framework configureren
[1] Voeg de NFS-drbd-apparaten voor SAP-systeem NW1 toe aan de clusterconfiguratie
Belangrijk
Uit recente tests zijn situaties gebleken waarin netcat niet meer reageert op aanvragen vanwege achterstand en de beperking van het verwerken van slechts één verbinding. De netcat-resource luistert niet meer naar de Azure Load Balancer-aanvragen en het zwevende IP-adres is niet meer beschikbaar.
Voor bestaande Pacemaker-clusters is het in het verleden aanbevolen om netcat te vervangen door socat. Momenteel wordt u aangeraden azure-lb resource agent te gebruiken, die deel uitmaakt van pakketresource-agents, met de volgende pakketversievereisten:- Voor SLES 12 SP4/SP5 moet de versie ten minste resource-agents-4.3.018.a7fb5035-3.30.1 zijn.
- Voor SLES 15/15 SP1 moet de versie ten minste resource-agents-4.3.0184.6ee15eb2-4.13.1 zijn.
Houd er rekening mee dat de wijziging korte downtime vereist.
Als voor bestaande Pacemaker-clusters de configuratie al is gewijzigd voor het gebruik van socat, zoals beschreven in Azure Load-Balancer Detection Hardening, is het niet nodig om onmiddellijk over te schakelen naar azure-lb resource agent.sudo crm configure rsc_defaults resource-stickiness="200" # Enable maintenance mode sudo crm configure property maintenance-mode=true sudo crm configure primitive drbd_NW1_nfs \ ocf:linbit:drbd \ params drbd_resource="NW1-nfs" \ op monitor interval="15" role="Master" \ op monitor interval="30" role="Slave" sudo crm configure ms ms-drbd_NW1_nfs drbd_NW1_nfs \ meta master-max="1" master-node-max="1" clone-max="2" \ clone-node-max="1" notify="true" interleave="true" sudo crm configure primitive fs_NW1_sapmnt \ ocf:heartbeat:Filesystem \ params device=/dev/drbd0 \ directory=/srv/nfs/NW1 \ fstype=xfs \ op monitor interval="10s" sudo crm configure primitive nfsserver systemd:nfs-server \ op monitor interval="30s" sudo crm configure clone cl-nfsserver nfsserver sudo crm configure primitive exportfs_NW1 \ ocf:heartbeat:exportfs \ params directory="/srv/nfs/NW1" \ options="rw,no_root_squash,crossmnt" clientspec="*" fsid=1 wait_for_leasetime_on_stop=true op monitor interval="30s" sudo crm configure primitive vip_NW1_nfs \ IPaddr2 \ params ip=10.0.0.4 cidr_netmask=24 op monitor interval=10 timeout=20 sudo crm configure primitive nc_NW1_nfs azure-lb port=61000 sudo crm configure group g-NW1_nfs \ fs_NW1_sapmnt exportfs_NW1 nc_NW1_nfs vip_NW1_nfs sudo crm configure order o-NW1_drbd_before_nfs inf: \ ms-drbd_NW1_nfs:promote g-NW1_nfs:start sudo crm configure colocation col-NW1_nfs_on_drbd inf: \ g-NW1_nfs ms-drbd_NW1_nfs:Master[1] Voeg de NFS-drbd-apparaten voor SAP-systeem NW2 toe aan de clusterconfiguratie
# Enable maintenance mode sudo crm configure property maintenance-mode=true sudo crm configure primitive drbd_NW2_nfs \ ocf:linbit:drbd \ params drbd_resource="NW2-nfs" \ op monitor interval="15" role="Master" \ op monitor interval="30" role="Slave" sudo crm configure ms ms-drbd_NW2_nfs drbd_NW2_nfs \ meta master-max="1" master-node-max="1" clone-max="2" \ clone-node-max="1" notify="true" interleave="true" sudo crm configure primitive fs_NW2_sapmnt \ ocf:heartbeat:Filesystem \ params device=/dev/drbd1 \ directory=/srv/nfs/NW2 \ fstype=xfs \ op monitor interval="10s" sudo crm configure primitive exportfs_NW2 \ ocf:heartbeat:exportfs \ params directory="/srv/nfs/NW2" \ options="rw,no_root_squash,crossmnt" clientspec="*" fsid=2 wait_for_leasetime_on_stop=true op monitor interval="30s" sudo crm configure primitive vip_NW2_nfs \ IPaddr2 \ params ip=10.0.0.5 cidr_netmask=24 op monitor interval=10 timeout=20 sudo crm configure primitive nc_NW2_nfs azure-lb port=61001 sudo crm configure group g-NW2_nfs \ fs_NW2_sapmnt exportfs_NW2 nc_NW2_nfs vip_NW2_nfs sudo crm configure order o-NW2_drbd_before_nfs inf: \ ms-drbd_NW2_nfs:promote g-NW2_nfs:start sudo crm configure colocation col-NW2_nfs_on_drbd inf: \ g-NW2_nfs ms-drbd_NW2_nfs:MasterDe optie in de clusterresources is aanwezig in onze documentatie voor achterwaartse compatibiliteit
crossmntexportfsmet oudere SLES-versies.[1] Onderhoudsmodus uitschakelen
sudo crm configure property maintenance-mode=false
Volgende stappen
- De SAP ASCS en database installeren
- Azure Virtual Machines en implementatie voor SAP
- Azure Virtual Machines-implementatie voor SAP
- Azure Virtual Machines DBMS-implementatie voor SAP
- Zie Hoge beschikbaarheid van SAP HANA in Azure Virtual Machines (VM's) voor meer informatie over het tot stand brengen van hoge beschikbaarheid en het plannen van herstel na noodherstel van SAP HANA op Azure-VM's