Hoge beschikbaarheid voor NFS op Virtuele Azure-SUSE Linux Enterprise Server

In dit artikel wordt beschreven hoe u de virtuele machines implementeert, de virtuele machines configureert, het clusterkader installeert en een uiterst beschikbare NFS-server installeert die kan worden gebruikt om de gedeelde gegevens van een SAP-systeem met hoge beschikbare gegevens op te slaan. In deze handleiding wordt beschreven hoe u een maximaal beschikbare NFS-server in kunt stellen die wordt gebruikt door twee SAP-systemen, NW1 en NW2. Bij de namen van de resources (bijvoorbeeld virtuele machines, virtuele netwerken) in het voorbeeld wordt ervan uitgenomen dat u de SAP-bestandsserversjabloon met het voorvoegsel van de resource hebt gebruikt.

Notitie

Dit artikel bevat verwijzingen naar de termen slave en master, termen die Microsoft niet meer gebruikt. Wanneer de voorwaarden uit de software worden verwijderd, worden deze uit dit artikel verwijderd.

Lees eerst de volgende SAP-notities en -documenten

Overzicht

Voor hoge beschikbaarheid is voor SAP NetWeaver een NFS-server vereist. De NFS-server is geconfigureerd in een afzonderlijk cluster en kan worden gebruikt door meerdere SAP-systemen.

Overzicht van SAP NetWeaver hoge beschikbaarheid

De NFS-server gebruikt een toegewezen virtuele hostnaam en virtuele IP-adressen voor elk SAP-systeem dat gebruikmaakt van deze NFS-server. In Azure is een load balancer vereist voor het gebruik van een virtueel IP-adres. In de volgende lijst ziet u de configuratie van de load balancer.

  • Front-endconfiguratie
    • IP-adres 10.0.0.4 voor NW1
    • IP-adres 10.0.0.5 voor NW2
  • Back-endconfiguratie
    • Verbonden met primaire netwerkinterfaces van alle virtuele machines die deel moeten uitmaken van het NFS-cluster
  • Testpoort
    • Poort 61000 voor NW1
    • Poort 61001 voor NW2
  • Taakverdelingsregels (als u basisregels load balancer)
    • 2049 TCP voor NW1
    • 2049 UDP voor NW1
    • 2049 TCP voor NW2
    • 2049 UDP voor NW2

Een maximaal beschikbare NFS-server instellen

U kunt een Azure-sjabloon van GitHub gebruiken om alle vereiste Azure-resources te implementeren, met inbegrip van de virtuele machines, beschikbaarheidsset en load balancer of u kunt de resources handmatig implementeren.

Linux implementeren via Azure Template

De Azure Marketplace bevat een afbeelding voor SUSE Linux Enterprise Server voor SAP-toepassingen 12 die u kunt gebruiken om nieuwe virtuele machines te implementeren. U kunt een van de quickstartsjablonen op GitHub alle vereiste resources te implementeren. Met de sjabloon worden de virtuele machines, de load balancer, beschikbaarheidsset, enzovoort geïmplementeerd. Volg deze stappen om de sjabloon te implementeren:

  1. Open de sap-bestandsserversjabloon in Azure Portal
  2. Voer de volgende parameters in
    1. Resource-voorvoegsel
      Voer het voorvoegsel in dat u wilt gebruiken. De waarde wordt gebruikt als voorvoegsel voor de resources die worden geïmplementeerd.
    2. SAP-systeemtelling
      Voer het aantal SAP-systemen in dat gebruik gaat maken van deze bestandsserver. Hiermee wordt de vereiste hoeveelheid front-endconfiguraties, taakverdelingsregels, testpoorten, schijven, enzovoort geïmplementeerd.
    3. Type besturingssysteem
      Selecteer een van de Linux-distributies. Selecteer voor dit voorbeeld SLES 12
    4. Gebruikersnaam van beheerder en beheerderswachtwoord
      Er wordt een nieuwe gebruiker gemaakt die kan worden gebruikt om u aan te melden bij de computer.
    5. Subnet-id
      Als u de virtuele machine wilt implementeren in een bestaand VNet waar u een subnet hebt gedefinieerd, moet de VM worden toegewezen aan , noemt u de id van dat specifieke subnet. De id ziet er meestal uit als /subscriptions/< > subscription ID/resourceGroups/ resource group < name >/providers/Microsoft.Network/virtualNetworks/ virtual network < name >/subnets/< subnet name >

Linux handmatig implementeren via Azure Portal

U moet eerst de virtuele machines voor dit NFS-cluster maken. Daarna maakt u een load balancer en gebruikt u de virtuele machines in de back-endpools.

  1. Een resourcegroep maken
  2. Een Virtual Network maken
  3. Een beschikbaarheidsset maken
    Maximaal updatedomein instellen
  4. Virtuele machine maken 1 Gebruik ten minste SLES4SAP 12 SP3. In dit voorbeeld wordt de SLES4SAP 12 SP3 BYOS-afbeelding SLES For SAP Applications 12 SP3 (BYOS) gebruikt
    Selecteer Beschikbaarheidsset die u eerder hebt gemaakt
  5. Virtuele machine maken 2 Gebruik ten minste SLES4SAP 12 SP3, in dit voorbeeld de SLES4SAP 12 SP3 BYOS-afbeelding
    SLES For SAP Applications 12 SP3 (BYOS) wordt gebruikt
    Selecteer Beschikbaarheidsset die u eerder hebt gemaakt
  6. Voeg één gegevensschijf voor elk SAP-systeem toe aan beide virtuele machines.
  7. Maak een Load Balancer (intern). We raden u aan load balancer.
    1. Volg deze instructies voor het maken van een standaard load balancer:
      1. De front-end-IP-adressen maken
        1. IP-adres 10.0.0.4 voor NW1
          1. Open de load balancer, selecteer front-end-IP-adresgroep en klik op Toevoegen
          2. Voer de naam van de nieuwe front-end-IP-adresgroep in (bijvoorbeeld nw1-frontend)
          3. Stel Toewijzing in op Statisch en voer het IP-adres in (bijvoorbeeld 10.0.0.4)
          4. Klik op OK
        2. IP-adres 10.0.0.5 voor NW2
          • Herhaal de bovenstaande stappen voor NW2
      2. De back-endpools maken
        1. Verbonden met primaire netwerkinterfaces van alle virtuele machines die deel moeten uitmaken van het NFS-cluster
          1. Open het load balancer, selecteer back-endpools en klik op Toevoegen
          2. Voer de naam van de nieuwe back-endpool in (bijvoorbeeld nw-backend)
          3. Selecteer Virtual Network
          4. Klik op Een virtuele machine toevoegen
          5. Selecteer de virtuele machines van het NFS-cluster en hun IP-adressen.
          6. Klik op Toevoegen.
      3. De statustests maken
        1. Poort 61000 voor NW1
          1. Open het load balancer, selecteer statustests en klik op Toevoegen
          2. Voer de naam van de nieuwe statustest in (bijvoorbeeld nw1-hp)
          3. Selecteer TCP als protocol, poort 610 00, houd Interval 5 en drempelwaarde voor onjuiste status 2
          4. Klik op OK
        2. Poort 61001 voor NW2
          • Herhaal de bovenstaande stappen om een statustest voor NW2 te maken
      4. Taakverdelingsregels
        1. Open de load balancer, selecteer Taakverdelingsregels en klik op Toevoegen
        2. Voer de naam van de nieuwe load balancer in (bijvoorbeeld nw1-lb)
        3. Selecteer het front-en-do-IP-adres, de back-endpool en de statustest die u eerder hebt gemaakt (bijvoorbeeld nw1-frontend. nw-backend en nw1-hp)
        4. Selecteer HA-poorten.
        5. Zorg ervoor dat zwevend IP-adres is ingeschakeld
        6. Klik op OK
        • Herhaal de bovenstaande stappen om een taakverdelingsregel voor NW2 te maken
    2. Als voor uw scenario basiskennis van load balancer is vereist, volgt u deze instructies:
      1. De front-end-IP-adressen maken
        1. IP-adres 10.0.0.4 voor NW1
          1. Open de load balancer, selecteer front-end-IP-adresgroep en klik op Toevoegen
          2. Voer de naam van de nieuwe front-end-IP-adresgroep in (bijvoorbeeld nw1-frontend)
          3. Stel Toewijzing in op Statisch en voer het IP-adres in (bijvoorbeeld 10.0.0.4)
          4. Klik op OK
        2. IP-adres 10.0.0.5 voor NW2
          • Herhaal de bovenstaande stappen voor NW2
      2. De back-endpools maken
        1. Verbonden met primaire netwerkinterfaces van alle virtuele machines die deel moeten uitmaken van het NFS-cluster
          1. Open het load balancer, selecteer back-endpools en klik op Toevoegen
          2. Voer de naam van de nieuwe back-endpool in (bijvoorbeeld nw-backend)
          3. Klik op Een virtuele machine toevoegen
          4. Selecteer de beschikbaarheidsset die u eerder hebt gemaakt
          5. De virtuele machines van het NFS-cluster selecteren
          6. Klik op OK
      3. De statustests maken
        1. Poort 61000 voor NW1
          1. Open het load balancer, selecteer statustests en klik op Toevoegen
          2. Voer de naam van de nieuwe statustest in (bijvoorbeeld nw1-hp)
          3. Selecteer TCP als protocol, poort 610 00, houd Interval 5 en drempelwaarde voor onjuiste status 2
          4. Klik op OK
        2. Poort 61001 voor NW2
          • Herhaal de bovenstaande stappen om een statustest voor NW2 te maken
      4. Taakverdelingsregels
        1. 2049 TCP voor NW1
          1. Open de load balancer, selecteer Taakverdelingsregels en klik op Toevoegen
          2. Voer de naam van de nieuwe load balancer in (bijvoorbeeld nw1-lb-2049)
          3. Selecteer het FRONT-adres, de back-endpool en de statustest die u eerder hebt gemaakt (bijvoorbeeld nw1-frontend)
          4. Protocol TCP behouden, poort 2049 invoeren
          5. Time-out voor inactief verhogen naar 30 minuten
          6. Zorg ervoor dat zwevend IP-adres is ingeschakeld
          7. Klik op OK
        2. 2049 UDP voor NW1
          • Herhaal de bovenstaande stappen voor poort 2049 en UDP voor NW1
        3. 2049 TCP voor NW2
          • Herhaal de bovenstaande stappen voor poort 2049 en TCP voor NW2
        4. 2049 UDP voor NW2
          • Herhaal de bovenstaande stappen voor poort 2049 en UDP voor NW2

Belangrijk

Zwevend IP wordt niet ondersteund op een secundaire IP-configuratie van een NIC in taakverdelingsscenario's. Zie Beperkingen voor Azure Load Balancer voor meer informatie. Als u een extra IP-adres voor de VM nodig hebt, implementeert u een tweede NIC.

Notitie

Wanneer VM's zonder openbare IP-adressen in de back-endpool van interne (geen openbaar IP-adres) Standard Azure load balancer worden geplaatst, is er geen uitgaande internetverbinding, tenzij er aanvullende configuratie wordt uitgevoerd om routering naar openbare eindpunten toe te staan. Zie Public endpoint connectivity for Virtual Machines using Azure Standard Load Balancer in SAP high-availability scenarios(Openbare eindpuntconnectiviteit voor Virtual Machines met behulp van Azure Standard Load Balancer in SAP-scenario's voor hoge beschikbaarheid) voor meer informatie over het bereiken van uitgaande connectiviteit.

Belangrijk

Schakel geen TCP-tijdstempels in op Virtuele Azure-VM's die achter de Azure Load Balancer. Als u TCP-tijdstempels inschakelen, mislukken de statustests. Stel parameter net.ipv4.tcp_timestamps in op 0. Zie statustests Load Balancer meer informatie.

Pacemaker-cluster maken

Volg de stappen in Pacemaker instellen op SUSE Linux Enterprise Server in Azure om een eenvoudig Pacemaker-cluster voor deze NFS-server te maken.

NFS-server configureren

De volgende items hebben het voorvoegsel [A] - van toepassing op alle knooppunten, [1] - alleen van toepassing op knooppunt 1 of [2] - alleen van toepassing op knooppunt 2.

  1. [A] Hostnaamoplossing instellen

    U kunt een DNS-server gebruiken of de /etc/hosts op alle knooppunten wijzigen. In dit voorbeeld ziet u hoe u het bestand /etc/hosts gebruikt. Vervang het IP-adres en de hostnaam in de volgende opdrachten

    sudo vi /etc/hosts
    

    Voeg de volgende regels toe aan /etc/hosts. Wijzig het IP-adres en de hostnaam in uw omgeving

    # IP address of the load balancer frontend configuration for NFS
    10.0.0.4 nw1-nfs
    10.0.0.5 nw2-nfs
    
  2. [A] NFS-server inschakelen

    De hoofd-NFS-exportinvoer maken

    sudo sh -c 'echo /srv/nfs/ *\(rw,no_root_squash,fsid=0\)>/etc/exports'
    
    sudo mkdir /srv/nfs/
    
  3. [A] Drbd-onderdelen installeren

    sudo zypper install drbd drbd-kmp-default drbd-utils
    
  4. [A] Een partitie maken voor de drbd-apparaten

    Een lijst maken van alle beschikbare gegevensschijven

    sudo ls /dev/disk/azure/scsi1/
    

    Voorbeelduitvoer

    lun0  lun1
    

    Partities maken voor elke gegevensschijf

    sudo sh -c 'echo -e "n\n\n\n\n\nw\n" | fdisk /dev/disk/azure/scsi1/lun0'
    sudo sh -c 'echo -e "n\n\n\n\n\nw\n" | fdisk /dev/disk/azure/scsi1/lun1'
    
  5. [A] LVM-configuraties maken

    Een lijst met alle beschikbare partities maken

    ls /dev/disk/azure/scsi1/lun*-part*
    

    Voorbeelduitvoer

    /dev/disk/azure/scsi1/lun0-part1  /dev/disk/azure/scsi1/lun1-part1
    

    LVM-volumes maken voor elke partitie

    sudo pvcreate /dev/disk/azure/scsi1/lun0-part1  
    sudo vgcreate vg-NW1-NFS /dev/disk/azure/scsi1/lun0-part1
    sudo lvcreate -l 100%FREE -n NW1 vg-NW1-NFS
    
    sudo pvcreate /dev/disk/azure/scsi1/lun1-part1
    sudo vgcreate vg-NW2-NFS /dev/disk/azure/scsi1/lun1-part1
    sudo lvcreate -l 100%FREE -n NW2 vg-NW2-NFS
    
  6. [A] Drbd configureren

    sudo vi /etc/drbd.conf
    

    Zorg ervoor dat het bestand drbd.conf de volgende twee regels bevat

    include "drbd.d/global_common.conf";
    include "drbd.d/*.res";
    

    De algemene drbd-configuratie wijzigen

    sudo vi /etc/drbd.d/global_common.conf
    

    Voeg de volgende vermeldingen toe aan de sectie handler en net.

    global {
         usage-count no;
    }
    common {
         handlers {
              fence-peer "/usr/lib/drbd/crm-fence-peer.sh";
              after-resync-target "/usr/lib/drbd/crm-unfence-peer.sh";
              split-brain "/usr/lib/drbd/notify-split-brain.sh root";
              pri-lost-after-sb "/usr/lib/drbd/notify-pri-lost-after-sb.sh; /usr/lib/drbd/notify-emergency-reboot.sh; echo b > /proc/sysrq-trigger ; reboot -f";
         }
         startup {
              wfc-timeout 0;
         }
         options {
         }
         disk {
              md-flushes yes;
              disk-flushes yes;
              c-plan-ahead 1;
              c-min-rate 100M;
              c-fill-target 20M;
              c-max-rate 4G;
         }
         net {
              after-sb-0pri discard-younger-primary;
              after-sb-1pri discard-secondary;
              after-sb-2pri call-pri-lost-after-sb;
              protocol     C;
              tcp-cork yes;
              max-buffers 20000;
              max-epoch-size 20000;
              sndbuf-size 0;
              rcvbuf-size 0;
         }
    }
    
  7. [A] De NFS-drbd-apparaten maken

    sudo vi /etc/drbd.d/NW1-nfs.res
    

    De configuratie voor het nieuwe drbd-apparaat invoegen en afsluiten

    resource NW1-nfs {
         protocol     C;
         disk {
              on-io-error       detach;
         }
         on prod-nfs-0 {
              address   10.0.0.6:7790;
              device    /dev/drbd0;
              disk      /dev/vg-NW1-NFS/NW1;
              meta-disk internal;
         }
         on prod-nfs-1 {
              address   10.0.0.7:7790;
              device    /dev/drbd0;
              disk      /dev/vg-NW1-NFS/NW1;
              meta-disk internal;
         }
    }
    
    sudo vi /etc/drbd.d/NW2-nfs.res
    

    De configuratie voor het nieuwe drbd-apparaat invoegen en afsluiten

    resource NW2-nfs {
         protocol     C;
         disk {
              on-io-error       detach;
         }
         on prod-nfs-0 {
              address   10.0.0.6:7791;
              device    /dev/drbd1;
              disk      /dev/vg-NW2-NFS/NW2;
              meta-disk internal;
         }
         on prod-nfs-1 {
              address   10.0.0.7:7791;
              device    /dev/drbd1;
              disk      /dev/vg-NW2-NFS/NW2;
              meta-disk internal;
         }
    }
    

    Het drbd-apparaat maken en starten

    sudo drbdadm create-md NW1-nfs
    sudo drbdadm create-md NW2-nfs
    sudo drbdadm up NW1-nfs
    sudo drbdadm up NW2-nfs
    
  8. [1] Initiële synchronisatie overslaan

    sudo drbdadm new-current-uuid --clear-bitmap NW1-nfs
    sudo drbdadm new-current-uuid --clear-bitmap NW2-nfs
    
  9. [1] Het primaire knooppunt instellen

    sudo drbdadm primary --force NW1-nfs
    sudo drbdadm primary --force NW2-nfs
    
  10. [1] Wacht tot de nieuwe drbd-apparaten zijn gesynchroniseerd

    sudo drbdsetup wait-sync-resource NW1-nfs
    sudo drbdsetup wait-sync-resource NW2-nfs
    
  11. [1] Bestandssystemen maken op de drbd-apparaten

    sudo mkfs.xfs /dev/drbd0
    sudo mkdir /srv/nfs/NW1
    sudo chattr +i /srv/nfs/NW1
    sudo mount -t xfs /dev/drbd0 /srv/nfs/NW1
    sudo mkdir /srv/nfs/NW1/sidsys
    sudo mkdir /srv/nfs/NW1/sapmntsid
    sudo mkdir /srv/nfs/NW1/trans
    sudo mkdir /srv/nfs/NW1/ASCS
    sudo mkdir /srv/nfs/NW1/ASCSERS
    sudo mkdir /srv/nfs/NW1/SCS
    sudo mkdir /srv/nfs/NW1/SCSERS
    sudo umount /srv/nfs/NW1
    
    sudo mkfs.xfs /dev/drbd1
    sudo mkdir /srv/nfs/NW2
    sudo chattr +i /srv/nfs/NW2
    sudo mount -t xfs /dev/drbd1 /srv/nfs/NW2
    sudo mkdir /srv/nfs/NW2/sidsys
    sudo mkdir /srv/nfs/NW2/sapmntsid
    sudo mkdir /srv/nfs/NW2/trans
    sudo mkdir /srv/nfs/NW2/ASCS
    sudo mkdir /srv/nfs/NW2/ASCSERS
    sudo mkdir /srv/nfs/NW2/SCS
    sudo mkdir /srv/nfs/NW2/SCSERS
    sudo umount /srv/nfs/NW2
    
  12. [A] Drbd split-brain detectie instellen

    Wanneer u drbd gebruikt om gegevens van de ene host naar de andere te synchroniseren, kan er een zogenaamd gesplitst brein optreden. Een gesplitst brein is een scenario waarin beide clusterknooppunten het drbd-apparaat als primair hebben gepromoveerd en niet meer gesynchroniseerd zijn. Het kan een zeldzame situatie zijn, maar u wilt een gesplitst brein nog steeds zo snel mogelijk afhandelen en oplossen. Het is daarom belangrijk om een melding te ontvangen wanneer er een splitsbrein is gebeurd.

    Lees de officiële drbd-documentatie over het instellen van een split brain notification.

    Het is ook mogelijk om automatisch te herstellen van een split brain scenario. Lees Automatic split brain recovery policies (Automatisch afsplitsen van brain recovery-beleid) voor meer informatie

Cluster framework configureren

  1. [1] Voeg de NFS-drbd-apparaten voor SAP-systeem NW1 toe aan de clusterconfiguratie

    Belangrijk

    Uit recente tests zijn situaties gebleken waarin netcat niet meer reageert op aanvragen vanwege achterstand en de beperking van het verwerken van slechts één verbinding. De netcat-resource luistert niet meer naar de Azure Load Balancer-aanvragen en het zwevende IP-adres is niet meer beschikbaar.
    Voor bestaande Pacemaker-clusters is het in het verleden aanbevolen om netcat te vervangen door socat. Momenteel wordt u aangeraden azure-lb resource agent te gebruiken, die deel uitmaakt van pakketresource-agents, met de volgende pakketversievereisten:

    • Voor SLES 12 SP4/SP5 moet de versie ten minste resource-agents-4.3.018.a7fb5035-3.30.1 zijn.
    • Voor SLES 15/15 SP1 moet de versie ten minste resource-agents-4.3.0184.6ee15eb2-4.13.1 zijn.

    Houd er rekening mee dat de wijziging korte downtime vereist.
    Als voor bestaande Pacemaker-clusters de configuratie al is gewijzigd voor het gebruik van socat, zoals beschreven in Azure Load-Balancer Detection Hardening, is het niet nodig om onmiddellijk over te schakelen naar azure-lb resource agent.

    sudo crm configure rsc_defaults resource-stickiness="200"
    
    # Enable maintenance mode
    sudo crm configure property maintenance-mode=true
    
    sudo crm configure primitive drbd_NW1_nfs \
      ocf:linbit:drbd \
      params drbd_resource="NW1-nfs" \
      op monitor interval="15" role="Master" \
      op monitor interval="30" role="Slave"
    
    sudo crm configure ms ms-drbd_NW1_nfs drbd_NW1_nfs \
      meta master-max="1" master-node-max="1" clone-max="2" \
      clone-node-max="1" notify="true" interleave="true"
    
    sudo crm configure primitive fs_NW1_sapmnt \
      ocf:heartbeat:Filesystem \
      params device=/dev/drbd0 \
      directory=/srv/nfs/NW1  \
      fstype=xfs \
      op monitor interval="10s"
    
    sudo crm configure primitive nfsserver systemd:nfs-server \
      op monitor interval="30s"
    sudo crm configure clone cl-nfsserver nfsserver
    
    sudo crm configure primitive exportfs_NW1 \
      ocf:heartbeat:exportfs \
      params directory="/srv/nfs/NW1" \
      options="rw,no_root_squash,crossmnt" clientspec="*" fsid=1 wait_for_leasetime_on_stop=true op monitor interval="30s"
    
    sudo crm configure primitive vip_NW1_nfs \
      IPaddr2 \
      params ip=10.0.0.4 cidr_netmask=24 op monitor interval=10 timeout=20
    
    sudo crm configure primitive nc_NW1_nfs azure-lb port=61000
    
    sudo crm configure group g-NW1_nfs \
      fs_NW1_sapmnt exportfs_NW1 nc_NW1_nfs vip_NW1_nfs
    
    sudo crm configure order o-NW1_drbd_before_nfs inf: \
      ms-drbd_NW1_nfs:promote g-NW1_nfs:start
    
    sudo crm configure colocation col-NW1_nfs_on_drbd inf: \
      g-NW1_nfs ms-drbd_NW1_nfs:Master
    
  2. [1] Voeg de NFS-drbd-apparaten voor SAP-systeem NW2 toe aan de clusterconfiguratie

    # Enable maintenance mode
    sudo crm configure property maintenance-mode=true
    
    sudo crm configure primitive drbd_NW2_nfs \
      ocf:linbit:drbd \
      params drbd_resource="NW2-nfs" \
      op monitor interval="15" role="Master" \
      op monitor interval="30" role="Slave"
    
    sudo crm configure ms ms-drbd_NW2_nfs drbd_NW2_nfs \
      meta master-max="1" master-node-max="1" clone-max="2" \
      clone-node-max="1" notify="true" interleave="true"
    
    sudo crm configure primitive fs_NW2_sapmnt \
      ocf:heartbeat:Filesystem \
      params device=/dev/drbd1 \
      directory=/srv/nfs/NW2  \
      fstype=xfs \
      op monitor interval="10s"
    
    sudo crm configure primitive exportfs_NW2 \
      ocf:heartbeat:exportfs \
      params directory="/srv/nfs/NW2" \
      options="rw,no_root_squash,crossmnt" clientspec="*" fsid=2 wait_for_leasetime_on_stop=true op monitor interval="30s"
    
    sudo crm configure primitive vip_NW2_nfs \
      IPaddr2 \
      params ip=10.0.0.5 cidr_netmask=24 op monitor interval=10 timeout=20
    
    sudo crm configure primitive nc_NW2_nfs azure-lb port=61001
    
    sudo crm configure group g-NW2_nfs \
      fs_NW2_sapmnt exportfs_NW2 nc_NW2_nfs vip_NW2_nfs
    
    sudo crm configure order o-NW2_drbd_before_nfs inf: \
      ms-drbd_NW2_nfs:promote g-NW2_nfs:start
    
    sudo crm configure colocation col-NW2_nfs_on_drbd inf: \
      g-NW2_nfs ms-drbd_NW2_nfs:Master
    

    De optie in de clusterresources is aanwezig in onze documentatie voor achterwaartse compatibiliteit crossmnt exportfs met oudere SLES-versies.

  3. [1] Onderhoudsmodus uitschakelen

    sudo crm configure property maintenance-mode=false
    

Volgende stappen