vysoká dostupnost pro NFS na virtuálních počítačích Azure na SUSE Linux Enterprise Server

Tento článek popisuje, jak nasadit virtuální počítače, nakonfigurovat virtuální počítače, nainstalovat architekturu clusteru a nainstalovat vysoce dostupný server NFS, který se dá použít k ukládání sdílených dat vysoce dostupného systému SAP. Tato příručka popisuje, jak nastavit vysoce dostupný server NFS, který se používá dvěma systémy SAP, NW1 a NW2. Názvy prostředků (například virtuální počítače, virtuální sítě) v příkladu předpokládají, že jste použili šablonu souborového serveru SAP s předponou prostředků výr.

Poznámka

Tento článek obsahuje odkazy na podřízené a hlavní pravidla, které Microsoft už nepoužívá. Po odebrání podmínek ze softwaru je odebereme z tohoto článku.

Nejprve si přečtěte následující poznámky a dokumenty SAP

Přehled

Pro zajištění vysoké dostupnosti vyžaduje SAP NetWeaver Server NFS. Server NFS je nakonfigurovaný v samostatném clusteru a může ho používat víc systémů SAP.

Přehled vysoké dostupnosti SAP NetWeaver

Server NFS používá vyhrazený virtuální název hostitele a virtuální IP adresy pro každý systém SAP, který používá tento server NFS. V Azure se nástroj pro vyrovnávání zatížení vyžaduje k použití virtuální IP adresy. Následující seznam uvádí konfiguraci nástroje pro vyrovnávání zatížení.

  • Konfigurace front-endu
    • IP adresa 10.0.0.4 pro NW1
    • IP adresa 10.0.0.5 pro NW2
  • Konfigurace back-endu
    • Připojeno k primárním síťovým rozhraním všech virtuálních počítačů, které by měly být součástí clusteru systému souborů NFS
  • Port testu paměti
    • Port 61000 pro NW1
    • Port 61001 pro NW2
  • Pravidla vyrovnávání zatížení (Pokud se používá základní nástroj pro vyrovnávání zatížení)
    • 2049 TCP pro NW1
    • 2049 UDP pro NW1
    • 2049 TCP pro NW2
    • 2049 UDP pro NW2

Nastavení vysoce dostupného serveru NFS

můžete buď použít šablonu azure z GitHub k nasazení všech požadovaných prostředků azure, včetně virtuálních počítačů, skupiny dostupnosti a nástroje pro vyrovnávání zatížení, nebo můžete prostředky nasadit ručně.

Nasazení systému Linux prostřednictvím šablony Azure

Azure Marketplace obsahuje obrázek pro SUSE Linux Enterprise Server aplikace SAP 12, které můžete použít k nasazení nových virtuálních počítačů. k nasazení všech požadovaných prostředků můžete použít jednu z šablon pro rychlý start v GitHub. Šablona nasadí virtuální počítače, nástroj pro vyrovnávání zatížení, skupinu dostupnosti atd. Pomocí těchto kroků nasaďte šablonu:

  1. Otevřete šablonu souborového serveru SAP v Azure Portal
  2. Zadejte následující parametry.
    1. Předpona prostředku
      Zadejte předponu, kterou chcete použít. Hodnota se používá jako předpona pro nasazené prostředky.
    2. Počet systémů SAP
      Zadejte počet systémů SAP, které budou používat tento souborový server. Tím se nasadí požadované množství konfigurací front-endu, pravidel vyrovnávání zatížení, portů sondy, disků atd.
    3. Typ operačního systému
      Vyberte jednu ze distribucí systému Linux. V tomto příkladu vyberte SLES 12.
    4. Uživatelské jméno správce a heslo správce
      Vytvoří se nový uživatel, který se dá použít k přihlášení k počítači.
    5. ID podsítě
      Pokud chcete virtuální počítač nasadit do existující virtuální sítě, kde máte definovanou podsíť, ke které je potřeba přiřadit virtuální počítač, pojmenujte ID této konkrétní podsítě. ID obvykle vypadá jako/Subscriptions/< ID > odběru/ResourceGroups/název < > skupiny prostředků**< >** /Providers/Microsoft.Network/virtualNetworks/název < virtuální sítě >/subnets/název podsítě

Ruční nasazení Linux pomocí Azure Portal

Nejprve je třeba vytvořit virtuální počítače pro tento cluster systému souborů NFS. Následně vytvoříte Nástroj pro vyrovnávání zatížení a použijete virtuální počítače ve fondech back-endu.

  1. Vytvoření skupiny prostředků
  2. Vytvoření virtuální sítě
  3. Vytvoření skupiny dostupnosti
    Nastavit maximální aktualizační doménu
  4. Vytvoření virtuálního počítače 1 použijte minimálně SLES4SAP 12 SP3. v tomto příkladu se používá SLES4SAP 12 SP3 BYOS image SLES for SAP Applications 12 SP3 (BYOS).
    Vybrat skupinu dostupnosti vytvořenou dříve
  5. Vytvořte virtuální počítač 2 použijte minimálně SLES4SAP 12 SP3, v tomto příkladu se BYOS image SLES4SAP 12 SP3.
    SLES for SAP Applications 12 SP3 (BYOS) se používá
    Vybrat skupinu dostupnosti vytvořenou dříve
  6. Přidejte jeden datový disk pro každý systém SAP do obou virtuálních počítačů.
  7. Vytvořte Load Balancer (interní). Doporučujeme standardní nástroj pro vyrovnávání zatížení.
    1. Při vytváření standardního nástroje pro vyrovnávání zatížení postupujte podle těchto pokynů:
      1. Vytvoření IP adresy front-endu
        1. IP adresa 10.0.0.4 pro NW1
          1. Otevřete nástroj pro vyrovnávání zatížení, vyberte front-end IP fond a klikněte na Přidat.
          2. Zadejte název nového front-endu fondu IP adres (například nw1-front-end).
          3. Nastavte Přiřazení na Statické a zadejte IP adresu (například 10.0.0.4).
          4. Klikněte na OK.
        2. IP adresa 10.0.0.5 pro NW2
          • Zopakujte výše uvedené kroky pro NW2.
      2. Vytvoření back-endové fondy
        1. Připojení k primárním síťovým rozhraním všech virtuálních počítačů, které by měly být součástí clusteru NFS
          1. Otevřete nástroj pro vyrovnávání zatížení, vyberte back-endové fondy a klikněte na Přidat.
          2. Zadejte název nového back-end fondu (například nw-backend).
          3. Vyberte Virtual Network
          4. Klikněte na Přidat virtuální počítač.
          5. Vyberte virtuální počítače clusteru NFS a jejich IP adresy.
          6. Klikněte na Přidat.
      3. Vytvoření sond stavu
        1. Port 61000 pro NW1
          1. Otevřete nástroj pro vyrovnávání zatížení, vyberte sondy stavu a klikněte na Přidat.
          2. Zadejte název nové sondy stavu (například nw1-hp).
          3. Jako protokol vyberte TCP, port 610 00, podržte Interval 5 a Prahovou hodnotu špatného stavu 2.
          4. Klikněte na OK.
        2. Port 61001 pro NW2
          • Opakováním výše uvedených kroků vytvořte sondu stavu pro NW2.
      4. Pravidla vyrovnávání zatížení
        1. Otevřete nástroj pro vyrovnávání zatížení, vyberte pravidla vyrovnávání zatížení a klikněte na Přidat.
        2. Zadejte název nového pravidla nástroje pro vyrovnávání zatížení (například nw1-lb).
        3. Vyberte front-endovou IP adresu, back-endový fond a sondu stavu, které jste vytvořili dříve (například nw1-front-end. nw-backend a nw1-hp)
        4. Vyberte Porty pro haše.
        5. Nezapomeňte povolit plovoucí IP adresu.
        6. Klikněte na OK.
        • Opakováním výše uvedeného postupu vytvořte pravidlo vyrovnávání zatížení pro NW2.
    2. Případně pokud váš scénář vyžaduje nástroj pro vyrovnávání zatížení basic, postupujte podle těchto pokynů:
      1. Vytvoření front-endových IP adres
        1. IP adresa 10.0.0.4 pro NW1
          1. Otevřete nástroj pro vyrovnávání zatížení, vyberte front-endový fond IP adres a klikněte na Přidat.
          2. Zadejte název nového front-endu fondu IP adres (například nw1-front-end).
          3. Nastavte Přiřazení na Statické a zadejte IP adresu (například 10.0.0.4).
          4. Klikněte na OK.
        2. IP adresa 10.0.0.5 pro NW2
          • Zopakujte výše uvedené kroky pro NW2.
      2. Vytvoření back-endové fondy
        1. Připojení k primárním síťovým rozhraním všech virtuálních počítačů, které by měly být součástí clusteru NFS
          1. Otevřete nástroj pro vyrovnávání zatížení, vyberte back-endové fondy a klikněte na Přidat.
          2. Zadejte název nového back-end fondu (například nw-backend).
          3. Klikněte na Přidat virtuální počítač.
          4. Vyberte dříve vytvořenou sadu dostupnosti.
          5. Výběr virtuálních počítačů clusteru NFS
          6. Klikněte na OK.
      3. Vytvoření sond stavu
        1. Port 61000 pro NW1
          1. Otevřete nástroj pro vyrovnávání zatížení, vyberte sondy stavu a klikněte na Přidat.
          2. Zadejte název nové sondy stavu (například nw1-hp).
          3. Jako protokol vyberte TCP, port 610 00, podržte Interval 5 a Prahovou hodnotu špatného stavu 2.
          4. Klikněte na OK.
        2. Port 61001 pro NW2
          • Opakováním výše uvedených kroků vytvořte sondu stavu pro NW2.
      4. Pravidla vyrovnávání zatížení
        1. 2049 TCP pro NW1
          1. Otevřete nástroj pro vyrovnávání zatížení, vyberte Pravidla vyrovnávání zatížení a klikněte na Přidat.
          2. Zadejte název nového pravidla nástroje pro vyrovnávání zatížení (například nw1-lb-2049).
          3. Vyberte front-endovou IP adresu, back-endový fond a sondu stavu, které jste vytvořili dříve (například nw1-front-end).
          4. Podržte protokol TCP a zadejte port 2049.
          5. Zvýšení časového limitu nečinnosti na 30 minut
          6. Nezapomeňte povolit plovoucí IP adresu.
          7. Klikněte na OK.
        2. 2049 UDP pro NW1
          • Zopakujte výše uvedené kroky pro porty 2049 a UDP pro NW1.
        3. 2049 TCP pro NW2
          • Zopakujte výše uvedené kroky pro port 2049 a TCP pro NW2.
        4. 2049 UDP pro NW2
          • Zopakujte výše uvedené kroky pro porty 2049 a UDP pro NW2.

Důležité

Plovoucí IP adresa není podporována v konfiguraci sekundární IP adresy síťové karty ve scénářích vyrovnávání zatížení. Podrobnosti najdete v tématu Omezení nástroje pro vyrovnávání zatížení Azure. Pokud pro virtuální počítač potřebujete další IP adresu, nasaďte druhou kartu.

Poznámka

Pokud jsou virtuální počítače bez veřejných IP adres umístěny do back-endového fondu interního nástroje pro vyrovnávání zatížení Azure standardu (bez veřejné IP adresy), nebude k dispozici žádné odchozí připojení k internetu, pokud není provedena další konfigurace umožňující směrování na veřejné koncové body. Podrobnosti o tom, jak dosáhnout odchozího připojení, najdete v tématu Připojení veřejného koncového bodu pro Virtual Machines s využitím Azure Standard Load Balancer ve scénářích SAP s vysokou dostupností.

Důležité

Nepo povolení časových razítek protokolu TCP na virtuálních počítači Azure umístěných za Azure Load Balancer. Povolení časových razítek protokolu TCP způsobí selhání sond stavu. Nastavte net.ipv4.tcp_timestamps parametru na 0. Podrobnosti najdete v Load Balancer sond stavu.

Vytvoření clusteru Pacemaker

Postupujte podle kroků v tématu Nastavení Pacemakeru na linuxovém Enterprise Serveru SUSE v Azure a vytvořte základní cluster Pacemaker pro tento server NFS.

Konfigurace serveru NFS

Následující položky mají předponu [A] – platí pro všechny uzly [1] – platí jenom pro uzel 1 nebo [2] – platí jenom pro uzel 2.

  1. [A] Nastavení překladu názvů hostitelů

    Můžete použít server DNS nebo upravit /etc/hosts na všech uzlech. Tento příklad ukazuje, jak použít soubor /etc/hosts. V následujících příkazech nahraďte IP adresu a název hostitele.

    sudo vi /etc/hosts
    

    Do souboru /etc/hosts vložte následující řádky. Změňte IP adresu a název hostitele tak, aby odpovídaly vašemu prostředí.

    # IP address of the load balancer frontend configuration for NFS
    10.0.0.4 nw1-nfs
    10.0.0.5 nw2-nfs
    
  2. [A] Povolení serveru NFS

    Vytvoření položky exportu kořenového systému souborů NFS

    sudo sh -c 'echo /srv/nfs/ *\(rw,no_root_squash,fsid=0\)>/etc/exports'
    
    sudo mkdir /srv/nfs/
    
  3. [A] Instalace komponent drbd

    sudo zypper install drbd drbd-kmp-default drbd-utils
    
  4. [A] Vytvoření oddílu pro zařízení drbd

    Zobrazení seznamu všech dostupných datových disků

    sudo ls /dev/disk/azure/scsi1/
    

    Příklad výstupu

    lun0  lun1
    

    Vytvoření oddílů pro každý datový disk

    sudo sh -c 'echo -e "n\n\n\n\n\nw\n" | fdisk /dev/disk/azure/scsi1/lun0'
    sudo sh -c 'echo -e "n\n\n\n\n\nw\n" | fdisk /dev/disk/azure/scsi1/lun1'
    
  5. [A] Vytvoření konfigurací LVM

    Zobrazení seznamu všech dostupných oddílů

    ls /dev/disk/azure/scsi1/lun*-part*
    

    Příklad výstupu

    /dev/disk/azure/scsi1/lun0-part1  /dev/disk/azure/scsi1/lun1-part1
    

    Vytvoření svazků LVM pro každý oddíl

    sudo pvcreate /dev/disk/azure/scsi1/lun0-part1  
    sudo vgcreate vg-NW1-NFS /dev/disk/azure/scsi1/lun0-part1
    sudo lvcreate -l 100%FREE -n NW1 vg-NW1-NFS
    
    sudo pvcreate /dev/disk/azure/scsi1/lun1-part1
    sudo vgcreate vg-NW2-NFS /dev/disk/azure/scsi1/lun1-part1
    sudo lvcreate -l 100%FREE -n NW2 vg-NW2-NFS
    
  6. [A] Konfigurace drbd

    sudo vi /etc/drbd.conf
    

    Ujistěte se, že soubor drbd.conf obsahuje následující dva řádky:

    include "drbd.d/global_common.conf";
    include "drbd.d/*.res";
    

    Změna globální konfigurace drbd

    sudo vi /etc/drbd.d/global_common.conf
    

    Přidejte následující položky do oddílu obslužné rutiny a net.

    global {
         usage-count no;
    }
    common {
         handlers {
              fence-peer "/usr/lib/drbd/crm-fence-peer.sh";
              after-resync-target "/usr/lib/drbd/crm-unfence-peer.sh";
              split-brain "/usr/lib/drbd/notify-split-brain.sh root";
              pri-lost-after-sb "/usr/lib/drbd/notify-pri-lost-after-sb.sh; /usr/lib/drbd/notify-emergency-reboot.sh; echo b > /proc/sysrq-trigger ; reboot -f";
         }
         startup {
              wfc-timeout 0;
         }
         options {
         }
         disk {
              md-flushes yes;
              disk-flushes yes;
              c-plan-ahead 1;
              c-min-rate 100M;
              c-fill-target 20M;
              c-max-rate 4G;
         }
         net {
              after-sb-0pri discard-younger-primary;
              after-sb-1pri discard-secondary;
              after-sb-2pri call-pri-lost-after-sb;
              protocol     C;
              tcp-cork yes;
              max-buffers 20000;
              max-epoch-size 20000;
              sndbuf-size 0;
              rcvbuf-size 0;
         }
    }
    
  7. [A] Vytvoření zařízení NFS drbd

    sudo vi /etc/drbd.d/NW1-nfs.res
    

    Vložte konfiguraci nového zařízení drbd a ukončete ho.

    resource NW1-nfs {
         protocol     C;
         disk {
              on-io-error       detach;
         }
         on prod-nfs-0 {
              address   10.0.0.6:7790;
              device    /dev/drbd0;
              disk      /dev/vg-NW1-NFS/NW1;
              meta-disk internal;
         }
         on prod-nfs-1 {
              address   10.0.0.7:7790;
              device    /dev/drbd0;
              disk      /dev/vg-NW1-NFS/NW1;
              meta-disk internal;
         }
    }
    
    sudo vi /etc/drbd.d/NW2-nfs.res
    

    Vložte konfiguraci nového zařízení drbd a ukončete ho.

    resource NW2-nfs {
         protocol     C;
         disk {
              on-io-error       detach;
         }
         on prod-nfs-0 {
              address   10.0.0.6:7791;
              device    /dev/drbd1;
              disk      /dev/vg-NW2-NFS/NW2;
              meta-disk internal;
         }
         on prod-nfs-1 {
              address   10.0.0.7:7791;
              device    /dev/drbd1;
              disk      /dev/vg-NW2-NFS/NW2;
              meta-disk internal;
         }
    }
    

    Vytvoření zařízení drbd a jeho spuštění

    sudo drbdadm create-md NW1-nfs
    sudo drbdadm create-md NW2-nfs
    sudo drbdadm up NW1-nfs
    sudo drbdadm up NW2-nfs
    
  8. [1] Přeskočení počáteční synchronizace

    sudo drbdadm new-current-uuid --clear-bitmap NW1-nfs
    sudo drbdadm new-current-uuid --clear-bitmap NW2-nfs
    
  9. [1] Nastavení primárního uzlu

    sudo drbdadm primary --force NW1-nfs
    sudo drbdadm primary --force NW2-nfs
    
  10. [1] Počkejte na synchronizaci nových zařízení drbd.

    sudo drbdsetup wait-sync-resource NW1-nfs
    sudo drbdsetup wait-sync-resource NW2-nfs
    
  11. [1] Vytvoření systémů souborů na zařízeních drbd

    sudo mkfs.xfs /dev/drbd0
    sudo mkdir /srv/nfs/NW1
    sudo chattr +i /srv/nfs/NW1
    sudo mount -t xfs /dev/drbd0 /srv/nfs/NW1
    sudo mkdir /srv/nfs/NW1/sidsys
    sudo mkdir /srv/nfs/NW1/sapmntsid
    sudo mkdir /srv/nfs/NW1/trans
    sudo mkdir /srv/nfs/NW1/ASCS
    sudo mkdir /srv/nfs/NW1/ASCSERS
    sudo mkdir /srv/nfs/NW1/SCS
    sudo mkdir /srv/nfs/NW1/SCSERS
    sudo umount /srv/nfs/NW1
    
    sudo mkfs.xfs /dev/drbd1
    sudo mkdir /srv/nfs/NW2
    sudo chattr +i /srv/nfs/NW2
    sudo mount -t xfs /dev/drbd1 /srv/nfs/NW2
    sudo mkdir /srv/nfs/NW2/sidsys
    sudo mkdir /srv/nfs/NW2/sapmntsid
    sudo mkdir /srv/nfs/NW2/trans
    sudo mkdir /srv/nfs/NW2/ASCS
    sudo mkdir /srv/nfs/NW2/ASCSERS
    sudo mkdir /srv/nfs/NW2/SCS
    sudo mkdir /srv/nfs/NW2/SCSERS
    sudo umount /srv/nfs/NW2
    
  12. [A] Nastavení detekce rozdělených mozku drbd

    Při použití drbd k synchronizaci dat z jednoho hostitele do druhého může dojít k tzv. rozdělené mozku. Rozdělený mozek je scénář, ve kterém oba uzly clusteru povýšili zařízení drbd jako primární a přešel mimo synchronizaci. Může to být vzácná situace, ale přesto chcete zvládnout a vyřešit rozdělený mozek co nejrychleji. Proto je důležité být upozorněni na to, že došlo k rozdělení mozku.

    Přečtěte si oficiální dokumentaci drbd o tom, jak nastavit oznámení "rozdělený mozek".

    Je také možné se automaticky zotavit ze scénáře s rozdělením mozku. Další informace najdete v části Zásady automatického rozdělení mozku.

Konfigurace architektury clusteru

  1. [1] Přidání zařízení NFS drbd pro systém SAP NW1 do konfigurace clusteru

    Důležité

    Nedávné testování odhalilo situace, kdy netcat přestane reagovat na požadavky kvůli backlogu a omezení zpracování pouze jednoho připojení. Prostředek netcat přestane naslouchat požadavkům nástroje pro vyrovnávání zatížení Azure a plovoucí IP adresa se stane nedostupnou.
    U stávajících clusterů Pacemaker doporučujeme v minulosti nahradit netcat za socat. V současné době doporučujeme použít agenta prostředků azure-lb, který je součástí balíčku resource-agents, s následujícími požadavky na verzi balíčku:

    • Pro SLES 12 SP4/SP5 musí být verze alespoň resource-agents-4.3.018.a7fb5035-3.30.1.
    • Pro SLES 15/15 SP1 musí být verze alespoň resource-agents-4.3.0184.6ee15eb2-4.13.1.

    Mějte na vědomí, že změna bude vyžadovat krátké výpadky.
    Pokud se konfigurace stávajících clusterů Pacemakeru už změnila na použití socat, jak je popsáno v článku o zabezpečení detekce azure Load-Balancer,není nutné okamžitě přepnout na agenta prostředků azure-lb.

    sudo crm configure rsc_defaults resource-stickiness="200"
    
    # Enable maintenance mode
    sudo crm configure property maintenance-mode=true
    
    sudo crm configure primitive drbd_NW1_nfs \
      ocf:linbit:drbd \
      params drbd_resource="NW1-nfs" \
      op monitor interval="15" role="Master" \
      op monitor interval="30" role="Slave"
    
    sudo crm configure ms ms-drbd_NW1_nfs drbd_NW1_nfs \
      meta master-max="1" master-node-max="1" clone-max="2" \
      clone-node-max="1" notify="true" interleave="true"
    
    sudo crm configure primitive fs_NW1_sapmnt \
      ocf:heartbeat:Filesystem \
      params device=/dev/drbd0 \
      directory=/srv/nfs/NW1  \
      fstype=xfs \
      op monitor interval="10s"
    
    sudo crm configure primitive nfsserver systemd:nfs-server \
      op monitor interval="30s"
    sudo crm configure clone cl-nfsserver nfsserver
    
    sudo crm configure primitive exportfs_NW1 \
      ocf:heartbeat:exportfs \
      params directory="/srv/nfs/NW1" \
      options="rw,no_root_squash,crossmnt" clientspec="*" fsid=1 wait_for_leasetime_on_stop=true op monitor interval="30s"
    
    sudo crm configure primitive vip_NW1_nfs \
      IPaddr2 \
      params ip=10.0.0.4 cidr_netmask=24 op monitor interval=10 timeout=20
    
    sudo crm configure primitive nc_NW1_nfs azure-lb port=61000
    
    sudo crm configure group g-NW1_nfs \
      fs_NW1_sapmnt exportfs_NW1 nc_NW1_nfs vip_NW1_nfs
    
    sudo crm configure order o-NW1_drbd_before_nfs inf: \
      ms-drbd_NW1_nfs:promote g-NW1_nfs:start
    
    sudo crm configure colocation col-NW1_nfs_on_drbd inf: \
      g-NW1_nfs ms-drbd_NW1_nfs:Master
    
  2. [1] Přidejte do konfigurace clusteru zařízení NFS drbd pro systém SAP NW2.

    # Enable maintenance mode
    sudo crm configure property maintenance-mode=true
    
    sudo crm configure primitive drbd_NW2_nfs \
      ocf:linbit:drbd \
      params drbd_resource="NW2-nfs" \
      op monitor interval="15" role="Master" \
      op monitor interval="30" role="Slave"
    
    sudo crm configure ms ms-drbd_NW2_nfs drbd_NW2_nfs \
      meta master-max="1" master-node-max="1" clone-max="2" \
      clone-node-max="1" notify="true" interleave="true"
    
    sudo crm configure primitive fs_NW2_sapmnt \
      ocf:heartbeat:Filesystem \
      params device=/dev/drbd1 \
      directory=/srv/nfs/NW2  \
      fstype=xfs \
      op monitor interval="10s"
    
    sudo crm configure primitive exportfs_NW2 \
      ocf:heartbeat:exportfs \
      params directory="/srv/nfs/NW2" \
      options="rw,no_root_squash,crossmnt" clientspec="*" fsid=2 wait_for_leasetime_on_stop=true op monitor interval="30s"
    
    sudo crm configure primitive vip_NW2_nfs \
      IPaddr2 \
      params ip=10.0.0.5 cidr_netmask=24 op monitor interval=10 timeout=20
    
    sudo crm configure primitive nc_NW2_nfs azure-lb port=61001
    
    sudo crm configure group g-NW2_nfs \
      fs_NW2_sapmnt exportfs_NW2 nc_NW2_nfs vip_NW2_nfs
    
    sudo crm configure order o-NW2_drbd_before_nfs inf: \
      ms-drbd_NW2_nfs:promote g-NW2_nfs:start
    
    sudo crm configure colocation col-NW2_nfs_on_drbd inf: \
      g-NW2_nfs ms-drbd_NW2_nfs:Master
    

    Možnost crossmnt v exportfs zdrojích clusteru je k dispozici v naší dokumentaci pro zpětnou kompatibilitu se staršími verzemi SLES.

  3. [1] Zakázání režimu údržby

    sudo crm configure property maintenance-mode=false
    

Další kroky