vysoká dostupnost pro NFS na virtuálních počítačích Azure na SUSE Linux Enterprise Server
Tento článek popisuje, jak nasadit virtuální počítače, nakonfigurovat virtuální počítače, nainstalovat architekturu clusteru a nainstalovat vysoce dostupný server NFS, který se dá použít k ukládání sdílených dat vysoce dostupného systému SAP. Tato příručka popisuje, jak nastavit vysoce dostupný server NFS, který se používá dvěma systémy SAP, NW1 a NW2. Názvy prostředků (například virtuální počítače, virtuální sítě) v příkladu předpokládají, že jste použili šablonu souborového serveru SAP s předponou prostředků výr.
Poznámka
Tento článek obsahuje odkazy na podřízené a hlavní pravidla, které Microsoft už nepoužívá. Po odebrání podmínek ze softwaru je odebereme z tohoto článku.
Nejprve si přečtěte následující poznámky a dokumenty SAP
Poznámka 1928533pro SAP obsahuje:
- Seznam velikostí virtuálních počítačů Azure, které jsou podporované pro nasazení softwaru SAP
- Důležité informace o kapacitě pro velikosti virtuálních počítačů Azure
- Podporovaný software SAP a kombinace operačního systému (OS) a databáze
- požadovaná verze jádra SAP pro Windows a Linux v Microsoft Azure
SAP Note 2015553 uvádí požadavky na nasazení softwaru SAP podporovaná službou SAP v Azure.
pro aplikace sap poznámka 2205917 se doporučuje nastavení operačního systému pro SUSE Linux Enterprise Server pro aplikace SAP.
poznámka SAP poznámka 1944799 obsahuje pokyny pro SAP HANA SUSE Linux Enterprise Server pro aplikace sap.
Pro SAP Note 2178632 najdete podrobné informace o všech metrikách monitorování hlášených pro SAP v Azure.
V případě SAP Poznámka 2191498 je požadovaná verze agenta hostitele SAP pro Linux v Azure.
Poznámka SAP Poznámka 2243692 obsahuje informace o LICENCOVÁNí SAP v systému Linux v Azure.
poznámka SAP poznámky 1984787 obsahuje obecné informace o SUSE Linux Enterprise Server 12.
V části SAP Note 1999351 najdete další informace o odstraňování potíží pro rozšíření Azure Enhanced Monitoring pro SAP.
sap Community WIKI má všechny požadované poznámky SAP pro Linux.
Plánování a implementace služby Azure Virtual Machines pro SAP v systému Linux
Nasazení Azure Virtual Machines pro SAP v systému Linux (Tento článek)
Nasazení Azure Virtual Machines DBMS pro SAP v systému Linux
příručky k osvědčeným postupům pro SUSE Linux Enterprise s vysokou dostupností pro 12 SP3
- vysoce dostupný Storage systému souborů NFS s DRBD a Pacemaker
příručky k osvědčeným postupům SUSE Linux Enterprise Server pro SAP applications 12 SP3
Zpráva k vydání verze SUSE High Availability Extension 12 SP3
Přehled
Pro zajištění vysoké dostupnosti vyžaduje SAP NetWeaver Server NFS. Server NFS je nakonfigurovaný v samostatném clusteru a může ho používat víc systémů SAP.

Server NFS používá vyhrazený virtuální název hostitele a virtuální IP adresy pro každý systém SAP, který používá tento server NFS. V Azure se nástroj pro vyrovnávání zatížení vyžaduje k použití virtuální IP adresy. Následující seznam uvádí konfiguraci nástroje pro vyrovnávání zatížení.
- Konfigurace front-endu
- IP adresa 10.0.0.4 pro NW1
- IP adresa 10.0.0.5 pro NW2
- Konfigurace back-endu
- Připojeno k primárním síťovým rozhraním všech virtuálních počítačů, které by měly být součástí clusteru systému souborů NFS
- Port testu paměti
- Port 61000 pro NW1
- Port 61001 pro NW2
- Pravidla vyrovnávání zatížení (Pokud se používá základní nástroj pro vyrovnávání zatížení)
- 2049 TCP pro NW1
- 2049 UDP pro NW1
- 2049 TCP pro NW2
- 2049 UDP pro NW2
Nastavení vysoce dostupného serveru NFS
můžete buď použít šablonu azure z GitHub k nasazení všech požadovaných prostředků azure, včetně virtuálních počítačů, skupiny dostupnosti a nástroje pro vyrovnávání zatížení, nebo můžete prostředky nasadit ručně.
Nasazení systému Linux prostřednictvím šablony Azure
Azure Marketplace obsahuje obrázek pro SUSE Linux Enterprise Server aplikace SAP 12, které můžete použít k nasazení nových virtuálních počítačů. k nasazení všech požadovaných prostředků můžete použít jednu z šablon pro rychlý start v GitHub. Šablona nasadí virtuální počítače, nástroj pro vyrovnávání zatížení, skupinu dostupnosti atd. Pomocí těchto kroků nasaďte šablonu:
- Otevřete šablonu souborového serveru SAP v Azure Portal
- Zadejte následující parametry.
- Předpona prostředku
Zadejte předponu, kterou chcete použít. Hodnota se používá jako předpona pro nasazené prostředky. - Počet systémů SAP
Zadejte počet systémů SAP, které budou používat tento souborový server. Tím se nasadí požadované množství konfigurací front-endu, pravidel vyrovnávání zatížení, portů sondy, disků atd. - Typ operačního systému
Vyberte jednu ze distribucí systému Linux. V tomto příkladu vyberte SLES 12. - Uživatelské jméno správce a heslo správce
Vytvoří se nový uživatel, který se dá použít k přihlášení k počítači. - ID podsítě
Pokud chcete virtuální počítač nasadit do existující virtuální sítě, kde máte definovanou podsíť, ke které je potřeba přiřadit virtuální počítač, pojmenujte ID této konkrétní podsítě. ID obvykle vypadá jako/Subscriptions/< ID > odběru/ResourceGroups/název < > skupiny prostředků**< >** /Providers/Microsoft.Network/virtualNetworks/název < virtuální sítě >/subnets/název podsítě
- Předpona prostředku
Ruční nasazení Linux pomocí Azure Portal
Nejprve je třeba vytvořit virtuální počítače pro tento cluster systému souborů NFS. Následně vytvoříte Nástroj pro vyrovnávání zatížení a použijete virtuální počítače ve fondech back-endu.
- Vytvoření skupiny prostředků
- Vytvoření virtuální sítě
- Vytvoření skupiny dostupnosti
Nastavit maximální aktualizační doménu - Vytvoření virtuálního počítače 1 použijte minimálně SLES4SAP 12 SP3. v tomto příkladu se používá SLES4SAP 12 SP3 BYOS image SLES for SAP Applications 12 SP3 (BYOS).
Vybrat skupinu dostupnosti vytvořenou dříve - Vytvořte virtuální počítač 2 použijte minimálně SLES4SAP 12 SP3, v tomto příkladu se BYOS image SLES4SAP 12 SP3.
SLES for SAP Applications 12 SP3 (BYOS) se používá
Vybrat skupinu dostupnosti vytvořenou dříve - Přidejte jeden datový disk pro každý systém SAP do obou virtuálních počítačů.
- Vytvořte Load Balancer (interní). Doporučujeme standardní nástroj pro vyrovnávání zatížení.
- Při vytváření standardního nástroje pro vyrovnávání zatížení postupujte podle těchto pokynů:
- Vytvoření IP adresy front-endu
- IP adresa 10.0.0.4 pro NW1
- Otevřete nástroj pro vyrovnávání zatížení, vyberte front-end IP fond a klikněte na Přidat.
- Zadejte název nového front-endu fondu IP adres (například nw1-front-end).
- Nastavte Přiřazení na Statické a zadejte IP adresu (například 10.0.0.4).
- Klikněte na OK.
- IP adresa 10.0.0.5 pro NW2
- Zopakujte výše uvedené kroky pro NW2.
- IP adresa 10.0.0.4 pro NW1
- Vytvoření back-endové fondy
- Připojení k primárním síťovým rozhraním všech virtuálních počítačů, které by měly být součástí clusteru NFS
- Otevřete nástroj pro vyrovnávání zatížení, vyberte back-endové fondy a klikněte na Přidat.
- Zadejte název nového back-end fondu (například nw-backend).
- Vyberte Virtual Network
- Klikněte na Přidat virtuální počítač.
- Vyberte virtuální počítače clusteru NFS a jejich IP adresy.
- Klikněte na Přidat.
- Připojení k primárním síťovým rozhraním všech virtuálních počítačů, které by měly být součástí clusteru NFS
- Vytvoření sond stavu
- Port 61000 pro NW1
- Otevřete nástroj pro vyrovnávání zatížení, vyberte sondy stavu a klikněte na Přidat.
- Zadejte název nové sondy stavu (například nw1-hp).
- Jako protokol vyberte TCP, port 610 00, podržte Interval 5 a Prahovou hodnotu špatného stavu 2.
- Klikněte na OK.
- Port 61001 pro NW2
- Opakováním výše uvedených kroků vytvořte sondu stavu pro NW2.
- Port 61000 pro NW1
- Pravidla vyrovnávání zatížení
- Otevřete nástroj pro vyrovnávání zatížení, vyberte pravidla vyrovnávání zatížení a klikněte na Přidat.
- Zadejte název nového pravidla nástroje pro vyrovnávání zatížení (například nw1-lb).
- Vyberte front-endovou IP adresu, back-endový fond a sondu stavu, které jste vytvořili dříve (například nw1-front-end. nw-backend a nw1-hp)
- Vyberte Porty pro haše.
- Nezapomeňte povolit plovoucí IP adresu.
- Klikněte na OK.
- Opakováním výše uvedeného postupu vytvořte pravidlo vyrovnávání zatížení pro NW2.
- Vytvoření IP adresy front-endu
- Případně pokud váš scénář vyžaduje nástroj pro vyrovnávání zatížení basic, postupujte podle těchto pokynů:
- Vytvoření front-endových IP adres
- IP adresa 10.0.0.4 pro NW1
- Otevřete nástroj pro vyrovnávání zatížení, vyberte front-endový fond IP adres a klikněte na Přidat.
- Zadejte název nového front-endu fondu IP adres (například nw1-front-end).
- Nastavte Přiřazení na Statické a zadejte IP adresu (například 10.0.0.4).
- Klikněte na OK.
- IP adresa 10.0.0.5 pro NW2
- Zopakujte výše uvedené kroky pro NW2.
- IP adresa 10.0.0.4 pro NW1
- Vytvoření back-endové fondy
- Připojení k primárním síťovým rozhraním všech virtuálních počítačů, které by měly být součástí clusteru NFS
- Otevřete nástroj pro vyrovnávání zatížení, vyberte back-endové fondy a klikněte na Přidat.
- Zadejte název nového back-end fondu (například nw-backend).
- Klikněte na Přidat virtuální počítač.
- Vyberte dříve vytvořenou sadu dostupnosti.
- Výběr virtuálních počítačů clusteru NFS
- Klikněte na OK.
- Připojení k primárním síťovým rozhraním všech virtuálních počítačů, které by měly být součástí clusteru NFS
- Vytvoření sond stavu
- Port 61000 pro NW1
- Otevřete nástroj pro vyrovnávání zatížení, vyberte sondy stavu a klikněte na Přidat.
- Zadejte název nové sondy stavu (například nw1-hp).
- Jako protokol vyberte TCP, port 610 00, podržte Interval 5 a Prahovou hodnotu špatného stavu 2.
- Klikněte na OK.
- Port 61001 pro NW2
- Opakováním výše uvedených kroků vytvořte sondu stavu pro NW2.
- Port 61000 pro NW1
- Pravidla vyrovnávání zatížení
- 2049 TCP pro NW1
- Otevřete nástroj pro vyrovnávání zatížení, vyberte Pravidla vyrovnávání zatížení a klikněte na Přidat.
- Zadejte název nového pravidla nástroje pro vyrovnávání zatížení (například nw1-lb-2049).
- Vyberte front-endovou IP adresu, back-endový fond a sondu stavu, které jste vytvořili dříve (například nw1-front-end).
- Podržte protokol TCP a zadejte port 2049.
- Zvýšení časového limitu nečinnosti na 30 minut
- Nezapomeňte povolit plovoucí IP adresu.
- Klikněte na OK.
- 2049 UDP pro NW1
- Zopakujte výše uvedené kroky pro porty 2049 a UDP pro NW1.
- 2049 TCP pro NW2
- Zopakujte výše uvedené kroky pro port 2049 a TCP pro NW2.
- 2049 UDP pro NW2
- Zopakujte výše uvedené kroky pro porty 2049 a UDP pro NW2.
- 2049 TCP pro NW1
- Vytvoření front-endových IP adres
- Při vytváření standardního nástroje pro vyrovnávání zatížení postupujte podle těchto pokynů:
Důležité
Plovoucí IP adresa není podporována v konfiguraci sekundární IP adresy síťové karty ve scénářích vyrovnávání zatížení. Podrobnosti najdete v tématu Omezení nástroje pro vyrovnávání zatížení Azure. Pokud pro virtuální počítač potřebujete další IP adresu, nasaďte druhou kartu.
Poznámka
Pokud jsou virtuální počítače bez veřejných IP adres umístěny do back-endového fondu interního nástroje pro vyrovnávání zatížení Azure standardu (bez veřejné IP adresy), nebude k dispozici žádné odchozí připojení k internetu, pokud není provedena další konfigurace umožňující směrování na veřejné koncové body. Podrobnosti o tom, jak dosáhnout odchozího připojení, najdete v tématu Připojení veřejného koncového bodu pro Virtual Machines s využitím Azure Standard Load Balancer ve scénářích SAP s vysokou dostupností.
Důležité
Nepo povolení časových razítek protokolu TCP na virtuálních počítači Azure umístěných za Azure Load Balancer. Povolení časových razítek protokolu TCP způsobí selhání sond stavu. Nastavte net.ipv4.tcp_timestamps parametru na 0. Podrobnosti najdete v Load Balancer sond stavu.
Vytvoření clusteru Pacemaker
Postupujte podle kroků v tématu Nastavení Pacemakeru na linuxovém Enterprise Serveru SUSE v Azure a vytvořte základní cluster Pacemaker pro tento server NFS.
Konfigurace serveru NFS
Následující položky mají předponu [A] – platí pro všechny uzly [1] – platí jenom pro uzel 1 nebo [2] – platí jenom pro uzel 2.
[A] Nastavení překladu názvů hostitelů
Můžete použít server DNS nebo upravit /etc/hosts na všech uzlech. Tento příklad ukazuje, jak použít soubor /etc/hosts. V následujících příkazech nahraďte IP adresu a název hostitele.
sudo vi /etc/hostsDo souboru /etc/hosts vložte následující řádky. Změňte IP adresu a název hostitele tak, aby odpovídaly vašemu prostředí.
# IP address of the load balancer frontend configuration for NFS 10.0.0.4 nw1-nfs 10.0.0.5 nw2-nfs[A] Povolení serveru NFS
Vytvoření položky exportu kořenového systému souborů NFS
sudo sh -c 'echo /srv/nfs/ *\(rw,no_root_squash,fsid=0\)>/etc/exports' sudo mkdir /srv/nfs/[A] Instalace komponent drbd
sudo zypper install drbd drbd-kmp-default drbd-utils[A] Vytvoření oddílu pro zařízení drbd
Zobrazení seznamu všech dostupných datových disků
sudo ls /dev/disk/azure/scsi1/Příklad výstupu
lun0 lun1Vytvoření oddílů pro každý datový disk
sudo sh -c 'echo -e "n\n\n\n\n\nw\n" | fdisk /dev/disk/azure/scsi1/lun0' sudo sh -c 'echo -e "n\n\n\n\n\nw\n" | fdisk /dev/disk/azure/scsi1/lun1'[A] Vytvoření konfigurací LVM
Zobrazení seznamu všech dostupných oddílů
ls /dev/disk/azure/scsi1/lun*-part*Příklad výstupu
/dev/disk/azure/scsi1/lun0-part1 /dev/disk/azure/scsi1/lun1-part1Vytvoření svazků LVM pro každý oddíl
sudo pvcreate /dev/disk/azure/scsi1/lun0-part1 sudo vgcreate vg-NW1-NFS /dev/disk/azure/scsi1/lun0-part1 sudo lvcreate -l 100%FREE -n NW1 vg-NW1-NFS sudo pvcreate /dev/disk/azure/scsi1/lun1-part1 sudo vgcreate vg-NW2-NFS /dev/disk/azure/scsi1/lun1-part1 sudo lvcreate -l 100%FREE -n NW2 vg-NW2-NFS[A] Konfigurace drbd
sudo vi /etc/drbd.confUjistěte se, že soubor drbd.conf obsahuje následující dva řádky:
include "drbd.d/global_common.conf"; include "drbd.d/*.res";Změna globální konfigurace drbd
sudo vi /etc/drbd.d/global_common.confPřidejte následující položky do oddílu obslužné rutiny a net.
global { usage-count no; } common { handlers { fence-peer "/usr/lib/drbd/crm-fence-peer.sh"; after-resync-target "/usr/lib/drbd/crm-unfence-peer.sh"; split-brain "/usr/lib/drbd/notify-split-brain.sh root"; pri-lost-after-sb "/usr/lib/drbd/notify-pri-lost-after-sb.sh; /usr/lib/drbd/notify-emergency-reboot.sh; echo b > /proc/sysrq-trigger ; reboot -f"; } startup { wfc-timeout 0; } options { } disk { md-flushes yes; disk-flushes yes; c-plan-ahead 1; c-min-rate 100M; c-fill-target 20M; c-max-rate 4G; } net { after-sb-0pri discard-younger-primary; after-sb-1pri discard-secondary; after-sb-2pri call-pri-lost-after-sb; protocol C; tcp-cork yes; max-buffers 20000; max-epoch-size 20000; sndbuf-size 0; rcvbuf-size 0; } }[A] Vytvoření zařízení NFS drbd
sudo vi /etc/drbd.d/NW1-nfs.resVložte konfiguraci nového zařízení drbd a ukončete ho.
resource NW1-nfs { protocol C; disk { on-io-error detach; } on prod-nfs-0 { address 10.0.0.6:7790; device /dev/drbd0; disk /dev/vg-NW1-NFS/NW1; meta-disk internal; } on prod-nfs-1 { address 10.0.0.7:7790; device /dev/drbd0; disk /dev/vg-NW1-NFS/NW1; meta-disk internal; } }sudo vi /etc/drbd.d/NW2-nfs.resVložte konfiguraci nového zařízení drbd a ukončete ho.
resource NW2-nfs { protocol C; disk { on-io-error detach; } on prod-nfs-0 { address 10.0.0.6:7791; device /dev/drbd1; disk /dev/vg-NW2-NFS/NW2; meta-disk internal; } on prod-nfs-1 { address 10.0.0.7:7791; device /dev/drbd1; disk /dev/vg-NW2-NFS/NW2; meta-disk internal; } }Vytvoření zařízení drbd a jeho spuštění
sudo drbdadm create-md NW1-nfs sudo drbdadm create-md NW2-nfs sudo drbdadm up NW1-nfs sudo drbdadm up NW2-nfs[1] Přeskočení počáteční synchronizace
sudo drbdadm new-current-uuid --clear-bitmap NW1-nfs sudo drbdadm new-current-uuid --clear-bitmap NW2-nfs[1] Nastavení primárního uzlu
sudo drbdadm primary --force NW1-nfs sudo drbdadm primary --force NW2-nfs[1] Počkejte na synchronizaci nových zařízení drbd.
sudo drbdsetup wait-sync-resource NW1-nfs sudo drbdsetup wait-sync-resource NW2-nfs[1] Vytvoření systémů souborů na zařízeních drbd
sudo mkfs.xfs /dev/drbd0 sudo mkdir /srv/nfs/NW1 sudo chattr +i /srv/nfs/NW1 sudo mount -t xfs /dev/drbd0 /srv/nfs/NW1 sudo mkdir /srv/nfs/NW1/sidsys sudo mkdir /srv/nfs/NW1/sapmntsid sudo mkdir /srv/nfs/NW1/trans sudo mkdir /srv/nfs/NW1/ASCS sudo mkdir /srv/nfs/NW1/ASCSERS sudo mkdir /srv/nfs/NW1/SCS sudo mkdir /srv/nfs/NW1/SCSERS sudo umount /srv/nfs/NW1 sudo mkfs.xfs /dev/drbd1 sudo mkdir /srv/nfs/NW2 sudo chattr +i /srv/nfs/NW2 sudo mount -t xfs /dev/drbd1 /srv/nfs/NW2 sudo mkdir /srv/nfs/NW2/sidsys sudo mkdir /srv/nfs/NW2/sapmntsid sudo mkdir /srv/nfs/NW2/trans sudo mkdir /srv/nfs/NW2/ASCS sudo mkdir /srv/nfs/NW2/ASCSERS sudo mkdir /srv/nfs/NW2/SCS sudo mkdir /srv/nfs/NW2/SCSERS sudo umount /srv/nfs/NW2[A] Nastavení detekce rozdělených mozku drbd
Při použití drbd k synchronizaci dat z jednoho hostitele do druhého může dojít k tzv. rozdělené mozku. Rozdělený mozek je scénář, ve kterém oba uzly clusteru povýšili zařízení drbd jako primární a přešel mimo synchronizaci. Může to být vzácná situace, ale přesto chcete zvládnout a vyřešit rozdělený mozek co nejrychleji. Proto je důležité být upozorněni na to, že došlo k rozdělení mozku.
Přečtěte si oficiální dokumentaci drbd o tom, jak nastavit oznámení "rozdělený mozek".
Je také možné se automaticky zotavit ze scénáře s rozdělením mozku. Další informace najdete v části Zásady automatického rozdělení mozku.
Konfigurace architektury clusteru
[1] Přidání zařízení NFS drbd pro systém SAP NW1 do konfigurace clusteru
Důležité
Nedávné testování odhalilo situace, kdy netcat přestane reagovat na požadavky kvůli backlogu a omezení zpracování pouze jednoho připojení. Prostředek netcat přestane naslouchat požadavkům nástroje pro vyrovnávání zatížení Azure a plovoucí IP adresa se stane nedostupnou.
U stávajících clusterů Pacemaker doporučujeme v minulosti nahradit netcat za socat. V současné době doporučujeme použít agenta prostředků azure-lb, který je součástí balíčku resource-agents, s následujícími požadavky na verzi balíčku:- Pro SLES 12 SP4/SP5 musí být verze alespoň resource-agents-4.3.018.a7fb5035-3.30.1.
- Pro SLES 15/15 SP1 musí být verze alespoň resource-agents-4.3.0184.6ee15eb2-4.13.1.
Mějte na vědomí, že změna bude vyžadovat krátké výpadky.
Pokud se konfigurace stávajících clusterů Pacemakeru už změnila na použití socat, jak je popsáno v článku o zabezpečení detekce azure Load-Balancer,není nutné okamžitě přepnout na agenta prostředků azure-lb.sudo crm configure rsc_defaults resource-stickiness="200" # Enable maintenance mode sudo crm configure property maintenance-mode=true sudo crm configure primitive drbd_NW1_nfs \ ocf:linbit:drbd \ params drbd_resource="NW1-nfs" \ op monitor interval="15" role="Master" \ op monitor interval="30" role="Slave" sudo crm configure ms ms-drbd_NW1_nfs drbd_NW1_nfs \ meta master-max="1" master-node-max="1" clone-max="2" \ clone-node-max="1" notify="true" interleave="true" sudo crm configure primitive fs_NW1_sapmnt \ ocf:heartbeat:Filesystem \ params device=/dev/drbd0 \ directory=/srv/nfs/NW1 \ fstype=xfs \ op monitor interval="10s" sudo crm configure primitive nfsserver systemd:nfs-server \ op monitor interval="30s" sudo crm configure clone cl-nfsserver nfsserver sudo crm configure primitive exportfs_NW1 \ ocf:heartbeat:exportfs \ params directory="/srv/nfs/NW1" \ options="rw,no_root_squash,crossmnt" clientspec="*" fsid=1 wait_for_leasetime_on_stop=true op monitor interval="30s" sudo crm configure primitive vip_NW1_nfs \ IPaddr2 \ params ip=10.0.0.4 cidr_netmask=24 op monitor interval=10 timeout=20 sudo crm configure primitive nc_NW1_nfs azure-lb port=61000 sudo crm configure group g-NW1_nfs \ fs_NW1_sapmnt exportfs_NW1 nc_NW1_nfs vip_NW1_nfs sudo crm configure order o-NW1_drbd_before_nfs inf: \ ms-drbd_NW1_nfs:promote g-NW1_nfs:start sudo crm configure colocation col-NW1_nfs_on_drbd inf: \ g-NW1_nfs ms-drbd_NW1_nfs:Master[1] Přidejte do konfigurace clusteru zařízení NFS drbd pro systém SAP NW2.
# Enable maintenance mode sudo crm configure property maintenance-mode=true sudo crm configure primitive drbd_NW2_nfs \ ocf:linbit:drbd \ params drbd_resource="NW2-nfs" \ op monitor interval="15" role="Master" \ op monitor interval="30" role="Slave" sudo crm configure ms ms-drbd_NW2_nfs drbd_NW2_nfs \ meta master-max="1" master-node-max="1" clone-max="2" \ clone-node-max="1" notify="true" interleave="true" sudo crm configure primitive fs_NW2_sapmnt \ ocf:heartbeat:Filesystem \ params device=/dev/drbd1 \ directory=/srv/nfs/NW2 \ fstype=xfs \ op monitor interval="10s" sudo crm configure primitive exportfs_NW2 \ ocf:heartbeat:exportfs \ params directory="/srv/nfs/NW2" \ options="rw,no_root_squash,crossmnt" clientspec="*" fsid=2 wait_for_leasetime_on_stop=true op monitor interval="30s" sudo crm configure primitive vip_NW2_nfs \ IPaddr2 \ params ip=10.0.0.5 cidr_netmask=24 op monitor interval=10 timeout=20 sudo crm configure primitive nc_NW2_nfs azure-lb port=61001 sudo crm configure group g-NW2_nfs \ fs_NW2_sapmnt exportfs_NW2 nc_NW2_nfs vip_NW2_nfs sudo crm configure order o-NW2_drbd_before_nfs inf: \ ms-drbd_NW2_nfs:promote g-NW2_nfs:start sudo crm configure colocation col-NW2_nfs_on_drbd inf: \ g-NW2_nfs ms-drbd_NW2_nfs:MasterMožnost
crossmntvexportfszdrojích clusteru je k dispozici v naší dokumentaci pro zpětnou kompatibilitu se staršími verzemi SLES.[1] Zakázání režimu údržby
sudo crm configure property maintenance-mode=false
Další kroky
- Instalace SAP ASCS a databáze
- Azure Virtual Machines plánování a implementace pro SAP
- Nasazení Virtual Machines Azure pro SAP
- Nasazení Azure Virtual Machines DBMS pro SAP
- Informace o tom, jak vytvořit vysokou dostupnost a naplánovat zotavení po havárii SAP HANA na virtuálních počítači Azure, najdete v tématu Vysoká dostupnost SAP HANA na virtuálních Virtual Machines Azure.