Ketersediaan tinggi untuk NFS pada Azure VM pada SUSE Linux Enterprise Server

Artikel ini menjelaskan cara menerapkan komputer virtual, mengonfigurasi komputer virtual, memasang kerangka kerja kluster, dan memasang server NFS yang sangat tersedia yang dapat digunakan untuk menyimpan data bersama dari sistem SAP yang sangat tersedia. Panduan ini menjelaskan cara menyiapkan server NFS yang sangat tersedia yang digunakan oleh dua sistem SAP, NW1 dan NW2. Nama-nama sumber daya (misalnya komputer virtual, jaringan virtual) dalam contoh mengasumsikan bahwa Anda telah menggunakan server file SAP templat dengan awalan sumber daya prod.

Catatan

Artikel ini berisi referensi untuk istilah slave dan master, istilah yang tidak lagi digunakan Microsoft. Saat istilah dihapus dari perangkat lunak, kami akan menghapusnya dari artikel ini.

Baca terlebih dahulu makalah dan Catatan SAP berikut

Gambaran Umum

Untuk mencapai ketersediaan tinggi, SAP NetWeaver memerlukan server NFS. Server NFS dikonfigurasi dalam kluster terpisah dan dapat digunakan oleh beberapa sistem SAP.

Gambaran umum Ketersediaan Tinggi SAP NetWeaver

Server NFS menggunakan nama host virtual khusus dan alamat IP virtual untuk setiap sistem SAP yang menggunakan server NFS ini. Pada Azure, penyeimbang muatan diperlukan untuk menggunakan alamat IP virtual. Daftar berikut menunjukkan konfigurasi penyeimbang muatan.

  • Konfigurasi frontend
    • Alamat IP 10.0.0.4 untuk NW1
    • Alamat IP 10.0.0.5 untuk NW2
  • Konfigurasi backend
    • Tersambung ke antarmuka jaringan utama semua komputer virtual yang harus menjadi bagian dari kluster (A)SCS/ERS
  • Port Pemeriksaan
    • Port 61000 untuk NW1
    • Port 61001 untuk NW2
  • Aturan penyeimbangan beban (jika menggunakan penyeimbang muatan dasar)
    • 2049 TCP untuk NW1
    • 2049 UDP untuk NW1
    • 2049 TCP untuk NW2
    • 2049 UDP untuk NW2

Siapkan server NFS yang sangat tersedia

Anda dapat menggunakan Templat Azure dari GitHub untuk menyebarkan semua sumber daya Azure yang diperlukan, termasuk komputer virtual, kumpulan ketersediaan, dan penyeimbang muatan, atau Anda dapat menyebarkan sumber daya secara manual.

Sebarkan Linux melalui Templat Azure

Marketplace Azure berisi gambar untuk SUSE Linux Enterprise Server untuk Aplikasi SAP 12 yang dapat Anda gunakan untuk menyebarkan komputer virtual baru. Anda dapat menggunakan salah satu templat mulai cepat pada GitHub untuk menyebarkan semua sumber daya yang diperlukan. Templat menyebarkan komputer virtual, penyeimbang muatan, set ketersediaan, dll. Ikuti langkah-langkah berikut untuk menyebarkan templat:

  1. Buka templat SAP server file templat pada portal Microsoft Azure
  2. Masukkan parameter berikut
    1. Awalan Sumber Daya
      Masukkan awalan yang ingin Anda gunakan. Nilai digunakan sebagai awalan untuk sumber daya yang disebarkan.
    2. Hitungan Sistem SAP
      Masukkan jumlah sistem SAP yang akan menggunakan server file ini. Ini akan menyebarkan jumlah konfigurasi frontend yang diperlukan, aturan penyeimbangan beban, port pemeriksaan, disk, dll.
    3. Jenis OS
      Pilih salah satu distribusi Linux. Untuk contoh ini, pilih SLES 12
    4. Nama Pengguna Admin dan Kata Sandi Admin
      Pengguna baru dibuat sehingga dapat digunakan untuk masuk ke komputer.
    5. ID Subnet
      Jika Anda ingin menyebarkan VM ke dalam VNet yang sudah ada di mana Anda memiliki subnet yang ditetapkan untuk VM, beri nama ID untuk subnet spesifik tersebut. ID biasanya terlihat seperti /subscriptions/ <subscription ID> /resourceGroups/ <resource group name> /providers/Microsoft.Network/virtualNetworks/ <virtual network name> /subnets/ <nama subnet>

Sebarkan Linux secara manual melalui portal Microsoft Azure

Pertama-tama Anda perlu membuat komputer virtual untuk kluster NFS ini. Setelah itu, Anda membuat penyeimbang muatan dan menggunakan komputer virtual pada kumpulan backend.

  1. Buat Grup Sumber Daya
  2. Buat Virtual Network
  3. Buat Set Ketersediaan
    Set domain pembaruan maksimal
  4. Buat Komputer Virtual 1 Gunakan setidaknya SLES4SAP 12 SP3, dalam contoh ini menggunakan SLES4SAP 12 SP3 BYOS gambar SLES For SAP Applications 12 SP3 (BYOS)
    Pilih Set Ketersediaan yang sebelumnya dibuat
  5. Buat Komputer Virtual 2 Gunakan setidaknya SLES4SAP 12 SP3, dalam contoh ini adalah gambar BYOS SLES4SAP 12 SP3
    SLES For SAP Applications 12 SP3 (BYOS) digunakan
    Pilih Set Ketersediaan yang sebelumnya dibuat
  6. Tambahkan satu disk data untuk setiap sistem SAP ke kedua komputer virtual.
  7. Buat Load Balancer (internal). Kami menyarankan penyeimbang muatan standar.
    1. Ikuti petunjuk berikut untuk membuat Load Balancer standar:
      1. Buat alamat IP frontend
        1. Alamat IP 10.0.0.4 untuk NW1
          1. Buka penyeimbang muatan, pilih kumpulan IP frontend, lalu pilih Tambahkan
          2. Masukkan nama kumpulan IP frontend baru (misalnya nw1-frontend)
          3. Atur Penugasan ke Statik dan masukkan alamat IP (misalnya 10.0.0.4)
          4. Klik OK
        2. Alamat IP 10.0.0.5 untuk NW2
          • Ulangi langkah-langkah di atas untuk NW2
      2. Tambahkan kumpulan backend
        1. Tersambung ke antarmuka jaringan utama semua komputer virtual yang harus menjadi bagian dari kluster (A)SCS/ERS
          1. Buka penyeimbang muatan, pilih kumpulan backend, lalu pilih Tambahkan
          2. Masukkan nama kumpulan backend baru (misalnya nw1-backend)
          3. Pilih Virtual Network
          4. Klik Tambahkan komputer virtual
          5. Pilih komputer virtual kluster NFS beserta alamat IP-nya.
          6. Klik Tambahkan.
      3. Buat pemeriksaan kesehatan
        1. Port 61000 untuk NW1
          1. Buka penyeimbang muatan, pilih pemeriksaan kesehatan, lalu klik Tambahkan
          2. Masukkan nama pemeriksaan kesehatan baru (misalnya, nw1-hp)
          3. Pilih TCP sebagai protokol, port 610 00, simpan Interval 5 dan ambang Tidak sehat 2
          4. Klik OK
        2. Port 61001 untuk NW2
          • Ulangi langkah-langkah di atas untuk membuat pemeriksaan kesehatan untuk NW2
      4. Aturan penyeimbangan muatan
        1. Buka penyeimbang muatan, pilih aturan penyeimbang muatan dan klik Tambahkan
        2. Masukkan nama aturan penyeimbang muatan baru (misalnya nw1-lb)
        3. Pilih alamat IP frontend, kumpulan backend, dan pemeriksaan kesehatan yang sebelumnya Anda buat (misalnya nw1-frontend. nw-backend dan nw1-hp)
        4. Pilih Port HA.
        5. Pastikan untuk mengaktifkan Floating IP
        6. Klik OK
        • Ulangi langkah-langkah di atas untuk membuat aturan penyeimbangan muatan untuk NW2
    2. Atau, jika skenario Anda memerlukan penyeimbang muatan dasar (internal), ikuti langkah-langkah berikut:
      1. Buat alamat IP frontend
        1. Alamat IP 10.0.0.4 untuk NW1
          1. Buka penyeimbang muatan, pilih kumpulan IP frontend, lalu pilih Tambahkan
          2. Masukkan nama kumpulan IP frontend baru (misalnya nw1-frontend)
          3. Atur Penugasan ke Statik dan masukkan alamat IP (misalnya 10.0.0.4)
          4. Klik OK
        2. Alamat IP 10.0.0.5 untuk NW2
          • Ulangi langkah-langkah di atas untuk NW2
      2. Tambahkan kumpulan backend
        1. Tersambung ke antarmuka jaringan utama semua komputer virtual yang harus menjadi bagian dari kluster (A)SCS/ERS
          1. Buka penyeimbang muatan, pilih kumpulan backend, lalu pilih Tambahkan
          2. Masukkan nama kumpulan backend baru (misalnya nw1-backend)
          3. Klik Tambahkan komputer virtual
          4. Pilih Kumpulan Ketersediaan yang sebelumnya Anda buat
          5. Pilih komputer virtual kluster NFS
          6. Klik OK
      3. Buat pemeriksaan kesehatan
        1. Port 61000 untuk NW1
          1. Buka penyeimbang muatan, pilih pemeriksaan kesehatan, lalu klik Tambahkan
          2. Masukkan nama pemeriksaan kesehatan baru (misalnya, nw1-hp)
          3. Pilih TCP sebagai protokol, port 610 00, simpan Interval 5 dan ambang Tidak sehat 2
          4. Klik OK
        2. Port 61001 untuk NW2
          • Ulangi langkah-langkah di atas untuk membuat pemeriksaan kesehatan untuk NW2
      4. Aturan penyeimbangan muatan
        1. 2049 TCP untuk NW1
          1. Buka penyeimbang muatan, pilih aturan penyeimbang beban dan klik Tambahkan
          2. Masukkan nama aturan penyeimbang muatan baru (misalnya nw1-lb-2049)
          3. Pilih alamat IP frontend, kumpulan backend, dan pemeriksaan kesehatan yang sebelumnya Anda buat (misalnya nw1-frontend)
          4. Simpan protokol TCP, masukkan port 2049
          5. Tambahkan batas waktu diam menjadi 30 menit
          6. Pastikan untuk mengaktifkan Floating IP
          7. Klik OK
        2. 2049 UDP untuk NW1
          • Ulangi langkah-langkah di atas untuk port 2049 dan UDP untuk NW1
        3. 2049 TCP untuk NW2
          • Ulangi langkah-langkah di atas untuk port 2049 dan TCP untuk NW2
        4. 2049 UDP untuk NW2
          • Ulangi langkah-langkah di atas untuk port 2049 dan UDP untuk NW2

Penting

Floating IP tidak didukung pada konfigurasi IP sekunder pada NIC dalam skenario penyeimbangan muatan. Untuk detailnya, lihat Azure Load balancer Batasan. Jika Anda memerlukan alamat IP tambahan untuk VM, sebarkan NIC kedua.

Catatan

Ketika VM tanpa alamat IP publik ditempatkan di kumpulan backend internal (tanpa alamat IP publik) Azure Load Balancer Standar, tidak akan ada konektivitas internet keluar kecuali dilakukan konfigurasi tambahan untuk memungkinkan perutean ke titik akhir publik. Untuk detail tentang cara mencapai konektivitas keluar lihat Publik titik akhir konektivitas untuk Virtual Machines menggunakan Azure Standard Load Balancer dalam SAP ketersediaan tinggi skenario.

Penting

Jangan aktifkan tanda waktu TCP pada komputer virtual Azure yang ditempatkan di belakang Azure Load Balancer. Mengaktifkan tanda waktu TCP akan menyebabkan pemeriksaan kesehatan gagal. Set parameter net.ipv4.tcp_timestamps ke 0. Untuk detailnya, lihat Load Balancer kesehatan pemeriksaan.

Buat kluster Pacemaker

Ikuti langkah-langkah dalam Menyiapkan Pacemaker di SUSE Linux Enterprise Server pada Azure untuk membuat kluster Pacemaker dasar untuk server NFS ini.

Konfigurasikan server NFS

Item berikut diawali dengan [A] - berlaku untuk semua simpul, [1] - hanya berlaku untuk simpul 1 atau [2] - hanya berlaku untuk simpul 2.

  1. [A] Mengatur resolusi nama host

    Anda dapat menggunakan server DNS atau memodifikasi /etc/hosts pada semua simpul. Contoh ini menunjukkan cara menggunakan /etc/hosts file. Ganti alamat IP dan nama host dalam perintah berikut

    sudo vi /etc/hosts
    

    Masukkan baris berikut ke /etc/hosts. Ubah alamat IP dan nama host agar sesuai dengan lingkungan Anda

    # IP address of the load balancer frontend configuration for NFS
    10.0.0.4 nw1-nfs
    10.0.0.5 nw2-nfs
    
  2. [A] Aktifkan server NFS

    Buat entri ekspor NFS root

    sudo sh -c 'echo /srv/nfs/ *\(rw,no_root_squash,fsid=0\)>/etc/exports'
    
    sudo mkdir /srv/nfs/
    
  3. [A] Pasang komponen drbd

    sudo zypper install drbd drbd-kmp-default drbd-utils
    
  4. [A] Buat partisi untuk perangkat drbd

    Daftarkan semua disk data yang tersedia

    sudo ls /dev/disk/azure/scsi1/
    

    Contoh output

    lun0  lun1
    

    Buat partisi untuk setiap disk data

    sudo sh -c 'echo -e "n\n\n\n\n\nw\n" | fdisk /dev/disk/azure/scsi1/lun0'
    sudo sh -c 'echo -e "n\n\n\n\n\nw\n" | fdisk /dev/disk/azure/scsi1/lun1'
    
  5. [A] Buat konfigurasi LVM

    Cantumkan semua partisi yang tersedia

    ls /dev/disk/azure/scsi1/lun*-part*
    

    Contoh output

    /dev/disk/azure/scsi1/lun0-part1  /dev/disk/azure/scsi1/lun1-part1
    

    Buat volume LVM untuk setiap partisi

    sudo pvcreate /dev/disk/azure/scsi1/lun0-part1  
    sudo vgcreate vg-NW1-NFS /dev/disk/azure/scsi1/lun0-part1
    sudo lvcreate -l 100%FREE -n NW1 vg-NW1-NFS
    
    sudo pvcreate /dev/disk/azure/scsi1/lun1-part1
    sudo vgcreate vg-NW2-NFS /dev/disk/azure/scsi1/lun1-part1
    sudo lvcreate -l 100%FREE -n NW2 vg-NW2-NFS
    
  6. [A] Konfigurasikan drbd

    sudo vi /etc/drbd.conf
    

    Pastikan bahwa file drbd.conf berisi dua baris berikut

    include "drbd.d/global_common.conf";
    include "drbd.d/*.res";
    

    Ubah konfigurasi drbd global

    sudo vi /etc/drbd.d/global_common.conf
    

    Tambahkan entri berikut ke bagian penghandel dan net.

    global {
         usage-count no;
    }
    common {
         handlers {
              fence-peer "/usr/lib/drbd/crm-fence-peer.sh";
              after-resync-target "/usr/lib/drbd/crm-unfence-peer.sh";
              split-brain "/usr/lib/drbd/notify-split-brain.sh root";
              pri-lost-after-sb "/usr/lib/drbd/notify-pri-lost-after-sb.sh; /usr/lib/drbd/notify-emergency-reboot.sh; echo b > /proc/sysrq-trigger ; reboot -f";
         }
         startup {
              wfc-timeout 0;
         }
         options {
         }
         disk {
              md-flushes yes;
              disk-flushes yes;
              c-plan-ahead 1;
              c-min-rate 100M;
              c-fill-target 20M;
              c-max-rate 4G;
         }
         net {
              after-sb-0pri discard-younger-primary;
              after-sb-1pri discard-secondary;
              after-sb-2pri call-pri-lost-after-sb;
              protocol     C;
              tcp-cork yes;
              max-buffers 20000;
              max-epoch-size 20000;
              sndbuf-size 0;
              rcvbuf-size 0;
         }
    }
    
  7. [A] Buat perangkat drbd NFS

    sudo vi /etc/drbd.d/NW1-nfs.res
    

    Masukkan konfigurasi untuk perangkat drbd baru dan keluar

    resource NW1-nfs {
         protocol     C;
         disk {
              on-io-error       detach;
         }
         on prod-nfs-0 {
              address   10.0.0.6:7790;
              device    /dev/drbd0;
              disk      /dev/vg-NW1-NFS/NW1;
              meta-disk internal;
         }
         on prod-nfs-1 {
              address   10.0.0.7:7790;
              device    /dev/drbd0;
              disk      /dev/vg-NW1-NFS/NW1;
              meta-disk internal;
         }
    }
    
    sudo vi /etc/drbd.d/NW2-nfs.res
    

    Masukkan konfigurasi untuk perangkat drbd baru dan keluar

    resource NW2-nfs {
         protocol     C;
         disk {
              on-io-error       detach;
         }
         on prod-nfs-0 {
              address   10.0.0.6:7791;
              device    /dev/drbd1;
              disk      /dev/vg-NW2-NFS/NW2;
              meta-disk internal;
         }
         on prod-nfs-1 {
              address   10.0.0.7:7791;
              device    /dev/drbd1;
              disk      /dev/vg-NW2-NFS/NW2;
              meta-disk internal;
         }
    }
    

    Buat perangkat drbd dan mulai

    sudo drbdadm create-md NW1-nfs
    sudo drbdadm create-md NW2-nfs
    sudo drbdadm up NW1-nfs
    sudo drbdadm up NW2-nfs
    
  8. [1] Lewati sinkronisasi awal

    sudo drbdadm new-current-uuid --clear-bitmap NW1-nfs
    sudo drbdadm new-current-uuid --clear-bitmap NW2-nfs
    
  9. [1] Set simpul utama

    sudo drbdadm primary --force NW1-nfs
    sudo drbdadm primary --force NW2-nfs
    
  10. [1] Tunggu hingga perangkat drbd baru disinkronkan

    sudo drbdsetup wait-sync-resource NW1-nfs
    sudo drbdsetup wait-sync-resource NW2-nfs
    
  11. [1] Buat sistem file pada perangkat drbd

    sudo mkfs.xfs /dev/drbd0
    sudo mkdir /srv/nfs/NW1
    sudo chattr +i /srv/nfs/NW1
    sudo mount -t xfs /dev/drbd0 /srv/nfs/NW1
    sudo mkdir /srv/nfs/NW1/sidsys
    sudo mkdir /srv/nfs/NW1/sapmntsid
    sudo mkdir /srv/nfs/NW1/trans
    sudo mkdir /srv/nfs/NW1/ASCS
    sudo mkdir /srv/nfs/NW1/ASCSERS
    sudo mkdir /srv/nfs/NW1/SCS
    sudo mkdir /srv/nfs/NW1/SCSERS
    sudo umount /srv/nfs/NW1
    
    sudo mkfs.xfs /dev/drbd1
    sudo mkdir /srv/nfs/NW2
    sudo chattr +i /srv/nfs/NW2
    sudo mount -t xfs /dev/drbd1 /srv/nfs/NW2
    sudo mkdir /srv/nfs/NW2/sidsys
    sudo mkdir /srv/nfs/NW2/sapmntsid
    sudo mkdir /srv/nfs/NW2/trans
    sudo mkdir /srv/nfs/NW2/ASCS
    sudo mkdir /srv/nfs/NW2/ASCSERS
    sudo mkdir /srv/nfs/NW2/SCS
    sudo mkdir /srv/nfs/NW2/SCSERS
    sudo umount /srv/nfs/NW2
    
  12. [A] Siapkan deteksi split-brain drbd

    Ketika menggunakan drbd untuk menyinkronkan data dari satu host ke host lain, sesuatu yang biasa disebut split-brain dapat terjadi. Split-brain adalah skenario di mana kedua simpul kluster mempromosikan perangkat drbd menjadi yang utama dan tidak sinkron. Situasi ini mungkin jarang terjadi, tetapi Anda masih ingin menangani dan menyelesaikan split-brain secepat mungkin. Oleh karena itu, penting untuk mendapat pemberitahuan ketika terjadi split-brain.

    Baca dokumentasi drbd resmi tentang cara mengatur pemberitahuan split-brain.

    Pemulihan otomatis dari skenario split-brain mungkin dapat terjadi. Untuk informasi selengkapnya, baca Otomatis split-brain pemulihan kebijakan

Konfigurasikan Kerangka Kerja Kluster

  1. [1] Tambahkan perangkat drbd NFS untuk sistem SAP NW1 ke konfigurasi kluster

    Penting

    Pengujian terbaru mengungkapkan situasi di mana netcat berhenti merespons permintaan karena backlog dan keterbatasannya dalam menangani satu koneksi saja. Sumber daya netcat berhenti mendengarkan permintaan Azure Load Balancer dan IP floating menjadi tidak tersedia.
    Untuk kluster Pacemaker yang ada, kami pernah menyarankan untuk mengganti netcat dengan socat. Saat ini kami menyarankan untuk menggunakan agen sumber daya azure-lb yang merupakan bagian dari agen sumber daya paket dengan persyaratan versi paket berikut:

    • Untuk SLES 12 SP4/SP5, versi setidaknya harus resource-agents-4.3.018.a7fb5035-3.30.1.
    • Untuk SLES 15/15 SP1, versi setidaknya harus resource-agents-4.3.0184.6ee15eb2-4.13.1.

    Perhatikan bahwa perubahan akan memerlukan waktu henti singkat.
    Untuk kluster Pacemaker yang ada, jika konfigurasi sudah diubah untuk menggunakan socat seperti yang dijelaskan di Azure Load-Balancer Deteksi Pengerasan, tidak ada persyaratan untuk segera beralih ke agen sumber daya azure-lb.

    sudo crm configure rsc_defaults resource-stickiness="200"
    
    # Enable maintenance mode
    sudo crm configure property maintenance-mode=true
    
    sudo crm configure primitive drbd_NW1_nfs \
      ocf:linbit:drbd \
      params drbd_resource="NW1-nfs" \
      op monitor interval="15" role="Master" \
      op monitor interval="30" role="Slave"
    
    sudo crm configure ms ms-drbd_NW1_nfs drbd_NW1_nfs \
      meta master-max="1" master-node-max="1" clone-max="2" \
      clone-node-max="1" notify="true" interleave="true"
    
    sudo crm configure primitive fs_NW1_sapmnt \
      ocf:heartbeat:Filesystem \
      params device=/dev/drbd0 \
      directory=/srv/nfs/NW1  \
      fstype=xfs \
      op monitor interval="10s"
    
    sudo crm configure primitive nfsserver systemd:nfs-server \
      op monitor interval="30s"
    sudo crm configure clone cl-nfsserver nfsserver
    
    sudo crm configure primitive exportfs_NW1 \
      ocf:heartbeat:exportfs \
      params directory="/srv/nfs/NW1" \
      options="rw,no_root_squash,crossmnt" clientspec="*" fsid=1 wait_for_leasetime_on_stop=true op monitor interval="30s"
    
    sudo crm configure primitive vip_NW1_nfs \
      IPaddr2 \
      params ip=10.0.0.4 cidr_netmask=24 op monitor interval=10 timeout=20
    
    sudo crm configure primitive nc_NW1_nfs azure-lb port=61000
    
    sudo crm configure group g-NW1_nfs \
      fs_NW1_sapmnt exportfs_NW1 nc_NW1_nfs vip_NW1_nfs
    
    sudo crm configure order o-NW1_drbd_before_nfs inf: \
      ms-drbd_NW1_nfs:promote g-NW1_nfs:start
    
    sudo crm configure colocation col-NW1_nfs_on_drbd inf: \
      g-NW1_nfs ms-drbd_NW1_nfs:Master
    
  2. [1] Tambahkan perangkat drbd NFS untuk sistem SAP NW2 ke konfigurasi kluster

    # Enable maintenance mode
    sudo crm configure property maintenance-mode=true
    
    sudo crm configure primitive drbd_NW2_nfs \
      ocf:linbit:drbd \
      params drbd_resource="NW2-nfs" \
      op monitor interval="15" role="Master" \
      op monitor interval="30" role="Slave"
    
    sudo crm configure ms ms-drbd_NW2_nfs drbd_NW2_nfs \
      meta master-max="1" master-node-max="1" clone-max="2" \
      clone-node-max="1" notify="true" interleave="true"
    
    sudo crm configure primitive fs_NW2_sapmnt \
      ocf:heartbeat:Filesystem \
      params device=/dev/drbd1 \
      directory=/srv/nfs/NW2  \
      fstype=xfs \
      op monitor interval="10s"
    
    sudo crm configure primitive exportfs_NW2 \
      ocf:heartbeat:exportfs \
      params directory="/srv/nfs/NW2" \
      options="rw,no_root_squash,crossmnt" clientspec="*" fsid=2 wait_for_leasetime_on_stop=true op monitor interval="30s"
    
    sudo crm configure primitive vip_NW2_nfs \
      IPaddr2 \
      params ip=10.0.0.5 cidr_netmask=24 op monitor interval=10 timeout=20
    
    sudo crm configure primitive nc_NW2_nfs azure-lb port=61001
    
    sudo crm configure group g-NW2_nfs \
      fs_NW2_sapmnt exportfs_NW2 nc_NW2_nfs vip_NW2_nfs
    
    sudo crm configure order o-NW2_drbd_before_nfs inf: \
      ms-drbd_NW2_nfs:promote g-NW2_nfs:start
    
    sudo crm configure colocation col-NW2_nfs_on_drbd inf: \
      g-NW2_nfs ms-drbd_NW2_nfs:Master
    

    crossmnt opsi dalam exportfs sumber daya kluster hadir dalam dokumentasi kami untuk kompatibilitas mundur dengan versi SLES yang lebih lama.

  3. [1] Nonaktifkan mode pemeliharaan

    sudo crm configure property maintenance-mode=false
    

Langkah berikutnya