Ketersediaan tinggi peningkatan skala SAP Hana dengan Azure NetApp Files di SUSE Enterprise Linux

Artikel ini menjelaskan cara mengonfigurasi replikasi sistem SAP Hana dalam penyebaran peningkatan skala saat sistem file HANA dipasang melalui NFS dengan menggunakan Azure NetApp Files. Dalam contoh konfigurasi dan perintah penginstalan, nomor instans 03 dan ID Sistem HANA HN1 digunakan. Replikasi SAP Hana terdiri dari satu simpul utama dan setidaknya satu simpul sekunder.

Ketika langkah-langkah dalam dokumen ini ditandai dengan awalan berikut, artinya:

  • [A]: Langkah ini berlaku untuk semua simpul.
  • [1]: Langkah ini hanya berlaku untuk node1.
  • [2]: Langkah ini hanya berlaku untuk node2.

Baca makalah dan Catatan SAP berikut terlebih dahulu:

Catatan

Artikel ini berisi referensi ke istilah yang tidak lagi digunakan Microsoft. Saat istilah dihapus dari perangkat lunak, kami akan menghapusnya dari artikel ini.

Gambaran Umum

Secara tradisional, dalam lingkungan peningkatan skala, semua sistem file untuk SAP Hana dipasang dari penyimpanan lokal. Menyiapkan HA replikasi sistem SAP Hana di SUSE Enterprise Linux diterbitkan dalam Menyiapkan replikasi sistem SAP Hana di SLES.

Untuk mencapai SAP Hana HA dari sistem peningkatan skala pada berbagi NFS Azure NetApp Files, kita memerlukan konfigurasi sumber daya tambahan di kluster. Konfigurasi ini diperlukan agar sumber daya HANA dapat pulih ketika satu simpul kehilangan akses ke berbagi NFS di Azure NetApp Files.

Diagram that shows SAP HANA HA scale-up on Azure NetApp Files.

Sistem file SAP Hana dipasang pada berbagi NFS dengan menggunakan Azure NetApp Files pada setiap simpul. Sistem file /hana/data, /hana/log, dan /hana/shared unik untuk setiap simpul.

Dipasang pada node1 (hanadb1):

  • 10.3.1.4:/hanadb1-data-mnt00001 pada /hana/data
  • 10.3.1.4:/hanadb1-log-mnt00001 pada /hana/log
  • 10.3.1.4:/hanadb1-shared-mnt00001 pada /hana/shared

Dipasang pada node2 (hanadb2):

  • 10.3.1.4:/hanadb2-data-mnt00001 pada /hana/data
  • 10.3.1.4:/hanadb2-log-mnt00001 pada /hana/log
  • 10.3.1.4:/hanadb2-shared-mnt0001 pada /hana/shared

Catatan

Sistem file /hana/shared, /hana/data, dan /hana/log tidak dibagikan di antara dua node. Setiap node kluster memiliki sistem file terpisah sendiri.

Konfigurasi replikasi sistem SAP Hana menggunakan nama host virtual khusus dan alamat IP virtual. Pada Azure, penyeimbang muatan diperlukan untuk menggunakan alamat IP virtual. Konfigurasi yang disajikan menunjukkan penyeimbang beban dengan:

  • Alamat IP konfigurasi front-end: 10.3.0.50 untuk hn1-db
  • Port probe: 62503

Menyiapkan infrastruktur Azure NetApp Files

Sebelum Anda melanjutkan penyiapan untuk infrastruktur Azure NetApp Files, biasakan diri Anda dengan dokumentasi Azure NetApp Files.

Azure NetApp Files tersedia di beberapa wilayah Azure. Periksa untuk melihat apakah wilayah Azure yang Anda pilih menawarkan Azure NetApp Files.

Untuk informasi tentang ketersediaan Azure NetApp Files menurut wilayah Azure, lihat Ketersediaan Azure NetApp Files menurut wilayah Azure.

Pertimbangan penting

Saat Anda membuat Azure NetApp Files untuk sistem peningkatan skala SAP Hana, ketahui pertimbangan penting yang didokumentasikan dalam volume NFS v4.1 di Azure NetApp Files untuk SAP Hana.

Ukuran database HANA pada Azure NetApp Files

Throughput volume Azure NetApp Files adalah fungsi dari ukuran volume dan tingkat layanan, seperti yang didokumentasikan dalam Tingkat layanan untuk Azure NetApp Files.

Saat Anda merancang infrastruktur untuk SAP Hana di Azure dengan Azure NetApp Files, ketahui rekomendasi dalam volume NFS v4.1 di Azure NetApp Files untuk SAP Hana.

Konfigurasi dalam artikel ini disajikan dengan volume Azure NetApp Files sederhana.

Penting

Untuk sistem produksi, di mana performa adalah kunci, kami sarankan Anda mengevaluasi dan mempertimbangkan untuk menggunakan grup volume aplikasi Azure NetApp Files untuk SAP Hana.

Semua perintah untuk memasang /hana/shared dalam artikel ini disajikan untuk volume /hana/shared NFSv4.1. Jika Anda menerapkan volume /hana/shared sebagai volume NFSv3, jangan lupa untuk menyesuaikan perintah pemasangan untuk /hana/shared untuk NFSv3.

Sebarkan sumber daya Azure NetApp Files

Instruksi berikut mengasumsikan bahwa Anda sudah menyebarkan jaringan virtual Azure Anda. Sumber daya dan VM Azure NetApp Files, tempat sumber daya Azure NetApp Files dipasang, harus disebarkan di jaringan virtual Azure yang sama atau di jaringan virtual Azure yang di-peering.

  1. Buat akun NetApp di wilayah Azure pilihan Anda dengan mengikuti instruksi di Buat akun NetApp.

  2. Siapkan kumpulan kapasitas Azure NetApp Files dengan mengikuti instruksi pada Menyiapkan kumpulan kapasitas Azure NetApp Files.

    Arsitektur HANA yang disajikan dalam artikel ini menggunakan satu kumpulan kapasitas Azure NetApp Files di tingkat layanan Ultra. Untuk beban kerja HANA di Azure, sebaiknya gunakan Tingkat layanan Azure NetApp Files Ultra atau Premium.

  3. Delegasikan subnet ke Azure NetApp Files, seperti yang dijelaskan dalam instruksi di Mendelegasikan subnet ke Azure NetApp Files.

  4. Sebarkan volume Azure NetApp Files dengan mengikuti instruksi pada Membuat volume NFS untuk Azure NetApp Files.

    Saat Anda menyebarkan volume, pastikan untuk memilih versi NFSv4.1. Sebarkan volume di subnet Azure NetApp Files yang ditunjuk. Alamat IP volume Azure NetApp Files ditetapkan secara otomatis.

    Sumber daya Azure NetApp Files dan Azure VM harus berada di jaringan virtual Azure yang sama atau di jaringan virtual Azure yang di-peering. Misalnya, hanadb1-data-mnt00001, hanadb1-log-mnt00001, dan sebagainya adalah nama volume, dan nfs://10.3.1.4/hanadb1-data-mnt00001, nfs://10.3.1.4/hanadb1-log-mnt00001, dan sebagainya adalah jalur file untuk volume Azure NetApp Files.

    Pada hanadb1:

    • Volume hanadb1-data-mnt00001 (nfs://10.3.1.4:/hanadb1-data-mnt00001)
    • Volume hanadb1-log-mnt00001 (nfs://10.3.1.4:/hanadb1-log-mnt00001)
    • Volume hanadb1-shared-mnt00001 (nfs://10.3.1.4:/hanadb1-shared-mnt00001)

    Pada hanadb2:

    • Volume hanadb2-data-mnt00001 (nfs://10.3.1.4:/hanadb2-data-mnt00001)
    • Volume hanadb2-log-mnt00001 (nfs://10.3.1.4:/hanadb2-log-mnt00001)
    • Volume hanadb2-shared-mnt00001 (nfs://10.3.1.4:/hanadb2-shared-mnt00001)

Siapkan infrastruktur

Agen sumber daya untuk SAP HANA termasuk dalam SUSE Linux Enterprise Server untuk SAP Applications. Gambar untuk SUSE Linux Enterprise Server untuk Aplikasi SAP 12 atau 15 tersedia di Marketplace Azure. Anda dapat menggunakan gambar untuk menyebarkan VM baru.

Menyebarkan VM Linux secara manual melalui portal Azure

Dokumen ini mengasumsikan bahwa Anda sudah menyebarkan grup sumber daya, Azure Virtual Network, dan subnet.

Menyebarkan VM untuk SAP Hana. Pilih gambar SLES yang sesuai yang didukung untuk sistem HANA. Anda dapat menyebarkan VM di salah satu opsi ketersediaan: set skala komputer virtual, zona ketersediaan, atau set ketersediaan.

Penting

Pastikan BAHWA OS yang Anda pilih bersertifikat SAP untuk SAP Hana pada jenis VM tertentu yang Anda rencanakan untuk digunakan dalam penyebaran Anda. Anda dapat mencari jenis VM bersertifikat SAP Hana dan rilis OS mereka di Platform IaaS Bersertifikat SAP Hana. Pastikan Anda melihat detail jenis VM untuk mendapatkan daftar lengkap rilis OS yang didukung SAP Hana untuk jenis VM tertentu.

Mengonfigurasi Azure Load Balancer

Selama konfigurasi VM, Anda memiliki opsi untuk membuat atau memilih load balancer yang ada di bagian jaringan. Ikuti langkah-langkah berikutnya untuk menyiapkan load balancer standar untuk penyiapan HA database HANA.

Ikuti langkah-langkah dalam Membuat load balancer untuk menyiapkan load balancer standar untuk sistem SAP ketersediaan tinggi dengan menggunakan portal Azure. Selama penyiapan load balancer, pertimbangkan poin-poin berikut:

  1. Konfigurasi IP Frontend: Buat IP front-end. Pilih jaringan virtual dan nama subnet yang sama dengan komputer virtual database Anda.
  2. Kumpulan Backend: Buat kumpulan back-end dan tambahkan VM database.
  3. Aturan masuk: Buat aturan penyeimbangan beban. Ikuti langkah yang sama untuk kedua aturan penyeimbangan beban.
    • Alamat IP frontend: Pilih IP front-end.
    • Kumpulan backend: Pilih kumpulan back-end.
    • Port ketersediaan tinggi: Pilih opsi ini.
    • Protokol: Pilih TCP.
    • Pemeriksaan Kesehatan: Buat pemeriksaan kesehatan dengan detail berikut:
      • Protokol: Pilih TCP.
      • Port: Misalnya, 625<instance-no.>.
      • Interval: Masukkan 5.
      • Ambang Probe: Masukkan 2.
    • Batas waktu menganggur (menit): Masukkan 30.
    • Aktifkan IP Mengambang: Pilih opsi ini.

Catatan

Properti numberOfProbeskonfigurasi pemeriksaan kesehatan , atau dikenal sebagai Ambang tidak sehat di portal, tidak dihormati. Untuk mengontrol jumlah pemeriksaan berturut-turut yang berhasil atau gagal, atur properti probeThreshold ke 2. Saat ini tidak dimungkinkan untuk mengatur properti ini dengan menggunakan portal Azure, jadi gunakan perintah Azure CLI atau PowerShell.

Untuk informasi selengkapnya tentang port yang diperlukan untuk SAP Hana, baca bab Koneksi ke Database Penyewa di panduan Database Penyewa SAP Hana atau Catatan SAP 2388694.

Penting

Floating IP tidak didukung pada konfigurasi IP sekunder NIC dalam skenario penyeimbangan beban. Untuk informasi selengkapnya, lihat Batasan Azure Load Balancer. Jika Anda memerlukan lebih banyak alamat IP untuk VM, sebarkan NIC kedua.

Ketika VM tanpa alamat IP publik ditempatkan di kumpulan back-end internal (tanpa alamat IP publik) Azure Load Balancer Standar, tidak ada konektivitas internet keluar kecuali lebih banyak konfigurasi dilakukan untuk memungkinkan perutean ke titik akhir publik. Untuk informasi selengkapnya tentang cara mencapai konektivitas keluar, lihat Konektivitas titik akhir publik untuk VM menggunakan Azure Standard Load Balancer dalam skenario ketersediaan tinggi SAP.

Penting

  • Jangan aktifkan tanda waktu TCP pada Azure VM yang ditempatkan di belakang Load Balancer. Mengaktifkan tanda waktu TCP akan menyebabkan pemeriksaan kesehatan gagal. Atur parameter net.ipv4.tcp_timestamps ke 0. Untuk informasi selengkapnya, lihat Pemeriksaan kesehatan Load Balancer dan 2382421 Catatan SAP.
  • Untuk mencegah saptune mengubah nilai yang diatur net.ipv4.tcp_timestamps secara manual dari 0 kembali ke 1, perbarui versi saptune ke 3.1.1 atau yang lebih tinggi. Untuk informasi selengkapnya, lihat saptune 3.1.1 – Apakah Saya Perlu Memperbarui?.

Pasang volume Azure NetApp Files

  1. [A] Buat titik pemasangan untuk volume database HANA.

    sudo mkdir -p /hana/data/HN1/mnt00001
    sudo mkdir -p /hana/log/HN1/mnt00001
    sudo mkdir -p /hana/shared/HN1
    
  2. [A] Verifikasi pengaturan domain NFS. Pastikan bahwa domain dikonfigurasi sebagai domain Azure NetApp Files default, yaitu, defaultv4iddomain.com, dan pemetaan diatur ke tidak ada.

    sudo cat /etc/idmapd.conf
    

    Contoh output:

    [General]
    Domain = defaultv4iddomain.com
    [Mapping]
    Nobody-User = nobody
    Nobody-Group = nobody
    

    Penting

    Pastikan untuk mengatur domain NFS di /etc/idmapd.conf pada VM agar sesuai dengan konfigurasi domain default pada Azure NetApp Files: defaultv4iddomain.com. Jika ada ketidakcocokan antara konfigurasi domain pada klien NFS (yaitu, VM) dan server NFS (yaitu, konfigurasi Azure NetApp Files), izin untuk file pada volume Azure NetApp Files yang dipasang pada VM ditampilkan sebagai tidak ada.

  3. [A] Edit /etc/fstab pada kedua node untuk memasang volume secara permanen yang relevan dengan setiap simpul. Contoh berikut menunjukkan cara Anda memasang volume secara permanen.

    sudo vi /etc/fstab
    

    Tambahkan entri berikut pada /etc/fstab kedua simpul.

    Contoh untuk hanadb1:

    10.3.1.4:/hanadb1-data-mnt00001 /hana/data/HN1/mnt00001  nfs   rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys  0  0
    10.3.1.4:/hanadb1-log-mnt00001 /hana/log/HN1/mnt00001  nfs   rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys  0  0
    10.3.1.4:/hanadb1-shared-mnt00001 /hana/shared/HN1  nfs   rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys  0  0
    

    Contoh untuk hanadb2:

    10.3.1.4:/hanadb2-data-mnt00001 /hana/data/HN1/mnt00001  nfs   rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys  0  0
    10.3.1.4:/hanadb2-log-mnt00001 /hana/log/HN1/mnt00001  nfs   rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys  0  0
    10.3.1.4:/hanadb2-shared-mnt00001 /hana/shared/HN1  nfs   rw,nfsvers=4.1,hard,timeo=600,rsize=262144,wsize=262144,noatime,lock,_netdev,sec=sys  0  0
    

    Pasang semua volume.

    sudo mount -a
    

    Untuk beban kerja yang memerlukan throughput yang lebih tinggi, pertimbangkan untuk menggunakan nconnect opsi pemasangan, seperti yang dijelaskan dalam volume NFS v4.1 pada Azure NetApp Files untuk SAP Hana. nconnectPeriksa apakah didukung oleh Azure NetApp Files pada rilis Linux Anda.

  4. [A] Verifikasi bahwa semua volume HANA dipasang dengan protokol NFS versi NFSv4.

    sudo nfsstat -m
    

    Verifikasi bahwa bendera vers diatur ke 4.1.

    Contoh dari hanadb1:

    /hana/log/HN1/mnt00001 from 10.3.1.4:/hanadb1-log-mnt00001
    Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.3.0.4,local_lock=none,addr=10.3.1.4
    /hana/data/HN1/mnt00001 from 10.3.1.4:/hanadb1-data-mnt00001
    Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.3.0.4,local_lock=none,addr=10.3.1.4
    /hana/shared/HN1 from 10.3.1.4:/hanadb1-shared-mnt00001
    Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.3.0.4,local_lock=none,addr=10.3.1.4
    
  5. [A] Verifikasi nfs4_disable_idmapping. Ini harus diatur ke Y. Untuk membuat struktur direktori tempat nfs4_disable_idmapping berada, jalankan perintah mount. Anda tidak akan dapat membuat direktori secara manual karena /sys/modules akses dicadangkan untuk kernel/driver.

    #Check nfs4_disable_idmapping
    sudo cat /sys/module/nfs/parameters/nfs4_disable_idmapping
    
    #If you need to set nfs4_disable_idmapping to Y
    sudo echo "Y" > /sys/module/nfs/parameters/nfs4_disable_idmapping
    
    #Make the configuration permanent
    sudo echo "options nfs nfs4_disable_idmapping=Y" >> /etc/modprobe.d/nfs.conf
    

Penginstalan SAP Hana

  1. [A] Siapkan resolusi nama host untuk semua host.

    Anda bisa menggunakan server DNS atau mengubah /etc/hosts file pada semua simpul. Contoh ini memperlihatkan cara menggunakan file /etc/hosts. Ganti alamat IP dan nama host dalam perintah berikut:

    sudo vi /etc/hosts
    

    Sisipkan baris berikut dalam /etc/hosts file. Mengubah alamat IP dan nama host agar sesuai dengan lingkungan Anda.

    10.3.0.4   hanadb1
    10.3.0.5   hanadb2
    
  2. [A] Siapkan OS untuk menjalankan SAP Hana di Azure NetApp dengan NFS, seperti yang dijelaskan dalam SAP Note 3024346 - Linux Kernel Pengaturan untuk NetApp NFS. Buat file /etc/sysctl.d/91-NetApp-HANA.conf konfigurasi untuk pengaturan konfigurasi NetApp.

    sudo vi /etc/sysctl.d/91-NetApp-HANA.conf
    

    Tambahkan entri berikut dalam file konfigurasi:

    net.core.rmem_max = 16777216
    net.core.wmem_max = 16777216
    net.ipv4.tcp_rmem = 4096 131072 16777216
    net.ipv4.tcp_wmem = 4096 16384 16777216
    net.core.netdev_max_backlog = 300000
    net.ipv4.tcp_slow_start_after_idle=0
    net.ipv4.tcp_no_metrics_save = 1
    net.ipv4.tcp_moderate_rcvbuf = 1
    net.ipv4.tcp_window_scaling = 1
    net.ipv4.tcp_sack = 1
    
  3. [A] Buat file /etc/sysctl.d/ms-az.conf konfigurasi dengan pengaturan pengoptimalan yang lebih banyak.

    sudo vi /etc/sysctl.d/ms-az.conf
    

    Tambahkan entri berikut dalam file konfigurasi:

    net.ipv6.conf.all.disable_ipv6 = 1
    net.ipv4.tcp_max_syn_backlog = 16348
    net.ipv4.conf.all.rp_filter = 0
    sunrpc.tcp_slot_table_entries = 128
    vm.swappiness=10
    

    Tip

    Hindari pengaturan net.ipv4.ip_local_port_range dan net.ipv4.ip_local_reserved_ports secara eksplisit dalam file konfigurasi sysctl untuk memungkinkan Agen Host SAP mengelola rentang port. Untuk informasi selengkapnya, lihat 2382421 Catatan SAP.

  4. [A] Sesuaikan pengaturan, seperti yang sunrpc direkomendasikan dalam SAP Note 3024346 - Linux Kernel Pengaturan untuk NetApp NFS.

    sudo vi /etc/modprobe.d/sunrpc.conf
    

    Hapus baris berikut:

    options sunrpc tcp_max_slot_table_entries=128
    
  5. [A] Konfigurasikan SLES untuk HANA.

    Konfigurasikan SLES seperti yang dijelaskan dalam Catatan SAP berikut berdasarkan versi SLES Anda:

  6. [A] Pasang SAP Hana.

    Dimulai dengan HANA 2.0 SPS 01, Multitenant Database Containers (MDC) adalah opsi default. Saat Anda menginstal sistem HANA, SYSTEMDB dan penyewa dengan SID yang sama dibuat bersama-sama. Dalam beberapa kasus, Anda tidak ingin penyewa default. Jika Anda tidak ingin membuat penyewa awal bersama dengan penginstalan, ikuti instruksi di Catatan SAP 2629711.

    1. hdblcm Mulai program dari direktori perangkat lunak penginstalan HANA.

      ./hdblcm
      
    2. Saat diminta, masukkan nilai berikut:

      • Untuk Pilih penginstalan: Masukkan 1 (untuk penginstalan).
      • Untuk Pilih komponen tambahan untuk penginstalan: Masukkan 1.
      • Untuk Masukkan Jalur Penginstalan [/hana/shared]: Tekan Enter untuk menerima default.
      • Untuk Masukkan Nama Host Lokal [..]: Tekan Enter untuk menerima default.
      • Di bawah Apakah Anda ingin menambahkan host tambahan ke sistem? (y/n) [n]: Pilih n.
      • Untuk Masukkan ID Sistem SAP Hana: Masukkan HN1.
      • Untuk Masukkan Nomor Instans [00]: Masukkan 03.
      • Untuk Pilih Mode Database / Masukkan Indeks [1]: Tekan Enter untuk menerima default.
      • Untuk Pilih Penggunaan Sistem / Masukkan Indeks [4]: Masukkan 4 (untuk kustom).
      • Untuk Masukkan Lokasi Volume Data [/hana/data]: Tekan Enter untuk menerima default.
      • Untuk Masukkan Lokasi Volume Log [/hana/log]: Tekan Enter untuk menerima default.
      • Untuk Membatasi alokasi memori maksimum? [n]: Tekan Enter untuk menerima default.
      • Untuk memasukkan nama host sertifikat untuk host '...' [...]: Tekan Enter untuk menerima default.
      • Untuk Masukkan Kata Sandi Pengguna Agen Host SAP (sapadm): Masukkan kata sandi pengguna agen host.
      • Untuk Konfirmasi Kata Sandi Pengguna Agen Host SAP (sapadm): Masukkan kata sandi pengguna agen host lagi untuk mengonfirmasi.
      • Untuk Masukkan Kata Sandi Administrator Sistem (hn1adm): Masukkan kata sandi administrator sistem.
      • Untuk Konfirmasi Kata Sandi Administrator Sistem (hn1adm): Masukkan kata sandi administrator sistem lagi untuk mengonfirmasi.
      • Untuk Enter System Administrator Home Directory [/usr/sap/HN1/home]: Tekan Enter untuk menerima default.
      • Untuk Masukkan Shell Masuk Administrator Sistem [/bin/sh]: Tekan Enter untuk menerima default.
      • Untuk Masukkan ID Pengguna Administrator Sistem [1001]: Tekan Enter untuk menerima default.
      • Untuk Masukkan ID Grup Pengguna (sapsys) [79]: Tekan Enter untuk menerima default.
      • Untuk Masukkan Kata Sandi Pengguna Database (SISTEM): Masukkan kata sandi pengguna database.
      • Untuk Konfirmasi Kata Sandi Pengguna Database (SISTEM): Masukkan kata sandi pengguna database lagi untuk mengonfirmasi.
      • Untuk Menghidupkan ulang sistem setelah reboot komputer? [n]: Tekan Enter untuk menerima default.
      • Untuk Lanjutkan? (y/n): Validasi ringkasan. Masukkan y untuk melanjutkan.
  7. [A] Meningkatkan Agen Host SAP.

    Unduh arsip Agen Host SAP terbaru dari SAP Software Center dan jalankan perintah berikut untuk meningkatkan agen. Ganti jalur ke arsip untuk menunjuk ke file yang Anda unduh.

    sudo /usr/sap/hostctrl/exe/saphostexec -upgrade -archive <path to SAP Host Agent SAR>
    

Mengonfigurasi replikasi sistem SAP HANA

Ikuti langkah-langkah dalam replikasi sistem SAP Hana untuk mengonfigurasi replikasi sistem SAP Hana.

Mengonfigurasi kluster

Bagian ini menjelaskan langkah-langkah yang diperlukan agar kluster beroperasi dengan mulus ketika SAP Hana diinstal pada berbagi NFS dengan menggunakan Azure NetApp Files.

Membuat kluster Pacemaker

Ikuti langkah-langkah dalam Menyiapkan Pacemaker di SUSE Enterprise Linux di Azure untuk membuat kluster Pacemaker dasar untuk server HANA ini.

Menerapkan kait HANA SAPHanaSR dan susChkSrv

Langkah penting ini mengoptimalkan integrasi dengan kluster dan meningkatkan deteksi ketika failover kluster diperlukan. Kami sangat menyarankan Anda mengonfigurasi kait SAPHanaSR dan susChkSrv Python. Ikuti langkah-langkah dalam Menerapkan replikasi sistem Python menghubungkan SAPHanaSR dan susChkSrv.

Mengonfigurasi sumber daya kluster SAP HANA

Bagian ini menjelaskan langkah-langkah yang diperlukan untuk mengonfigurasi sumber daya kluster SAP Hana.

Membuat sumber daya kluster SAP Hana

Ikuti langkah-langkah dalam Membuat sumber daya kluster SAP Hana untuk membuat sumber daya kluster untuk server HANA. Setelah sumber daya dibuat, Anda akan melihat status kluster dengan perintah berikut:

sudo crm_mon -r

Contoh output:

# Online: [ hn1-db-0 hn1-db-1 ]
# Full list of resources:
# stonith-sbd     (stonith:external/sbd): Started hn1-db-0
# Clone Set: cln_SAPHanaTopology_HN1_HDB03 [rsc_SAPHanaTopology_HN1_HDB03]
#     Started: [ hn1-db-0 hn1-db-1 ]
# Master/Slave Set: msl_SAPHana_HN1_HDB03 [rsc_SAPHana_HN1_HDB03]
#     Masters: [ hn1-db-0 ]
#     Slaves: [ hn1-db-1 ]
# Resource Group: g_ip_HN1_HDB03
#     rsc_ip_HN1_HDB03   (ocf::heartbeat:IPaddr2):       Started hn1-db-0
#     rsc_nc_HN1_HDB03   (ocf::heartbeat:azure-lb):      Started hn1-db-0

Membuat sumber daya sistem file

Buat sumber daya kluster sistem file dummy. Ini memantau dan melaporkan kegagalan jika ada masalah saat mengakses sistem file yang dipasang di NFS /hana/shared. Hal ini memungkinkan kluster memicu failover jika ada masalah saat mengakses /hana/shared. Untuk informasi selengkapnya, lihat Penanganan bagian NFS gagal dalam kluster SUSE HA untuk replikasi sistem HANA.

  1. [A] Buat struktur direktori pada kedua simpul.

    sudo mkdir -p /hana/shared/HN1/check
    sudo mkdir -p /hana/shared/check
    
  2. [1] Konfigurasikan kluster untuk menambahkan struktur direktori untuk pemantauan.

    sudo crm configure primitive rsc_fs_check_HN1_HDB03 Filesystem params \
        device="/hana/shared/HN1/check/" \
        directory="/hana/shared/check/" fstype=nfs  \
        options="bind,defaults,rw,hard,rsize=262144,wsize=262144,proto=tcp,noatime,_netdev,nfsvers=4.1,lock,sec=sys" \
        op monitor interval=120 timeout=120 on-fail=fence \
        op_params OCF_CHECK_LEVEL=20 \
        op start interval=0 timeout=120 \
        op stop interval=0 timeout=120
    
  3. [1] Kloning dan periksa volume yang baru dikonfigurasi dalam kluster.

    sudo crm configure clone cln_fs_check_HN1_HDB03 rsc_fs_check_HN1_HDB03 meta clone-node-max=1 interleave=true
    

    Contoh output:

    sudo crm status
    
    # Cluster Summary:
    # Stack: corosync
    # Current DC: hanadb1 (version 2.0.5+20201202.ba59be712-4.9.1-2.0.5+20201202.ba59be712) - partition with quorum
    # Last updated: Tue Nov  2 17:57:39 2021
    # Last change:  Tue Nov  2 17:57:38 2021 by root via crm_attribute on hanadb1
    # 2 nodes configured
    # 11 resource instances configured
    
    # Node List:
    # Online: [ hanadb1 hanadb2 ]
    
    # Full List of Resources:
    # Clone Set: cln_azure-events [rsc_azure-events]:
    #  Started: [ hanadb1 hanadb2 ]
    # Clone Set: cln_SAPHanaTopology_HN1_HDB03 [rsc_SAPHanaTopology_HN1_HDB03]:
    #  rsc_SAPHanaTopology_HN1_HDB03     (ocf::suse:SAPHanaTopology):     Started hanadb1 (Monitoring)
    #  rsc_SAPHanaTopology_HN1_HDB03     (ocf::suse:SAPHanaTopology):     Started hanadb2 (Monitoring)
    # Clone Set: msl_SAPHana_HN1_HDB03 [rsc_SAPHana_HN1_HDB03] (promotable):
    #  rsc_SAPHana_HN1_HDB03     (ocf::suse:SAPHana):     Master hanadb1 (Monitoring)
    #  Slaves: [ hanadb2 ]
    # Resource Group: g_ip_HN1_HDB03:
    #  rsc_ip_HN1_HDB03  (ocf::heartbeat:IPaddr2):        Started hanadb1
    #  rsc_nc_HN1_HDB03  (ocf::heartbeat:azure-lb):       Started hanadb1
    # rsc_st_azure        (stonith:fence_azure_arm):       Started hanadb2
    # Clone Set: cln_fs_check_HN1_HDB03 [rsc_fs_check_HN1_HDB03]:
    #  Started: [ hanadb1 hanadb2 ]
    

    Atribut OCF_CHECK_LEVEL=20 ditambahkan ke operasi pemantauan sehingga operasi pemantauan melakukan pengujian baca/tulis pada sistem file. Tanpa atribut ini, operasi monitor hanya memverifikasi bahwa sistem file sudah terpasang. Ini bisa menjadi masalah karena ketika konektivitas hilang, sistem file mungkin tetap terpasang, meskipun tidak dapat diakses.

    Atribut on-fail=fence juga ditambahkan ke operasi monitor. Dengan opsi ini, jika operasi monitor gagal pada sebuah simpul, simpul tersebut segera dipagari.

Penting

Batas waktu dalam konfigurasi sebelumnya mungkin perlu disesuaikan dengan pengaturan HANA tertentu untuk menghindari tindakan pagar yang tidak perlu. Jangan atur nilai batas waktu terlalu rendah. Ketahuilah bahwa monitor sistem file tidak terkait dengan replikasi sistem HANA. Untuk informasi selengkapnya, lihat dokumentasi SUSE.

Menguji penyiapan kluster

Bagian ini menjelaskan bagaimana Anda dapat menguji penyiapan Anda.

  1. Sebelum Memulai pengujian, pastikan Pacemaker tidak memiliki tindakan yang gagal (melalui status crm) dan tidak ada batasan lokasi yang tidak terduga (misalnya, sisa pengujian migrasi). Selain itu, pastikan bahwa replikasi sistem HANA dalam status sinkronisasi, misalnya, dengan systemReplicationStatus.

    sudo su - hn1adm -c "python /usr/sap/HN1/HDB03/exe/python_support/systemReplicationStatus.py"
    
  2. Verifikasi status sumber daya HANA dengan menggunakan perintah ini:

    SAPHanaSR-showAttr
    
    # You should see something like below
    # hanadb1:~ SAPHanaSR-showAttr
    # Global cib-time                 maintenance
    # --------------------------------------------
    # global Mon Nov  8 22:50:30 2021 false
    # Sites srHook
    # -------------
    # SITE1 PRIM
    # SITE2 SOK
    # Site2 SOK
    # Hosts   clone_state lpa_hn1_lpt node_state op_mode   remoteHost roles                            score site  srmode sync_state version                vhost
    # --------------------------------------------------------------------------------------------------------------------------------------------------------------
    # hanadb1 PROMOTED    1636411810  online     logreplay hanadb2    4:P:master1:master:worker:master 150   SITE1 sync   PRIM       2.00.058.00.1634122452 hanadb1
    # hanadb2 DEMOTED     30          online     logreplay hanadb1    4:S:master1:master:worker:master 100   SITE2 sync   SOK        2.00.058.00.1634122452 hanadb2
    
  3. Verifikasi konfigurasi kluster untuk skenario kegagalan saat node dimatikan. Contoh berikut menunjukkan mematikan simpul 1:

    sudo crm status
    sudo crm resource move msl_SAPHana_HN1_HDB03 hanadb2 force
    sudo crm resource cleanup
    

    Contoh output:

    sudo crm status
    
    #Cluster Summary:
    # Stack: corosync
    # Current DC: hanadb2 (version 2.0.5+20201202.ba59be712-4.9.1-2.0.5+20201202.ba59be712) - partition with quorum
    # Last updated: Mon Nov  8 23:25:36 2021
    # Last change:  Mon Nov  8 23:25:19 2021 by root via crm_attribute on hanadb2
    # 2 nodes configured
    # 11 resource instances configured
    
    # Node List:
    # Online: [ hanadb1 hanadb2 ]
    # Full List of Resources:
    # Clone Set: cln_azure-events [rsc_azure-events]:
    #  Started: [ hanadb1 hanadb2 ]
    # Clone Set: cln_SAPHanaTopology_HN1_HDB03 [rsc_SAPHanaTopology_HN1_HDB03]:
    #  Started: [ hanadb1 hanadb2 ]
    # Clone Set: msl_SAPHana_HN1_HDB03 [rsc_SAPHana_HN1_HDB03] (promotable):
    #  Masters: [ hanadb2 ]
    #  Stopped: [ hanadb1 ]
    # Resource Group: g_ip_HN1_HDB03:
    #  rsc_ip_HN1_HDB03  (ocf::heartbeat:IPaddr2):        Started hanadb2
    #  rsc_nc_HN1_HDB03  (ocf::heartbeat:azure-lb):       Started hanadb2
    # rsc_st_azure        (stonith:fence_azure_arm):       Started hanadb2
    # Clone Set: cln_fs_check_HN1_HDB03 [rsc_fs_check_HN1_HDB03]:
    #  Started: [ hanadb1 hanadb2 ]
    

    Hentikan HANA pada Node1:

    sudo su - hn1adm
    sapcontrol -nr 03 -function StopWait 600 10
    

    Daftarkan Node 1 sebagai Simpul Sekunder dan periksa status:

    hdbnsutil -sr_register --remoteHost=hanadb2 --remoteInstance=03 --replicationMode=sync --name=SITE1 --operationMode=logreplay
    

    Contoh output:

    #adding site ...
    #nameserver hanadb1:30301 not responding.
    #collecting information ...
    #updating local ini files ...
    #done.
    
    sudo crm status
    
    sudo SAPHanaSR-showAttr
    
  4. Verifikasi konfigurasi kluster untuk skenario kegagalan ketika node kehilangan akses ke berbagi NFS (/hana/shared).

    Agen sumber daya SAP Hana bergantung pada biner yang disimpan pada /hana/shared untuk melakukan operasi selama failover. Sistem file /hana/shared dipasang melalui NFS dalam skenario yang disajikan.

    Sulit untuk mensimulasikan kegagalan, di mana salah satu server kehilangan akses ke berbagi NFS. Sebagai pengujian, Anda dapat me-remount sistem file sebagai baca-saja. Pendekatan ini memvalidasi bahwa kluster dapat gagal jika akses ke /hana/shared hilang pada simpul aktif.

    Hasil yang diharapkan: Pada membuat /hana/shared sebagai sistem file baca-saja, OCF_CHECK_LEVEL atribut sumber daya hana_shared1, yang melakukan operasi baca/tulis pada sistem file, gagal. Gagal karena tidak dapat menulis apa pun pada sistem file dan melakukan failover sumber daya HANA. Hasil yang sama diharapkan ketika node HANA Anda kehilangan akses ke share NFS.

    Status sumber daya sebelum memulai pengujian:

    sudo crm  status
    
    #Cluster Summary:
     # Stack: corosync
     # Current DC: hanadb2 (version 2.0.5+20201202.ba59be712-4.9.1-2.0.5+20201202.ba59be712) - partition with quorum
     # Last updated: Mon Nov  8 23:01:27 2021
     # Last change:  Mon Nov  8 23:00:46 2021 by root via crm_attribute on hanadb1
     # 2 nodes configured
     # 11 resource instances configured
    
     #Node List:
     # Online: [ hanadb1 hanadb2 ]
    
     #Full List of Resources:
     # Clone Set: cln_azure-events [rsc_azure-events]:
       # Started: [ hanadb1 hanadb2 ]
     # Clone Set: cln_SAPHanaTopology_HN1_HDB03 [rsc_SAPHanaTopology_HN1_HDB03]:
       # Started: [ hanadb1 hanadb2 ]
     # Clone Set: msl_SAPHana_HN1_HDB03 [rsc_SAPHana_HN1_HDB03] (promotable):
       # Masters: [ hanadb1 ]
       # Slaves: [ hanadb2 ]
     # Resource Group: g_ip_HN1_HDB03:
       # rsc_ip_HN1_HDB03  (ocf::heartbeat:IPaddr2):        Started hanadb1
       # rsc_nc_HN1_HDB03  (ocf::heartbeat:azure-lb):       Started hanadb1
     # rsc_st_azure        (stonith:fence_azure_arm):       Started hanadb2
     # Clone Set: cln_fs_check_HN1_HDB03 [rsc_fs_check_HN1_HDB03]:
       # Started: [ hanadb1 hanadb2 ]
    

    Anda dapat menempatkan /hana/shared dalam mode baca-saja pada node kluster aktif dengan menggunakan perintah ini:

    sudo mount -o ro 10.3.1.4:/hanadb1-shared-mnt00001 /hana/sharedb
    

    Server hanadb1 me-reboot atau mematikan berdasarkan set tindakan. Setelah server hanadb1 tidak berfungsi, sumber daya HANA berpindah ke hanadb2. Anda dapat memeriksa status kluster dari hanadb2.

    sudo crm status
    
    #Cluster Summary:
     # Stack: corosync
     # Current DC: hanadb2 (version 2.0.5+20201202.ba59be712-4.9.1-2.0.5+20201202.ba59be712) - partition with quorum
     # Last updated: Wed Nov 10 22:00:27 2021
     # Last change:  Wed Nov 10 21:59:47 2021 by root via crm_attribute on hanadb2
     # 2 nodes configured
     # 11 resource instances configured
    
     #Node List:
     # Online: [ hanadb1 hanadb2 ]
    
     #Full List of Resources:
     # Clone Set: cln_azure-events [rsc_azure-events]:
       # Started: [ hanadb1 hanadb2 ]
     # Clone Set: cln_SAPHanaTopology_HN1_HDB03 [rsc_SAPHanaTopology_HN1_HDB03]:
       # Started: [ hanadb1 hanadb2 ]
     # Clone Set: msl_SAPHana_HN1_HDB03 [rsc_SAPHana_HN1_HDB03] (promotable):
       # Masters: [ hanadb2 ]
       # Stopped: [ hanadb1 ]
     # Resource Group: g_ip_HN1_HDB03:
          # rsc_ip_HN1_HDB03  (ocf::heartbeat:IPaddr2):        Started hanadb2
       # rsc_nc_HN1_HDB03  (ocf::heartbeat:azure-lb):       Started hanadb2
     # rsc_st_azure        (stonith:fence_azure_arm):       Started hanadb2
     # Clone Set: cln_fs_check_HN1_HDB03 [rsc_fs_check_HN1_HDB03]:
       # Started: [ hanadb1 hanadb2 ]
    

    Sebaiknya uji konfigurasi kluster SAP Hana secara menyeluruh dengan melakukan pengujian yang dijelaskan dalam replikasi sistem SAP Hana.

Langkah berikutnya