GlusterFS na virtuálních počítačích Azure s Red Hat Enterprise Linuxem pro SAP NetWeaver

Tento článek popisuje, jak nasadit virtuální počítače, nakonfigurovat virtuální počítače a nainstalovat cluster OdysterFS, který lze použít k ukládání sdílených dat systému SAP s vysokou dostupnou podporou. Tato příručka popisuje, jak nastavit Systém souborů OdysterFS, který používají dva systémy SAP, NW1 a NW2. Názvy prostředků (například virtuální počítače, virtuální sítě) v příkladu předpokládají, že jste použili šablonu souborového serveru SAP s předponou prostředku.

Nejprve si přečtěte následující poznámky a dokumenty SAP.

Přehled

K dosažení vysoké dostupnosti vyžaduje SAP NetWeaver sdílené úložiště. ClusterFS se konfiguruje v samostatném clusteru a může ho používat více systémů SAP.

Přehled vysoké dostupnosti SAP NetWeaveru

NastaveníFsesterFS

Šablonu Azure z GitHubu můžete použít k nasazení všech požadovaných prostředků Azure, včetně virtuálních počítačů, skupiny dostupnosti a síťových rozhraní, nebo můžete prostředky nasadit ručně.

Nasazení Linuxu prostřednictvím šablony Azure

Tento Azure Marketplace obsahuje image pro Red Hat Enterprise Linux, kterou můžete použít k nasazení nových virtuálních počítačů. K nasazení všech požadovaných prostředků můžete použít jednu ze šablon pro rychlý start na GitHubu. Šablona nasadí virtuální počítače, skupiny dostupnosti atd. Šablonu nasadíte pomocí těchto kroků:

  1. Otevřete šablonu souborového serveru SAP v Azure Portal
  2. Zadejte následující parametry:
    1. Předpona prostředku
      Zadejte předponu, kterou chcete použít. Hodnota se používá jako předpona pro prostředky, které jsou nasazeny.
    2. SAP System Count (Počet systémů SAP) Zadejte počet systémů SAP, které budou tento souborový server používat. Tím se nasadí požadovaný počet disků atd.
    3. Typ operačního systému
      Vyberte jednu z linuxových distribucí. V tomto příkladu vyberte RHEL 7.
    4. Uživatelské jméno správce, heslo správce nebo klíč SSH
      Vytvoří se nový uživatel, který se může použít k přihlášení k počítači.
    5. ID podsítě
      Pokud chcete virtuální počítač nasadit do existující virtuální sítě, ve které máte definovanou podsíť, ke které by se měl virtuální počítač přiřadit, zadejte ID konkrétní podsítě. Toto ID obvykle vypadá jako /subscriptions/< ID > předplatného /resourceGroups/< > název skupiny prostředků < >/providers/Microsoft.Network/virtualNetworks/název virtuální sítě /subnets/název < > podsítě.

Ruční nasazení Linuxu prostřednictvím Azure Portal

Nejprve musíte vytvořit virtuální počítače pro tento cluster. Potom vytvoříte nástroj pro vyrovnávání zatížení a použijete virtuální počítače v back-endových fondech. Doporučujeme nástroj pro vyrovnávání zatížení na úrovni Standard.

  1. Vytvoření skupiny prostředků
  2. Vytvoření virtuální sítě
  3. Vytvoření skupiny dostupnosti
    Nastavení maximálního maxima aktualizační domény
  4. Vytvoření virtuálního počítače 1
    Použijte alespoň RHEL 7, v tomto příkladu image Red Hat Enterprise Linux 7.4.https://portal.azure.com/#create/RedHat.RedHatEnterpriseLinux74-ARM
    Vyberte dříve vytvořenou sadu dostupnosti.
  5. Vytvoření virtuálního počítače 2
    Použijte alespoň RHEL 7, v tomto příkladu image Red Hat Enterprise Linux 7.4.https://portal.azure.com/#create/RedHat.RedHatEnterpriseLinux74-ARM
    Vyberte dříve vytvořenou sadu dostupnosti.
  6. Přidejte do obou virtuálních počítačů jeden datový disk pro každý systém SAP.

Konfigurace Systému souborů OdysterFS

Následující položky mají předponu [A] – platí pro všechny uzly[ 1] – platí jenom pro uzel 1, [2] – vztahuje se jenom na uzel 2, [3] – vztahuje se jenom na uzel 3.

  1. [A] Nastavení překladu názvů hostitelů

    Můžete použít server DNS nebo upravit /etc/hosts na všech uzlech. Tento příklad ukazuje, jak použít soubor /etc/hosts. V následujících příkazech nahraďte IP adresu a název hostitele.

    sudo vi /etc/hosts
    

    Do souboru /etc/hosts vložte následující řádky. Změňte IP adresu a název hostitele tak, aby odpovídaly vašemu prostředí.

    # IP addresses of the Gluster nodes
    10.0.0.40 glust-0
    10.0.0.41 glust-1
    10.0.0.42 glust-2
    
  2. [A] Registrace

    Zaregistrujte virtuální počítače a připojte je k fondu, který obsahuje úložiště pro RHEL 7 a UsesterFS.

    sudo subscription-manager register
    sudo subscription-manager attach --pool=<pool id>
    
  3. [A] Povolení úložišť OdysterFS

    Pokud chcete nainstalovat požadované balíčky, povolte následující úložiště.

    sudo subscription-manager repos --disable "*"
    sudo subscription-manager repos --enable=rhel-7-server-rpms
    sudo subscription-manager repos --enable=rh-gluster-3-for-rhel-7-server-rpms
    
  4. [A] Instalace balíčků Odsoustřené soubory

    Nainstalujte tyto balíčky na všechny uzly Odsoudífs.

    sudo yum -y install redhat-storage-server
    

    Po instalaci uzly restartujte.

  5. [A] Úprava brány firewall

    Přidejte pravidla brány firewall, která povolí klientský provoz na uzlech OdysterFS.

    # list the available zones
    firewall-cmd --get-active-zones
    
    sudo firewall-cmd --zone=public --add-service=glusterfs --permanent
    sudo firewall-cmd --zone=public --add-service=glusterfs
    
  6. [A] Povolení a spuštění služby UsesterFS

    Spusťte službu UsesterFS na všech uzlech.

    sudo systemctl start glusterd
    sudo systemctl enable glusterd
    
  7. [1] Vytvoření systému užíka

    Spuštěním následujících příkazů vytvořte cluster SysterFS.

    sudo gluster peer probe glust-1
    sudo gluster peer probe glust-2
    
    # Check gluster peer status
    sudo gluster peer status
    
    # Number of Peers: 2
    # 
    # Hostname: glust-1
    # Uuid: 10d43840-fee4-4120-bf5a-de9c393964cd
    # State: Accepted peer request (Connected)
    # 
    # Hostname: glust-2
    # Uuid: 9e340385-12fe-495e-ab0f-4f851b588cba
    # State: Accepted peer request (Connected)
    
  8. [2] stav testovacího partnera

    Testování stavu partnerského vztahu na druhém uzlu

    sudo gluster peer status
    # Number of Peers: 2
    #
    # Hostname: glust-0
    # Uuid: 6bc6927b-7ee2-461b-ad04-da123124d6bd
    # State: Peer in Cluster (Connected)
    #
    # Hostname: glust-2
    # Uuid: 9e340385-12fe-495e-ab0f-4f851b588cba
    # State: Peer in Cluster (Connected)
    
  9. [3] stav testovacího partnera

    Testování stavu partnerského vztahu na třetím uzlu

    sudo gluster peer status
    # Number of Peers: 2
    #
    # Hostname: glust-0
    # Uuid: 6bc6927b-7ee2-461b-ad04-da123124d6bd
    # State: Peer in Cluster (Connected)
    #
    # Hostname: glust-1
    # Uuid: 10d43840-fee4-4120-bf5a-de9c393964cd
    # State: Peer in Cluster (Connected)
    
  10. [A] vytvořit LVM

    V tomto příkladu se GlusterFS používá pro dva systémy SAP, NW1 a NW2. Pomocí následujících příkazů vytvořte konfigurace LVM pro tyto systémy SAP.

    Použijte tyto příkazy pro NW1

    sudo pvcreate --dataalignment 1024K /dev/disk/azure/scsi1/lun0
    sudo pvscan
    sudo vgcreate --physicalextentsize 256K rhgs-NW1 /dev/disk/azure/scsi1/lun0
    sudo vgscan
    sudo lvcreate -l 50%FREE -n rhgs-NW1/sapmnt
    sudo lvcreate -l 20%FREE -n rhgs-NW1/trans
    sudo lvcreate -l 10%FREE -n rhgs-NW1/sys
    sudo lvcreate -l 50%FREE -n rhgs-NW1/ascs
    sudo lvcreate -l 100%FREE -n rhgs-NW1/aers
    sudo lvscan
    
    sudo mkfs.xfs -f -K -i size=512 -n size=8192 /dev/rhgs-NW1/sapmnt
    sudo mkfs.xfs -f -K -i size=512 -n size=8192 /dev/rhgs-NW1/trans
    sudo mkfs.xfs -f -K -i size=512 -n size=8192 /dev/rhgs-NW1/sys
    sudo mkfs.xfs -f -K -i size=512 -n size=8192 /dev/rhgs-NW1/ascs
    sudo mkfs.xfs -f -K -i size=512 -n size=8192 /dev/rhgs-NW1/aers
    
    sudo mkdir -p /rhs/NW1/sapmnt
    sudo mkdir -p /rhs/NW1/trans
    sudo mkdir -p /rhs/NW1/sys
    sudo mkdir -p /rhs/NW1/ascs
    sudo mkdir -p /rhs/NW1/aers
    
    sudo chattr +i /rhs/NW1/sapmnt
    sudo chattr +i /rhs/NW1/trans
    sudo chattr +i /rhs/NW1/sys
    sudo chattr +i /rhs/NW1/ascs
    sudo chattr +i /rhs/NW1/aers
    
    echo -e "/dev/rhgs-NW1/sapmnt\t/rhs/NW1/sapmnt\txfs\tdefaults,inode64,nobarrier,noatime,nouuid 0 2" | sudo tee -a /etc/fstab
    echo -e "/dev/rhgs-NW1/trans\t/rhs/NW1/trans\txfs\tdefaults,inode64,nobarrier,noatime,nouuid 0 2" | sudo tee -a /etc/fstab
    echo -e "/dev/rhgs-NW1/sys\t/rhs/NW1/sys\txfs\tdefaults,inode64,nobarrier,noatime,nouuid 0 2" | sudo tee -a /etc/fstab
    echo -e "/dev/rhgs-NW1/ascs\t/rhs/NW1/ascs\txfs\tdefaults,inode64,nobarrier,noatime,nouuid 0 2" | sudo tee -a /etc/fstab
    echo -e "/dev/rhgs-NW1/aers\t/rhs/NW1/aers\txfs\tdefaults,inode64,nobarrier,noatime,nouuid 0 2" | sudo tee -a /etc/fstab
    sudo mount -a
    

    Použijte tyto příkazy pro NW2

    sudo pvcreate --dataalignment 1024K /dev/disk/azure/scsi1/lun1
    sudo pvscan
    sudo vgcreate --physicalextentsize 256K rhgs-NW2 /dev/disk/azure/scsi1/lun1
    sudo vgscan
    sudo lvcreate -l 50%FREE -n rhgs-NW2/sapmnt
    sudo lvcreate -l 20%FREE -n rhgs-NW2/trans
    sudo lvcreate -l 10%FREE -n rhgs-NW2/sys
    sudo lvcreate -l 50%FREE -n rhgs-NW2/ascs
    sudo lvcreate -l 100%FREE -n rhgs-NW2/aers
    
    sudo mkfs.xfs -f -K -i size=512 -n size=8192 /dev/rhgs-NW2/sapmnt
    sudo mkfs.xfs -f -K -i size=512 -n size=8192 /dev/rhgs-NW2/trans
    sudo mkfs.xfs -f -K -i size=512 -n size=8192 /dev/rhgs-NW2/sys
    sudo mkfs.xfs -f -K -i size=512 -n size=8192 /dev/rhgs-NW2/ascs
    sudo mkfs.xfs -f -K -i size=512 -n size=8192 /dev/rhgs-NW2/aers
    
    sudo mkdir -p /rhs/NW2/sapmnt
    sudo mkdir -p /rhs/NW2/trans
    sudo mkdir -p /rhs/NW2/sys
    sudo mkdir -p /rhs/NW2/ascs
    sudo mkdir -p /rhs/NW2/aers
    
    sudo chattr +i /rhs/NW2/sapmnt
    sudo chattr +i /rhs/NW2/trans
    sudo chattr +i /rhs/NW2/sys
    sudo chattr +i /rhs/NW2/ascs
    sudo chattr +i /rhs/NW2/aers
    sudo lvscan
    
    echo -e "/dev/rhgs-NW2/sapmnt\t/rhs/NW2/sapmnt\txfs\tdefaults,inode64,nobarrier,noatime,nouuid 0 2" | sudo tee -a /etc/fstab
    echo -e "/dev/rhgs-NW2/trans\t/rhs/NW2/trans\txfs\tdefaults,inode64,nobarrier,noatime,nouuid 0 2" | sudo tee -a /etc/fstab
    echo -e "/dev/rhgs-NW2/sys\t/rhs/NW2/sys\txfs\tdefaults,inode64,nobarrier,noatime,nouuid 0 2" | sudo tee -a /etc/fstab
    echo -e "/dev/rhgs-NW2/ascs\t/rhs/NW2/ascs\txfs\tdefaults,inode64,nobarrier,noatime,nouuid 0 2" | sudo tee -a /etc/fstab
    echo -e "/dev/rhgs-NW2/aers\t/rhs/NW2/aers\txfs\tdefaults,inode64,nobarrier,noatime,nouuid 0 2" | sudo tee -a /etc/fstab
    sudo mount -a
    
  11. [1] vytvořit distribuovaný svazek

    Pomocí následujících příkazů vytvořte svazek GlusterFS pro NW1 a spusťte ho.

    sudo gluster vol create NW1-sapmnt replica 3 glust-0:/rhs/NW1/sapmnt glust-1:/rhs/NW1/sapmnt glust-2:/rhs/NW1/sapmnt force
    sudo gluster vol create NW1-trans replica 3 glust-0:/rhs/NW1/trans glust-1:/rhs/NW1/trans glust-2:/rhs/NW1/trans force
    sudo gluster vol create NW1-sys replica 3 glust-0:/rhs/NW1/sys glust-1:/rhs/NW1/sys glust-2:/rhs/NW1/sys force
    sudo gluster vol create NW1-ascs replica 3 glust-0:/rhs/NW1/ascs glust-1:/rhs/NW1/ascs glust-2:/rhs/NW1/ascs force
    sudo gluster vol create NW1-aers replica 3 glust-0:/rhs/NW1/aers glust-1:/rhs/NW1/aers glust-2:/rhs/NW1/aers force
    
    sudo gluster volume start NW1-sapmnt
    sudo gluster volume start NW1-trans
    sudo gluster volume start NW1-sys
    sudo gluster volume start NW1-ascs
    sudo gluster volume start NW1-aers
    

    Pomocí následujících příkazů vytvořte svazek GlusterFS pro NW2 a spusťte ho.

    sudo gluster vol create NW2-sapmnt replica 3 glust-0:/rhs/NW2/sapmnt glust-1:/rhs/NW2/sapmnt glust-2:/rhs/NW2/sapmnt force
    sudo gluster vol create NW2-trans replica 3 glust-0:/rhs/NW2/trans glust-1:/rhs/NW2/trans glust-2:/rhs/NW2/trans force
    sudo gluster vol create NW2-sys replica 3 glust-0:/rhs/NW2/sys glust-1:/rhs/NW2/sys glust-2:/rhs/NW2/sys force
    sudo gluster vol create NW2-ascs replica 3 glust-0:/rhs/NW2/ascs glust-1:/rhs/NW2/ascs glust-2:/rhs/NW2/ascs force
    sudo gluster vol create NW2-aers replica 3 glust-0:/rhs/NW2/aers glust-1:/rhs/NW2/aers glust-2:/rhs/NW2/aers force
    
    sudo gluster volume start NW2-sapmnt
    sudo gluster volume start NW2-trans
    sudo gluster volume start NW2-sys
    sudo gluster volume start NW2-ascs
    sudo gluster volume start NW2-aers
    

Další kroky