Hochverfügbarkeitskonfiguration unter SUSE mit STONITHHigh availability set up in SUSE using the STONITH

Dieses Dokument enthält detaillierte Schritt-für-Schritt-Anweisungen zur Konfiguration der Hochverfügbarkeit unter dem Betriebssystem SUSE mit dem STONITH-Gerät.This document provides the detailed step by step instructions to set up the High Availability on SUSE Operating system using the STONITH device.

Haftungsausschluss: Dieser Leitfaden ist im Rahmen von Tests der Konfiguration in der Microsoft HANA-Umgebung für große Instanzen entstanden, die erfolgreich ausgeführt wird. Da das Microsoft Service Management-Team für große HANA-Instanzen kein Betriebssystem unterstützt, müssen Sie sich möglicherweise an SUSE wenden, um weitere Informationen zur Fehlerbehebung oder Klärung zur Betriebssystemebene zu erhalten. Das Microsoft Service Management-Team konfiguriert das STONITH-Gerät, unterstützt Sie im vollen Umfang bei der Behandlung von Problemen mit dem STONITH-Gerät und kann hierzu zu Rate gezogen werden.Disclaimer: This guide is derived by testing the setup in the Microsoft HANA Large Instances environment, which successfully works. As Microsoft Service Management team for HANA Large Instances does not support Operating system, you may need to contact SUSE for any further troubleshooting or clarification on the operating system layer. Microsoft service management team does set up STONITH device and fully supports and can be involved for troubleshooting for STONITH device issues.

ÜbersichtOverview

Um mit SUSE-Clustern die Hochverfügbarkeit zu konfigurieren, müssen folgende Voraussetzungen erfüllt sein.To set up the High availability using SUSE clustering, the following pre-requisites must meet.

VoraussetzungenPre-requisites

  • Große HANA-Instanzen wurden bereitgestellt.HANA Large Instances are provisioned
  • Das Betriebssystem ist registriert.Operating system is registered
  • Es besteht eine Verbindung zwischen HANA-Servern (große Instanzen) und dem SMT-Server zum Abrufen von Patches bzw. Paketen.HANA Large Instances servers are connected to SMT server to get patches/packages
  • Für das Betriebssystem wurden die neusten Patches installiert.Operating system have latest patches installed
  • NTP (Zeitserver) ist eingerichtet.NTP (time server) is set up
  • Sie haben die aktuelle Version der SUSE-Dokumentation für die Hochverfügbarkeitskonfiguration gelesen und verstanden.Read and understand the latest version of SUSE documentation on HA setup

Details zur KonfigurationSetup details

In diesem Leitfaden wird folgendes Setup verwendet:This guide uses the following setup:

  • Betriebssystem: SLES 12 SP1 für SAPOperating System: SLES 12 SP1 for SAP
  • Große HANA-Instanzen: 2 x S192 (vier Sockets, 2TB)HANA Large Instances: 2xS192 (four sockets, 2 TB)
  • HANA-Version: HANA 2.0 SP1HANA Version: HANA 2.0 SP1
  • Servernamen: „sapprdhdb95“ (node1) und „sapprdhdb96“ (node2)Server Names: sapprdhdb95 (node1) and sapprdhdb96 (node2)
  • STONITH-Gerät: iSCSI-basiertes STONITH-GerätSTONITH Device: iSCSI based STONITH device
  • Konfiguration von NTP auf einem der HANA-Knoten (große Instanz)NTP set up on one of the HANA Large Instance nodes

Wenn Sie große HANA-Instanzen mit HSR einrichten, können Sie beim Microsoft Service Management-Team eine Anfrage zur Konfiguration von STONITH einreichen.When you set up HANA Large Instances with HSR, you can request Microsoft Service Management team to set up STONITH. Wenn Sie bereits ein Bestandskunde sind, der große HANA-Instanzen bereitgestellt hat, und das STONITH-Gerät für Ihre vorhandenen Blades konfigurieren müssen, müssen Sie für das Microsoft Service Management-Team folgende Informationen im Serviceanforderungsformular (Service Request Form, SRF) angeben.If you are already an existing customer who has HANA Large Instances provisioned, and need STONITH device set up for your existing blades, you need to provide the following information to Microsoft Service Management team in the service request form (SRF). Sie können das SRF-Formular über den Technical Account Manager oder Ihren Microsoft-Kontakt für das Onboarding großer HANA-Instanzen anfordern.You can request SRF form through the Technical Account Manager or your Microsoft Contact for HANA Large Instance onboarding. Neukunden können STONITH-Geräte bei der Bereitstellung anfordern.The new customers can request STONITH device at the time of provisioning. Die Eingaben sind im Bereitstellungsanforderungsformular verfügbar.The inputs are available in the provisioning request form.

  • Servername und Server-IP-Adresse (z.B. „myhanaserver1“, „10.35.0.1“)Server Name and Server IP address (for example, myhanaserver1, 10.35.0.1)
  • Standort (z.B. „USA, Osten“)Location (for example, US East)
  • Name des Kunden (z.B. „Microsoft“)Customer Name (for example, Microsoft)
  • SID – HANA-Systembezeichner (z.B. „H11“)SID - HANA System Identifier (for example, H11)

Sobald das STONITH-Gerät konfiguriert ist, erhalten Sie vom Microsoft Service Management-Team den SBD-Gerätenamen und die IP-Adresse des iSCSI-Speichers, mit denen Sie das STONITH-Gerät konfigurieren können.Once the STONITH device is configured, Microsoft Service Management team does provide you the SBD device name and IP address of the iSCSI storage, which you can use to configure STONITH setup.

Für die Konfiguration der End-to-End-Hochverfügbarkeit mit STONITH müssen folgende Schritte durchgeführt werden:To set up the end to end HA using STONITH, the following steps needs to be followed:

  1. Identifizieren des SBD-GerätsIdentify the SBD device
  2. Initialisieren des SBD-GerätsInitialize the SBD device
  3. Konfigurieren des ClustersConfiguring the Cluster
  4. Einrichten des Softdog-WatchdogsSetting Up the Softdog Watchdog
  5. Beitreten des Knotens zum ClusterJoin the node to the cluster
  6. Überprüfen des ClustersValidate the cluster
  7. Konfigurieren der Ressourcen für den ClusterConfigure the resources to the cluster
  8. Testen des FailoverprozessesTest the failover process

1. Identifizieren des SBD-Geräts1. Identify the SBD device

In diesem Abschnitt wird beschrieben, wie das SBD-Gerät für Ihre Konfiguration ermittelt wird, nachdem das Microsoft Service Management-Team das STONITH-Gerät konfiguriert hat.This section describes on how to determine the SBD device for your setup after Microsoft service management team has configured the STONITH. Dieser Abschnitt gilt nur für Bestandskunden.This section only applies to the existing customer. Wenn Sie ein Neukunde sind, stellt Ihnen das Microsoft Service Management-Team den SBD-Gerätenamen zur Verfügung. Sie können diesen Abschnitt dann überspringen.If you are a new customer, Microsoft service management team does provide SBD device name to you and you can skip this section.

1.1 Ändern Sie /etc/iscsi/initiatorname.isci in1.1 Modify /etc/iscsi/initiatorname.isci to

iqn.1996-04.de.suse:01:<Tenant><Location><SID><NodeNumber> 

Diese Zeichenfolge wird vom Microsoft Service Management-Team bereitgestellt.Microsoft service management does provide this string. Ändern Sie die Datei auf beiden Knoten, die Knotenanzahl variiert jedoch je nach Knoten.Modify the file on both the nodes, however the node number is different on each node.

initiatorname.png

1.2 Ändern Sie /etc/iscsi/iscsid.conf in: Legen Sie node.session.timeo.replacement_timeout=5 und node.startup = automatic fest.1.2 Modify /etc/iscsi/iscsid.conf: Set node.session.timeo.replacement_timeout=5 and node.startup = automatic. Ändern Sie die Datei auf beiden Knoten.Modify the file on both the nodes.

1.3 Führen Sie den Ermittlungsbefehl aus. Es werden vier Sitzungen angezeigt.1.3 Execute the discovery command, it shows four sessions. Führen Sie ihn auf beiden Knoten aus.Run it on both the nodes.

iscsiadm -m discovery -t st -p <IP address provided by Service Management>:3260

iSCSIadmDiscovery.png

1.4 Führen Sie den Befehl zum Anmelden beim iSCSI-Gerät aus. Es werden vier Sitzungen angezeigt.1.4 Execute the command to log in to the iSCSI device, it shows four sessions. Führen Sie ihn auf beiden Knoten aus.Run it on both the nodes.

iscsiadm -m node -l

iSCSIadmLogin.png

1.5 Führen Sie das Skript zum erneuten Prüfen aus: rescan-scsi-bus.sh. Dieses Skript zeigt die neuen für Sie erstellten Datenträger an.1.5 Execute the rescan script: rescan-scsi-bus.sh. This script shows you the new disks created for you. Führen Sie ihn auf beiden Knoten aus.Run it on both the nodes. Sie sollten eine LUN-Nummer größer als Null sehen (z.B. 1, 2 etc.).You should see a LUN number that is greater than zero (for example: 1, 2 etc.)

rescan-scsi-bus.sh

rescanscsibus.png

1.6 Um den Gerätenamen abzurufen, führen Sie den Befehl fdisk – l aus.1.6 To get the device name run the command fdisk –l. Führen Sie ihn auf beiden Knoten aus.Run it on both the nodes. Wählen Sie das Gerät mit der Größe 178 MiB aus.Pick the device with the size of 178 MiB.

  fdisk –l

fdisk-l.png

2. Initialisieren des SBD-Geräts2. Initialize the SBD device

2.1 Initialisieren Sie das SBD-Gerät auf beiden Knoten.2.1 Initialize the SBD device on both the nodes

sbd -d <SBD Device Name> create

sbdcreate.png

2.2 Überprüfen Sie, welche Daten auf das Gerät geschrieben wurden.2.2 Check what has been written to the device. Führen Sie diesen Schritt auf beiden Knoten durch.Do it on both the nodes

sbd -d <SBD Device Name> dump

3. Konfigurieren des Clusters3. Configuring the Cluster

In diesem Abschnitt werden die Schritte zum Konfigurieren des SUSE-Hochverfügbarkeitsclusters beschrieben.This section describes the steps to set up the SUSE HA cluster.

3.1 Paketinstallation3.1 Package installation

3.1.1 Überprüfen Sie, ob die Muster „ha_sles“ und „SAPHanaSR-doc“ installiert sind.3.1.1 Please check that ha_sles and SAPHanaSR-doc patterns are installed. Wenn sie nicht installiert sein sollten, installieren Sie sie.If it is not installed, install them. Installieren Sie sie auf beiden Knoten.Install it on both the nodes.

zypper in -t pattern ha_sles
zypper in SAPHanaSR SAPHanaSR-doc

zypperpatternha_sles.png zypperpatternSAPHANASR-doc.pngzypperpatternha_sles.png zypperpatternSAPHANASR-doc.png

3.2 Einrichten des Clusters3.2 Setting up the cluster

3.2.1 Sie können den Cluster entweder mit dem Befehl ha-cluster-init oder dem Assistenten yast2 konfigurieren.3.2.1 You can either use ha-cluster-init command, or use the yast2 wizard to set up the cluster. In diesem Fall wird der Assistent „yast2“ verwendet.In this case, the yast2 wizard is used. Führen Sie diesen Schritt nur auf dem primären Knoten durch.You perform this step only on the Primary node.

Navigieren Sie zu „yast2“ > „Hochverfügbarkeit“ > „Cluster“. yast-control-center.png yast-hawk-install.pngFollow yast2> High Availability > Cluster yast-control-center.png yast-hawk-install.png

Da das halk2-Paket bereits installiert ist, klicken Sie auf Abbrechen.Click cancel since the halk2 package is already installed.

yast-hawk-continue.png

Klicken Sie auf Weiter.Click Continue

Der erwartete Wert ist die Anzahl der bereitgestellten Knoten (in diesem Fall 2). yast-Cluster-Security.png Klicken Sie auf Weiter. yast-cluster-configure-csync2.png Fügen Sie Knotennamen hinzu, und klicken Sie dann auf „Vorgeschlagene Dateien hinzufügen“.Expected value=Number of nodes deployed (in this case 2) yast-Cluster-Security.png Click Next yast-cluster-configure-csync2.png Add node names and then click “Add suggested files”

Klicken Sie auf „csync2 aktivieren“.Click “Turn csync2 ON”

Klicken Sie auf „Vorinstallierte Schlüssel generieren“. Daraufhin wird das unten dargestellte Popupfenster angezeigt.Click “Generate Pre-Shared-Keys”, it shows below popup

yast-key-file.png

Klicken Sie auf OKClick OK

Die Authentifizierung erfolgt über die IP-Adressen und vorinstallierten Schlüssel in csync2.The authentication is performed using the IP addresses and pre-shared-keys in Csync2. Die Schlüsseldatei wird mit „csync2 -k /etc/csync2/key_hagroup“ erzeugt.The key file is generated with csync2 -k /etc/csync2/key_hagroup. Die Datei „key_hagroup“ sollte nach der Erstellung manuell in alle Clustermitglieder kopiert.The file key_hagroup should be copied to all members of the cluster manually after it's created. Achten Sie darauf, die Datei von node1 auf node2 zu kopieren.Ensure to copy the file from node 1 to node2.

yast-cluster-conntrackd.png

Klicken Sie auf Weiter. yast-cluster-service.pngClick Next yast-cluster-service.png

Standardmäßig ist das Starten deaktiviert. Ändern Sie es in „Ein“, damit Pacemaker beim Systemstart gestartet wird.In the default option, Booting was off, change it to “on” so pacemaker is started on boot. Sie können die Auswahl gemäß Ihren Konfigurationsanforderungen treffen.You can make the choice based on your setup requirements. Wenn Sie auf Weiter klicken, ist die Clusterkonfiguration abgeschlossen.Click Next and the cluster configuration is complete.

4. Einrichten des Softdog-Watchdogs4. Setting Up the Softdog Watchdog

In diesem Abschnitt wird die Konfiguration des Watchdogs (Softdog) beschrieben.This section describes the configuration of the watchdog (softdog).

4.1 Fügen Sie die folgende Zeile zu /etc/init.d/boot.local auf beiden Knoten hinzu.4.1 Add the following line to /etc/init.d/boot.local on both the nodes.

modprobe softdog

modprobe-softdog.png

4.2 Aktualisieren Sie die Datei /etc/sysconfig/sbd wie folgt auf beiden Knoten:4.2 Update the file /etc/sysconfig/sbd on both the nodes as following:

SBD_DEVICE="<SBD Device Name>"

sbd-device.png

4.3 Laden Sie das Kernelmodul auf beiden Knoten, indem Sie den folgenden Befehl ausführen.4.3 Load the kernel module on both the nodes by running the following command

modprobe softdog

modprobe-softdog-command.png

4.4 Stellen Sie sicher, dass Softdog wie folgt auf beiden Knoten ausgeführt wird:4.4 Check and ensure that softdog is running as following on both the nodes:

lsmod | grep dog

lsmod-grep-dog.png

4.5 Starten Sie das SBD-Gerät auf beiden Knoten.4.5 Start the SBD device on both the nodes

/usr/share/sbd/sbd.sh start

sbd-sh-start.png

4.6 Testen Sie den SBD-Deamon auf beiden Knoten.4.6 Test the SBD daemon on both the nodes. Nach der Konfiguration auf beiden Knoten werden zwei Einträge angezeigt.You see two entries after you configure it on both the nodes

sbd -d <SBD Device Name> list

sbd-list.png

4.7 Senden Sie eine Testnachricht an einen der Knoten.4.7 Send a test message to one of your nodes

sbd  -d <SBD Device Name> message <node2> <message>

sbd-list.png

4.8 Auf dem zweiten Knoten (node2) können Sie den Nachrichtenstatus überprüfen.4.8 On the Second node (node2) you can check the message status

sbd  -d <SBD Device Name> list

sbd-list-message.png

4.9 Um die SBD-Konfiguration zu übernehmen, aktualisieren Sie die Datei /etc/sysconfig/sbd wie folgt.4.9 To adopt the sbd config, update the file /etc/sysconfig/sbd as following. Aktualisieren Sie die Datei auf beiden Knoten.Update the file on both the nodes

SBD_DEVICE=" <SBD Device Name>" 
SBD_WATCHDOG="yes" 
SBD_PACEMAKER="yes" 
SBD_STARTMODE="clean" 
SBD_OPTS=""

4.10 Starten Sie den Pacemaker-Dienst auf dem primären Knoten (node1).4.10 Start the pacemaker service on the Primary node (node1)

systemctl start pacemaker

start-pacemaker.png

Wenn beim Pacemaker-Dienst ein Fehler auftritt, lesen Sie Szenario 5: Beim Pacemaker-Dienst tritt ein Fehler auf.If the pacemaker service fails, refer to Scenario 5: Pacemaker service fails

5. Beitreten zum Cluster5. Joining the cluster

In diesem Abschnitt wird beschrieben, wie Sie den Knoten zum Cluster hinzuzufügen.This section describes on how to join the node to the cluster.

5.1 Fügen Sie den Knoten hinzu.5.1 Add the node

Führen Sie den folgenden Befehl auf node2 aus, damit node2 dem Cluster beitritt.Run the following command on node2 to let node2 join the cluster.

ha-cluster-join

Wenn beim Beitritt zum Cluster ein Fehler auftritt, lesen Sie Szenario 6: Node 2 kann nicht dem Cluster beitreten.If you receive an error during joining the cluster, refer Scenario 6: Node 2 unable to join the cluster.

6. Überprüfen des Clusters6. Validating the cluster

6.1 Starten Sie den Clusterdienst.6.1 Start the cluster service

So überprüfen und starten Sie den Cluster optional zum ersten Mal auf beiden KnotenTo check and optionally start the cluster for the first time on both nodes.

systemctl status pacemaker
systemctl start pacemaker

systemctl-status-pacemaker.png

6.2 Überwachen Sie den Status.6.2 Monitor the status

Führen Sie den Befehl crm_mon aus, um sicherzustellen, dass beide Knoten online sind.Run the command crm_mon to ensure both the nodes are online. Sie können ihn für beide Knoten des Clusters ausführen.You can run it on any of the nodes of the cluster

crm_mon

crm-mon.png Sie können sich auch bei hawk anmelden, um den Clusterstatus https://<node IP>:7630 zu überprüfen.crm-mon.png You can also log in to hawk to check the cluster status https://<node IP>:7630. Der Standardbenutzer lautet „hacluster“ und das Kennwort „linux“.The default user is hacluster and the password is linux. Bei Bedarf können Sie das Kennwort mit dem Befehl passwd ändern.If needed, you can change the password using passwd command.

7. Konfigurieren von Clustereigenschaften und -ressourcen7. Configure Cluster Properties and Resources

In diesem Abschnitt werden die Schritte zum Konfigurieren von Clusterressourcen beschrieben.This section describes the steps to configure the cluster resources. In diesem Beispiel wurde die folgende Ressource eingerichtet. Der Rest kann (bei Bedarf) anhand des Hochverfügbarkeitsleitfadens für SUSE konfiguriert werden.In this example, set up the following resource, the rest can be configured (if needed) by referencing the SUSE HA guide. Führen Sie die Konfiguration nur auf einem der Knoten aus.Perform the config in one of the nodes only. Führen Sie die folgende Konfiguration auf dem primären Knoten aus:Do on primary node.

  • Cluster-BootstrapCluster bootstrap
  • STONITH-GerätSTONITH Device
  • Virtuelle IP-AdresseThe Virtual IP Address

7.1 Cluster-Bootstrap etc.7.1 Cluster bootstrap and more

Fügen Sie ein Cluster-Bootstrap hinzu.Add cluster bootstrap. Erstellen Sie die Datei, und fügen Sie den Text wie folgt hinzu:Create the file and add the text as following:

sapprdhdb95:~ # vi crm-bs.txt
# enter the following to crm-bs.txt
property $id="cib-bootstrap-options" \
no-quorum-policy="ignore" \
stonith-enabled="true" \
stonith-action="reboot" \
stonith-timeout="150s"
rsc_defaults $id="rsc-options" \
resource-stickiness="1000" \
migration-threshold="5000"
op_defaults $id="op-options" \
timeout="600"

Fügen Sie die Konfiguration zum Cluster hinzu.Add the configuration to the cluster.

crm configure load update crm-bs.txt

crm-configure-crmbs.png

7.2 STONITH-Gerät7.2 STONITH device

Fügen Sie das STONITH-Ressourcengerät hinzu.Add resource STONITH. Erstellen Sie die Datei, und fügen Sie den Text wie folgt hinzu.Create the file and add the text as following.

# vi crm-sbd.txt
# enter the following to crm-sbd.txt
primitive stonith-sbd stonith:external/sbd \
params pcmk_delay_max="15"

Fügen Sie die Konfiguration zum Cluster hinzu.Add the configuration to the cluster.

crm configure load update crm-sbd.txt

7.3 Virtuelle IP-Adresse7.3 The virtual IP address

Fügen Sie die virtuelle IP-Adresse der Ressource hinzu.Add resource virtual IP. Erstellen Sie die Datei, und fügen Sie den Text wie folgt hinzu.Create the file and add the text as below.

# vi crm-vip.txt
primitive rsc_ip_HA1_HDB10 ocf:heartbeat:IPaddr2 \
operations $id="rsc_ip_HA1_HDB10-operations" \
op monitor interval="10s" timeout="20s" \
params ip="10.35.0.197"

Fügen Sie die Konfiguration zum Cluster hinzu.Add the configuration to the cluster.

crm configure load update crm-vip.txt

7.4 Überprüfen Sie die Ressourcen.7.4 Validate the resources

Beim Ausführen des Befehls crm_mon werden die zwei Ressourcen dort angezeigt.When you run command crm_mon, you can see the two resources there. crm_mon_command.pngcrm_mon_command.png

Darüber hinaus können Sie den Status unter https://<node IP address>:7630/cib/live/state sehen.Also, you can see the status at https://<node IP address>:7630/cib/live/state

hawlk-status-page.png

8. Testen des Failoverprozesses8. Testing the failover process

Um den Failoverprozess zu testen, beenden Sie den Pacemaker-Dienst auf node1 und das Ressourcenfailover auf node2.To test the failover process, stop the pacemaker service on node1, and the resources failover to node2.

Service pacemaker stop

Beenden Sie nun den Pacemaker-Dienst auf node2 und die Ressourcen, für die ein Failover auf node1 ausgeführt wurde.Now, stop the pacemaker service on node2 and resources failed over to node1

Vor dem FailoverBefore failover
Before-failover.pngBefore-failover.png

Nach dem FailoverAfter failover
after-failover.pngafter-failover.png
crm-mon-after-failover.pngcrm-mon-after-failover.png

9. Problembehandlung9. Troubleshooting

In diesem Abschnitt werden einige Fehlerzenarien beschrieben, die bei der Einrichtung auftreten können.This section describes the few failure scenarios, which can be encountered during the setup. Diese Probleme müssen nicht zwingend bei Ihnen auftreten.You may not necessarily face these issues.

Szenario 1: Der Clusterknoten ist nicht online.Scenario 1: Cluster node not online

Wenn der Knoten im Cluster-Manager nicht als online angezeigt wird, können Sie Folgendes versuchen, um ihn wieder online zu schalten.If any of the nodes does not show online in cluster manager, you can try following to bring it online.

Starten Sie den iSCSI-Dienst:Start the iSCSI service

service iscsid start

Nun sollten Sie sich beim iSCSI-Knoten anmelden können.And now you should be able to log in to that iSCSI node

iscsiadm -m node -l

Die erwartete Ausgabe sieht wie folgt aus:The expected output looks like following

sapprdhdb45:~ # iscsiadm -m node -l
Logging in to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.11,3260] (multiple)
Logging in to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.12,3260] (multiple)
Logging in to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.22,3260] (multiple)
Logging in to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.21,3260] (multiple)
Login to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.11,3260] successful.
Login to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.12,3260] successful.
Login to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.22,3260] successful.
Login to [iface: default, target: iqn.1992-08.com.netapp:hanadc11:1:t020, portal: 10.250.22.21,3260] successful.

Szenario 2: yast2 zeigt keine grafische Ansicht an.Scenario 2: yast2 does not show graphical view

In diesem Dokument wurde der grafische yast2-Bildschirm zum Konfigurieren des Hochverfügbarkeitsclusters verwendet.The yast2 graphical screen is used to set up the High Availability cluster in this document. Wenn yast2 nicht wie gezeigt mit dem grafischen Fenster geöffnet und stattdessen ein Qt-Fehler ausgelöst wird, führen Sie die folgenden Schritte durch.If yast2 does not open with the graphical window as shown and throw Qt error, perform the steps as following. Wenn es mit dem grafischen Fenster geöffnet wird, können Sie die Schritte überspringen.If it opens with the graphical window, you can skip the steps.

FehlerError

yast2-qt-gui-error.png

Erwartete AusgabeExpected Output

yast-control-center.png

Wenn yast2 nicht mit der grafischen Ansicht geöffnet wird, führen Sie die folgenden Schritte durch.If the yast2 does not open with the graphical view, follow the steps following.

Installieren Sie die erforderlichen Pakete.Install the required packages. Sie müssen als „root“-Benutzer angemeldet sein und SMT für den Download bzw. die Installation der Pakete konfiguriert haben.You must be logged in as user “root” and have SMT set up to download/install the packages.

Navigieren Sie zum Installieren der Pakete zur Option „Empfohlene Pakete installieren...“ unter „yast“ > „Software“ > „Softwareverwaltung“ > „Abhängigkeiten“.To install the packages, use yast>Software>Software Management>Dependencies> option “Install recommended packages…”. Der folgende Screenshot zeigt die erwarteten Bildschirme.The following screenshot illustrates the expected screens.

Hinweis

Damit Sie über beide Knoten auf die grafische Ansicht von yast2 zugreifen können, müssen Sie die Schritte auf beiden Knoten durchführen.You need to perform the steps on both the nodes, so that you can access the yast2 graphical view from both the nodes.

yast-sofwaremanagement.png

Wählen Sie unter „Abhängigkeiten“ die Option „Empfohlene Pakete installieren“ aus. yast-dependencies.pngUnder Dependencies, select "Install Recommended Packages" yast-dependencies.png

Überprüfen Sie die Änderungen, und klicken Sie auf „OK“.Review the changes and hit OK

yast

Die Paketinstallation wird fortgesetzt. yast-performing-installation.pngPackage installation proceeds yast-performing-installation.png

Klicken Sie auf „Weiter“.Click Next

yast-installation-report.png

Klicken Sie auf „Fertig stellen“.Click Finish

Sie müssen auch die Pakete „libqt4“ und „libyui“ installieren.You also need to install the libqt4 and libyui-qt packages.

zypper -n install libqt4

zypper-install-libqt4.png

zypper -n install libyui-qt

zypper-install-ligyui.png zypper-install-ligyui_part2.png Yast2 sollte die grafische Ansicht nun öffnen können, wie hier gezeigt wird.zypper-install-ligyui.png zypper-install-ligyui_part2.png Yast2 should be able to open the graphical view now as shown here. yast2-control-center.pngyast2-control-center.png

Szenario 3: yast2 zeigt keine Hochverfügbarkeitsoption an.Scenario 3: yast2 does not High Availability option

Damit die Hochverfügbarkeitsoption im Steuercenter von yast2 angezeigt wird, müssen Sie die zusätzlichen Pakete installieren.For the High Availability option to be visible on the yast2 control center, you need to install the additional packages.

Wählen Sie unter „Yast2“ > „Software“ > „Softwareverwaltung“ folgende Muster aus:Using Yast2>Software>Software management>Select the following patterns

  • SAP HANA-ServerbasisSAP HANA server base
  • C/C++-Compiler und -ToolsC/C++ Compiler and tools
  • HochverfügbarkeitHigh availability
  • SAP-AnwendungsserverbasisSAP Application server base

Auf dem folgenden Bildschirm werden die Schritte zum Installieren der Muster angezeigt.The following screen shows the steps to install the patterns.

Diese finden Sie unter „yast2“ > „Software“ > „Softwareverwaltung“.Using yast2 > Software > Software Management

yast2-control-center.png

Wählen Sie die Muster aus.Select the patterns

yast-pattern1.png yast-pattern2.pngyast-pattern1.png yast-pattern2.png

Klicken Sie auf Annehmen.Click Accept

yast-changed-packages.png

Klicken Sie auf Weiter.Click Continue

yast2-performing-installation.png

Klicken Sie nach Abschluss der Installation auf Weiter.Click Next when the installation is complete

yast2-installation-report.png

Szenario 4: Bei der HANA-Installation tritt ein GCC-Assembly-Fehler auf.Scenario 4: HANA Installation fails with gcc assemblies error

Bei der HANA-Installation tritt folgender Fehler auf.The HANA installation fails with following error.

Hana-installation-error.png

Um das Problem zu beheben, müssen Sie Bibliotheken (libgcc_sl und libstdc++6) wie folgt installieren.To fix the issue, you need to install libraries (libgcc_sl and libstdc++6) as following.

zypper-install-lib.png

Szenario 5: Beim Pacemaker-Dienst tritt ein Fehler auf.Scenario 5: Pacemaker service fails

Das folgende Problem tritt beim Start des Pacemaker-Diensts auf.The following issue occurred during the pacemaker service start.

sapprdhdb95:/ # systemctl start pacemaker
A dependency job for pacemaker.service failed. See 'journalctl -xn' for details.
sapprdhdb95:/ # journalctl -xn
-- Logs begin at Thu 2017-09-28 09:28:14 EDT, end at Thu 2017-09-28 21:48:27 EDT. --
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [SERV  ] Service engine unloaded: corosync configuration map
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [QB    ] withdrawing server sockets
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [SERV  ] Service engine unloaded: corosync configuration ser
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [QB    ] withdrawing server sockets
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [SERV  ] Service engine unloaded: corosync cluster closed pr
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [QB    ] withdrawing server sockets
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [SERV  ] Service engine unloaded: corosync cluster quorum se
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [SERV  ] Service engine unloaded: corosync profile loading s
Sep 28 21:48:27 sapprdhdb95 corosync[68812]: [MAIN  ] Corosync Cluster Engine exiting normally
Sep 28 21:48:27 sapprdhdb95 systemd[1]: Dependency failed for Pacemaker High Availability Cluster Manager
-- Subject: Unit pacemaker.service has failed
-- Defined-By: systemd
-- Support: https://lists.freedesktop.org/mailman/listinfo/systemd-devel
--
-- Unit pacemaker.service has failed.
--
-- The result is dependency.
sapprdhdb95:/ # tail -f /var/log/messages
2017-09-28T18:44:29.675814-04:00 sapprdhdb95 corosync[57600]:   [QB    ] withdrawing server sockets
2017-09-28T18:44:29.676023-04:00 sapprdhdb95 corosync[57600]:   [SERV  ] Service engine unloaded: corosync cluster closed process group service v1.01
2017-09-28T18:44:29.725885-04:00 sapprdhdb95 corosync[57600]:   [QB    ] withdrawing server sockets
2017-09-28T18:44:29.726069-04:00 sapprdhdb95 corosync[57600]:   [SERV  ] Service engine unloaded: corosync cluster quorum service v0.1
2017-09-28T18:44:29.726164-04:00 sapprdhdb95 corosync[57600]:   [SERV  ] Service engine unloaded: corosync profile loading service
2017-09-28T18:44:29.776349-04:00 sapprdhdb95 corosync[57600]:   [MAIN  ] Corosync Cluster Engine exiting normally
2017-09-28T18:44:29.778177-04:00 sapprdhdb95 systemd[1]: Dependency failed for Pacemaker High Availability Cluster Manager.
2017-09-28T18:44:40.141030-04:00 sapprdhdb95 systemd[1]: [/usr/lib/systemd/system/fstrim.timer:8] Unknown lvalue 'Persistent' in section 'Timer'
2017-09-28T18:45:01.275038-04:00 sapprdhdb95 cron[57995]: pam_unix(crond:session): session opened for user root by (uid=0)
2017-09-28T18:45:01.308066-04:00 sapprdhdb95 CRON[57995]: pam_unix(crond:session): session closed for user root

Um dies zu beheben, löschen Sie die folgende Zeile aus der Datei /usr/lib/systemd/system/fstrim.timer.To fix it, delete the following line from the file /usr/lib/systemd/system/fstrim.timer

Persistent=true

Persistent.png

Szenario 6: Node 2 kann nicht dem Cluster beitreten.Scenario 6: Node 2 unable to join the cluster

Wenn node2 über den Befehl ha-cluster-join mit dem vorhandenen Cluster verknüpft wird, tritt der folgende Fehler auf.When joining the node2 to the existing cluster using ha-cluster-join command, the following error occurred.

ERROR: Can’t retrieve SSH keys from <Primary Node>

ha-cluster-join-error.png

Um das Problem zu beheben, führen Sie Folgendes auf beiden Knoten aus.To fix, run the following on both the nodes

ssh-keygen -q -f /root/.ssh/id_rsa -C 'Cluster Internal' -N ''
cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys

ssh-keygen-node1.PNG

ssh-keygen-node2.PNG

Nach der vorangehenden Fehlerbehebung sollte node2 dem Cluster hinzugefügt werden.After the preceding fix, node2 should get added to the cluster

ha-cluster-join-fix.png

10. Allgemeine Dokumentation10. General Documentation

Weitere Informationen zur Hochverfügbarkeitskonfiguration unter SUSE finden Sie in folgenden Artikeln:You can find more information on SUSE HA setup in the following articles: