Alta disponibilidad de SAP NetWeaver en VM de Azure en SUSE Linux Enterprise Server con Azure NetApp Files para las aplicaciones de SAPHigh availability for SAP NetWeaver on Azure VMs on SUSE Linux Enterprise Server with Azure NetApp Files for SAP applications

En este artículo se describe cómo implementar y configurar las máquinas virtuales, y cómo instalar el marco del clúster y un sistema SAP NetWeaver 7.50 de alta disponibilidad, mediante Azure NetApp Files.This article describes how to deploy the virtual machines, configure the virtual machines, install the cluster framework, and install a highly available SAP NetWeaver 7.50 system, using Azure NetApp Files. En las configuraciones de ejemplo, los comandos de instalación. etc., la instancia de ASCS es 00, la instancia de ERS es 01, la instancia de aplicación principal (PAS) es 02 y la instancia de aplicación (AAS) es 03.In the example configurations, installation commands etc., the ASCS instance is number 00, the ERS instance number 01, the Primary Application instance (PAS) is 02 and the Application instance (AAS) is 03. Se usan los controles de calidad de los identificadores del sistema SAP.SAP System ID QAS is used.

En este artículo se explica cómo lograr una alta disponibilidad para la aplicación de SAP NetWeaver con Azure NetApp Files.This article explains how to achieve high availability for SAP NetWeaver application with Azure NetApp Files. El nivel de la base de datos no se trata en detalle en este artículo.The database layer isn't covered in detail in this article.

Lea primero las notas y los documentos de SAP siguientes:Read the following SAP Notes and papers first:

Información generalOverview

La alta disponibilidad de los servicios centrales de SAP Netweaver requiere almacenamiento compartido.High availability(HA) for SAP Netweaver central services requires shared storage. Para lograrlo en SUSE Linux hasta ahora era necesario crear el clúster independiente NFS de alta disponibilidad.To achieve that on SUSE Linux so far it was necessary to build separate highly available NFS cluster.

Ahora ya es posible lograr alta disponibilidad en SAP NetWeaver mediante el uso de almacenamiento compartido implementado en Azure NetApp Files.Now it is possible to achieve SAP Netweaver HA by using shared storage, deployed on Azure NetApp Files. Mediante el uso de Azure NetApp Files para el almacenamiento compartido se elimina la necesidad del clúster NFS adicional.Using Azure NetApp Files for the shared storage eliminates the need for additional NFS cluster. Pacemaker sigue siendo necesario para lograr una alta disponibilidad de los servicios centrales de SAP NetWeaver (ASCS/SCS).Pacemaker is still needed for HA of the SAP Netweaver central services(ASCS/SCS).

Información general sobre la alta disponibilidad de SAP NetWeaver

SAP NetWeaver ASCS, SAP NetWeaver SCS, SAP NetWeaver ERS y la base de datos SAP HANA usan direcciones IP virtuales y el nombre de host virtual.SAP NetWeaver ASCS, SAP NetWeaver SCS, SAP NetWeaver ERS, and the SAP HANA database use virtual hostname and virtual IP addresses. En Azure, se requiere un equilibrador de carga para usar una dirección IP virtual.On Azure, a load balancer is required to use a virtual IP address. En la lista siguiente se muestra la configuración del equilibrador de carga (A)SCS y ERS.The following list shows the configuration of the (A)SCS and ERS load balancer.

Importante

La agrupación en clústeres de varios SID de SAP ASCS/ERS con SUSE Linux como sistema operativo invitado en las VM de Azure NO se admite.Multi-SID clustering of SAP ASCS/ERS with SUSE Linux as guest operating system in Azure VMs is NOT supported. La agrupación en clústeres de varios SID describe la instalación de varias instancias de SAP ASCS/ERS con SID diferentes en un clúster de Pacemaker.Multi-SID clustering describes the installation of multiple SAP ASCS/ERS instances with different SIDs in one Pacemaker cluster

(A)SCS(A)SCS

  • Configuración de front-endFrontend configuration
    • Dirección IP 10.1.1.20.IP address 10.1.1.20
  • Configuración de back-endBackend configuration
    • Se conecta a interfaces de red principales de todas las máquinas que deben ser parte del clúster (A)SCS/ERSConnected to primary network interfaces of all virtual machines that should be part of the (A)SCS/ERS cluster
  • Puerto de sondeoProbe Port
    • Puerto 620<nr>Port 620<nr>
  • Reglas de equilibrio de carga.Load-balancing rules
    • 32<nr> TCP32<nr> TCP
    • 36<nr> TCP36<nr> TCP
    • 39<nr> TCP39<nr> TCP
    • 81<nr> TCP81<nr> TCP
    • 5<nr>13 TCP5<nr>13 TCP
    • 5<nr>14 TCP5<nr>14 TCP
    • 5<nr>16 TCP5<nr>16 TCP

ERSERS

  • Configuración de front-endFrontend configuration
    • Dirección IP 10.1.1.21.IP address 10.1.1.21
  • Configuración de back-endBackend configuration
    • Se conecta a interfaces de red principales de todas las máquinas que deben ser parte del clúster (A)SCS/ERSConnected to primary network interfaces of all virtual machines that should be part of the (A)SCS/ERS cluster
  • Puerto de sondeoProbe Port
    • Puerto 621<nr>Port 621<nr>
  • Reglas de equilibrio de carga.Load-balancing rules
    • 32<nr> TCP32<nr> TCP
    • 33<nr> TCP33<nr> TCP
    • 5<nr>13 TCP5<nr>13 TCP
    • 5<nr>14 TCP5<nr>14 TCP
    • 5<nr>16 TCP5<nr>16 TCP

Configuración de la infraestructura de Azure NetApp FilesSetting up the Azure NetApp Files infrastructure

SAP NetWeaver requiere un almacenamiento compartido para el directorio de transporte y perfil.SAP NetWeaver requires shared storage for the transport and profile directory. Antes de continuar con la configuración de la infraestructura de Azure NetApp Files, familiarícese con la documentación correspondiente.Before proceeding with the setup for Azure NetApp files infrastructure, familiarize yourself with the Azure NetApp Files documentation. Compruebe si la región de Azure seleccionada ofrece Azure NetApp Files.Check if your selected Azure region offers Azure NetApp Files. El siguiente vínculo muestra la disponibilidad de Azure NetApp Files por región de Azure: Disponibilidad de Azure NetApp Files por región de Azure.The following link shows the availability of Azure NetApp Files by Azure region: Azure NetApp Files Availability by Azure Region.

Azure NetApp Files está disponible en varias regiones de Azure.Azure NetApp files is available in several Azure regions. Antes de implementar Azure NetApp Files, solicite la incorporación a este servicio de acuerdo con las instrucciones para registrarse en Azure NetApp Files.Before deploying Azure NetApp Files, request onboarding to Azure NetApp Files , following the Register for Azure NetApp files instructions.

Implementación de recursos de Azure NetApp FilesDeploy Azure NetApp Files resources

En estos pasos se supone que ya ha implementado Azure Virtual Network.The steps assume that you have already deployed Azure Virtual Network. Los recursos de Azure NetApp Files y las máquinas virtuales en las que esos recursos se montarán se deben implementar en la misma red virtual de Azure o en redes virtuales emparejadas.The Azure NetApp Files resources and the VMs, where the Azure NetApp Files resources will be mounted must be deployed in the same Azure Virtual Network or in peered Azure Virtual Networks.

  1. Si aún no lo ha hecho, solicite la incorporación a Azure NetApp Files.If you haven't done that already, request onboarding to Azure NetApp Files.

  2. Cree la cuenta de NetApp en la región de Azure seleccionada mediante las instrucciones para crear la cuenta de NetApp.Create the NetApp account in the selected Azure region, following the instructions to create NetApp Account.

  3. Configure el grupo de capacidad de Azure NetApp Files con las instrucciones correspondientes.Set up Azure NetApp Files capacity pool, following the instructions on how to set up Azure NetApp Files capacity pool.
    La arquitectura de SAP Netweaver que se presenta en este artículo usa un único grupo de capacidad de Azure NetApp Files, SKU Premium.The SAP Netweaver architecture presented in this article uses single Azure NetApp Files capacity pool, Premium SKU. Se recomienda usar SKU Premium de Azure NetApp Files para cargas de trabajo de aplicaciones de SAP NetWeaver en Azure.We recommend Azure NetApp Files Premium SKU for SAP Netweaver application workload on Azure.

  4. Delegue una subred en Azure NetApp Files como se describe en las instrucciones correspondientes.Delegate a subnet to Azure NetApp files as described in the instructions Delegate a subnet to Azure NetApp Files.

  5. Implemente los volúmenes de Azure NetApp Files mediante las instrucciones correspondientes.Deploy Azure NetApp Files volumes, following the instructions to create a volume for Azure NetApp Files. Implemente los volúmenes en la subred de Azure NetApp Files designada.Deploy the volumes in the designated Azure NetApp Files subnet. Tenga en cuenta que los recursos de Azure NetApp Files y las máquinas virtuales de Azure deben estar en la misma red virtual de Azure o en redes virtuales emparejadas.Keep in mind that the Azure NetApp Files resources and the Azure VMs must be in the same Azure Virtual Network or in peered Azure Virtual Networks. Por ejemplo, sapmntQAS, usrsapQAS, etc. son nombres de volumen y sapmntqas, usrsapqas, etc. son rutas de archivo para los volúmenes de Azure NetApp Files.For example sapmntQAS, usrsapQAS, etc. are the volume names and sapmntqas, usrsapqas, etc. are the filepaths for the Azure NetApp Files volumes.

    1. volumen sapmntQAS (nfs://10.1.0.4/sapmntqas)volume sapmntQAS (nfs://10.1.0.4/sapmntqas)
    2. volumen usrsapQAS (nfs://10.1.0.4/usrsapqas)volume usrsapQAS (nfs://10.1.0.4/usrsapqas)
    3. volumen usrsapQASsys (nfs://10.1.0.5/usrsapqassys)volume usrsapQASsys (nfs://10.1.0.5/usrsapqassys)
    4. volumen usrsapQASers (nfs://10.1.0.4/usrsapqasers)volume usrsapQASers (nfs://10.1.0.4/usrsapqasers)
    5. volumen trans (nfs://10.1.0.4/trans)volume trans (nfs://10.1.0.4/trans)
    6. volumen usrsapQASpas (nfs://10.1.0.5/usrsapqaspas)volume usrsapQASpas (nfs://10.1.0.5/usrsapqaspas)
    7. volumen usrsapQASaas (nfs://10.1.0.4/usrsapqasaas)volume usrsapQASaas (nfs://10.1.0.4/usrsapqasaas)

En este ejemplo, hemos usado Azure NetApp Files para todos los sistemas de archivos de SAP Netweaver para demostrar cómo se puede usar Azure NetApp Files.In this example, we used Azure NetApp Files for all SAP Netweaver file systems to demonstrate how Azure NetApp Files can be used. Los sistemas de archivos SAP que no es necesario montar mediante NFS se pueden también implementar en Azure Disk Storage.The SAP file systems that don't need to be mounted via NFS can also be deployed as Azure disk storage . En este ejemplo, a-e deben estar en Azure NetApp Files y f-g (es decir, /usr/sap/QAS/D02, /usr/sap/QAS/D03) se podrían implementar en Azure Disk Storage.In this example a-e must be on Azure NetApp Files and f-g (that is, /usr/sap/QAS/D02, /usr/sap/QAS/D03) could be deployed as Azure disk storage.

Consideraciones importantesImportant considerations

A la hora de considerar Azure NetApp Files para SAP Netweaver en la arquitectura de alta disponibilidad de SUSE, tenga en cuenta los siguientes aspectos importantes:When considering Azure NetApp Files for the SAP Netweaver on SUSE High Availability architecture, be aware of the following important considerations:

  • El grupo de capacidad mínimo es de 4 TiB.The minimum capacity pool is 4 TiB. El tamaño del grupo de capacidad debe ser un múltiplo de 4 TiB.The capacity pool size must be in multiples of 4 TiB.
  • El volumen mínimo es de 100 GiB.The minimum volume is 100 GiB
  • Azure NetApp Files y todas las máquinas virtuales en las que los volúmenes de Azure NetApp Files se montarán, se deben implementar en la misma red virtual de Azure o en redes virtuales emparejadas de la misma región.Azure NetApp Files and all virtual machines, where Azure NetApp Files volumes will be mounted, must be in the same Azure Virtual Network or in peered virtual networks in the same region. Ahora también se admite el acceso de Azure NetApp Files mediante emparejamiento de red virtual en la misma región.Azure NetApp Files access over VNET peering in the same region is supported now. Aún no se admite el acceso de Azure NetApp a través del emparejamiento global.Azure NetApp access over global peering is not yet supported.
  • La red virtual seleccionada debe tener una subred delegada en Azure NetApp Files.The selected virtual network must have a subnet, delegated to Azure NetApp Files.
  • Azure NetApp Files solo admite NFSv3 actualmente.Azure NetApp Files currently supports only NFSv3
  • Azure NetApp Files ofrece la directiva de exportación: puede controlar los clientes permitidos, el tipo de acceso (lectura y escritura, solo lectura, etc.).Azure NetApp Files offers export policy: you can control the allowed clients, the access type (Read&Write, Read Only, etc.).
  • La característica Azure NetApp Files no depende aún de la zona.Azure NetApp Files feature isn't zone aware yet. En la actualidad, la característica Azure NetApp Files no se implementa en todas las zonas de disponibilidad de una región de Azure.Currently Azure NetApp Files feature isn't deployed in all Availability zones in an Azure region. Tenga en cuenta las posibles implicaciones de latencia en algunas regiones de Azure.Be aware of the potential latency implications in some Azure regions.

Implementación manual de VM de Linux mediante Azure PortalDeploy Linux VMs manually via Azure portal

Primero deberá crear los volúmenes de Azure NetApp Files.First you need to create the Azure NetApp Files volumes. Implemente las VM.Deploy the VMs. Después, creará un equilibrador de carga y usará las máquinas virtuales de los grupos de servidores back-end.Afterwards, you create a load balancer and use the virtual machines in the backend pools.

  1. Creación de un grupo de recursosCreate a Resource Group
  2. Creación de una red virtualCreate a Virtual Network
  3. Cree un conjunto de disponibilidad para ACS.Create an Availability Set for ASCS
    Establecimiento del dominio máximo de actualizaciónSet max update domain
  4. Creación de la máquina virtual 1Create Virtual Machine 1
    Use al menos SLES4SAP 12 SP3, en este ejemplo se usa la imagen SLES4SAP 12 SP3.Use at least SLES4SAP 12 SP3, in this example the SLES4SAP 12 SP3 image is used
    Seleccione el conjunto de disponibilidad creado anteriormente para ASCS.Select Availability Set created earlier for ASCS
  5. Creación de la máquina virtual 2Create Virtual Machine 2
    Use al menos SLES4SAP 12 SP3, en este ejemplo se usa la imagen SLES4SAP 12 SP3.Use at least SLES4SAP 12 SP3, in this example the SLES4SAP 12 SP3 image is used
    Seleccione el conjunto de disponibilidad creado anteriormente para ASCS.Select Availability Set created earlier for ASCS
  6. Cree un conjunto de disponibilidad para las instancias de aplicaciones de SAP (PAS, AAS).Create an Availability Set for the SAP application instances (PAS, AAS)
    Establecimiento del dominio máximo de actualizaciónSet max update domain
  7. Cree la máquina virtual 3.Create Virtual Machine 3
    Use al menos SLES4SAP 12 SP3, en este ejemplo se usa la imagen SLES4SAP 12 SP3.Use at least SLES4SAP 12 SP3, in this example the SLES4SAP 12 SP3 image is used
    Seleccione el conjunto de disponibilidad creado anteriormente para PAS/AAS.Select Availability Set created earlier for PAS/AAS
  8. Cree la máquina virtual 4.Create Virtual Machine 4
    Use al menos SLES4SAP 12 SP3, en este ejemplo se usa la imagen SLES4SAP 12 SP3.Use at least SLES4SAP 12 SP3, in this example the SLES4SAP 12 SP3 image is used
    Seleccione el conjunto de disponibilidad creado anteriormente para PAS/AAS.Select Availability Set created earlier for PAS/AAS

Configuración de (A)SCSSetting up (A)SCS

En este ejemplo, los recursos se implementaron manualmente mediante Azure Portal.In this example, the resources were deployed manually via the Azure portal .

Implemente Azure Load Balancer manualmente a través de Azure Portal.Deploy Azure Load Balancer manually via Azure portal

Primero deberá crear los volúmenes de Azure NetApp Files.First you need to create the Azure NetApp Files volumes. Implemente las VM.Deploy the VMs. Después, creará un equilibrador de carga y usará las máquinas virtuales de los grupos de servidores back-end.Afterwards, you create a load balancer and use the virtual machines in the backend pools.

  1. Creación de un equilibrador de carga (interno)Create a Load Balancer (internal)
    1. Creación de las direcciones IP de front-endCreate the frontend IP addresses
      1. Dirección IP 10.1.1.20 de ASCS.IP address 10.1.1.20 for the ASCS
        1. Abra el equilibrador de carga, seleccione el grupo de direcciones IP de front-end y haga clic en AgregarOpen the load balancer, select frontend IP pool, and click Add
        2. Escriba el nombre del nuevo grupo de direcciones IP de front-end (por ejemplo, frontend.QAS.ASCS).Enter the name of the new frontend IP pool (for example frontend.QAS.ASCS)
        3. 2.Establezca Asignación en Estática y escriba la dirección IP (por ejemplo, 10.1.1.20).Set the Assignment to Static and enter the IP address (for example 10.1.1.20)
        4. Haga clic en AceptarClick OK
      2. Dirección IP 10.1.1.21 para ASCS ERS.IP address 10.1.1.21 for the ASCS ERS
        • Repita los pasos anteriores a partir de "a" para crear una dirección IP para el ERS (por ejemplo, 10.1.1.21 y frontend.QAS.ERS).Repeat the steps above under "a" to create an IP address for the ERS (for example 10.1.1.21 and frontend.QAS.ERS)
    2. Creación de los grupos de servidores back-endCreate the backend pools
      1. Creación de un grupo de servidores back-end para ASCSCreate a backend pool for the ASCS
        1. Abra el equilibrador de carga, seleccione los grupos de back-end y haga clic en AgregarOpen the load balancer, select backend pools, and click Add
        2. Escriba el nombre del nuevo grupo de servidores back-end (por ejemplo, backend.QAS).Enter the name of the new backend pool (for example backend.QAS)
        3. Haga clic en Agregar una máquina virtual.Click Add a virtual machine.
        4. Seleccione el conjunto de disponibilidad que creó anteriormente para ASCS.Select the Availability Set you created earlier for ASCS
        5. Seleccione las máquinas virtuales del clúster (A)SCS.Select the virtual machines of the (A)SCS cluster
        6. Haga clic en AceptarClick OK
    3. Creación de los sondeos de estadoCreate the health probes
      1. Puerto 62000 para ASCSPort 62000 for ASCS
        1. Abra el equilibrador de carga, seleccione los sondeos de estado y haga clic en AgregarOpen the load balancer, select health probes, and click Add
        2. Escriba el nombre del sondeo de estado nuevo (por ejemplo health.QAS.ASCS).Enter the name of the new health probe (for example health.QAS.ASCS)
        3. Seleccione TCP como protocolo, puerto 62000, y mantenga el intervalo de 5 y el umbral incorrecto 2.Select TCP as protocol, port 62000, keep Interval 5 and Unhealthy threshold 2
        4. Haga clic en AceptarClick OK
      2. Puerto 62101 para ASCS ERS.Port 62101 for ASCS ERS
        • Repita los pasos anteriores a partir de "c" para crear un sondeo de estado para ERS (por ejemplo 62101 y health.QAS.ERS).Repeat the steps above under "c" to create a health probe for the ERS (for example 62101 and health.QAS.ERS)
    4. Reglas de equilibrio de carga.Load-balancing rules
      1. TCP 3200 para ASCS3200 TCP for ASCS
        1. Abra el equilibrador de carga, seleccione las reglas de equilibrio de carga y haga clic en Agregar.Open the load balancer, select Load-balancing rules and click Add
        2. Escriba el nombre de la nueva regla del equilibrador de carga (por ejemplo, lb.QAS.ASCS.3200).Enter the name of the new load balancer rule (for example lb.QAS.ASCS.3200)
        3. Seleccione la dirección IP de front-end para ASCS, el grupo de servidores back-end y el sondeo de estado que creó anteriormente (por ejemplo, frontend.QAS.ASCS).Select the frontend IP address for ASCS, backend pool, and health probe you created earlier (for example frontend.QAS.ASCS)
        4. Conserve el protocolo TCP y escriba el puerto 3200.Keep protocol TCP, enter port 3200
        5. Aumente el tiempo de espera de inactividad a 30 minutosIncrease idle timeout to 30 minutes
        6. Asegúrese de habilitar la dirección IP flotanteMake sure to enable Floating IP
        7. Haga clic en AceptarClick OK
      2. Puertos adicionales para ASCSAdditional ports for the ASCS
        • Repita los pasos anteriores para los puertos 3600, 3900, 8100, 50013, 50014, 50016 y TCP para ASCS.Repeat the steps above under "d" for ports 3600, 3900, 8100, 50013, 50014, 50016 and TCP for the ASCS
      3. Puertos adicionales para ASCS ERSAdditional ports for the ASCS ERS
        • Repita los pasos anteriores a partir de "d" para los puertos 3301, 50113, 50114, 50116 y TCP para ASCS ERS.Repeat the steps above under "d" for ports 3301, 50113, 50114, 50116 and TCP for the ASCS ERS

Importante

No habilite las marcas de tiempo TCP en VM de Azure que se encuentren detrás de Azure Load Balancer.Do not enable TCP timestamps on Azure VMs placed behind Azure Load Balancer. Si habilita las marcas de tiempo TCP provocará un error en los sondeos de estado.Enabling TCP timestamps will cause the health probes to fail. Establezca el parámetro net.ipv4.tcp_timestamps a 0.Set parameter net.ipv4.tcp_timestamps to 0. Lea Sondeos de estado de Load Balancer para obtener más información.For details see Load Balancer health probes.

Creación del clúster de PacemakerCreate Pacemaker cluster

Siga los pasos que se describen en Configuración de Pacemaker en SUSE Linux Enterprise Server en Azure para crear un clúster de Pacemaker básico para este servidor (A)SCS.Follow the steps in Setting up Pacemaker on SUSE Linux Enterprise Server in Azure to create a basic Pacemaker cluster for this (A)SCS server.

InstalaciónInstallation

Los elementos siguientes tienen el prefijo [A] : aplicable a todos los nodos, [1] : aplicable solo al nodo 1 o [2] : aplicable solo al nodo 2.The following items are prefixed with either [A] - applicable to all nodes, [1] - only applicable to node 1 or [2] - only applicable to node 2.

  1. [A] Instale el conector de SUSE[A] Install SUSE Connector

    sudo zypper install sap-suse-cluster-connector
    

    Nota

    No use guiones en los nombres de host de los nodos del clúster.Do not use dashes in the hostnames of your cluster nodes. Si lo hace, el clúster no funcionará.Otherwise your cluster will not work. Esta es una limitación conocida y SUSE está trabajando en ello para encontrar una corrección.This is a known limitation and SUSE is working on a fix. La corrección se publicará como una revisión del paquete sap-suse-cloud-connector.The fix will be released as a patch of the sap-suse-cloud-connector package.

    Asegúrese de que instaló la nueva versión del conector de clúster SUSE SAP.Make sure that you installed the new version of the SAP SUSE cluster connector. La antigua se llamaba sap_suse_cluster_connector y la nueva se llama sap-suse-cluster-connector.The old one was called sap_suse_cluster_connector and the new one is called sap-suse-cluster-connector.

    sudo zypper info sap-suse-cluster-connector
    
       Information for package sap-suse-cluster-connector:
    

Repository : SLE-12-SP3-SAP-Updates Name : sap-suse-cluster-connector Version : 3.1.0-8.1 Arch : noarch Vendor : SUSE LLC <https://www.suse.com/> Support Level : Level 3 Installed Size : 45.6 KiB Installed : Yes Status : up-to-date Source package : sap-suse-cluster-connector-3.1.0-8.1.src Summary : SUSE High Availability Setup for SAP Products

  1. [A] Actualice los agentes de recursos de SAP[A] Update SAP resource agents

    Se requiere una revisión del paquete de agentes de recursos para usar la configuración nueva, que es la que describe este artículo.A patch for the resource-agents package is required to use the new configuration, that is described in this article. Puede usar el comando siguiente para comprobar si la revisión ya está instaladaYou can check, if the patch is already installed with the following command

    sudo grep 'parameter name="IS_ERS"' /usr/lib/ocf/resource.d/heartbeat/SAPInstance
    

    La salida debe ser similar aThe output should be similar to

    <parameter name="IS_ERS" unique="0" required="0">
    

    Si el comando grep no encuentra el parámetro IS_ERS, necesita instalar la revisión que aparece en la página de descarga de SUSEIf the grep command does not find the IS_ERS parameter, you need to install the patch listed on the SUSE download page

    # example for patch for SLES 12 SP1
    sudo zypper in -t patch SUSE-SLE-HA-12-SP1-2017-885=1
    # example for patch for SLES 12 SP2
    sudo zypper in -t patch SUSE-SLE-HA-12-SP2-2017-886=1
    
  2. [A] Configure la resolución nombres de host[A] Setup host name resolution

    Puede usar un servidor DNS o modificar /etc/hosts en todos los nodos.You can either use a DNS server or modify the /etc/hosts on all nodes. En este ejemplo se muestra cómo utilizar el archivo /etc/hosts.This example shows how to use the /etc/hosts file. Reemplace la dirección IP y el nombre de host en los siguientes comandosReplace the IP address and the hostname in the following commands

    sudo vi /etc/hosts
    

    Inserte las siguientes líneas en /etc/hosts.Insert the following lines to /etc/hosts. Cambie la dirección IP y el nombre de host para que coincida con su entornoChange the IP address and hostname to match your environment

    
    # IP address of cluster node 1
    10.1.1.18    anftstsapcl1
    # IP address of cluster node 2
    10.1.1.6     anftstsapcl2
    # IP address of the load balancer frontend configuration for SAP Netweaver ASCS
    10.1.1.20    anftstsapvh
    # IP address of the load balancer frontend configuration for SAP Netweaver ERS
    10.1.1.21    anftstsapers
    

Preparación de la instalación de SAP NetWeaverPrepare for SAP NetWeaver installation

  1. [A] Cree los directorios compartidos[A] Create the shared directories

    sudo mkdir -p /sapmnt/QAS
    sudo mkdir -p /usr/sap/trans
    sudo mkdir -p /usr/sap/QAS/SYS
    sudo mkdir -p /usr/sap/QAS/ASCS00
    sudo mkdir -p /usr/sap/QAS/ERS01
    
    sudo chattr +i /sapmnt/QAS
    sudo chattr +i /usr/sap/trans
    sudo chattr +i /usr/sap/QAS/SYS
    sudo chattr +i /usr/sap/QAS/ASCS00
    sudo chattr +i /usr/sap/QAS/ERS01
    
  2. [A] Configure autofs[A] Configure autofs

    
    sudo vi /etc/auto.master
    # Add the following line to the file, save and exit
    /- /etc/auto.direct
    

    Cree un archivo conCreate a file with

    
    sudo vi /etc/auto.direct
    # Add the following lines to the file, save and exit
    /sapmnt/QAS -nfsvers=3,nobind,sync 10.1.0.4:/sapmntqas
    /usr/sap/trans -nfsvers=3,nobind,sync 10.1.0.4:/trans
    /usr/sap/QAS/SYS -nfsvers=3,nobind,sync 10.1.0.5:/usrsapqassys
    

    Nota

    Actualmente, Azure NetApp Files solo admite NFSv3.Currently Azure NetApp Files supports only NFSv3. No omita el conmutador nfsvers=3.Don't omit the nfsvers=3 switch.

    Reinicie autofs para montar los recursos compartidos nuevos.Restart autofs to mount the new shares

    
       sudo systemctl enable autofs
       sudo service autofs restart
      
  3. [A] Configure el archivo de intercambio[A] Configure SWAP file

    sudo vi /etc/waagent.conf
    
    # Set the property ResourceDisk.EnableSwap to y
    # Create and use swapfile on resource disk.
    ResourceDisk.EnableSwap=y
    
    # Set the size of the SWAP file with property ResourceDisk.SwapSizeMB
    # The free space of resource disk varies by virtual machine size. Make sure that you do not set a value that is too big. You can check the SWAP space with command swapon
    # Size of the swapfile.
    ResourceDisk.SwapSizeMB=2000
    

    Reinicie el agente para activar el cambioRestart the Agent to activate the change

    sudo service waagent restart
    

Instalación de SAP NetWeaver ASCS/ERSInstalling SAP NetWeaver ASCS/ERS

  1. [1] Cree un recurso IP virtual y un sondeo de estado para la instancia de ASCS[1] Create a virtual IP resource and health-probe for the ASCS instance

    sudo crm node standby anftstsapcl2
    
    sudo crm configure primitive fs_QAS_ASCS Filesystem device='10.1.0.4:/usrsapqas' directory='/usr/sap/QAS/ASCS00' fstype='nfs' \
      op start timeout=60s interval=0 \
      op stop timeout=60s interval=0 \
      op monitor interval=20s timeout=40s
    
    sudo crm configure primitive vip_QAS_ASCS IPaddr2 \
      params ip=10.1.1.20 cidr_netmask=24 \
      op monitor interval=10 timeout=20
    
    sudo crm configure primitive nc_QAS_ASCS anything \
      params binfile="/usr/bin/nc" cmdline_options="-l -k 62000" \
      op monitor timeout=20s interval=10 depth=0
    
    sudo crm configure group g-QAS_ASCS fs_QAS_ASCS nc_QAS_ASCS vip_QAS_ASCS \
       meta resource-stickiness=3000
    

    Asegúrese de que el estado del clúster sea el correcto y que se iniciaron todos los recursos.Make sure that the cluster status is ok and that all resources are started. No es importante en qué nodo se ejecutan los recursos.It is not important on which node the resources are running.

    sudo crm_mon -r
    
    # Node anftstsapcl2: standby
    # Online: [ anftstsapcl1 ]
    # 
    # Full list of resources:
    #
    # Resource Group: g-QAS_ASCS
    #     fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
    #     nc_QAS_ASCS        (ocf::heartbeat:anything):      Started anftstsapcl1
    #     vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
    # stonith-sbd     (stonith:external/sbd): Started anftstsapcl2
    
  2. [1] Instale SAP NetWeaver ASCS[1] Install SAP NetWeaver ASCS

    Instale SAP NetWeaver ASCS como raíz en el primer nodo mediante un nombre de host virtual que se asigna a la dirección IP de la configuración de front-end del equilibrador de carga para ASCS; por ejemplo, anftstsapvh, 10.1.1.20. Especifique también el número de instancia que usó para el sondeo del equilibrador de carga; por ejemplo, 00.Install SAP NetWeaver ASCS as root on the first node using a virtual hostname that maps to the IP address of the load balancer frontend configuration for the ASCS, for example anftstsapvh, 10.1.1.20 and the instance number that you used for the probe of the load balancer, for example 00.

    Puede usar el parámetro de sapinst SAPINST_REMOTE_ACCESS_USER para permitir que un usuario no raíz se conecta a sapinst.You can use the sapinst parameter SAPINST_REMOTE_ACCESS_USER to allow a non-root user to connect to sapinst. Puede usar el parámetro SAPINST_USE_HOSTNAME para instalar SAP con el nombre de host virtual.You can use parameter SAPINST_USE_HOSTNAME to install SAP, using virtual hostname.

    sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin SAPINST_USE_HOSTNAME=virtual_hostname
    

    Si se produce un error en la instalación para crear una subcarpeta en /usr/sap/QAS/ASCS00, pruebe a establecer el propietario y el grupo de la carpeta ASCS00 e inténtelo de nuevo.If the installation fails to create a subfolder in /usr/sap/QAS/ASCS00, try setting the owner and group of the ASCS00 folder and retry.

    
    chown qasadm /usr/sap/QAS/ASCS00
    chgrp sapsys /usr/sap/QAS/ASCS00
    
  3. [1] Cree un recurso IP virtual y un sondeo de estado para la instancia de ERS[1] Create a virtual IP resource and health-probe for the ERS instance

    
    sudo crm node online anftstsapcl2
    sudo crm node standby anftstsapcl1
    
    sudo crm configure primitive fs_QAS_ERS Filesystem device='10.1.0.4:/usrsapqasers' directory='/usr/sap/QAS/ERS01' fstype='nfs' \
      op start timeout=60s interval=0 \
      op stop timeout=60s interval=0 \
      op monitor interval=20s timeout=40s
    
    sudo crm configure primitive vip_QAS_ERS IPaddr2 \
      params ip=10.1.1.21 cidr_netmask=24 \
      op monitor interval=10 timeout=20
    
    sudo crm configure primitive nc_QAS_ERS anything \
     params binfile="/usr/bin/nc" cmdline_options="-l -k 62101" \
     op monitor timeout=20s interval=10 depth=0
    
    # WARNING: Resources nc_QAS_ASCS,nc_QAS_ERS violate uniqueness for parameter "binfile": "/usr/bin/nc"
    # Do you still want to commit (y/n)? y
    
    sudo crm configure group g-QAS_ERS fs_QAS_ERS nc_QAS_ERS vip_QAS_ERS
    

    Asegúrese de que el estado del clúster sea el correcto y que se iniciaron todos los recursos.Make sure that the cluster status is ok and that all resources are started. No es importante en qué nodo se ejecutan los recursos.It is not important on which node the resources are running.

    sudo crm_mon -r
    
    # Node anftstsapcl1: standby
    # Online: [ anftstsapcl2 ]
    # 
    # Full list of resources:
    #
    # stonith-sbd     (stonith:external/sbd): Started anftstsapcl2
    #  Resource Group: g-QAS_ASCS
    #      fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
    #      nc_QAS_ASCS        (ocf::heartbeat:anything):      Started anftstsapcl2
    #      vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
    #  Resource Group: g-QAS_ERS
    #      fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl2
    #      nc_QAS_ERS (ocf::heartbeat:anything):      Started anftstsapcl2
    #      vip_QAS_ERS  (ocf::heartbeat:IPaddr2):     Started anftstsapcl2
    
  4. [2] Instale SAP NetWeaver ERS[2] Install SAP NetWeaver ERS

    Instale SAP NetWeaver ERS como raíz en el segundo nodo mediante un nombre de host virtual que se asigna a la dirección IP de la configuración de front-end del equilibrador de carga para ERS (por ejemplo, anftstsapers, 10.1.1.21) y el número de instancia que usó para el sondeo del equilibrador de carga (por ejemplo, 01).Install SAP NetWeaver ERS as root on the second node using a virtual hostname that maps to the IP address of the load balancer frontend configuration for the ERS, for example anftstsapers, 10.1.1.21 and the instance number that you used for the probe of the load balancer, for example 01.

    Puede usar el parámetro de sapinst SAPINST_REMOTE_ACCESS_USER para permitir que un usuario no raíz se conecta a sapinst.You can use the sapinst parameter SAPINST_REMOTE_ACCESS_USER to allow a non-root user to connect to sapinst. Puede usar el parámetro SAPINST_USE_HOSTNAME para instalar SAP con el nombre de host virtual.You can use parameter SAPINST_USE_HOSTNAME to install SAP, using virtual hostname.

    sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin SAPINST_USE_HOSTNAME=virtual_hostname
    

    Nota

    Use SWPM SP 20 PL 05 o superior.Use SWPM SP 20 PL 05 or higher. Las versiones inferiores no establecen correctamente los permisos y se producirá un error de instalación.Lower versions do not set the permissions correctly and the installation will fail.

    Si se produce un error en la instalación para crear una subcarpeta en /usr/sap/QAS/ERS01, pruebe a establecer el propietario y el grupo de la carpeta ERS01 e inténtelo de nuevo.If the installation fails to create a subfolder in /usr/sap/QAS/ERS01, try setting the owner and group of the ERS01 folder and retry.

    
    chown qasadm /usr/sap/QAS/ERS01
    chgrp sapsys /usr/sap/QAS/ERS01
    
  5. [1] Adapte los perfiles de instancias ASCS/SCS y ERS[1] Adapt the ASCS/SCS and ERS instance profiles

    • Perfil ASCS/SCSASCS/SCS profile
    
    sudo vi /sapmnt/QAS/profile/QAS_ASCS00_anftstsapvh
    
    # Change the restart command to a start command
    #Restart_Program_01 = local $(_EN) pf=$(_PF)
    Start_Program_01 = local $(_EN) pf=$(_PF)
    
    # Add the following lines
    service/halib = $(DIR_CT_RUN)/saphascriptco.so
    service/halib_cluster_connector = /usr/bin/sap_suse_cluster_connector
    
    # Add the keep alive parameter
    enque/encni/set_so_keepalive = true
    
    • Perfil ERSERS profile
    
    sudo vi /sapmnt/QAS/profile/QAS_ERS01_anftstsapers
    
    # Change the restart command to a start command
    #Restart_Program_00 = local $(_ER) pf=$(_PFL) NR=$(SCSID)
    Start_Program_00 = local $(_ER) pf=$(_PFL) NR=$(SCSID)
    
    # Add the following lines
    service/halib = $(DIR_CT_RUN)/saphascriptco.so
    service/halib_cluster_connector = /usr/bin/sap_suse_cluster_connector
    
    # remove Autostart from ERS profile
    # Autostart = 1
    
  6. [A] Configure la conexión persistente[A] Configure Keep Alive

    La comunicación entre el servidor de aplicaciones de SAP NetWeaver y ASCS/SCS se enruta a través de un equilibrador de carga de software.The communication between the SAP NetWeaver application server and the ASCS/SCS is routed through a software load balancer. El equilibrador de carga desconecta las conexiones inactivas después de un tiempo de expiración que se puede configurar.The load balancer disconnects inactive connections after a configurable timeout. Para evitar esto, debe establecer un parámetro en el perfil de SAP NetWeaver ASCS/SCS y cambiar la configuración del sistema Linux.To prevent this you need to set a parameter in the SAP NetWeaver ASCS/SCS profile and change the Linux system settings. Para más información, lea la nota de SAP 1410736.Read SAP Note 1410736 for more information.

    El parámetro del perfil ASCS/SCS enque/encni/set_so_keepalive ya se agregó en el último paso.The ASCS/SCS profile parameter enque/encni/set_so_keepalive was already added in the last step.

    
    # Change the Linux system configuration
    sudo sysctl net.ipv4.tcp_keepalive_time=120
    
  7. [A] Configure los usuarios de SAP después de la instalación[A] Configure the SAP users after the installation

    
    # Add sidadm to the haclient group
    sudo usermod -aG haclient qasadm
    
  8. [1] Agregue los servicios SAP de ASCS y ERS al archivo sapservice[1] Add the ASCS and ERS SAP services to the sapservice file

    Agregue la entrada del servicio ASCS al segundo nodo y copie la entrada del servicio ERS al primer nodo.Add the ASCS service entry to the second node and copy the ERS service entry to the first node.

    
    cat /usr/sap/sapservices | grep ASCS00 | sudo ssh anftstsapcl2 "cat >>/usr/sap/sapservices"
    sudo ssh anftstsapcl2 "cat /usr/sap/sapservices" | grep ERS01 | sudo tee -a /usr/sap/sapservices
    
  9. [1] Cree los recursos de clúster de SAP[1] Create the SAP cluster resources

Si usa la arquitectura de servidor 1 de puesta en cola (ENSA1), defina los recursos tal como se indica:If using enqueue server 1 architecture (ENSA1), define the resources as follows:

sudo crm configure property maintenance-mode="true"
   
   sudo crm configure primitive rsc_sap_QAS_ASCS00 SAPInstance \
    operations \$id=rsc_sap_QAS_ASCS00-operations \
    op monitor interval=11 timeout=60 on_fail=restart \
    params InstanceName=QAS_ASCS00_anftstsapvh START_PROFILE="/sapmnt/QAS/profile/QAS_ASCS00_anftstsapvh" \
    AUTOMATIC_RECOVER=false \
    meta resource-stickiness=5000 failure-timeout=60 migration-threshold=1 priority=10
   
   sudo crm configure primitive rsc_sap_QAS_ERS01 SAPInstance \
    operations \$id=rsc_sap_QAS_ERS01-operations \
    op monitor interval=11 timeout=60 on_fail=restart \
    params InstanceName=QAS_ERS01_anftstsapers START_PROFILE="/sapmnt/QAS/profile/QAS_ERS01_anftstsapers" AUTOMATIC_RECOVER=false IS_ERS=true \
    meta priority=1000
   
   sudo crm configure modgroup g-QAS_ASCS add rsc_sap_QAS_ASCS00
   sudo crm configure modgroup g-QAS_ERS add rsc_sap_QAS_ERS01
   
   sudo crm configure colocation col_sap_QAS_no_both -5000: g-QAS_ERS g-QAS_ASCS
   sudo crm configure location loc_sap_QAS_failover_to_ers rsc_sap_QAS_ASCS00 rule 2000: runs_ers_QAS eq 1
   sudo crm configure order ord_sap_QAS_first_start_ascs Optional: rsc_sap_QAS_ASCS00:start rsc_sap_QAS_ERS01:stop symmetrical=false
   
   sudo crm node online anftstsapcl1
   sudo crm configure property maintenance-mode="false"
   

SAP introdujo una opción de compatibilidad con el servidor 2 de puesta en cola, incluida la replicación, a partir de la versión de SAP NW 7.52.SAP introduced support for enqueue server 2, including replication, as of SAP NW 7.52. A partir de la plataforma ABAP (versión 1809), el servidor 2 de puesta en cola está instalado de forma predeterminada.Starting with ABAP Platform 1809, enqueue server 2 is installed by default. Consulte la nota de SAP 2630416 para consultar la compatibilidad con el servidor 2 de puesta en cola.See SAP note 2630416 for enqueue server 2 support. Si usa la arquitectura de servidor 2 de puesta en cola (ENSA2), defina los recursos tal como se indica:If using enqueue server 2 architecture (ENSA2), define the resources as follows:

sudo crm configure property maintenance-mode="true"
   
   sudo crm configure primitive rsc_sap_QAS_ASCS00 SAPInstance \
    operations \$id=rsc_sap_QAS_ASCS00-operations \
    op monitor interval=11 timeout=60 on_fail=restart \
    params InstanceName=QAS_ASCS00_anftstsapvh START_PROFILE="/sapmnt/QAS/profile/QAS_ASCS00_anftstsapvh" \
    AUTOMATIC_RECOVER=false \
    meta resource-stickiness=5000
   
   sudo crm configure primitive rsc_sap_QAS_ERS01 SAPInstance \
    operations \$id=rsc_sap_QAS_ERS01-operations \
    op monitor interval=11 timeout=60 on_fail=restart \
    params InstanceName=QAS_ERS01_anftstsapers START_PROFILE="/sapmnt/QAS/profile/QAS_ERS01_anftstsapers" AUTOMATIC_RECOVER=false IS_ERS=true
   
   sudo crm configure modgroup g-QAS_ASCS add rsc_sap_QAS_ASCS00
   sudo crm configure modgroup g-QAS_ERS add rsc_sap_QAS_ERS01
   
   sudo crm configure colocation col_sap_QAS_no_both -5000: g-QAS_ERS g-QAS_ASCS
   sudo crm configure order ord_sap_QAS_first_start_ascs Optional: rsc_sap_QAS_ASCS00:start rsc_sap_QAS_ERS01:stop symmetrical=false
   
   sudo crm node online anftstsapcl1
   sudo crm configure property maintenance-mode="false"
   

Si está actualizando desde una versión anterior y va a cambiar al servidor 2 de puesta en cola, consulte la nota de SAP 2641019.If you are upgrading from an older version and switching to enqueue server 2, see SAP note 2641019.

Asegúrese de que el estado del clúster sea el correcto y que se iniciaron todos los recursos.Make sure that the cluster status is ok and that all resources are started. No es importante en qué nodo se ejecutan los recursos.It is not important on which node the resources are running.

sudo crm_mon -r
   # Full list of resources:
   #
   # stonith-sbd     (stonith:external/sbd): Started anftstsapcl2
   #  Resource Group: g-QAS_ASCS
   #      fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
   #      nc_QAS_ASCS        (ocf::heartbeat:anything):      Started anftstsapcl1
   #      vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
   #      rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
   #  Resource Group: g-QAS_ERS
   #      fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl2
   #      nc_QAS_ERS (ocf::heartbeat:anything):      Started anftstsapcl2
   #      vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
   #      rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
   

Preparación del servidor de aplicaciones de SAP NetWeaverSAP NetWeaver application server preparation

Algunas bases de datos requieren que la instalación de la instancia de base de datos se ejecute en un servidor de aplicaciones.Some databases require that the database instance installation is executed on an application server. Prepare las máquinas virtuales del servidor de aplicaciones para poder usarlas en estos casos.Prepare the application server virtual machines to be able to use them in these cases.

En los pasos siguientes se supone que instala el servidor de aplicaciones en un servidor distinto de los servidores ASCS/SCS y HANA.The steps bellow assume that you install the application server on a server different from the ASCS/SCS and HANA servers. De lo contrario, no se necesitan algunos de los pasos que aparecen a continuación (como configurar la resolución de nombres de host).Otherwise some of the steps below (like configuring host name resolution) are not needed.

Los elementos siguientes tienen el prefijo [A] (aplicable a PAS y AAS), [P] (solo aplicable a PAS) o [S] (solo aplicable a AAS).The following items are prefixed with either [A] - applicable to both PAS and AAS, [P] - only applicable to PAS or [S] - only applicable to AAS.

  1. [A] Configure el sistema operativo[A] Configure operating system

    Reduzca el tamaño de la caché de datos incorrectos.Reduce the size of the dirty cache. Para más información, consulte Low write performance on SLES 11/12 servers with large RAM (Bajo rendimiento de escritura en servidores SLES 11/12 con RAM grande).For more information, see Low write performance on SLES 11/12 servers with large RAM.

    
    sudo vi /etc/sysctl.conf
    # Change/set the following settings
    vm.dirty_bytes = 629145600
    vm.dirty_background_bytes = 314572800
    
  2. [A] Configure la resolución nombres de host[A] Setup host name resolution

    Puede usar un servidor DNS o modificar /etc/hosts en todos los nodos.You can either use a DNS server or modify the /etc/hosts on all nodes. En este ejemplo se muestra cómo utilizar el archivo /etc/hosts.This example shows how to use the /etc/hosts file. Reemplace la dirección IP y el nombre de host en los siguientes comandosReplace the IP address and the hostname in the following commands

    sudo vi /etc/hosts
    

    Inserte las siguientes líneas en /etc/hosts.Insert the following lines to /etc/hosts. Cambie la dirección IP y el nombre de host para que coincida con su entornoChange the IP address and hostname to match your environment

    
    # IP address of the load balancer frontend configuration for SAP NetWeaver ASCS/SCS
    10.1.1.20 anftstsapvh
    # IP address of the load balancer frontend configuration for SAP NetWeaver ERS
    10.1.1.21 anftstsapers
    # IP address of all application servers
    10.1.1.15 anftstsapa01
    10.1.1.16 anftstsapa02
    
  3. [A] Cree el directorio sapmnt.[A] Create the sapmnt directory

    
    sudo mkdir -p /sapmnt/QAS
    sudo mkdir -p /usr/sap/trans
    
    sudo chattr +i /sapmnt/QAS
    sudo chattr +i /usr/sap/trans
    
  4. [P] Cree el directorio PAS.[P] Create the PAS directory

    
    sudo mkdir -p /usr/sap/QAS/D02
    sudo chattr +i /usr/sap/QAS/D02
    
  5. [S] Cree el directorio AAS.[S] Create the AAS directory

    
    sudo mkdir -p /usr/sap/QAS/D03
    sudo chattr +i /usr/sap/QAS/D03
    
  6. [P] Configure autofs en PAS.[P] Configure autofs on PAS

    sudo vi /etc/auto.master
    
    # Add the following line to the file, save and exit
    /- /etc/auto.direct
    

    Cree un nuevo archivo conCreate a new file with

    
    sudo vi /etc/auto.direct
    # Add the following lines to the file, save and exit
    /sapmnt/QAS -nfsvers=3,nobind,sync 10.1.0.4:/sapmntqas
    /usr/sap/trans -nfsvers=3,nobind,sync 10.1.0.4:/trans
    /usr/sap/QAS/D02 -nfsvers=3,nobind,sync 10.1.0.5:/ursapqaspas
    

    Reinicie autofs para montar los recursos compartidos nuevos.Restart autofs to mount the new shares

    
    sudo systemctl enable autofs
    sudo service autofs restart
    
  7. [P] Configure autofs en AAS.[P] Configure autofs on AAS

    sudo vi /etc/auto.master
    
    # Add the following line to the file, save and exit
    /- /etc/auto.direct
    

    Cree un nuevo archivo conCreate a new file with

    
    sudo vi /etc/auto.direct
    # Add the following lines to the file, save and exit
    /sapmnt/QAS -nfsvers=3,nobind,sync 10.1.0.4:/sapmntqas
    /usr/sap/trans -nfsvers=3,nobind,sync 10.1.0.4:/trans
    /usr/sap/QAS/D03 -nfsvers=3,nobind,sync 10.1.0.4:/usrsapqasaas
    

    Reinicie autofs para montar los recursos compartidos nuevos.Restart autofs to mount the new shares

    
    sudo systemctl enable autofs
    sudo service autofs restart
    
  8. [A] Configure el archivo de intercambio[A] Configure SWAP file

    
    sudo vi /etc/waagent.conf
    
    # Set the property ResourceDisk.EnableSwap to y
    # Create and use swapfile on resource disk.
    ResourceDisk.EnableSwap=y
    
    # Set the size of the SWAP file with property ResourceDisk.SwapSizeMB
    # The free space of resource disk varies by virtual machine size. Make sure that you do not set a value that is too big. You can check the SWAP space with command swapon
    # Size of the swapfile.
    ResourceDisk.SwapSizeMB=2000
    

    Reinicie el agente para activar el cambioRestart the Agent to activate the change

    sudo service waagent restart
    

Instalar la base de datosInstall database

En este ejemplo, SAP NetWeaver se instala en SAP HANA.In this example, SAP NetWeaver is installed on SAP HANA. En esta instalación puede usar todas las bases de datos admitidas.You can use every supported database for this installation. Para más información acerca de cómo instalar SAP HANA en Azure, consulte Alta disponibilidad de SAP HANA en Azure Virtual Machines (VM). For a list of supported databases, see SAP Note 1928533.For more information on how to install SAP HANA in Azure, see High Availability of SAP HANA on Azure Virtual Machines (VMs). For a list of supported databases, see SAP Note 1928533.

  • Ejecute la instalación de la instancia de base de datos de SAP.Run the SAP database instance installation

    Instale la instancia de base de datos de SAP NetWeaver como raíz con un nombre de host virtual que se asigna a la dirección IP de la configuración de front-end del equilibrador de carga para la base de datos.Install the SAP NetWeaver database instance as root using a virtual hostname that maps to the IP address of the load balancer frontend configuration for the database.

    Puede usar el parámetro de sapinst SAPINST_REMOTE_ACCESS_USER para permitir que un usuario no raíz se conecta a sapinst.You can use the sapinst parameter SAPINST_REMOTE_ACCESS_USER to allow a non-root user to connect to sapinst.

    sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin
    

Instalación del servidor de aplicaciones de SAP NetWeaverSAP NetWeaver application server installation

Siga estos pasos para instalar un servidor de aplicaciones de SAP.Follow these steps to install an SAP application server.

  1. [A] Prepare el servidor de aplicaciones. Siga los pasos descritos en el capítulo Preparación del servidor de aplicaciones de SAP NetWeaver anterior para preparar el servidor de aplicaciones.[A] Prepare application server Follow the steps in the chapter SAP NetWeaver application server preparation above to prepare the application server.

  2. [A] Instale el servidor de aplicaciones de SAP NetWeaver. Instale un servidor de aplicaciones de SAP NetWeaver principal o adicional.[A] Install SAP NetWeaver application server Install a primary or additional SAP NetWeaver applications server.

    Puede usar el parámetro de sapinst SAPINST_REMOTE_ACCESS_USER para permitir que un usuario no raíz se conecta a sapinst.You can use the sapinst parameter SAPINST_REMOTE_ACCESS_USER to allow a non-root user to connect to sapinst.

    sudo <swpm>/sapinst SAPINST_REMOTE_ACCESS_USER=sapadmin
    
  3. [A] Actualice el almacenamiento seguro de SAP HANA.[A] Update SAP HANA secure store

    Actualice el almacenamiento seguro de SAP HANA que apunte al nombre virtual de la configuración de la replicación del sistema SAP HANA.Update the SAP HANA secure store to point to the virtual name of the SAP HANA System Replication setup.

    Ejecute el siguiente comando para mostrar las entradas:Run the following command to list the entries

    
    hdbuserstore List
    

    Se deberían mostrar todas las entradas y deberían ser parecidas a estas:This should list all entries and should look similar to

    
    DATA FILE       : /home/qasadm/.hdb/anftstsapa01/SSFS_HDB.DAT
    KEY FILE        : /home/qasadm/.hdb/anftstsapa01/SSFS_HDB.KEY
    
    KEY DEFAULT
      ENV : 10.1.1.5:30313
      USER: SAPABAP1
      DATABASE: QAS
    

    El resultado muestra que la dirección IP de la entrada predeterminada apunta a la máquina virtual y no a la dirección IP del equilibrador de carga.The output shows that the IP address of the default entry is pointing to the virtual machine and not to the load balancer's IP address. Esta entrada debe modificarse para que apunte al nombre de host virtual del equilibrador de carga.This entry needs to be changed to point to the virtual hostname of the load balancer. Asegúrese de usar el mismo puerto (30313 en la salida anterior) y el mismo nombre de base de datos (QAS en la salida anterior).Make sure to use the same port (30313 in the output above) and database name (QAS in the output above)!

    
    su - qasadm
    hdbuserstore SET DEFAULT qasdb:30313@QAS SAPABAP1 <password of ABAP schema>
    

Prueba de la configuración del clústerTest the cluster setup

Las siguientes pruebas son una copia de los casos de prueba de las guías de procedimientos recomendados de SUSE.The following tests are a copy of the test cases in the best practices guides of SUSE. Para su comodidad, se han copiado en este artículo.They are copied for your convenience. Además, lea siempre las guías de procedimientos recomendados y realice todas las pruebas adicionales que puedan haberse agregado.Always also read the best practices guides and perform all additional tests that might have been added.

  1. Prueba de HAGetFailoverConfig, HACheckConfig y HACheckFailoverConfigTest HAGetFailoverConfig, HACheckConfig, and HACheckFailoverConfig

    Ejecute los siguientes comandos como <sapsid>adm en el nodo donde se ejecuta actualmente la instancia de ASCS.Run the following commands as <sapsid>adm on the node where the ASCS instance is currently running. Si los comandos producen un error de memoria insuficiente, los guiones en el nombre de host pueden ser la causa.If the commands fail with FAIL: Insufficient memory, it might be caused by dashes in your hostname. Se trata de un problema conocido que SUSE corregirá en el paquete sap-suse-cluster-connector.This is a known issue and will be fixed by SUSE in the sap-suse-cluster-connector package.

    
    anftstsapcl1:qasadm 52> sapcontrol -nr 00 -function HAGetFailoverConfig
    07.03.2019 20:08:59
    HAGetFailoverConfig
    OK
    HAActive: TRUE
    HAProductVersion: SUSE Linux Enterprise Server for SAP Applications 12 SP3
    HASAPInterfaceVersion: SUSE Linux Enterprise Server for SAP Applications 12 SP3 (sap_suse_cluster_connector 3.1.0)
    HADocumentation: https://www.suse.com/products/sles-for-sap/resource-library/sap-best-practices/
    HAActiveNode: anftstsapcl1
    HANodes: anftstsapcl1, anftstsapcl2
    
    anftstsapcl1:qasadm 54> sapcontrol -nr 00 -function HACheckConfig
    07.03.2019 23:28:29
    HACheckConfig
    OK
    state, category, description, comment
    SUCCESS, SAP CONFIGURATION, Redundant ABAP instance configuration, 2 ABAP instances detected
    SUCCESS, SAP CONFIGURATION, Redundant Java instance configuration, 0 Java instances detected
    SUCCESS, SAP CONFIGURATION, Enqueue separation, All Enqueue server separated from application server
    SUCCESS, SAP CONFIGURATION, MessageServer separation, All MessageServer separated from application server
    SUCCESS, SAP CONFIGURATION, ABAP instances on multiple hosts, ABAP instances on multiple hosts detected
    SUCCESS, SAP CONFIGURATION, Redundant ABAP SPOOL service configuration, 2 ABAP instances with SPOOL service detected
    SUCCESS, SAP STATE, Redundant ABAP SPOOL service state, 2 ABAP instances with active SPOOL service detected
    SUCCESS, SAP STATE, ABAP instances with ABAP SPOOL service on multiple hosts, ABAP instances with active ABAP SPOOL service on multiple hosts detected
    SUCCESS, SAP CONFIGURATION, Redundant ABAP BATCH service configuration, 2 ABAP instances with BATCH service detected
    SUCCESS, SAP STATE, Redundant ABAP BATCH service state, 2 ABAP instances with active BATCH service detected
    SUCCESS, SAP STATE, ABAP instances with ABAP BATCH service on multiple hosts, ABAP instances with active ABAP BATCH service on multiple hosts detected
    SUCCESS, SAP CONFIGURATION, Redundant ABAP DIALOG service configuration, 2 ABAP instances with DIALOG service detected
    SUCCESS, SAP STATE, Redundant ABAP DIALOG service state, 2 ABAP instances with active DIALOG service detected
    SUCCESS, SAP STATE, ABAP instances with ABAP DIALOG service on multiple hosts, ABAP instances with active ABAP DIALOG service on multiple hosts detected
    SUCCESS, SAP CONFIGURATION, Redundant ABAP UPDATE service configuration, 2 ABAP instances with UPDATE service detected
    SUCCESS, SAP STATE, Redundant ABAP UPDATE service state, 2 ABAP instances with active UPDATE service detected
    SUCCESS, SAP STATE, ABAP instances with ABAP UPDATE service on multiple hosts, ABAP instances with active ABAP UPDATE service on multiple hosts detected
    SUCCESS, SAP STATE, SCS instance running, SCS instance status ok
    SUCCESS, SAP CONFIGURATION, SAPInstance RA sufficient version (anftstsapvh_QAS_00), SAPInstance includes is-ers patch
    SUCCESS, SAP CONFIGURATION, Enqueue replication (anftstsapvh_QAS_00), Enqueue replication enabled
    SUCCESS, SAP STATE, Enqueue replication state (anftstsapvh_QAS_00), Enqueue replication active
    
    anftstsapcl1:qasadm 55> sapcontrol -nr 00 -function HACheckFailoverConfig
    07.03.2019 23:30:48
    HACheckFailoverConfig
    OK
    state, category, description, comment
    SUCCESS, SAP CONFIGURATION, SAPInstance RA sufficient version, SAPInstance includes is-ers patch
    
  2. Migración manual de la instancia de ASCSManually migrate the ASCS instance

    Estado del recurso antes de iniciar la prueba:Resource state before starting the test:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:anything):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rscsap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:anything):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Starting anftstsapcl1
    

    Ejecute los siguientes comandos como raíz para migrar la instancia de ASCS.Run the following commands as root to migrate the ASCS instance.

    
    anftstsapcl1:~ # crm resource migrate rsc_sap_QAS_ASCS00 force
    INFO: Move constraint created for rsc_sap_QAS_ASCS00
    
    anftstsapcl1:~ # crm resource unmigrate rsc_sap_QAS_ASCS00
    INFO: Removed migration constraints for rsc_sap_QAS_ASCS00
    
    # Remove failed actions for the ERS that occurred as part of the migration
    anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ERS01
    

    Estado del recurso después de la prueba:Resource state after the test:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:anything):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ERS (ocf::heartbeat:anything):      Started anftstsapcl2
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    
  3. Prueba de HAFailoverToNodeTest HAFailoverToNode

    Estado del recurso antes de iniciar la prueba:Resource state before starting the test:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:anything):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ERS (ocf::heartbeat:anything):      Started anftstsapcl2
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    

    Ejecute los comandos siguientes como <sapsid>adm para migrar la instancia de ASCS.Run the following commands as <sapsid>adm to migrate the ASCS instance.

    
    anftstsapcl1:qasadm 53> sapcontrol -nr 00 -host anftstsapvh -user qasadm <password> -function HAFailoverToNode ""
    
    # run as root
    # Remove failed actions for the ERS that occurred as part of the migration
    anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ERS01
    # Remove migration constraints
    anftstsapcl1:~ # crm resource clear rsc_sap_QAS_ASCS00
    #INFO: Removed migration constraints for rsc_sap_QAS_ASCS00
    

    Estado del recurso después de la prueba:Resource state after the test:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:anything):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:anything):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    
  4. Simulación de bloqueo de nodoSimulate node crash

    Estado del recurso antes de iniciar la prueba:Resource state before starting the test:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:anything):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:anything):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    

    Ejecute el siguiente comando como raíz en el nodo donde se ejecuta la instancia de ASCSRun the following command as root on the node where the ASCS instance is running

    anftstsapcl2:~ # echo b > /proc/sysrq-trigger
    

    Si usa SBD, Pacemaker no se iniciará automáticamente en el nodo terminado.If you use SBD, Pacemaker should not automatically start on the killed node. El estado después de que el nodo se inicia de nuevo debe parecerse a este.The status after the node is started again should look like this.

    Online:
    Online: [ anftstsapcl1 ]
    OFFLINE: [ anftstsapcl2 ]
    
    Full list of resources:
    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:anything):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:anything):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    
    Failed Actions:
    * rsc_sap_QAS_ERS01_monitor_11000 on anftstsapcl1 'not running' (7): call=166, status=complete, exitreason='',
     last-rc-change='Fri Mar  8 18:26:10 2019', queued=0ms, exec=0ms
    

    Use los siguientes comandos para iniciar Pacemaker en el nodo terminado, limpiar los mensajes de SBD y limpiar los recursos con error.Use the following commands to start Pacemaker on the killed node, clean the SBD messages, and clean the failed resources.

    
    # run as root
    # list the SBD device(s)
    anftstsapcl2:~ # cat /etc/sysconfig/sbd | grep SBD_DEVICE=
    # SBD_DEVICE="/dev/disk/by-id/scsi-36001405b730e31e7d5a4516a2a697dcf;/dev/disk/by-id/scsi-36001405f69d7ed91ef54461a442c676e;/dev/disk/by-id/scsi-360014058e5f335f2567488882f3a2c3a"
    
    anftstsapcl2:~ # sbd -d /dev/disk/by-id/scsi-36001405772fe8401e6240c985857e11 -d /dev/disk/by-id/scsi-36001405f69d7ed91ef54461a442c676e -d /dev/disk/by-id/scsi-360014058e5f335f2567488882f3a2c3a message anftstsapcl2 clear
    
    anftstsapcl2:~ # systemctl start pacemaker
    anftstsapcl2:~ # crm resource cleanup rsc_sap_QAS_ASCS00
    anftstsapcl2:~ # crm resource cleanup rsc_sap_QAS_ERS01
    

    Estado del recurso después de la prueba:Resource state after the test:

    
    Full list of resources:
    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:anything):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ERS (ocf::heartbeat:anything):      Started anftstsapcl2
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    
  5. Prueba del reinicio manual de la instancia de ASCSTest manual restart of ASCS instance

    Estado del recurso antes de iniciar la prueba:Resource state before starting the test:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:anything):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:anything):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    

    Cree un bloqueo de puesta en cola; por ejemplo, edite un usuario en la transacción su01.Create an enqueue lock by, for example edit a user in transaction su01. Ejecute los comandos siguientes como <sapsid>adm en el nodo donde se ejecuta la instancia de ASCS.Run the following commands as <sapsid>adm on the node where the ASCS instance is running. Los comandos detendrán la instancia de ASCS y la volverán a iniciar.The commands will stop the ASCS instance and start it again. Si usa la arquitectura deL servidor 1 de puesta en cola, es posible que el bloqueo de puesta en cola se pierda en esta prueba.If using enqueue server 1 architecture, the enqueue lock is expected to be lost in this test. Si usa la arquitectura del servidor 2 de puesta en cola, se conservará la puesta en cola.If using enqueue server 2 architecture, the enqueue will be retained.

    anftstsapcl2:qasadm 51> sapcontrol -nr 00 -function StopWait 600 2
    

    Ahora, la instancia de ASCS se deshabilitará en Pacemaker.The ASCS instance should now be disabled in Pacemaker

      rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Stopped (disabled)
    

    Vuelva a iniciar la instancia de ASCS en el mismo nodo.Start the ASCS instance again on the same node.

    anftstsapcl2:qasadm 52> sapcontrol -nr 00 -function StartWait 600 2
    

    El bloqueo de puesta en cola de la transacción su01 se perderá, si se usa la arquitectura de replicación 1 del servidor de colas, y el back-end se habrá restablecido.The enqueue lock of transaction su01 should be lost, if using enqueue server replication 1 architecture and the back-end should have been reset. Estado del recurso después de la prueba:Resource state after the test:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:anything):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:anything):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    
  6. Terminación del proceso del servidor de mensajesKill message server process

    Estado del recurso antes de iniciar la prueba:Resource state before starting the test:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:anything):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:anything):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    

    Ejecute los siguientes comandos como raíz para identificar el proceso del servidor de mensajes y terminarlo.Run the following commands as root to identify the process of the message server and kill it.

    anftstsapcl2:~ # pgrep ms.sapQAS | xargs kill -9
    

    Si solo termina el servidor de mensajes una vez, se reiniciará mediante sapstart.If you only kill the message server once, it will be restarted by sapstart. Si lo termina con bastante frecuencia, Pacemaker acabará moviendo la instancia de ASCS al otro nodo.If you kill it often enough, Pacemaker will eventually move the ASCS instance to the other node. Ejecute los siguientes comandos como raíz para limpiar el estado del recurso de la instancia de ASCS y ERS después de la prueba.Run the following commands as root to clean up the resource state of the ASCS and ERS instance after the test.

    
    anftstsapcl2:~ # crm resource cleanup rsc_sap_QAS_ASCS00
    anftstsapcl2:~ # crm resource cleanup rsc_sap_QAS_ERS01
    

    Estado del recurso después de la prueba:Resource state after the test:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:anything):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ERS (ocf::heartbeat:anything):      Started anftstsapcl2
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    
  7. Terminación del proceso del servidor de puesta en colaKill enqueue server process

    Estado del recurso antes de iniciar la prueba:Resource state before starting the test:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ASCS        (ocf::heartbeat:anything):      Started anftstsapcl1
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ERS (ocf::heartbeat:anything):      Started anftstsapcl2
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    

    Ejecute los siguientes comandos como raíz en el nodo donde se ejecuta la instancia de ASCS para terminar el servidor de puesta en cola.Run the following commands as root on the node where the ASCS instance is running to kill the enqueue server.

    anftstsapcl1:~ # pgrep en.sapQAS | xargs kill -9
    

    La instancia de ASCS conmutará inmediatamente por error al otro nodo.The ASCS instance should immediately fail over to the other node. La instancia de ERS también conmutará por error después de iniciarse la instancia de ASCS.The ERS instance should also fail over after the ASCS instance is started. Ejecute los siguientes comandos como raíz para limpiar el estado del recurso de la instancia de ASCS y ERS después de la prueba.Run the following commands as root to clean up the resource state of the ASCS and ERS instance after the test.

    
    anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ASCS00
    anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ERS01
    

    Estado del recurso después de la prueba:Resource state after the test:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:anything):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:anything):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    
  8. Terminación del proceso del servidor de replicaciónKill enqueue replication server process

    Estado del recurso antes de iniciar la prueba:Resource state before starting the test:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:anything):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:anything):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    

    Ejecute el siguiente comando como raíz en el nodo donde se ejecuta la instancia de ERS para terminar el proceso del servidor de replicación de puesta en cola.Run the following command as root on the node where the ERS instance is running to kill the enqueue replication server process.

    anftstsapcl1:~ # pgrep er.sapQAS | xargs kill -9
    

    Si solo ejecuta el comando una vez, sapstart reiniciará el proceso.If you only run the command once, sapstart will restart the process. Si lo ejecuta con bastante frecuencia, sapstart no reiniciará el proceso y el recurso estará en estado detenido.If you run it often enough, sapstart will not restart the process and the resource will be in a stopped state. Ejecute los siguientes comandos como raíz para limpiar el estado del recurso de la instancia de ERS después de la prueba.Run the following commands as root to clean up the resource state of the ERS instance after the test.

    anftstsapcl1:~ # crm resource cleanup rsc_sap_QAS_ERS01
    

    Estado del recurso después de la prueba:Resource state after the test:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:anything):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:anything):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    
  9. Terminación del proceso sapstartsrv de puesta en colaKill enqueue sapstartsrv process

    Estado del recurso antes de iniciar la prueba:Resource state before starting the test:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:anything):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:anything):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    

    Ejecute los siguientes comandos como raíz en el nodo donde se ejecuta ASCS.Run the following commands as root on the node where the ASCS is running.

    
    anftstsapcl2:~ # pgrep -fl ASCS00.*sapstartsrv
    #67625 sapstartsrv
    
    anftstsapcl2:~ # kill -9 67625
    

    El proceso sapstartsrv siempre se debe reiniciar con el agente de recursos de Pacemaker.The sapstartsrv process should always be restarted by the Pacemaker resource agent. Estado del recurso después de la prueba:Resource state after the test:

    
     Resource Group: g-QAS_ASCS
         fs_QAS_ASCS        (ocf::heartbeat:Filesystem):    Started anftstsapcl2
         nc_QAS_ASCS        (ocf::heartbeat:anything):      Started anftstsapcl2
         vip_QAS_ASCS       (ocf::heartbeat:IPaddr2):       Started anftstsapcl2
         rsc_sap_QAS_ASCS00 (ocf::heartbeat:SAPInstance):   Started anftstsapcl2
    stonith-sbd     (stonith:external/sbd): Started anftstsapcl1
     Resource Group: g-QAS_ERS
         fs_QAS_ERS (ocf::heartbeat:Filesystem):    Started anftstsapcl1
         nc_QAS_ERS (ocf::heartbeat:anything):      Started anftstsapcl1
         vip_QAS_ERS        (ocf::heartbeat:IPaddr2):       Started anftstsapcl1
         rsc_sap_QAS_ERS01  (ocf::heartbeat:SAPInstance):   Started anftstsapcl1
    

Pasos siguientesNext steps