Alta disponibilidad para NFS en máquinas virtuales de Azure en SUSE Linux Enterprise Server
En este artículo se describe cómo implementar y configurar las máquinas virtuales, instalar el marco de trabajo del clúster e instalar un servidor NFS de alta disponibilidad que se puede usar para almacenar los datos compartidos de un sistema SAP con alta disponibilidad. En esta guía se describe cómo configurar un servidor NFS de alta disponibilidad que se usa en dos sistemas SAP: NW1 y NW2. En los nombres de los recursos (por ejemplo, máquinas virtuales, redes virtuales) del ejemplo se da por supuesto que ha usado la plantilla del servidor de archivos de SAP con el prefijo de recursos prod.
Nota
Este artículo contiene referencias a los términos esclavo y maestro, unos términos que Microsoft ya no usa. Cuando se eliminen los términos del software, se eliminarán también de este artículo.
Lea primero las notas y los documentos de SAP siguientes:
Nota de SAP 1928533, que incluye:
- La lista de tamaños de máquina virtual de Azure que se admiten para la implementación del software de SAP
- Información importante sobre la capacidad para los tamaños de máquina virtual de Azure
- Software de SAP admitido y combinaciones de sistema operativo y base de datos
- Versión del kernel de SAP requerida para Windows y Linux en Microsoft Azure
La nota de SAP 2015553 enumera los requisitos previos para las implementaciones de software de SAP admitidas por SAP en Azure.
La nota de SAP 2205917 contiene configuraciones recomendadas del sistema operativo para SUSE Linux Enterprise Server para SAP Applications
La nota de SAP 1944799 contiene guías de SAP HANA para SUSE Linux Enterprise Server para SAP Applications
La nota de SAP 2178632 contiene información detallada sobre todas las métricas de supervisión notificadas para SAP en Azure.
La nota de SAP 2191498 incluye la versión de SAP Host Agent necesaria para Linux en Azure.
La nota de SAP 2243692 incluye información acerca de las licencias de SAP en Linux en Azure.
La nota de SAP 1984787 incluye información general sobre SUSE Linux Enterprise Server 12.
La nota de SAP 1999351 contiene más soluciones de problemas de la extensión de supervisión mejorada de Azure para SAP.
La WIKI de la comunidad SAP contiene todas las notas de SAP que se necesitan para Linux.
Planeación e implementación de Azure Virtual Machines para SAP en Linux
Implementación de Azure Virtual Machines para SAP en Linux (este artículo)
Implementación de DBMS de Azure Virtual Machines para SAP en Linux
-
- Almacenamiento NFS de alta disponibilidad con DRBD y Pacemaker
Guías de procedimientos recomendados de SUSE Linux Enterprise Server for SAP Applications 12 SP3
Notas de la versión de la Extensión 12 SP3 de alta disponibilidad para SUSE
Información general
Para lograr alta disponibilidad, SAP NetWeaver requiere un servidor NFS. El servidor NFS está configurado en un clúster distinto y lo pueden usar varios sistemas SAP.

El servidor NFS usa un nombre de host virtual dedicado y direcciones IP virtuales para todos los sistemas SAP que usan este servidor NFS. En Azure, se requiere un equilibrador de carga para usar una dirección IP virtual. En la lista siguiente se muestra la configuración del equilibrador de carga.
- Configuración de front-end
- Dirección IP 10.0.0.4 de NW1
- Dirección IP 10.0.0.5 de NW2
- Configuración de back-end
- Se conecta a interfaces de red principales de todas las máquinas que deben ser parte del clúster NFS
- Puerto de sondeo
- Puerto 61000 de NW1
- Puerto 61001 de NW2
- Reglas de equilibrio de carga (si se usa un equilibrador de carga básico)
- TCP 2049 de NW1
- UDP 2049 de NW1
- TCP 2049 de NW2
- UDP 2049 de NW2
Configuración de un servidor NFS de alta disponibilidad
Puede usar una plantilla de Azure de GitHub para implementar todos los recursos de Azure necesarios, incluidas las máquinas virtuales, el conjunto de disponibilidad y el equilibrador de carga, o puede implementar los recursos manualmente.
Implementación de Linux mediante una plantilla de Azure
Azure Marketplace contiene una imagen de SUSE Linux Enterprise Server para SAP Applications 12 que puede usar para implementar nuevas máquinas virtuales. Para implementar todos los recursos necesarios, puede usar una de las plantillas de inicio rápido de GitHub. La plantilla implementa las máquinas virtuales, el equilibrador de carga, el conjunto de disponibilidad, etc. Siga estos pasos para implementar la plantilla:
- Abra la plantilla del servidor de archivos SAP en Azure Portal
- Escriba los siguientes parámetros:
- Prefijo de recurso
Escriba el prefijo que desea usar. El valor se usa como prefijo de los recursos que se implementan. - Recuento de sistema SAP
Escriba el número de sistemas SAP que este servidor de archivos va a utilizar. Esta acción implementará la cantidad necesaria de configuraciones de front-end, reglas de equilibrio de carga, puertos de sondeo, discos, etc. - Tipo de sistema operativo
Seleccione una de las distribuciones de Linux. En este ejemplo, seleccione SLES 12 - Nombre de usuario y contraseña del administrador
Se crea un usuario nuevo que se puede usar para iniciar sesión en la máquina. - Identificador de subred
Si quiere implementar la máquina virtual en una red virtual existente en la que tiene una subred definida a la que se debe asignar la máquina virtual, asigne un nombre al identificador de esa subred específica. El identificador suele tener este aspecto: /subscriptions/ <id. de suscripción> /resourceGroups/ <nombre del grupo de recursos> /providers/Microsoft.Network/virtualNetworks/ <nombre de red virtual> /subnets/ <nombre de subred>
- Prefijo de recurso
Implementación manual de Linux mediante Azure Portal
En primer lugar, debe crear las máquinas virtuales de este clúster NFS. Después, creará un equilibrador de carga y usará las máquinas virtuales de los grupos de servidores back-end.
- Creación de un grupo de recursos
- Creación de una red virtual
- Creación de un conjunto de disponibilidad
Establecimiento del dominio máximo de actualización - Creación de la máquina virtual 1 Use al menos SLES4SAP 12 SP3, en este ejemplo se usa la imagen SLES4SAP 12 SP3 BYOS SLES para SAP Applications 12 SP3 (BYOS)
Seleccione el conjunto de disponibilidad creado anteriormente. - Creación de la máquina virtual 2 Use al menos SLES4SAP 12 SP3, en este ejemplo se usa la imagen SLES4SAP 12 SP3 BYOS
Se usa SLES para SAP Applications 12 SP3 (BYOS)
Seleccione el conjunto de disponibilidad creado anteriormente. - Agregue un disco de datos por cada sistema SAP a ambas máquinas virtuales.
- Cree un equilibrador de carga (interno). Se recomienda que sea un equilibrador de carga estándar.
- Siga estas instrucciones para crear un equilibrador de carga estándar:
- Creación de las direcciones IP de front-end
- Dirección IP 10.0.0.4 de NW1
- Abra el equilibrador de carga, seleccione el grupo de direcciones IP de front-end y haga clic en Agregar
- Escriba el nombre del nuevo grupo IP de direcciones front-end (por ejemplo, nw1-frontend).
- Configure la asignación como estática y escriba la dirección IP (por ejemplo 10.0.0.4).
- Haga clic en Aceptar
- Dirección IP 10.0.0.5 de NW2
- Repita los pasos anteriores con NW2.
- Dirección IP 10.0.0.4 de NW1
- Creación de los grupos de servidores back-end
- Se conecta a interfaces de red principales de todas las máquinas que deben ser parte del clúster NFS
- Abra el equilibrador de carga, seleccione los grupos de back-end y haga clic en Agregar
- Escriba el nombre del nuevo grupo de servidores back-end (por ejemplo, nw-backend).
- Seleccione Virtual Network.
- Haga clic en Agregar una máquina virtual
- Seleccione las máquinas virtuales del clúster NFS y sus direcciones IP.
- Haga clic en Agregar.
- Se conecta a interfaces de red principales de todas las máquinas que deben ser parte del clúster NFS
- Creación de los sondeos de estado
- Puerto 61000 de NW1
- Abra el equilibrador de carga, seleccione los sondeos de estado y haga clic en Agregar
- Escriba el nombre del nuevo sondeo de estado (por ejemplo, nw1-hp).
- Seleccione TCP como protocolo, puerto 610 00, y mantenga el intervalo de 5 y el umbral incorrecto 2.
- Haga clic en Aceptar
- Puerto 61001 de NW2
- Repita los pasos anteriores para crear un sondeo de estado para NW2.
- Puerto 61000 de NW1
- Reglas de equilibrio de carga
- Abra el equilibrador de carga, seleccione las reglas de equilibrio de carga y haga clic en Agregar.
- Escriba el nombre de la nueva regla del equilibrador de carga (por ejemplo, nw1-lb).
- Seleccione la dirección IP de front-end, el grupo de servidores back-end y el sondeo de estado que creó anteriormente (por ejemplo, nw1-front-end, nw-backend y nw1-hp)
- Seleccione Puertos HA.
- Asegúrese de habilitar la dirección IP flotante
- Haga clic en Aceptar
- Repita los pasos anteriores para crear una regla de equilibrio de carga para NW2.
- Creación de las direcciones IP de front-end
- Como alternativa, si el escenario requiere un equilibrador de carga básico, siga estas instrucciones:
- Creación de las direcciones IP de front-end
- Dirección IP 10.0.0.4 de NW1
- Abra el equilibrador de carga, seleccione el grupo de direcciones IP de front-end y haga clic en Agregar
- Escriba el nombre del nuevo grupo IP de direcciones front-end (por ejemplo, nw1-frontend).
- Configure la asignación como estática y escriba la dirección IP (por ejemplo 10.0.0.4).
- Haga clic en Aceptar
- Dirección IP 10.0.0.5 de NW2
- Repita los pasos anteriores con NW2.
- Dirección IP 10.0.0.4 de NW1
- Creación de los grupos de servidores back-end
- Se conecta a interfaces de red principales de todas las máquinas que deben ser parte del clúster NFS
- Abra el equilibrador de carga, seleccione los grupos de back-end y haga clic en Agregar
- Escriba el nombre del nuevo grupo de servidores back-end (por ejemplo, nw-backend).
- Haga clic en Agregar una máquina virtual
- Seleccione el conjunto de disponibilidad que creó anteriormente
- Seleccione las máquinas virtuales del clúster NFS.
- Haga clic en Aceptar
- Se conecta a interfaces de red principales de todas las máquinas que deben ser parte del clúster NFS
- Creación de los sondeos de estado
- Puerto 61000 de NW1
- Abra el equilibrador de carga, seleccione los sondeos de estado y haga clic en Agregar
- Escriba el nombre del nuevo sondeo de estado (por ejemplo, nw1-hp).
- Seleccione TCP como protocolo, puerto 610 00, y mantenga el intervalo de 5 y el umbral incorrecto 2.
- Haga clic en Aceptar
- Puerto 61001 de NW2
- Repita los pasos anteriores para crear un sondeo de estado para NW2.
- Puerto 61000 de NW1
- Reglas de equilibrio de carga
- TCP 2049 de NW1
- Abra el equilibrador de carga, seleccione las reglas de equilibrio de carga y haga clic en Agregar
- Escriba el nombre de la nueva regla del equilibrador de carga (por ejemplo, nw1-lb-2049).
- Seleccione la dirección IP de front-end, el grupo de servidores back-end y el sondeo de estado que creó anteriormente (por ejemplo, nw1-front-end).
- Conserve el protocolo TCP y escriba el puerto 2049.
- Aumente el tiempo de espera de inactividad a 30 minutos
- Asegúrese de habilitar la dirección IP flotante
- Haga clic en Aceptar
- UDP 2049 de NW1
- Repita los pasos anteriores con el puerto 2049 y UDP de NW1.
- TCP 2049 de NW2
- Repita los pasos anteriores con el puerto 2049 y TCP de NW2.
- UDP 2049 de NW2
- Repita los pasos anteriores con el puerto 2049 y UDP de NW2.
- TCP 2049 de NW1
- Creación de las direcciones IP de front-end
- Siga estas instrucciones para crear un equilibrador de carga estándar:
Importante
La dirección IP flotante no se admite en una configuración de IP secundaria de NIC en escenarios de equilibrio de carga. Para ver detalles, consulte Limitaciones de Azure Load Balancer. Si necesita una dirección IP adicional para la VM, implemente una segunda NIC.
Nota
Cuando las máquinas virtuales sin direcciones IP públicas se colocan en el grupo de back-end de Standard Load Balancer interno (sin dirección IP pública), no hay conectividad saliente de Internet, a menos que se realice una configuración adicional para permitir el enrutamiento a puntos de conexión públicos. Para obtener más información sobre cómo obtener conectividad saliente, vea Conectividad de punto de conexión público para máquinas virtuales con Azure Standard Load Balancer en escenarios de alta disponibilidad de SAP.
Importante
No habilite las marcas de tiempo TCP en VM de Azure que se encuentren detrás de Azure Load Balancer. Si habilita las marcas de tiempo TCP provocará un error en los sondeos de estado. Establezca el parámetro net.ipv4.tcp_timestamps a 0. Consulte Sondeos de estado de Load Balancer para obtener más información.
Creación del clúster de Pacemaker
Siga los pasos de Configuración de Pacemaker en SUSE Linux Enterprise Server en Azure para crear un clúster de Pacemaker básico para este servidor NFS.
Configuración del servidor NFS
Los elementos siguientes tienen el prefijo [A] : aplicable a todos los nodos, [1] : aplicable solo al nodo 1 o [2] : aplicable solo al nodo 2.
[A] Configure la resolución nombres de host
Puede usar un servidor DNS o modificar /etc/hosts en todos los nodos. En este ejemplo se muestra cómo utilizar el archivo /etc/hosts. Reemplace la dirección IP y el nombre de host en los siguientes comandos
sudo vi /etc/hostsInserte las siguientes líneas en /etc/hosts. Cambie la dirección IP y el nombre de host para que coincida con su entorno
# IP address of the load balancer frontend configuration for NFS 10.0.0.4 nw1-nfs 10.0.0.5 nw2-nfs[A] Habilite el servidor NFS.
Cree la entrada de exportación de raíz NFS
sudo sh -c 'echo /srv/nfs/ *\(rw,no_root_squash,fsid=0\)>/etc/exports' sudo mkdir /srv/nfs/[A] Instale los componentes de drbd
sudo zypper install drbd drbd-kmp-default drbd-utils[A] Cree una partición para los dispositivos drbd.
Enumere todos los discos de datos disponibles.
sudo ls /dev/disk/azure/scsi1/Salida de ejemplo
lun0 lun1Cree particiones para cada disco de datos.
sudo sh -c 'echo -e "n\n\n\n\n\nw\n" | fdisk /dev/disk/azure/scsi1/lun0' sudo sh -c 'echo -e "n\n\n\n\n\nw\n" | fdisk /dev/disk/azure/scsi1/lun1'[A] Cree configuraciones de LVM
Enumere todas las particiones disponibles.
ls /dev/disk/azure/scsi1/lun*-part*Salida de ejemplo
/dev/disk/azure/scsi1/lun0-part1 /dev/disk/azure/scsi1/lun1-part1Cree volúmenes LVM para cada partición.
sudo pvcreate /dev/disk/azure/scsi1/lun0-part1 sudo vgcreate vg-NW1-NFS /dev/disk/azure/scsi1/lun0-part1 sudo lvcreate -l 100%FREE -n NW1 vg-NW1-NFS sudo pvcreate /dev/disk/azure/scsi1/lun1-part1 sudo vgcreate vg-NW2-NFS /dev/disk/azure/scsi1/lun1-part1 sudo lvcreate -l 100%FREE -n NW2 vg-NW2-NFS[A] Configure drbd.
sudo vi /etc/drbd.confAsegúrese de que el archivo drbd.conf contenga las siguientes dos líneas:
include "drbd.d/global_common.conf"; include "drbd.d/*.res";Cambie la configuración de drbd global.
sudo vi /etc/drbd.d/global_common.confAgregue las siguientes entradas a la sección de red y controlador.
global { usage-count no; } common { handlers { fence-peer "/usr/lib/drbd/crm-fence-peer.sh"; after-resync-target "/usr/lib/drbd/crm-unfence-peer.sh"; split-brain "/usr/lib/drbd/notify-split-brain.sh root"; pri-lost-after-sb "/usr/lib/drbd/notify-pri-lost-after-sb.sh; /usr/lib/drbd/notify-emergency-reboot.sh; echo b > /proc/sysrq-trigger ; reboot -f"; } startup { wfc-timeout 0; } options { } disk { md-flushes yes; disk-flushes yes; c-plan-ahead 1; c-min-rate 100M; c-fill-target 20M; c-max-rate 4G; } net { after-sb-0pri discard-younger-primary; after-sb-1pri discard-secondary; after-sb-2pri call-pri-lost-after-sb; protocol C; tcp-cork yes; max-buffers 20000; max-epoch-size 20000; sndbuf-size 0; rcvbuf-size 0; } }[A] Cree los dispositivos drbd de NFS.
sudo vi /etc/drbd.d/NW1-nfs.resInserte la configuración del nuevo dispositivo drbd y salga
resource NW1-nfs { protocol C; disk { on-io-error detach; } on prod-nfs-0 { address 10.0.0.6:7790; device /dev/drbd0; disk /dev/vg-NW1-NFS/NW1; meta-disk internal; } on prod-nfs-1 { address 10.0.0.7:7790; device /dev/drbd0; disk /dev/vg-NW1-NFS/NW1; meta-disk internal; } }sudo vi /etc/drbd.d/NW2-nfs.resInserte la configuración del nuevo dispositivo drbd y salga
resource NW2-nfs { protocol C; disk { on-io-error detach; } on prod-nfs-0 { address 10.0.0.6:7791; device /dev/drbd1; disk /dev/vg-NW2-NFS/NW2; meta-disk internal; } on prod-nfs-1 { address 10.0.0.7:7791; device /dev/drbd1; disk /dev/vg-NW2-NFS/NW2; meta-disk internal; } }Cree el dispositivo drbd e inícielo
sudo drbdadm create-md NW1-nfs sudo drbdadm create-md NW2-nfs sudo drbdadm up NW1-nfs sudo drbdadm up NW2-nfs[1] Omita la sincronización inicial
sudo drbdadm new-current-uuid --clear-bitmap NW1-nfs sudo drbdadm new-current-uuid --clear-bitmap NW2-nfs[1] Establezca el nodo principal
sudo drbdadm primary --force NW1-nfs sudo drbdadm primary --force NW2-nfs[1] Espere hasta que se sincronicen los nuevos dispositivos drbd
sudo drbdsetup wait-sync-resource NW1-nfs sudo drbdsetup wait-sync-resource NW2-nfs[1] Cree sistemas de archivos en los dispositivos drbd
sudo mkfs.xfs /dev/drbd0 sudo mkdir /srv/nfs/NW1 sudo chattr +i /srv/nfs/NW1 sudo mount -t xfs /dev/drbd0 /srv/nfs/NW1 sudo mkdir /srv/nfs/NW1/sidsys sudo mkdir /srv/nfs/NW1/sapmntsid sudo mkdir /srv/nfs/NW1/trans sudo mkdir /srv/nfs/NW1/ASCS sudo mkdir /srv/nfs/NW1/ASCSERS sudo mkdir /srv/nfs/NW1/SCS sudo mkdir /srv/nfs/NW1/SCSERS sudo umount /srv/nfs/NW1 sudo mkfs.xfs /dev/drbd1 sudo mkdir /srv/nfs/NW2 sudo chattr +i /srv/nfs/NW2 sudo mount -t xfs /dev/drbd1 /srv/nfs/NW2 sudo mkdir /srv/nfs/NW2/sidsys sudo mkdir /srv/nfs/NW2/sapmntsid sudo mkdir /srv/nfs/NW2/trans sudo mkdir /srv/nfs/NW2/ASCS sudo mkdir /srv/nfs/NW2/ASCSERS sudo mkdir /srv/nfs/NW2/SCS sudo mkdir /srv/nfs/NW2/SCSERS sudo umount /srv/nfs/NW2[A] Configure la detección de cerebro dividido de drbd.
Al usar drbd para sincronizar los datos de un host a otro, puede producirse lo que se conoce como cerebro dividido. Un escenario de cerebro dividido es aquel en el que ambos nodos del clúster promovieron el drbd a principal y perdieron la sincronización. Aunque es una situación poco frecuente, debe controlar y resolver un cerebro dividido lo antes posible. Por lo tanto, es importante recibir una notificación cuando suceda una situación así.
Lea la documentación oficial de drbd para saber cómo configurar una notificación de cerebro dividido.
También es posible recuperarse automáticamente de un escenario de cerebro dividido. Para más información, lea las directivas de recuperación automática de cerebro dividido.
Configuración de la plataforma del clúster
[1] Agregue los dispositivos drbd de NFS del sistema SAP NW1 a la configuración del clúster.
Importante
Pruebas recientes han mostrado situaciones en las que netcat deja de responder a las solicitudes debido al trabajo pendiente y a su limitación para controlar solo una conexión. El recurso netcat deja de escuchar las solicitudes del equilibrador de carga de Azure y la dirección IP flotante deja de estar disponible.
En el caso de los clústeres de Pacemaker existentes, en el pasado se recomendaba reemplazar netcat por socat. Actualmente se recomienda usar el agente de recursos azure-lb, que forma parte de los agentes de recursos de paquetes, con los siguientes requisitos de versión de paquete:- En el caso de SLES 12 SP4/SP5, la versión debe ser, al menos, resource-agents-4.3.018.a7fb5035-3.30.1.
- Para SLES 15/15 SP1, la versión debe ser al menos resource-agents-4.3.0184.6ee15eb2-4.13.1.
Tenga en cuenta que el cambio requerirá un breve tiempo de inactividad.
En el caso de los clústeres de Pacemaker existentes, si la configuración ya se ha cambiado para usar socat, como se describe en Protección de la detección del equilibrador de carga de Azure, no hay ningún requisito para cambiar inmediatamente al agente de recursos de azure-lb.sudo crm configure rsc_defaults resource-stickiness="200" # Enable maintenance mode sudo crm configure property maintenance-mode=true sudo crm configure primitive drbd_NW1_nfs \ ocf:linbit:drbd \ params drbd_resource="NW1-nfs" \ op monitor interval="15" role="Master" \ op monitor interval="30" role="Slave" sudo crm configure ms ms-drbd_NW1_nfs drbd_NW1_nfs \ meta master-max="1" master-node-max="1" clone-max="2" \ clone-node-max="1" notify="true" interleave="true" sudo crm configure primitive fs_NW1_sapmnt \ ocf:heartbeat:Filesystem \ params device=/dev/drbd0 \ directory=/srv/nfs/NW1 \ fstype=xfs \ op monitor interval="10s" sudo crm configure primitive nfsserver systemd:nfs-server \ op monitor interval="30s" sudo crm configure clone cl-nfsserver nfsserver sudo crm configure primitive exportfs_NW1 \ ocf:heartbeat:exportfs \ params directory="/srv/nfs/NW1" \ options="rw,no_root_squash,crossmnt" clientspec="*" fsid=1 wait_for_leasetime_on_stop=true op monitor interval="30s" sudo crm configure primitive vip_NW1_nfs \ IPaddr2 \ params ip=10.0.0.4 cidr_netmask=24 op monitor interval=10 timeout=20 sudo crm configure primitive nc_NW1_nfs azure-lb port=61000 sudo crm configure group g-NW1_nfs \ fs_NW1_sapmnt exportfs_NW1 nc_NW1_nfs vip_NW1_nfs sudo crm configure order o-NW1_drbd_before_nfs inf: \ ms-drbd_NW1_nfs:promote g-NW1_nfs:start sudo crm configure colocation col-NW1_nfs_on_drbd inf: \ g-NW1_nfs ms-drbd_NW1_nfs:Master[1] Agregue los dispositivos drbd de NFS del sistema SAP NW2 a la configuración del clúster.
# Enable maintenance mode sudo crm configure property maintenance-mode=true sudo crm configure primitive drbd_NW2_nfs \ ocf:linbit:drbd \ params drbd_resource="NW2-nfs" \ op monitor interval="15" role="Master" \ op monitor interval="30" role="Slave" sudo crm configure ms ms-drbd_NW2_nfs drbd_NW2_nfs \ meta master-max="1" master-node-max="1" clone-max="2" \ clone-node-max="1" notify="true" interleave="true" sudo crm configure primitive fs_NW2_sapmnt \ ocf:heartbeat:Filesystem \ params device=/dev/drbd1 \ directory=/srv/nfs/NW2 \ fstype=xfs \ op monitor interval="10s" sudo crm configure primitive exportfs_NW2 \ ocf:heartbeat:exportfs \ params directory="/srv/nfs/NW2" \ options="rw,no_root_squash,crossmnt" clientspec="*" fsid=2 wait_for_leasetime_on_stop=true op monitor interval="30s" sudo crm configure primitive vip_NW2_nfs \ IPaddr2 \ params ip=10.0.0.5 cidr_netmask=24 op monitor interval=10 timeout=20 sudo crm configure primitive nc_NW2_nfs azure-lb port=61001 sudo crm configure group g-NW2_nfs \ fs_NW2_sapmnt exportfs_NW2 nc_NW2_nfs vip_NW2_nfs sudo crm configure order o-NW2_drbd_before_nfs inf: \ ms-drbd_NW2_nfs:promote g-NW2_nfs:start sudo crm configure colocation col-NW2_nfs_on_drbd inf: \ g-NW2_nfs ms-drbd_NW2_nfs:MasterLa opción
crossmntde los recursos del clústerexportfsestá presente en nuestra documentación para la compatibilidad con versiones anteriores de SLES.[1] Deshabilite el modo de mantenimiento.
sudo crm configure property maintenance-mode=false
Pasos siguientes
- Instalación de SAP ASCS y la base de datos
- Planeamiento e implementación de Azure Virtual Machines para SAP
- Implementación de Azure Virtual Machines para SAP
- Implementación de DBMS de Azure Virtual Machines para SAP
- Para más información sobre cómo establecer la alta disponibilidad y planear la recuperación ante desastres de SAP HANA en Azure Virtual Machines, consulte Alta disponibilidad de SAP HANA en las máquinas virtuales de Azure.