Distribuire un sistema di SAP HANA con scale-out con un nodo standby in macchine virtuali di Azure usando Azure NetApp Files su Red Hat Enterprise LinuxDeploy a SAP HANA scale-out system with standby node on Azure VMs by using Azure NetApp Files on Red Hat Enterprise Linux

Questo articolo descrive come distribuire un sistema di SAP HANA a disponibilità elevata in una configurazione con scalabilità orizzontale con standby in Azure Red Hat Enterprise Linux macchine virtuali (VM), usando Azure NetApp files per i volumi di archiviazione condivisa.This article describes how to deploy a highly available SAP HANA system in a scale-out configuration with standby on Azure Red Hat Enterprise Linux virtual machines (VMs), by using Azure NetApp Files for the shared storage volumes.

Nelle configurazioni di esempio, nei comandi di installazione e così via, l'istanza di HANA è 03 e l'ID di sistema Hana è HN1.In the example configurations, installation commands, and so on, the HANA instance is 03 and the HANA system ID is HN1. Gli esempi sono basati su HANA 2,0 SP4 e Red Hat Enterprise Linux per SAP 7,6.The examples are based on HANA 2.0 SP4 and Red Hat Enterprise Linux for SAP 7.6.

Nota

Questo articolo contiene riferimenti ai termini Master e slave, che non vengono più utilizzati da Microsoft.This article contains references to the terms master and slave, terms that Microsoft no longer uses. Quando questi termini vengono rimossi dal software, verranno rimossi da questo articolo.When these terms are removed from the software, we’ll remove them from this article.

Prima di iniziare, vedere le note e i documenti SAP seguenti:Before you begin, refer to the following SAP notes and papers:

PanoramicaOverview

Un metodo per ottenere la disponibilità elevata di HANA consiste nel configurare il failover automatico dell'host.One method for achieving HANA high availability is by configuring host auto failover. Per configurare il failover automatico dell'host, aggiungere una o più macchine virtuali al sistema HANA e configurarle come nodi standby.To configure host auto failover, you add one or more virtual machines to the HANA system and configure them as standby nodes. Quando si verifica un errore nel nodo attivo, il nodo standby assume automaticamente il valore.When active node fails, a standby node automatically takes over. Nella configurazione presentata con macchine virtuali di Azure si ottiene il failover automatico usando NFS in Azure NetApp files.In the presented configuration with Azure virtual machines, you achieve auto failover by using NFS on Azure NetApp Files.

Nota

Il nodo standby deve accedere a tutti i volumi del database.The standby node needs access to all database volumes. I volumi HANA devono essere montati come volumi NFSv4.The HANA volumes must be mounted as NFSv4 volumes. Il meccanismo di blocco basato sul lease di file migliorato nel protocollo NFSv4 viene usato per la I/O schermatura.The improved file lease-based locking mechanism in the NFSv4 protocol is used for I/O fencing.

Importante

Per compilare la configurazione supportata, è necessario distribuire i volumi di dati e di log HANA come NFSv 4.1 volumi e montarli usando il protocollo NFSv 4.1.To build the supported configuration, you must deploy the HANA data and log volumes as NFSv4.1 volumes and mount them by using the NFSv4.1 protocol. La configurazione del failover automatico dell'host HANA con il nodo standby non è supportata con NFSv3.The HANA host auto-failover configuration with standby node is not supported with NFSv3.

Panoramica della disponibilità elevata di SAP NetWeaver

Nel diagramma precedente, che segue SAP HANA consigli sulla rete, tre subnet sono rappresentate all'interno di una rete virtuale di Azure:In the preceding diagram, which follows SAP HANA network recommendations, three subnets are represented within one Azure virtual network:

  • Per la comunicazione clientFor client communication
  • Per la comunicazione con il sistema di archiviazioneFor communication with the storage system
  • Per la comunicazione interna HANA tra nodiFor internal HANA inter-node communication

I volumi di Azure NetApp si trovano in una subnet separata, delegata a Azure NetApp files.The Azure NetApp volumes are in separate subnet, delegated to Azure NetApp Files.

Per questa configurazione di esempio, le subnet sono:For this example configuration, the subnets are:

  • client 10.9.1.0/26client 10.9.1.0/26
  • storage 10.9.3.0/26storage 10.9.3.0/26
  • hana 10.9.2.0/26hana 10.9.2.0/26
  • anf 10.9.0.0/26 (subnet delegata a Azure NetApp Files)anf 10.9.0.0/26 (delegated subnet to Azure NetApp Files)

Configurare l'infrastruttura di Azure NetApp FilesSet up the Azure NetApp Files infrastructure

Prima di procedere con l'installazione di Azure NetApp Files infrastruttura, acquisire familiarità con la documentazione di Azure NetApp files.Before you proceed with the setup for Azure NetApp Files infrastructure, familiarize yourself with the Azure NetApp Files documentation.

Azure NetApp Files è disponibile in diverse aree di Azure.Azure NetApp Files is available in several Azure regions. Verificare se l'area di Azure selezionata offre Azure NetApp Files.Check to see whether your selected Azure region offers Azure NetApp Files.

Per informazioni sulla disponibilità di Azure NetApp Files dall'area di Azure, vedere Azure NetApp files disponibilità per area di Azure.For information about the availability of Azure NetApp Files by Azure region, see Azure NetApp Files Availability by Azure Region.

Prima di distribuire Azure NetApp Files, richiedere l'onboarding per Azure NetApp Files eseguendo la registrazione per istruzioni Azure NetApp files.Before you deploy Azure NetApp Files, request onboarding to Azure NetApp Files by going to Register for Azure NetApp Files instructions.

Distribuire le risorse di Azure NetApp FilesDeploy Azure NetApp Files resources

Le istruzioni seguenti presuppongono che la rete virtuale di Azuresia già stata distribuita.The following instructions assume that you've already deployed your Azure virtual network. Le risorse Azure NetApp Files e le macchine virtuali in cui verranno montate le risorse di Azure NetApp Files devono essere distribuite nella stessa rete virtuale di Azure o in reti virtuali di Azure con peering.The Azure NetApp Files resources and VMs, where the Azure NetApp Files resources will be mounted, must be deployed in the same Azure virtual network or in peered Azure virtual networks.

  1. Se le risorse non sono già state distribuite, richiedere l' onboarding per Azure NetApp files.If you haven't already deployed the resources, request onboarding to Azure NetApp Files.

  2. Per creare un account NetApp nell'area di Azure selezionata, seguire le istruzioni riportate in creare un account NetApp.Create a NetApp account in your selected Azure region by following the instructions in Create a NetApp account.

  3. Configurare un pool di capacità Azure NetApp Files seguendo le istruzioni riportate in configurare un pool di capacità Azure NetApp files.Set up an Azure NetApp Files capacity pool by following the instructions in Set up an Azure NetApp Files capacity pool.

    L'architettura HANA presentata in questo articolo usa un singolo pool di capacità Azure NetApp Files al livello di servizio ultra .The HANA architecture presented in this article uses a single Azure NetApp Files capacity pool at the Ultra Service level. Per i carichi di lavoro HANA in Azure, è consigliabile usare un livello di servizioAzure NetApp files ultra o Premium .For HANA workloads on Azure, we recommend using an Azure NetApp Files Ultra or Premium service Level.

  4. Delegare una subnet a Azure NetApp Files, come descritto nelle istruzioni in delegare una subnet a Azure NetApp files.Delegate a subnet to Azure NetApp Files, as described in the instructions in Delegate a subnet to Azure NetApp Files.

  5. Distribuire Azure NetApp Files volumi seguendo le istruzioni riportate in creare un volume NFS per Azure NetApp files.Deploy Azure NetApp Files volumes by following the instructions in Create an NFS volume for Azure NetApp Files.

    Quando si distribuiscono i volumi, assicurarsi di selezionare la versione NFSv 4.1 .As you're deploying the volumes, be sure to select the NFSv4.1 version. Distribuire i volumi nella subnet di Azure NetApp Files designata.Deploy the volumes in the designated Azure NetApp Files subnet. Gli indirizzi IP dei volumi di Azure NetApp vengono assegnati automaticamente.The IP addresses of the Azure NetApp volumes are assigned automatically.

    Tenere presente che le risorse Azure NetApp Files e le macchine virtuali di Azure devono trovarsi nella stessa rete virtuale di Azure o in reti virtuali di Azure con peering.Keep in mind that the Azure NetApp Files resources and the Azure VMs must be in the same Azure virtual network or in peered Azure virtual networks. Ad esempio, HN1-data-Mnt00001, HN1-log-mnt00001 e così via, sono i nomi di volume e NFS://10.9.0.4/HN1-data-mnt00001, NFS://10.9.0.4/HN1-log-mnt00001 e così via, sono i percorsi dei file per i volumi Azure NetApp files.For example, HN1-data-mnt00001, HN1-log-mnt00001, and so on, are the volume names and nfs://10.9.0.4/HN1-data-mnt00001, nfs://10.9.0.4/HN1-log-mnt00001, and so on, are the file paths for the Azure NetApp Files volumes.

    • volume HN1-data-mnt00001 (NFS://10.9.0.4/HN1-data-mnt00001)volume HN1-data-mnt00001 (nfs://10.9.0.4/HN1-data-mnt00001)
    • volume HN1-data-mnt00002 (NFS://10.9.0.4/HN1-data-mnt00002)volume HN1-data-mnt00002 (nfs://10.9.0.4/HN1-data-mnt00002)
    • volume HN1-log-mnt00001 (NFS://10.9.0.4/HN1-log-mnt00001)volume HN1-log-mnt00001 (nfs://10.9.0.4/HN1-log-mnt00001)
    • volume HN1-log-mnt00002 (NFS://10.9.0.4/HN1-log-mnt00002)volume HN1-log-mnt00002 (nfs://10.9.0.4/HN1-log-mnt00002)
    • volume HN1-shared (NFS://10.9.0.4/HN1-Shared)volume HN1-shared (nfs://10.9.0.4/HN1-shared)

    In questo esempio è stato usato un volume di Azure NetApp Files separato per ogni volume di log e di dati HANA.In this example, we used a separate Azure NetApp Files volume for each HANA data and log volume. Per una configurazione più conveniente in sistemi più piccoli o non produttivi, è possibile collocare tutti i montaggi dei dati in un singolo volume e tutti i log vengono montati in un singolo volume diverso.For a more cost-optimized configuration on smaller or non-productive systems, it's possible to place all data mounts on a single volume and all logs mounts on a different single volume.

Considerazioni importantiImportant considerations

Quando si crea la Azure NetApp Files per SAP HANA la scalabilità orizzontale con lo scenario stand by nodes, tenere presente le seguenti considerazioni importanti:As you're creating your Azure NetApp Files for SAP HANA scale-out with stand by nodes scenario, be aware of the following important considerations:

  • Il pool di capacità minimo è 4 TB (TiB).The minimum capacity pool is 4 tebibytes (TiB).
  • La dimensione minima del volume è 100 gibibyte (GiB).The minimum volume size is 100 gibibytes (GiB).
  • Azure NetApp Files e tutte le macchine virtuali in cui verranno montati i volumi di Azure NetApp Files devono trovarsi nella stessa rete virtuale di Azure o in reti virtuali con peering nella stessa area.Azure NetApp Files and all virtual machines where the Azure NetApp Files volumes will be mounted must be in the same Azure virtual network or in peered virtual networks in the same region.
  • La rete virtuale selezionata deve avere una subnet delegata a Azure NetApp Files.The selected virtual network must have a subnet that's delegated to Azure NetApp Files.
  • La velocità effettiva di un volume Azure NetApp Files è una funzione della quota del volume e del livello di servizio, come documentato nel livello di servizio per Azure NetApp files.The throughput of an Azure NetApp Files volume is a function of the volume quota and service level, as documented in Service level for Azure NetApp Files. Quando si dimensionano i volumi di HANA Azure NetApp, assicurarsi che la velocità effettiva risultante soddisfi i requisiti di sistema HANA.When you're sizing the HANA Azure NetApp volumes, make sure that the resulting throughput meets the HANA system requirements.
  • Con i criteri di esportazioneAzure NetApp files, è possibile controllare i client consentiti, il tipo di accesso (lettura/scrittura, sola lettura e così via).With the Azure NetApp Files export policy, you can control the allowed clients, the access type (read-write, read only, and so on).
  • La funzionalità Azure NetApp Files non è ancora in grado di riconoscere la zona.The Azure NetApp Files feature isn't zone-aware yet. Attualmente, la funzionalità non viene distribuita in tutte le zone di disponibilità in un'area di Azure.Currently, the feature isn't deployed in all availability zones in an Azure region. Tenere presente le implicazioni di latenza potenziali in alcune aree di Azure.Be aware of the potential latency implications in some Azure regions.

Importante

Per carichi di lavoro SAP HANA, è fondamentale una bassa latenza.For SAP HANA workloads, low latency is critical. Collaborare con il rappresentante Microsoft per assicurarsi che le macchine virtuali e i volumi Azure NetApp Files vengano distribuiti in prossimità.Work with your Microsoft representative to ensure that the virtual machines and the Azure NetApp Files volumes are deployed in close proximity.

Dimensionamento per il database HANA in Azure NetApp FilesSizing for HANA database on Azure NetApp Files

La velocità effettiva di un volume Azure NetApp Files è una funzione delle dimensioni del volume e del livello di servizio, come documentato nel livello di servizio per Azure NetApp files.The throughput of an Azure NetApp Files volume is a function of the volume size and service level, as documented in Service level for Azure NetApp Files.

Quando si progetta l'infrastruttura per SAP in Azure, tenere presenti alcuni requisiti minimi di archiviazione da parte di SAP, che si traduce in caratteristiche di velocità effettiva minime:As you design the infrastructure for SAP in Azure, be aware of some minimum storage requirements by SAP, which translate into minimum throughput characteristics:

  • Lettura/scrittura su/Hana/log di 250 megabyte al secondo (MB/s) con dimensioni di I/O di 1 MB.Read-write on /hana/log of 250 megabytes per second (MB/s) with 1-MB I/O sizes.
  • Attività di lettura di almeno 400 MB/s per/Hana/data per le dimensioni di I/O di 16 MB e 64 MB.Read activity of at least 400 MB/s for /hana/data for 16-MB and 64-MB I/O sizes.
  • Attività di scrittura di almeno 250 MB/s per/Hana/data con dimensioni di I/O di 16 MB e 64 MB.Write activity of at least 250 MB/s for /hana/data with 16-MB and 64-MB I/O sizes.

I limiti di velocità effettiva di Azure NetApp Files per 1 TiB della quota del volume sono:The Azure NetApp Files throughput limits per 1 TiB of volume quota are:

  • Livello di archiviazione Premium-64 MiB/sPremium Storage tier - 64 MiB/s
  • Livello di archiviazione Ultra-128 MiB/sUltra Storage tier - 128 MiB/s

Per soddisfare i requisiti di velocità effettiva minima SAP per dati e log e per le linee guida per/Hana/Shared, le dimensioni consigliate sono:To meet the SAP minimum throughput requirements for data and log, and the guidelines for /hana/shared, the recommended sizes would be:

VolumeVolume Dimensioni diSize of
Livello Archiviazione PremiumPremium Storage tier
Dimensioni diSize of
Livello Archiviazione UltraUltra Storage tier
Protocollo NFS supportatoSupported NFS protocol
/hana/log//hana/log/ 4 TiB4 TiB 2 TiB2 TiB v4.1v4.1
/hana/data/hana/data 6,3 TiB6.3 TiB 3,2 TiB3.2 TiB v4.1v4.1
/hana/shared/hana/shared 1xRAM per 4 nodi del ruolo di lavoro1xRAM per 4 worker nodes 1xRAM per 4 nodi del ruolo di lavoro1xRAM per 4 worker nodes v3 o v4.1v3 or v4.1

La configurazione SAP HANA per il layout presentato in questo articolo, usando Azure NetApp Files livello di archiviazione Ultra, sarà:The SAP HANA configuration for the layout that's presented in this article, using Azure NetApp Files Ultra Storage tier, would be:

VolumeVolume Dimensioni diSize of
Livello Archiviazione UltraUltra Storage tier
Protocollo NFS supportatoSupported NFS protocol
/hana/log/mnt00001/hana/log/mnt00001 2 TiB2 TiB v4.1v4.1
/hana/log/mnt00002/hana/log/mnt00002 2 TiB2 TiB v4.1v4.1
/hana/data/mnt00001/hana/data/mnt00001 3,2 TiB3.2 TiB v4.1v4.1
/hana/data/mnt00002/hana/data/mnt00002 3,2 TiB3.2 TiB v4.1v4.1
/hana/shared/hana/shared 2 TiB2 TiB v3 o v4.1v3 or v4.1

Nota

Le indicazioni relative al dimensionamento Azure NetApp Files indicate di seguito sono destinate a soddisfare i requisiti minimi consigliati da SAP per i provider di infrastruttura.The Azure NetApp Files sizing recommendations stated here are targeted to meet the minimum requirements that SAP recommends for their infrastructure providers. Nelle distribuzioni reali dei clienti e negli scenari di carico di lavoro, queste dimensioni potrebbero non essere sufficienti.In real customer deployments and workload scenarios, these sizes may not be sufficient. Considerare quindi queste indicazioni come punto di inizio e adattarle in base ai requisiti del carico di lavoro specifico.Use these recommendations as a starting point and adapt, based on the requirements of your specific workload.

Suggerimento

È possibile ridimensionare Azure NetApp Files volumi in modo dinamico, senza dover smontare i volumi, arrestare le macchine virtuali o arrestare SAP Hana.You can resize Azure NetApp Files volumes dynamically, without having to unmount the volumes, stop the virtual machines, or stop SAP HANA. Questo approccio offre la flessibilità necessaria per soddisfare le esigenze di velocità effettiva prevista e non prevista dell'applicazione.This approach allows flexibility to meet both the expected and unforeseen throughput demands of your application.

Distribuire macchine virtuali Linux tramite il portale di AzureDeploy Linux virtual machines via the Azure portal

Per prima cosa è necessario creare i volumi Azure NetApp Files.First you need to create the Azure NetApp Files volumes. Eseguire quindi i passaggi seguenti:Then do the following steps:

  1. Creare le subnet della rete virtuale di Azure nella rete virtuale di Azure.Create the Azure virtual network subnets in your Azure virtual network.

  2. Distribuire le macchine virtuali.Deploy the VMs.

  3. Creare le interfacce di rete aggiuntive e alleghi le interfacce di rete alle VM corrispondenti.Create the additional network interfaces, and attach the network interfaces to the corresponding VMs.

    Ogni macchina virtuale dispone di tre interfacce di rete, che corrispondono alle tre subnet della rete virtuale di Azure ( client storage e hana ).Each virtual machine has three network interfaces, which correspond to the three Azure virtual network subnets (client, storage and hana).

    Per altre informazioni, vedere creare una macchina virtuale Linux in Azure con più schede di interfaccia di rete.For more information, see Create a Linux virtual machine in Azure with multiple network interface cards.

Importante

Per carichi di lavoro SAP HANA, è fondamentale una bassa latenza.For SAP HANA workloads, low latency is critical. Per ottenere una bassa latenza, collaborare con il rappresentante Microsoft per assicurarsi che le macchine virtuali e i volumi Azure NetApp Files vengano distribuiti in prossimità.To achieve low latency, work with your Microsoft representative to ensure that the virtual machines and the Azure NetApp Files volumes are deployed in close proximity. Quando si sta caricando un nuovo SAP Hana sistema che usa SAP Hana Azure NetApp files, inviare le informazioni necessarie.When you're onboarding new SAP HANA system that's using SAP HANA Azure NetApp Files, submit the necessary information.

Nelle istruzioni successive si presuppone che siano già stati creati il gruppo di risorse, la rete virtuale di Azure e le tre subnet della rete virtuale di Azure: client , storage e hana .The next instructions assume that you've already created the resource group, the Azure virtual network, and the three Azure virtual network subnets: client, storage and hana. Quando si distribuiscono le macchine virtuali, selezionare la subnet client, in modo che l'interfaccia di rete del client sia l'interfaccia principale nelle VM.When you deploy the VMs, select the client subnet, so that the client network interface is the primary interface on the VMs. Sarà anche necessario configurare una route esplicita per la Azure NetApp Files subnet delegata tramite il gateway della subnet di archiviazione.You will also need to configure an explicit route to the Azure NetApp Files delegated subnet via the storage subnet gateway.

Importante

Verificare che il sistema operativo selezionato sia certificato per SAP per SAP HANA sui tipi di VM specifici in uso.Make sure that the OS you select is SAP-certified for SAP HANA on the specific VM types you're using. Per un elenco dei tipi di VM SAP HANA certificati e delle versioni del sistema operativo per questi tipi, accedere al sito SAP Hana piattaforme IaaS certificate .For a list of SAP HANA certified VM types and OS releases for those types, go to the SAP HANA certified IaaS platforms site. Fare clic sui dettagli del tipo di macchina virtuale elencato per ottenere l'elenco completo delle versioni del sistema operativo supportate da SAP HANA per quel tipo.Click into the details of the listed VM type to get the complete list of SAP HANA-supported OS releases for that type.

  1. Creare un set di disponibilità per SAP HANA.Create an availability set for SAP HANA. Assicurarsi di impostare il dominio di aggiornamento massimo.Make sure to set the max update domain.

  2. Creare tre macchine virtuali (hanadb1, hanadb2, hanadb3) seguendo questa procedura:Create three virtual machines (hanadb1, hanadb2, hanadb3) by doing the following steps:

    a.a. Usare un'immagine Red Hat Enterprise Linux nella raccolta di Azure supportata per SAP HANA.Use a Red Hat Enterprise Linux image in the Azure gallery that's supported for SAP HANA. In questo esempio è stata usata un'immagine RHEL-SAP-HA 7,6.We used a RHEL-SAP-HA 7.6 image in this example.

    b.b. Selezionare il set di disponibilità creato in precedenza per SAP HANA.Select the availability set that you created earlier for SAP HANA.

    c.c. Selezionare la subnet della rete virtuale di Azure client.Select the client Azure virtual network subnet. Selezionare rete accelerata.Select Accelerated Network.

    Quando si distribuiscono le macchine virtuali, il nome dell'interfaccia di rete viene generato automaticamente.When you deploy the virtual machines, the network interface name is automatically generated. In queste istruzioni per semplicità si farà riferimento alle interfacce di rete generate automaticamente, che sono collegate alla subnet della rete virtuale di Azure client come hanadb1-client, hanadb2-client e hanadb3-client.In these instructions for simplicity we'll refer to the automatically generated network interfaces, which are attached to the client Azure virtual network subnet, as hanadb1-client, hanadb2-client, and hanadb3-client.

  3. Creare tre interfacce di rete, una per ogni macchina virtuale, per la storage subnet della rete virtuale (in questo esempio, hanadb1-storage, hanadb2-storage e hanadb3-storage).Create three network interfaces, one for each virtual machine, for the storage virtual network subnet (in this example, hanadb1-storage, hanadb2-storage, and hanadb3-storage).

  4. Creare tre interfacce di rete, una per ogni macchina virtuale, per la hana subnet della rete virtuale (in questo esempio, hanadb1-Hana, hanadb2-Hana e hanadb3-Hana).Create three network interfaces, one for each virtual machine, for the hana virtual network subnet (in this example, hanadb1-hana, hanadb2-hana, and hanadb3-hana).

  5. Alleghi le interfacce di rete virtuale appena create alle macchine virtuali corrispondenti attenendosi alla procedura seguente:Attach the newly created virtual network interfaces to the corresponding virtual machines by doing the following steps:

    a.a. Passare alla macchina virtuale nella portale di Azure.Go to the virtual machine in the Azure portal.

    b.b. Nel riquadro sinistro selezionare macchine virtuali.In the left pane, select Virtual Machines. Filtrare sul nome della macchina virtuale (ad esempio, hanadb1), quindi selezionare la macchina virtuale.Filter on the virtual machine name (for example, hanadb1), and then select the virtual machine.

    c.c. Nel riquadro Panoramica selezionare Arresta per deallocare la macchina virtuale.In the Overview pane, select Stop to deallocate the virtual machine.

    d.d. Selezionare rete e quindi collegare l'interfaccia di rete.Select Networking, and then attach the network interface. Nell'elenco a discesa Connetti interfaccia di rete selezionare le interfacce di rete già create per le storage subnet e hana .In the Attach network interface drop-down list, select the already created network interfaces for the storage and hana subnets.

    e.e. Selezionare Salva.Select Save.

    f.f. Ripetere i passaggi da b a e per le macchine virtuali rimanenti (in questo esempio, hanadb2 e hanadb3).Repeat steps b through e for the remaining virtual machines (in our example, hanadb2 and hanadb3).

    g.g. Per il momento, lasciare le macchine virtuali in stato di arresto.Leave the virtual machines in stopped state for now. Successivamente, verrà abilitata la rete accelerata per tutte le interfacce di rete appena collegate.Next, we'll enable accelerated networking for all newly attached network interfaces.

  6. Abilitare la rete accelerata per le interfacce di rete aggiuntive per le storage subnet e seguendo hana questa procedura:Enable accelerated networking for the additional network interfaces for the storage and hana subnets by doing the following steps:

    a.a. Aprire Azure cloud Shell nel portale di Azure.Open Azure Cloud Shell in the Azure portal.

    b.b. Eseguire i comandi seguenti per abilitare la rete accelerata per le interfacce di rete aggiuntive, che sono collegate storage alle hana subnet e.Execute the following commands to enable accelerated networking for the additional network interfaces, which are attached to the storage and hana subnets.

    
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-storage --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-storage --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-storage --accelerated-networking true
    
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-hana --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-hana --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-hana --accelerated-networking true
    
     
  7. Avviare le macchine virtuali seguendo questa procedura:Start the virtual machines by doing the following steps:

    a.a. Nel riquadro sinistro selezionare macchine virtuali.In the left pane, select Virtual Machines. Filtrare sul nome della macchina virtuale (ad esempio, hanadb1) e quindi selezionarlo.Filter on the virtual machine name (for example, hanadb1), and then select it.

    b.b. Nel riquadro Panoramica selezionare Avvia.In the Overview pane, select Start.

Configurazione e preparazione del sistema operativoOperating system configuration and preparation

Le istruzioni riportate nelle sezioni successive sono precedute da uno dei seguenti elementi:The instructions in the next sections are prefixed with one of the following:

  • [A]: applicabile a tutti i nodi[A]: Applicable to all nodes
  • [1]: applicabile solo al nodo 1[1]: Applicable only to node 1
  • [2]: applicabile solo al nodo 2[2]: Applicable only to node 2
  • [3]: applicabile solo al nodo 3[3]: Applicable only to node 3

Configurare e preparare il sistema operativo seguendo questa procedura:Configure and prepare your OS by doing the following steps:

  1. [A] gestire i file host nelle macchine virtuali.[A] Maintain the host files on the virtual machines. Includere le voci per tutte le subnet.Include entries for all subnets. Per questo esempio sono state aggiunte le voci seguenti /etc/hosts .The following entries were added to /etc/hosts for this example.

    
     # Storage
     10.9.3.4   hanadb1-storage
     10.9.3.5   hanadb2-storage
     10.9.3.6   hanadb3-storage
     # Client
     10.9.1.5   hanadb1
     10.9.1.6   hanadb2
     10.9.1.7   hanadb3
     # Hana
     10.9.2.4   hanadb1-hana
     10.9.2.5   hanadb2-hana
     10.9.2.6   hanadb3-hana
     
  2. [A] aggiungere una route di rete, in modo che la comunicazione con il Azure NetApp files passa attraverso l'interfaccia di rete di archiviazione.[A] Add a network route, so that the communication to the Azure NetApp Files goes via the storage network interface.

    In questo esempio verrà usato Networkmanager per configurare la route di rete aggiuntiva.In this example will use Networkmanager to configure the additional network route. Nelle istruzioni seguenti si presuppone che l'interfaccia di rete di archiviazione sia eth1 .The following instructions assume that the storage network interface is eth1.
    Per prima cosa, determinare il nome della connessione per il dispositivo eth1 .First, determine the connection name for device eth1. In questo esempio il nome della connessione per il dispositivo eth1 è Wired connection 1 .In this example the connection name for device eth1 is Wired connection 1.

    
     # Execute as root
     nmcli connection
     # Result
     #NAME                UUID                                  TYPE      DEVICE
     #System eth0         5fb06bd0-0bb0-7ffb-45f1-d6edd65f3e03  ethernet  eth0
     #Wired connection 1  4b0789d1-6146-32eb-83a1-94d61f8d60a7  ethernet  eth1
     

    Configurare quindi route aggiuntive per la rete delegata Azure NetApp Files tramite eth1 .Then configure additional route to the Azure NetApp Files delegated network via eth1.

    
     # Add the following route 
     # ANFDelegatedSubnet/cidr via StorageSubnetGW dev StorageNetworkInterfaceDevice
     nmcli connection modify "Wired connection 1" +ipv4.routes "10.9.0.0/26 10.9.3.1"
     

    Riavviare la macchina virtuale per attivare le modifiche.Reboot the VM to activate the changes.

  3. [A] installare il pacchetto client NFS.[A] Install the NFS client package.

    
     yum install nfs-utils
     
  4. [A] preparare il sistema operativo per l'esecuzione di SAP Hana in Azure NetApp con NFS, come descritto in applicazioni SAP NetApp su Microsoft Azure con Azure NetApp files.[A] Prepare the OS for running SAP HANA on Azure NetApp with NFS, as described in NetApp SAP Applications on Microsoft Azure using Azure NetApp Files. Creare il file di configurazione /etc/sysctl.d/NetApp-Hana.conf per le impostazioni di configurazione NetApp.Create configuration file /etc/sysctl.d/netapp-hana.conf for the NetApp configuration settings.

    
     vi /etc/sysctl.d/netapp-hana.conf
     # Add the following entries in the configuration file
     net.core.rmem_max = 16777216
     net.core.wmem_max = 16777216
     net.core.rmem_default = 16777216
     net.core.wmem_default = 16777216
     net.core.optmem_max = 16777216
     net.ipv4.tcp_rmem = 65536 16777216 16777216
     net.ipv4.tcp_wmem = 65536 16777216 16777216
     net.core.netdev_max_backlog = 300000 
     net.ipv4.tcp_slow_start_after_idle=0 
     net.ipv4.tcp_no_metrics_save = 1
     net.ipv4.tcp_moderate_rcvbuf = 1
     net.ipv4.tcp_window_scaling = 1
     net.ipv4.tcp_timestamps = 1
     net.ipv4.tcp_sack = 1
     
  5. [A] creare il file di configurazione /etc/sysctl.d/MS-AZ.conf con impostazioni di ottimizzazione aggiuntive.[A] Create configuration file /etc/sysctl.d/ms-az.conf with additional optimization settings.

    
     vi /etc/sysctl.d/ms-az.conf
     # Add the following entries in the configuration file
     net.ipv6.conf.all.disable_ipv6 = 1
     net.ipv4.tcp_max_syn_backlog = 16348
     net.ipv4.conf.all.rp_filter = 0
     sunrpc.tcp_slot_table_entries = 128
     vm.swappiness=10
     

Suggerimento

Evitare di impostare net.ipv4.ip_local_port_range e net.ipv4.ip_local_reserved_ports in modo esplicito nei file di configurazione di sysctl per consentire all'agente host SAP di gestire gli intervalli di porte.Avoid setting net.ipv4.ip_local_port_range and net.ipv4.ip_local_reserved_ports explicitly in the sysctl configuration files to allow SAP Host Agent to manage the port ranges. Per altri dettagli, vedere la nota SAP 2382421.For more details see SAP note 2382421.

  1. [A] modificare le impostazioni di sunrpc, come consigliato nelle applicazioni SAP NetApp su Microsoft Azure usando Azure NetApp files.[A] Adjust the sunrpc settings, as recommended in the NetApp SAP Applications on Microsoft Azure using Azure NetApp Files.

    
     vi /etc/modprobe.d/sunrpc.conf
     # Insert the following line
     options sunrpc tcp_max_slot_table_entries=128
     
  2. [A] Red Hat per la configurazione Hana.[A] Red Hat for HANA configuration.

    Configurare RHEL come descritto nella nota SAP 2292690, 2455582, 2593824 e https://access.redhat.com/solutions/2447641 .Configure RHEL as described in SAP Note 2292690, 2455582, 2593824 and https://access.redhat.com/solutions/2447641.

    Nota

    Se si installa HANA 2,0 SP04, sarà necessario installare il pacchetto compat-sap-c++-7 come descritto nella nota SAP 2593824, prima di poter installare SAP Hana.If installing HANA 2.0 SP04 you will be required to install package compat-sap-c++-7 as described in SAP note 2593824, before you can install SAP HANA.

Montare i volumi Azure NetApp FilesMount the Azure NetApp Files volumes

  1. [A] creare punti di montaggio per i volumi del database Hana.[A] Create mount points for the HANA database volumes.

    
     mkdir -p /hana/data/HN1/mnt00001
     mkdir -p /hana/data/HN1/mnt00002
     mkdir -p /hana/log/HN1/mnt00001
     mkdir -p /hana/log/HN1/mnt00002
     mkdir -p /hana/shared
     mkdir -p /usr/sap/HN1
     
  2. [1] creare directory specifiche del nodo per/usr/SAP in HN1-Shared.[1] Create node-specific directories for /usr/sap on HN1-shared.

    
     # Create a temporary directory to mount HN1-shared
     mkdir /mnt/tmp
     # if using NFSv3 for this volume, mount with the following command
     mount 10.9.0.4:/HN1-shared /mnt/tmp
     # if using NFSv4.1 for this volume, mount with the following command
     mount -t nfs -o sec=sys,vers=4.1 10.9.0.4:/HN1-shared /mnt/tmp
     cd /mnt/tmp
     mkdir shared usr-sap-hanadb1 usr-sap-hanadb2 usr-sap-hanadb3
     # unmount /hana/shared
     cd
     umount /mnt/tmp
     
  3. [A] verificare l'impostazione del dominio NFS.[A] Verify the NFS domain setting. Verificare che il dominio sia configurato come dominio di Azure NetApp Files predefinito, ad esempio defaultv4iddomain.com , e che il mapping sia impostato su nobody (nessuno).Make sure that the domain is configured as the default Azure NetApp Files domain, i.e. defaultv4iddomain.com and the mapping is set to nobody.

    Importante

    Verificare di impostare il dominio NFS in /etc/idmapd.conf sulla macchina virtuale in modo che corrisponda alla configurazione del dominio predefinito in Azure NetApp Files: defaultv4iddomain.com .Make sure to set the NFS domain in /etc/idmapd.conf on the VM to match the default domain configuration on Azure NetApp Files: defaultv4iddomain.com. In caso di mancata corrispondenza tra la configurazione del dominio nel client NFS (ovvero la macchina virtuale) e nel server NFS, ad esempio la configurazione di Azure NetApp, le autorizzazioni per i file nei volumi Azure NetApp montati nelle VM verranno visualizzate come nobody.If there's a mismatch between the domain configuration on the NFS client (i.e. the VM) and the NFS server, i.e. the Azure NetApp configuration, then the permissions for files on Azure NetApp volumes that are mounted on the VMs will be displayed as nobody.

    
     sudo cat /etc/idmapd.conf
     # Example
     [General]
     Domain = defaultv4iddomain.com
     [Mapping]
     Nobody-User = nobody
     Nobody-Group = nobody
     
  4. [A] Verificare nfs4_disable_idmapping.[A] Verify nfs4_disable_idmapping. Il valore deve essere impostato su Y. Per creare la struttura di directory in cui si trova nfs4_disable_idmapping, eseguire il comando mount.It should be set to Y. To create the directory structure where nfs4_disable_idmapping is located, execute the mount command. Non sarà possibile creare manualmente la directory in/sys/modules, perché l'accesso è riservato per il kernel/driver.You won't be able to manually create the directory under /sys/modules, because access is reserved for the kernel / drivers.

    
     # Check nfs4_disable_idmapping 
     cat /sys/module/nfs/parameters/nfs4_disable_idmapping
     # If you need to set nfs4_disable_idmapping to Y
     mkdir /mnt/tmp
     mount 10.9.0.4:/HN1-shared /mnt/tmp
     umount  /mnt/tmp
     echo "Y" > /sys/module/nfs/parameters/nfs4_disable_idmapping
     # Make the configuration permanent
     echo "options nfs nfs4_disable_idmapping=Y" >> /etc/modprobe.d/nfs.conf
     

    Per ulteriori informazioni su come modificare i nfs4_disable_idmapping parametri, vedere https://access.redhat.com/solutions/1749883 .For more details on how to change nfs4_disable_idmapping parameter see https://access.redhat.com/solutions/1749883.

  5. [A] montare i volumi di Azure NetApp files condivisi.[A] Mount the shared Azure NetApp Files volumes.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.9.0.4:/HN1-data-mnt00001 /hana/data/HN1/mnt00001  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.9.0.4:/HN1-data-mnt00002 /hana/data/HN1/mnt00002  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.9.0.4:/HN1-log-mnt00001 /hana/log/HN1/mnt00001  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.9.0.4:/HN1-log-mnt00002 /hana/log/HN1/mnt00002  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.9.0.4:/HN1-shared/shared /hana/shared  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount all volumes
     sudo mount -a 
     
  6. [1] montare i volumi specifici del nodo in hanadb1.[1] Mount the node-specific volumes on hanadb1.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.9.0.4:/HN1-shared/usr-sap-hanadb1 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  7. [2] montare i volumi specifici del nodo in hanadb2.[2] Mount the node-specific volumes on hanadb2.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.9.0.4:/HN1-shared/usr-sap-hanadb2 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  8. [3] montare i volumi specifici del nodo in hanadb3.[3] Mount the node-specific volumes on hanadb3.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.9.0.4:/HN1-shared/usr-sap-hanadb3 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  9. [A] verificare che tutti i volumi Hana siano montati con il protocollo NFS versione NFSv4.[A] Verify that all HANA volumes are mounted with NFS protocol version NFSv4.

    
    sudo nfsstat -m
    # Verify that flag vers is set to 4.1 
    # Example from hanadb1
    /hana/data/HN1/mnt00001 from 10.9.0.4:/HN1-data-mnt00001
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /hana/log/HN1/mnt00002 from 10.9.0.4:/HN1-log-mnt00002
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /hana/data/HN1/mnt00002 from 10.9.0.4:/HN1-data-mnt00002
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /hana/log/HN1/mnt00001 from 10.9.0.4:/HN1-log-mnt00001
    Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /usr/sap/HN1 from 10.9.0.4:/HN1-shared/usr-sap-hanadb1
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /hana/shared from 10.9.0.4:/HN1-shared/shared
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    

InstallazioneInstallation

In questo esempio per la distribuzione di SAP HANA nella configurazione con scalabilità orizzontale con il nodo standby con Azure, è stato usato HANA 2,0 SP4.In this example for deploying SAP HANA in scale-out configuration with standby node with Azure, we've used HANA 2.0 SP4.

Preparare l'installazione di HANAPrepare for HANA installation

  1. [A] prima dell'installazione di Hana, impostare la password radice.[A] Before the HANA installation, set the root password. È possibile disabilitare la password radice dopo che l'installazione è stata completata.You can disable the root password after the installation has been completed. Comando Execute root As passwd .Execute as root command passwd.

  2. [1] verificare che sia possibile accedere tramite SSH a hanadb2 e hanadb3 senza che venga richiesta una password.[1] Verify that you can log in via SSH to hanadb2 and hanadb3, without being prompted for a password.

    
     ssh root@hanadb2
     ssh root@hanadb3
     
  3. [A] installare pacchetti aggiuntivi, necessari per Hana 2,0 SP4.[A] Install additional packages, which are required for HANA 2.0 SP4. Per altre informazioni, vedere la nota SAP 2593824.For more information, see SAP Note 2593824.

    
     yum install libgcc_s1 libstdc++6 compat-sap-c++-7 libatomic1 
     
  4. [2], [3] Modificare la proprietà di SAP HANA data e log directory in HN1 ADM.[2], [3] Change ownership of SAP HANA data and log directories to hn1 adm.

    
     # Execute as root
     sudo chown hn1adm:sapsys /hana/data/HN1
     sudo chown hn1adm:sapsys /hana/log/HN1
     
  5. [A] disabilitare temporaneamente il firewall, in modo che non interferisca con l'installazione di Hana.[A] Disable the firewall temporarily, so that it doesn't interfere with the HANA installation. È possibile riabilitarla, al termine dell'installazione di HANA.You can re-enable it, after the HANA installation is done.

    
     # Execute as root
     systemctl stop firewalld
     systemctl disable firewalld
    

Installazione di HANAHANA installation

  1. [1] installare SAP Hana seguendo le istruzioni riportate nella Guida all'installazione e all'aggiornamento di SAP Hana 2,0.[1] Install SAP HANA by following the instructions in the SAP HANA 2.0 Installation and Update guide. In questo esempio viene installato SAP HANA la scalabilità orizzontale con un nodo master, un ruolo di lavoro e un nodo standby.In this example, we install SAP HANA scale-out with master, one worker, and one standby node.

    a.a. Avviare il programma hdblcm dalla directory del software di installazione di Hana.Start the hdblcm program from the HANA installation software directory. Usare il internal_network parametro e passare lo spazio degli indirizzi per la subnet, che viene usato per la comunicazione tra nodi Hana interna.Use the internal_network parameter and pass the address space for subnet, which is used for the internal HANA inter-node communication.

    
     ./hdblcm --internal_network=10.9.2.0/26
     

    b.b. Al prompt dei comandi, immettere i valori seguenti:At the prompt, enter the following values:

    • Per scegliere un'azione: immettere 1 (per l'installazione)For Choose an action: enter 1 (for install)
    • Per ulteriori componenti per l'installazione: immettere 2, 3For Additional components for installation: enter 2, 3
    • Per percorso di installazione: premere INVIO (il valore predefinito è/Hana/Shared)For installation path: press Enter (defaults to /hana/shared)
    • Per nome host locale: premere INVIO per accettare il valore predefinitoFor Local Host Name: press Enter to accept the default
    • In aggiungere gli host al sistema?: immettere yUnder Do you want to add hosts to the system?: enter y
    • Per i nomi host delimitati da virgole da aggiungere: immettere hanadb2, hanadb3For comma-separated host names to add: enter hanadb2, hanadb3
    • Per nome utente radice [root]: premere INVIO per accettare il valore predefinitoFor Root User Name [root]: press Enter to accept the default
    • Per i ruoli per l'host hanadb2: immettere 1 (per il ruolo di lavoro)For roles for host hanadb2: enter 1 (for worker)
    • Per gruppo di failover host per host hanadb2 [impostazione predefinita]: premere INVIO per accettare il valore predefinitoFor Host Failover Group for host hanadb2 [default]: press Enter to accept the default
    • Per numero di partizione di archiviazione per host hanadb2 [<>]: premere INVIO per accettare il valore predefinitoFor Storage Partition Number for host hanadb2 [<>]: press Enter to accept the default
    • Per gruppo di lavoro per host hanadb2 [impostazione predefinita]: premere INVIO per accettare il valore predefinitoFor Worker Group for host hanadb2 [default]: press Enter to accept the default
    • Per i ruoli selezionati per l'host hanadb3: immettere 2 (per standby)For Select roles for host hanadb3: enter 2 (for standby)
    • Per gruppo di failover host per host hanadb3 [impostazione predefinita]: premere INVIO per accettare il valore predefinitoFor Host Failover Group for host hanadb3 [default]: press Enter to accept the default
    • Per gruppo di lavoro per host hanadb3 [impostazione predefinita]: premere INVIO per accettare il valore predefinitoFor Worker Group for host hanadb3 [default]: press Enter to accept the default
    • Per SAP Hana ID sistema: immettere HN1For SAP HANA System ID: enter HN1
    • Per numero di istanza [00]: immettere 03For Instance number [00]: enter 03
    • Per il gruppo di lavoro host locale [impostazione predefinita]: premere INVIO per accettare il valore predefinitoFor Local Host Worker Group [default]: press Enter to accept the default
    • Per Seleziona utilizzo sistema/immettere l'indice [4]: immettere 4 (per personalizzato)For Select System Usage / Enter index [4]: enter 4 (for custom)
    • Per il percorso dei volumi di dati [/Hana/data/HN1]: premere INVIO per accettare il valore predefinitoFor Location of Data Volumes [/hana/data/HN1]: press Enter to accept the default
    • Per il percorso dei volumi di log [/Hana/log/HN1]: premere INVIO per accettare il valore predefinitoFor Location of Log Volumes [/hana/log/HN1]: press Enter to accept the default
    • Per limitare l'allocazione di memoria massima?For Restrict maximum memory allocation? [n]: immettere n
    • Per nome host certificato per host hanadb1 [hanadb1]: premere INVIO per accettare il valore predefinitoFor Certificate Host Name For Host hanadb1 [hanadb1]: press Enter to accept the default
    • Per nome host certificato per host hanadb2 [hanadb2]: premere INVIO per accettare il valore predefinitoFor Certificate Host Name For Host hanadb2 [hanadb2]: press Enter to accept the default
    • Per nome host certificato per host hanadb3 [hanadb3]: premere INVIO per accettare il valore predefinitoFor Certificate Host Name For Host hanadb3 [hanadb3]: press Enter to accept the default
    • Per la password dell'amministratore di sistema (hn1adm): immettere la passwordFor System Administrator (hn1adm) Password: enter the password
    • Per la password utente del database di sistema (System): immettere la password del sistemaFor System Database User (system) Password: enter the system's password
    • Per Conferma password utente database di sistema (sistema): immettere la password del sistemaFor Confirm System Database User (system) Password: enter system's password
    • Per riavviare il sistema dopo il riavvio del computer?For Restart system after machine reboot? [n]: immettere n
    • Per continuare (y/n): convalidare il riepilogo e, in caso di esito positivo, immettere yFor Do you want to continue (y/n): validate the summary and if everything looks good, enter y
  2. [1] verificare global.ini[1] Verify global.ini

    Visualizzare global.ini e assicurarsi che sia attiva la configurazione per la comunicazione interna SAP HANA tra nodi.Display global.ini, and ensure that the configuration for the internal SAP HANA inter-node communication is in place. Verificare la sezione comunicazione .Verify the communication section. Deve avere lo spazio degli indirizzi per la hana subnet e listeninterface deve essere impostato su .internal .It should have the address space for the hana subnet, and listeninterface should be set to .internal. Verificare la sezione internal_hostname_resolution .Verify the internal_hostname_resolution section. Deve avere gli indirizzi IP per le macchine virtuali HANA che appartengono alla hana subnet.It should have the IP addresses for the HANA virtual machines that belong to the hana subnet.

    
     sudo cat /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini
     # Example 
     #global.ini last modified 2019-09-10 00:12:45.192808 by hdbnameserve
     [communication]
     internal_network = 10.9.2.0/26
     listeninterface = .internal
     [internal_hostname_resolution]
     10.9.2.4 = hanadb1
     10.9.2.5 = hanadb2
     10.9.2.6 = hanadb3
    
  3. [1] aggiungere il mapping dell'host per assicurarsi che gli indirizzi IP del client siano utilizzati per la comunicazione client.[1] Add host mapping to ensure that the client IP addresses are used for client communication. Aggiungere public_host_resolution la sezione e aggiungere gli indirizzi IP corrispondenti dalla subnet del client.Add section public_host_resolution, and add the corresponding IP addresses from the client subnet.

    
     sudo vi /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini
     #Add the section
     [public_hostname_resolution]
     map_hanadb1 = 10.9.1.5
     map_hanadb2 = 10.9.1.6
     map_hanadb3 = 10.9.1.7
    
  4. [1] riavviare SAP HANA per attivare le modifiche.[1] Restart SAP HANA to activate the changes.

    
     sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StopSystem HDB
     sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StartSystem HDB
    
  5. [1] verificare che l'interfaccia client utilizzerà gli indirizzi IP dalla client subnet per la comunicazione.[1] Verify that the client interface will be using the IP addresses from the client subnet for communication.

    
     # Execute as hn1adm
     /usr/sap/HN1/HDB03/exe/hdbsql -u SYSTEM -p "password" -i 03 -d SYSTEMDB 'select * from SYS.M_HOST_INFORMATION'|grep net_publicname
     # Expected result
     "hanadb3","net_publicname","10.9.1.7"
     "hanadb2","net_publicname","10.9.1.6"
     "hanadb1","net_publicname","10.9.1.5"
    

    Per informazioni su come verificare la configurazione, vedere la nota SAP 2183363-configurazione di SAP Hana rete interna.For information about how to verify the configuration, see SAP Note 2183363 - Configuration of SAP HANA internal network.

  6. [A] abilitare di nuovo il firewall.[A] Re-enable the firewall.

    • Arrestare HANAStop HANA

      
         sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StopSystem HDB
        
    • Abilitare di nuovo il firewallRe-enable the firewall

      
         # Execute as root
         systemctl start firewalld
         systemctl enable firewalld
        
    • Aprire le porte del firewall necessarieOpen the necessary firewall ports

      Importante

      Creare regole del firewall per consentire la comunicazione tra nodi HANA e il traffico client.Create firewall rules to allow HANA inter node communication and client traffic. Le porte necessarie sono elencate in TCP/IP Ports of All SAP Products (Porte TCP/IP per tutti i prodotti SAP).The required ports are listed on TCP/IP Ports of All SAP Products. I comandi seguenti sono solo un esempio.The following commands are just an example. In questo scenario con il numero di sistema usato 03.In this scenario with used system number 03.

      
         # Execute as root
         sudo firewall-cmd --zone=public --add-port=30301/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30301/tcp
         sudo firewall-cmd --zone=public --add-port=30303/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30303/tcp
         sudo firewall-cmd --zone=public --add-port=30306/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30306/tcp
         sudo firewall-cmd --zone=public --add-port=30307/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30307/tcp
         sudo firewall-cmd --zone=public --add-port=30313/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30313/tcp
         sudo firewall-cmd --zone=public --add-port=30315/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30315/tcp
         sudo firewall-cmd --zone=public --add-port=30317/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30317/tcp
         sudo firewall-cmd --zone=public --add-port=30340/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30340/tcp
         sudo firewall-cmd --zone=public --add-port=30341/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30341/tcp
         sudo firewall-cmd --zone=public --add-port=30342/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30342/tcp
         sudo firewall-cmd --zone=public --add-port=1128/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=1128/tcp
         sudo firewall-cmd --zone=public --add-port=1129/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=1129/tcp
         sudo firewall-cmd --zone=public --add-port=40302/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40302/tcp
         sudo firewall-cmd --zone=public --add-port=40301/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40301/tcp
         sudo firewall-cmd --zone=public --add-port=40307/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40307/tcp
         sudo firewall-cmd --zone=public --add-port=40303/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40303/tcp
         sudo firewall-cmd --zone=public --add-port=40340/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40340/tcp
         sudo firewall-cmd --zone=public --add-port=50313/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=50313/tcp
         sudo firewall-cmd --zone=public --add-port=50314/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=50314/tcp
         sudo firewall-cmd --zone=public --add-port=30310/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30310/tcp
         sudo firewall-cmd --zone=public --add-port=30302/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30302/tcp
        
    • Avvia HANAStart HANA

      
         sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StartSystem HDB
        
  7. Per ottimizzare SAP HANA per l'archiviazione Azure NetApp Files sottostante, impostare i parametri di SAP HANA seguenti:To optimize SAP HANA for the underlying Azure NetApp Files storage, set the following SAP HANA parameters:

    • max_parallel_io_requests128max_parallel_io_requests 128
    • async_read_submitilasync_read_submit on
    • async_write_submit_activeilasync_write_submit_active on
    • async_write_submit_blockstuttoasync_write_submit_blocks all

    Per altre informazioni, vedere applicazioni SAP NetApp su Microsoft Azure con Azure NetApp files.For more information, see NetApp SAP Applications on Microsoft Azure using Azure NetApp Files.

    A partire da SAP HANA sistemi 2,0, è possibile impostare i parametri in global.ini .Starting with SAP HANA 2.0 systems, you can set the parameters in global.ini. Per altre informazioni, vedere la nota SAP 1999930.For more information, see SAP Note 1999930.

    Per SAP HANA versioni dei sistemi 1,0 SPS12 e versioni precedenti, questi parametri possono essere impostati durante l'installazione, come descritto nella nota SAP 2267798.For SAP HANA 1.0 systems versions SPS12 and earlier, these parameters can be set during the installation, as described in SAP Note 2267798.

  8. Lo spazio di archiviazione usato da Azure NetApp Files ha un limite di dimensioni del file di 16 terabyte (TB).The storage that's used by Azure NetApp Files has a file size limitation of 16 terabytes (TB). SAP HANA non è in grado di riconoscere in modo implicito il limite di archiviazione e non crea automaticamente un nuovo file di dati quando viene raggiunto il limite delle dimensioni del file pari a 16 TB.SAP HANA is not implicitly aware of the storage limitation, and it won't automatically create a new data file when the file size limit of 16 TB is reached. Poiché SAP HANA tenta di espandere il file oltre i 16 TB, il tentativo provocherà errori e, infine, in un arresto anomalo del server di indice.As SAP HANA attempts to grow the file beyond 16 TB, that attempt will result in errors and, eventually, in an index server crash.

    Importante

    Per evitare che SAP HANA tenti di espandere i file di dati oltre il limite di 16 TB del sottosistema di archiviazione, impostare i parametri seguenti in global.ini .To prevent SAP HANA from trying to grow data files beyond the 16-TB limit of the storage subsystem, set the following parameters in global.ini.

    • datavolume_striping = truedatavolume_striping = true
    • datavolume_striping_size_gb = 15000 per ulteriori informazioni, vedere la nota SAP 2400005.datavolume_striping_size_gb = 15000 For more information, see SAP Note 2400005. Tenere presente la nota SAP 2631285.Be aware of SAP Note 2631285.

Test SAP HANA failoverTest SAP HANA failover

  1. Simulare un arresto anomalo di un nodo in un nodo del ruolo di lavoro SAP HANA.Simulate a node crash on an SAP HANA worker node. Eseguire le operazioni seguenti:Do the following:

    a.a. Prima di simulare l'arresto anomalo del nodo, eseguire i comandi seguenti come HN1 ADM per acquisire lo stato dell'ambiente:Before you simulate the node crash, run the following commands as hn1 adm to capture the status of the environment:

    
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | yes    | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
    

    b.b. Per simulare un arresto anomalo del nodo, eseguire il comando seguente come radice nel nodo del ruolo di lavoro, che in questo caso è hanadb2 :To simulate a node crash, run the following command as root on the worker node, which is hanadb2 in this case:

    
     echo b > /proc/sysrq-trigger
    

    c.c. Monitorare il sistema per il completamento del failover.Monitor the system for failover completion. Al termine del failover, acquisire lo stato, che dovrebbe essere simile al seguente:When the failover has been completed, capture the status, which should look like the following:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | no     | info   |          |        |         2 |         0 | default  | default  | master 2   | slave      | worker      | standby     | worker  | standby | default | -       |
     | hanadb3 | yes    | info   |          |        |         0 |         2 | default  | default  | master 3   | slave      | standby     | slave       | standby | worker  | default | default |
    

    Importante

    Quando un nodo sperimenta il kernel panic, evitare ritardi con SAP HANA failover impostando kernel.panic su 20 secondi in tutte le macchine virtuali Hana.When a node experiences kernel panic, avoid delays with SAP HANA failover by setting kernel.panic to 20 seconds on all HANA virtual machines. La configurazione viene eseguita in /etc/sysctl .The configuration is done in /etc/sysctl. Riavviare le macchine virtuali per attivare la modifica.Reboot the virtual machines to activate the change. Se questa modifica non viene eseguita, il failover può richiedere 10 o più minuti quando si verifica il panico del kernel.If this change isn't performed, failover can take 10 or more minutes when a node is experiencing kernel panic.

  2. Per terminare il server dei nomi, eseguire le operazioni seguenti:Kill the name server by doing the following:

    a.a. Prima del test, controllare lo stato dell'ambiente eseguendo i comandi seguenti come HN1 ADM:Prior to the test, check the status of the environment by running the following commands as hn1 adm:

    
     #Landscape status 
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | yes    | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
    

    b.b. Eseguire i comandi seguenti come HN1 ADM sul nodo master attivo, che è hanadb1 in questo caso:Run the following commands as hn1 adm on the active master node, which is hanadb1 in this case:

    
         hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB kill
     

    Il hanadb3 del nodo di standby assumerà il nome di nodo master.The standby node hanadb3 will take over as master node. Di seguito è riportato lo stato della risorsa dopo il completamento del test di failover:Here is the resource state after the failover test is completed:

    
      # Check the instance status
      sapcontrol -nr 03  -function GetSystemInstanceList
      GetSystemInstanceList
      OK
      hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
      hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
      hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY
      # Check the landscape status
      python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
      | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
      |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
      |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
      | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
      | hanadb1 | no     | info   |          |        |         1 |         0 | default  | default  | master 1   | slave      | worker      | standby     | worker  | standby | default | -       |
      | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
      | hanadb3 | yes    | info   |          |        |         0 |         1 | default  | default  | master 3   | master     | standby     | master      | standby | worker  | default | default |
     

    c.c. Riavviare l'istanza di HANA in hanadb1 , ovvero nella stessa macchina virtuale in cui è stato terminato il server dei nomi.Restart the HANA instance on hanadb1 (that is, on the same virtual machine, where the name server was killed). Il nodo hanadb1 si riunirà all'ambiente e manterrà il relativo ruolo standby.The hanadb1 node will rejoin the environment and will keep its standby role.

    
     hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB start
    

    Dopo che SAP HANA è stato avviato in hanadb1, prevedere lo stato seguente:After SAP HANA has started on hanadb1, expect the following status:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | no     | info   |          |        |         1 |         0 | default  | default  | master 1   | slave      | worker      | standby     | worker  | standby | default | -       |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | yes    | info   |          |        |         0 |         1 | default  | default  | master 3   | master     | standby     | master      | standby | worker  | default | default |
    

    d.d. Anche in questo caso, terminare il nome del server sul nodo master attualmente attivo, ovvero sul nodo hanadb3.Again, kill the name server on the currently active master node (that is, on node hanadb3).

    
     hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB kill
    

    Il nodo hanadb1 riprenderà il ruolo del nodo master.Node hanadb1 will resume the role of master node. Al termine del test di failover, lo stato avrà un aspetto simile al seguente:After the failover test has been completed, the status will look like this:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GRAY
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
    

    e.e. Avviare SAP HANA in hanadb3, che sarà pronto a fungere da nodo standby.Start SAP HANA on hanadb3, which will be ready to serve as a standby node.

    
     hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB start
    

    Dopo che SAP HANA è stato avviato in hanadb3, lo stato avrà un aspetto simile al seguente:After SAP HANA has started on hanadb3, the status looks like the following:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList & python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
    

Passaggi successiviNext steps