Red Hat Enterprise Linux 上の Azure NetApp Files を使用して Azure VM のスタンバイ ノードで SAP HANA スケールアウト システムをデプロイするDeploy a SAP HANA scale-out system with standby node on Azure VMs by using Azure NetApp Files on Red Hat Enterprise Linux

この記事では、共有ストレージ ボリューム用の Azure NetApp Files を使用して、Azure Red Hat Enterprise Linux 仮想マシン (VM) 上のスタンバイを使用するスケールアウト構成に高可用性の SAP HANA システムをデプロイする方法について説明します。This article describes how to deploy a highly available SAP HANA system in a scale-out configuration with standby on Azure Red Hat Enterprise Linux virtual machines (VMs), by using Azure NetApp Files for the shared storage volumes.

構成例やインストール コマンドなどでは、HANA インスタンスは 03、HANA システム ID は HN1 です。In the example configurations, installation commands, and so on, the HANA instance is 03 and the HANA system ID is HN1. 例は HANA 2.0 SP4 と Red Hat Enterprise Linux for SAP 7.6 に基づいています。The examples are based on HANA 2.0 SP4 and Red Hat Enterprise Linux for SAP 7.6.

注意

この記事には、Microsoft が使用しなくなった "マスター" と "スレーブ" という用語への言及があります。This article contains references to the terms master and slave, terms that Microsoft no longer uses. ソフトウェアからこれらの用語が削除された時点で、この記事から削除します。When these terms are removed from the software, we’ll remove them from this article.

始める前に、次の SAP のノートとホワイトペーパーを参照してください。Before you begin, refer to the following SAP notes and papers:

概要Overview

HANA の高可用性を実現するための 1 つの方法は、ホストの自動フェールオーバーを構成することです。One method for achieving HANA high availability is by configuring host auto failover. ホストの自動フェールオーバーを構成するには、1 つ以上の仮想マシンを HANA システムに追加し、スタンバイ ノードとして構成します。To configure host auto failover, you add one or more virtual machines to the HANA system and configure them as standby nodes. アクティブ ノードで障害が発生すると、スタンバイ ノードに自動的に引き継がれます。When active node fails, a standby node automatically takes over. 提示されている Azure 仮想マシンの構成では、Azure NetApp Files 上の NFS を使用して自動フェールオーバーを実現します。In the presented configuration with Azure virtual machines, you achieve auto failover by using NFS on Azure NetApp Files.

注意

スタンバイ ノードは、すべてのデータベース ボリュームにアクセスする必要があります。The standby node needs access to all database volumes. HANA ボリュームは NFSv4 ボリュームとしてマウントする必要があります。The HANA volumes must be mounted as NFSv4 volumes. NFSv4 プロトコルでは、強化されたファイル リースベースのロック メカニズムが I/O フェンスに使用されます。The improved file lease-based locking mechanism in the NFSv4 protocol is used for I/O fencing.

重要

サポートされている構成を構築するには、HANA のデータ ボリュームとログ ボリュームを NFSv4.1 ボリュームとしてデプロイし、NFSv4.1 プロトコルを使用してそれらをマウントする必要があります。To build the supported configuration, you must deploy the HANA data and log volumes as NFSv4.1 volumes and mount them by using the NFSv4.1 protocol. スタンバイ ノードを使用した HANA ホストの自動フェールオーバー構成は、NFSv3 ではサポートされていません。The HANA host auto-failover configuration with standby node is not supported with NFSv3.

SAP NetWeaver の高可用性の概要

上の図は SAP HANA ネットワークに関する推奨事項に従っており、次の 3 つのサブネットが 1 つの Azure 仮想ネットワーク内に表示されています。In the preceding diagram, which follows SAP HANA network recommendations, three subnets are represented within one Azure virtual network:

  • クライアント通信用For client communication
  • ストレージ システムとの通信用For communication with the storage system
  • HANA 内部のノード間通信用For internal HANA inter-node communication

Azure NetApp ボリュームは、Azure NetApp Files に委任された別のサブネットにあります。The Azure NetApp volumes are in separate subnet, delegated to Azure NetApp Files.

この構成例では、サブネットは次のとおりです。For this example configuration, the subnets are:

  • client 10.9.1.0/26client 10.9.1.0/26
  • storage 10.9.3.0/26storage 10.9.3.0/26
  • hana 10.9.2.0/26hana 10.9.2.0/26
  • anf 10.9.0.0/26 (サブネットを Azure NetApp Files に委任する)anf 10.9.0.0/26 (delegated subnet to Azure NetApp Files)

Azure NetApp Files インフラストラクチャを設定するSet up the Azure NetApp Files infrastructure

Azure NetApp Files インフラストラクチャの設定を続行する前に、「Azure NetApp Files のドキュメント」の内容をよく理解しておいてください。Before you proceed with the setup for Azure NetApp Files infrastructure, familiarize yourself with the Azure NetApp Files documentation.

Azure NetApp Files はいくつかの Azure リージョンで利用できます。Azure NetApp Files is available in several Azure regions. 選択した Azure リージョンで Azure NetApp Files が提供されているかどうかを確認してください。Check to see whether your selected Azure region offers Azure NetApp Files.

Azure リージョン別に Azure NetApp Files を利用できるかどうかについては、NetApp Files を利用できる Azure リージョンに関するページをご覧ください。For information about the availability of Azure NetApp Files by Azure region, see Azure NetApp Files Availability by Azure Region.

Azure NetApp Files をデプロイする前に、「Azure NetApp Files に登録する」の手順に従って、Azure NetApp Files へのオンボードを要求してください。Before you deploy Azure NetApp Files, request onboarding to Azure NetApp Files by going to Register for Azure NetApp Files instructions.

Azure NetApp Files リソースのデプロイDeploy Azure NetApp Files resources

以下の手順では、お使いの Azure 仮想ネットワークが既にデプロイされていることを前提としています。The following instructions assume that you've already deployed your Azure virtual network. Azure NetApp Files のリソースと、そのリソースがマウントされる VM は、同じ Azure 仮想ネットワーク内またはピアリングされた Azure 仮想ネットワーク内にデプロイする必要があります。The Azure NetApp Files resources and VMs, where the Azure NetApp Files resources will be mounted, must be deployed in the same Azure virtual network or in peered Azure virtual networks.

  1. リソースをまだデプロイしていない場合は、Azure NetApp Files へのオンボードを要求してください。If you haven't already deployed the resources, request onboarding to Azure NetApp Files.

  2. NetApp アカウントを作成する」の手順に従って、選択した Azure リージョンに NetApp アカウントを作成します。Create a NetApp account in your selected Azure region by following the instructions in Create a NetApp account.

  3. Azure NetApp Files の容量プールの設定に関するページの手順に従って、Azure NetApp Files の容量プールを設定します。Set up an Azure NetApp Files capacity pool by following the instructions in Set up an Azure NetApp Files capacity pool.

    この記事で示されている HANA アーキテクチャでは、"Ultra サービス" レベルで 1 つの Azure NetApp Files 容量プールが使用されています。The HANA architecture presented in this article uses a single Azure NetApp Files capacity pool at the Ultra Service level. Azure 上の HANA ワークロードの場合、Azure NetApp Files の Ultra または Premium サービス レベルを使用することをお勧めします。For HANA workloads on Azure, we recommend using an Azure NetApp Files Ultra or Premium service Level.

  4. サブネットを Azure NetApp Files に委任する」の手順に従って、サブネットを Azure NetApp Files に委任します。Delegate a subnet to Azure NetApp Files, as described in the instructions in Delegate a subnet to Azure NetApp Files.

  5. Azure NetApp Files の NFS ボリュームを作成する」の手順に従って、Azure NetApp Files のボリュームをデプロイします。Deploy Azure NetApp Files volumes by following the instructions in Create an NFS volume for Azure NetApp Files.

    ボリュームをデプロイするときは、NFSv4.1 バージョンを必ず選択してください。As you're deploying the volumes, be sure to select the NFSv4.1 version. 指定された Azure NetApp Files のサブネット内にボリュームをデプロイします。Deploy the volumes in the designated Azure NetApp Files subnet. Azure NetApp ボリュームの IP アドレスは、自動的に割り当てられます。The IP addresses of the Azure NetApp volumes are assigned automatically.

    Azure NetApp Files のリソースと Azure VM は、同じ Azure 仮想ネットワーク内またはピアリングされた Azure 仮想ネットワーク内に配置する必要があることに注意してください。Keep in mind that the Azure NetApp Files resources and the Azure VMs must be in the same Azure virtual network or in peered Azure virtual networks. たとえば、HN1-data-mnt00001、HN1-log-mnt00001 などはボリューム名で、nfs://10.9.0.4/HN1-data-mnt00001、nfs://10.9.0.4/HN1-log-mnt00001 などは Azure NetApp Files ボリュームのファイル パスです。For example, HN1-data-mnt00001, HN1-log-mnt00001, and so on, are the volume names and nfs://10.9.0.4/HN1-data-mnt00001, nfs://10.9.0.4/HN1-log-mnt00001, and so on, are the file paths for the Azure NetApp Files volumes.

    • ボリューム HN1-data-mnt00001 (nfs://10.9.0.4/HN1-data-mnt00001)volume HN1-data-mnt00001 (nfs://10.9.0.4/HN1-data-mnt00001)
    • ボリューム HN1-data-mnt00002 (nfs://10.9.0.4/HN1-data-mnt00002)volume HN1-data-mnt00002 (nfs://10.9.0.4/HN1-data-mnt00002)
    • ボリューム HN1-log-mnt00001 (nfs://10.9.0.4/HN1-log-mnt00001)volume HN1-log-mnt00001 (nfs://10.9.0.4/HN1-log-mnt00001)
    • ボリューム HN1-log-mnt00002 (nfs://10.9.0.4/HN1-log-mnt00002)volume HN1-log-mnt00002 (nfs://10.9.0.4/HN1-log-mnt00002)
    • ボリューム HN1-shared (nfs://10.9.0.4/HN1-shared)volume HN1-shared (nfs://10.9.0.4/HN1-shared)

    この例では、HANA データとログ ボリュームごとに個別の Azure NetApp Files ボリュームが使用されています。In this example, we used a separate Azure NetApp Files volume for each HANA data and log volume. 小規模または非運用システムでよりコストを最適化した構成にするために、すべてのデータ マウントを 1 つのボリュームに配置し、すべてのログ マウントを別の 1 つのボリュームに配置することができます。For a more cost-optimized configuration on smaller or non-productive systems, it's possible to place all data mounts on a single volume and all logs mounts on a different single volume.

重要な考慮事項Important considerations

スタンバイ ノード シナリオを使用して SAP HANA スケールアウト用に Azure NetApp Files を作成するときは、以下の重要な考慮事項に注意してください。As you're creating your Azure NetApp Files for SAP HANA scale-out with stand by nodes scenario, be aware of the following important considerations:

  • 最小容量のプールは 4 テビバイト (TiB) です。The minimum capacity pool is 4 tebibytes (TiB).
  • 最小ボリューム サイズは 100 ギビバイト (GiB) です。The minimum volume size is 100 gibibytes (GiB).
  • Azure NetApp Files と、Azure NetApp Files のボリュームがマウントされるすべての仮想マシンは、同じ Azure 仮想ネットワーク内、または同じリージョン内のピアリングされた仮想ネットワーク内に存在する必要があります。Azure NetApp Files and all virtual machines where the Azure NetApp Files volumes will be mounted must be in the same Azure virtual network or in peered virtual networks in the same region.
  • 選択した仮想ネットワークには、Azure NetApp Files に委任されているサブネットがある必要があります。The selected virtual network must have a subnet that's delegated to Azure NetApp Files.
  • Azure NetApp Files ボリュームのスループットは、「Azure NetApp Files のサービス レベル」に記載されているように、ボリューム クォータとサービス レベルの機能です。The throughput of an Azure NetApp Files volume is a function of the volume quota and service level, as documented in Service level for Azure NetApp Files. HANA Azure NetApp ボリュームのサイズを設定するときは、そのスループットが HANA システム要件を満たしていることを確認してください。When you're sizing the HANA Azure NetApp volumes, make sure that the resulting throughput meets the HANA system requirements.
  • Azure NetApp Files のエクスポート ポリシーでは、ユーザーが制御できるのは、許可されたクライアントと、アクセスの種類 (読み取りと書き込み、読み取り専用など) です。With the Azure NetApp Files export policy, you can control the allowed clients, the access type (read-write, read only, and so on).
  • Azure NetApp Files 機能は、ゾーンにはまだ対応していません。The Azure NetApp Files feature isn't zone-aware yet. 現在、その機能は、Azure リージョン内のすべての可用性ゾーンにはデプロイされていません。Currently, the feature isn't deployed in all availability zones in an Azure region. Azure リージョンによっては、待ち時間が発生する可能性があることに注意してください。Be aware of the potential latency implications in some Azure regions.

重要

SAP HANA ワークロードにとって、待ち時間の短縮は重要です。For SAP HANA workloads, low latency is critical. Microsoft の担当者と協力して、仮想マシンと Azure NetApp Files ボリュームが確実に近接してデプロイされるようにします。Work with your Microsoft representative to ensure that the virtual machines and the Azure NetApp Files volumes are deployed in close proximity.

Azure NetApp Files 上の HANA データベースのサイズ指定Sizing for HANA database on Azure NetApp Files

Azure NetApp Files ボリュームのスループットは、「Azure NetApp Files のサービス レベル」に記載されているように、ボリューム サイズとサービス レベルの機能です。The throughput of an Azure NetApp Files volume is a function of the volume size and service level, as documented in Service level for Azure NetApp Files.

Azure で SAP 用のインフラストラクチャを設計するときは、SAP による最小ストレージ要件に注意する必要があります。これは、最小スループット特性につながります。As you design the infrastructure for SAP in Azure, be aware of some minimum storage requirements by SAP, which translate into minimum throughput characteristics:

  • /hana/log での読み取り/書き込みは、1 MB の I/O サイズで、毎秒 250 メガバイト (MB/秒)。Read-write on /hana/log of 250 megabytes per second (MB/s) with 1-MB I/O sizes.
  • /hana/data での読み取りアクティビティは、16 MB および 64 MB の I/O サイズで、400 MB/秒以上。Read activity of at least 400 MB/s for /hana/data for 16-MB and 64-MB I/O sizes.
  • /hana/data での書き込みアクティビティは、16 MB および 64 MB の I/O サイズで、250 MB/秒以上。Write activity of at least 250 MB/s for /hana/data with 16-MB and 64-MB I/O sizes.

ボリューム クォータの 1 TiB あたりの Azure NetApp Files スループットの上限は次のとおりです。The Azure NetApp Files throughput limits per 1 TiB of volume quota are:

  • Premium Storage 層 - 64 MiB/秒Premium Storage tier - 64 MiB/s
  • Ultra Storage 層 - 128 MiB/秒Ultra Storage tier - 128 MiB/s

データとログに対する SAP の最小スループット要件、および /hana/shared のガイドラインを満たすため、推奨されるサイズは次のようになります。To meet the SAP minimum throughput requirements for data and log, and the guidelines for /hana/shared, the recommended sizes would be:

ボリュームVolume サイズSize of
Premium ストレージ層Premium Storage tier
サイズSize of
Ultra ストレージ層Ultra Storage tier
サポートされる NFS プロトコルSupported NFS protocol
/hana/log//hana/log/ 4 TiB4 TiB 2 TiB2 TiB v4.1v4.1
/hana/data/hana/data 6.3 TiB6.3 TiB 3.2 TiB3.2 TiB v4.1v4.1
/hana/shared/hana/shared 4 ワーカー ノードあたり 1xRAM1xRAM per 4 worker nodes 4 ワーカー ノードあたり 1xRAM1xRAM per 4 worker nodes v3 または v4.1v3 or v4.1

Azure NetApp Files Ultra ストレージ層を使用している、この記事に記載されているレイアウトの SAP HANA 構成は、次のようになります。The SAP HANA configuration for the layout that's presented in this article, using Azure NetApp Files Ultra Storage tier, would be:

ボリュームVolume サイズSize of
Ultra ストレージ層Ultra Storage tier
サポートされる NFS プロトコルSupported NFS protocol
/hana/log/mnt00001/hana/log/mnt00001 2 TiB2 TiB v4.1v4.1
/hana/log/mnt00002/hana/log/mnt00002 2 TiB2 TiB v4.1v4.1
/hana/data/mnt00001/hana/data/mnt00001 3.2 TiB3.2 TiB v4.1v4.1
/hana/data/mnt00002/hana/data/mnt00002 3.2 TiB3.2 TiB v4.1v4.1
/hana/shared/hana/shared 2 TiB2 TiB v3 または v4.1v3 or v4.1

注意

ここで説明されている Azure NetApp Files のサイズ設定の推奨事項は、SAP がインフラストラクチャ プロバイダーに対して推奨している最小要件を満たすことを目標としています。The Azure NetApp Files sizing recommendations stated here are targeted to meet the minimum requirements that SAP recommends for their infrastructure providers. 実際の顧客のデプロイとワークロードのシナリオでは、これらのサイズでは十分ではない場合があります。In real customer deployments and workload scenarios, these sizes may not be sufficient. これらの推奨事項は開始点として利用し、ご自分の固有のワークロードの要件に合わせて調整してください。Use these recommendations as a starting point and adapt, based on the requirements of your specific workload.

ヒント

Azure NetApp Files ボリュームは、ボリュームを "マウント解除" したり、仮想マシンを停止したり、SAP HANA を停止したりする必要なく、動的にサイズ変更することができます。You can resize Azure NetApp Files volumes dynamically, without having to unmount the volumes, stop the virtual machines, or stop SAP HANA. この方法により、アプリケーションの予想されるスループット要求と予期しないスループット要求の両方を柔軟に満たすことができます。This approach allows flexibility to meet both the expected and unforeseen throughput demands of your application.

Azure portal を使用して Linux 仮想マシンをデプロイするDeploy Linux virtual machines via the Azure portal

最初に Azure NetApp Files ボリュームを作成する必要があります。First you need to create the Azure NetApp Files volumes. その後、次の手順を行います。Then do the following steps:

  1. お使いの Azure 仮想ネットワークAzure 仮想ネットワーク サブネットを作成します。Create the Azure virtual network subnets in your Azure virtual network.

  2. VM をデプロイします。Deploy the VMs.

  3. 追加のネットワーク インターフェイスを作成し、対応する VM にネットワーク インターフェイスを接続します。Create the additional network interfaces, and attach the network interfaces to the corresponding VMs.

    各仮想マシンには、3 つの Azure 仮想ネットワーク サブネット (clientstoragehana) に対応する 3 つのネットワーク インターフェイスが備わっています。Each virtual machine has three network interfaces, which correspond to the three Azure virtual network subnets (client, storage and hana).

    詳しくは、複数のネットワーク インターフェイス カードを使用して Linux 仮想マシンを Azure に作成する方法に関するページをご覧ください。For more information, see Create a Linux virtual machine in Azure with multiple network interface cards.

重要

SAP HANA ワークロードにとって、待ち時間の短縮は重要です。For SAP HANA workloads, low latency is critical. 待ち時間の短縮を実現するには、Microsoft の担当者と協力して、仮想マシンと Azure NetApp Files ボリュームが近接してデプロイされるようにします。To achieve low latency, work with your Microsoft representative to ensure that the virtual machines and the Azure NetApp Files volumes are deployed in close proximity. SAP HANA Azure NetApp Files を使用している新しい SAP HANA システムをオンボードするときに、必要な情報を送信します。When you're onboarding new SAP HANA system that's using SAP HANA Azure NetApp Files, submit the necessary information.

次の手順は、リソース グループ、Azure 仮想ネットワーク、3 つの Azure 仮想ネットワーク サブネット (clientstoragehana) が既に作成されていることを前提としています。The next instructions assume that you've already created the resource group, the Azure virtual network, and the three Azure virtual network subnets: client, storage and hana. VM をデプロイするときに、クライアント ネットワーク インターフェイスが VM のプライマリ インターフェイスになるように、クライアント サブネットを選択します。When you deploy the VMs, select the client subnet, so that the client network interface is the primary interface on the VMs. ストレージ サブネット ゲートウェイ経由で Azure NetApp Files の委任されたサブネットへの明示的なルートを構成する必要もあります。You will also need to configure an explicit route to the Azure NetApp Files delegated subnet via the storage subnet gateway.

重要

選択した OS が、使用している特定の VM の種類の SAP HANA に対して認定されていることを確認してください。Make sure that the OS you select is SAP-certified for SAP HANA on the specific VM types you're using. SAP HANA 認定 VM の種類と、その種類に対応する OS リリースの一覧については、SAP HANA 認定 IaaS プラットフォームに関するページをご覧ください。For a list of SAP HANA certified VM types and OS releases for those types, go to the SAP HANA certified IaaS platforms site. 一覧表示されている VM の種類の詳細をクリックすると、その種類に対して SAP HANA でサポートされている OS のリリースの完全な一覧が表示されます。Click into the details of the listed VM type to get the complete list of SAP HANA-supported OS releases for that type.

  1. SAP HANA 用の可用性セットを作成します。Create an availability set for SAP HANA. 必ず、更新ドメインの最大数を設定してください。Make sure to set the max update domain.

  2. 次の手順を行って、3 つの仮想マシン (hanadb1hanadb2hanadb3) を作成します。Create three virtual machines (hanadb1, hanadb2, hanadb3) by doing the following steps:

    a.a. SAP HANA でサポートされている Red Hat Enterprise Linux イメージを、Azure ギャラリーから使用します。Use a Red Hat Enterprise Linux image in the Azure gallery that's supported for SAP HANA. この例では、RHEL-SAP-HA 7.6 イメージを使用しています。We used a RHEL-SAP-HA 7.6 image in this example.

    b.b. 前に作成した SAP HANA 用の可用性セットを選択します。Select the availability set that you created earlier for SAP HANA.

    c.c. クライアント Azure 仮想ネットワーク サブネットを選択します。Select the client Azure virtual network subnet. 高速ネットワークを選択します。Select Accelerated Network.

    仮想マシンをデプロイすると、ネットワーク インターフェイス名が自動的に生成されます。When you deploy the virtual machines, the network interface name is automatically generated. これらの手順をわかりやすくするために、クライアント Azure 仮想ネットワーク サブネット (hanadb1-clienthanadb2-clienthanadb3-client) に接続されている自動的に生成されたネットワーク インターフェイスについて説明します。In these instructions for simplicity we'll refer to the automatically generated network interfaces, which are attached to the client Azure virtual network subnet, as hanadb1-client, hanadb2-client, and hanadb3-client.

  3. storage 仮想ネットワーク サブネットに対して、仮想マシンごとに 1 つずつ、3 つのネットワーク インターフェイスを作成します (この例では、hanadb1-storagehanadb2-storagehanadb3-storage)。Create three network interfaces, one for each virtual machine, for the storage virtual network subnet (in this example, hanadb1-storage, hanadb2-storage, and hanadb3-storage).

  4. hana 仮想ネットワーク サブネットに対して、仮想マシンごとに 1 つずつ、3 つのネットワーク インターフェイスを作成します (この例では、hanadb1-hanahanadb2-hanahanadb3-hana)。Create three network interfaces, one for each virtual machine, for the hana virtual network subnet (in this example, hanadb1-hana, hanadb2-hana, and hanadb3-hana).

  5. 次の手順を行って、新しく作成した仮想ネットワーク インターフェイスを対応する仮想マシンに接続します。Attach the newly created virtual network interfaces to the corresponding virtual machines by doing the following steps:

    a.a. Azure portal で仮想マシンに移動します。Go to the virtual machine in the Azure portal.

    b.b. 左側のペインで、 [Virtual Machines] を選択します。In the left pane, select Virtual Machines. 仮想マシン名でフィルター処理し (たとえば、hanadb1)、仮想マシンを選択します。Filter on the virtual machine name (for example, hanadb1), and then select the virtual machine.

    c.c. [概要] ペインで、 [停止] を選択して仮想マシンの割り当てを解除します。In the Overview pane, select Stop to deallocate the virtual machine.

    d.d. [ネットワーク] を選択してから、ネットワーク インターフェイスを接続します。Select Networking, and then attach the network interface. [ネットワーク インターフェイスの接続] ドロップダウン リストで、storage および hana サブネットに対して既に作成したネットワーク インターフェイスを選択します。In the Attach network interface drop-down list, select the already created network interfaces for the storage and hana subnets.

    e.e. [保存] を選択します。Select Save.

    f.f. 残りの仮想マシンについて、ステップ b から e を繰り返します (この例では hanadb2hanadb3)。Repeat steps b through e for the remaining virtual machines (in our example, hanadb2 and hanadb3).

    g.g. 今のところ、仮想マシンは停止状態のままにしておきます。Leave the virtual machines in stopped state for now. 次に、新しく接続されたすべてのネットワーク インターフェイスに対して高速ネットワークを有効にします。Next, we'll enable accelerated networking for all newly attached network interfaces.

  6. 次の手順を行って、storage および hana サブネット用の追加のネットワーク インターフェイスに対して高速ネットワークを有効にします。Enable accelerated networking for the additional network interfaces for the storage and hana subnets by doing the following steps:

    a.a. Azure portalAzure Cloud Shell を開きます。Open Azure Cloud Shell in the Azure portal.

    b.b. 次のコマンドを実行して、storage および hana サブネットに接続された、追加のネットワーク インターフェイスに対して高速ネットワークを有効にします。Execute the following commands to enable accelerated networking for the additional network interfaces, which are attached to the storage and hana subnets.

    
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-storage --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-storage --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-storage --accelerated-networking true
    
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb1-hana --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb2-hana --accelerated-networking true
     az network nic update --id /subscriptions/your subscription/resourceGroups/your resource group/providers/Microsoft.Network/networkInterfaces/hanadb3-hana --accelerated-networking true
    
     
  7. 次の手順を行って、仮想マシンを起動します。Start the virtual machines by doing the following steps:

    a.a. 左側のペインで、 [Virtual Machines] を選択します。In the left pane, select Virtual Machines. 仮想マシン名でフィルター処理し (たとえば、hanadb1)、仮想マシンを選択します。Filter on the virtual machine name (for example, hanadb1), and then select it.

    b.b. [概要] ウィンドウで、 [開始] を選択します。In the Overview pane, select Start.

オペレーティング システムの構成と準備Operating system configuration and preparation

次のセクションの手順の前には、次のいずれかが付いています。The instructions in the next sections are prefixed with one of the following:

  • [A] :すべてのノードに適用できます[A]: Applicable to all nodes
  • [1] :ノード 1 にのみ適用できます[1]: Applicable only to node 1
  • [2] :ノード 2 にのみ適用できます[2]: Applicable only to node 2
  • [3] : ノード 3 にのみ適用できます[3]: Applicable only to node 3

次の手順を行って、OS の構成と準備を行います。Configure and prepare your OS by doing the following steps:

  1. [A] 仮想マシン上にホスト ファイルを維持します。[A] Maintain the host files on the virtual machines. すべてのサブネットのエントリを含めます。Include entries for all subnets. この例では、次のエントリが /etc/hosts に追加されています。The following entries were added to /etc/hosts for this example.

    
     # Storage
     10.9.3.4   hanadb1-storage
     10.9.3.5   hanadb2-storage
     10.9.3.6   hanadb3-storage
     # Client
     10.9.1.5   hanadb1
     10.9.1.6   hanadb2
     10.9.1.7   hanadb3
     # Hana
     10.9.2.4   hanadb1-hana
     10.9.2.5   hanadb2-hana
     10.9.2.6   hanadb3-hana
     
  2. [A] ネットワーク ルートを追加して、Azure NetApp Files への通信がストレージ ネットワーク インターフェイス経由で行われるようにします。[A] Add a network route, so that the communication to the Azure NetApp Files goes via the storage network interface.

    この例では、Networkmanager を使用して、追加のネットワーク ルートを構成します。In this example will use Networkmanager to configure the additional network route. 次の手順は、ストレージ ネットワーク インターフェイスが eth1 であることを前提としています。The following instructions assume that the storage network interface is eth1.
    まず、デバイス eth1 の接続名を決定します。First, determine the connection name for device eth1. この例では、デバイス eth1 の接続名は Wired connection 1 です。In this example the connection name for device eth1 is Wired connection 1.

    
     # Execute as root
     nmcli connection
     # Result
     #NAME                UUID                                  TYPE      DEVICE
     #System eth0         5fb06bd0-0bb0-7ffb-45f1-d6edd65f3e03  ethernet  eth0
     #Wired connection 1  4b0789d1-6146-32eb-83a1-94d61f8d60a7  ethernet  eth1
     

    次に、eth1経由で Azure NetApp Files の委任されたネットワークへの追加ルートを構成します。Then configure additional route to the Azure NetApp Files delegated network via eth1.

    
     # Add the following route 
     # ANFDelegatedSubnet/cidr via StorageSubnetGW dev StorageNetworkInterfaceDevice
     nmcli connection modify "Wired connection 1" +ipv4.routes "10.9.0.0/26 10.9.3.1"
     

    VM を再起動して、変更をアクティブにします。Reboot the VM to activate the changes.

  3. [A] NFS クライアント パッケージをインストールします。[A] Install the NFS client package.

    
     yum install nfs-utils
     
  4. [A]Azure NetApp Files を使用した Microsoft Azure 上での NetApp SAP アプリケーション」で説明されているように、NFS を使用して Azure NetApp で SAP HANA を実行できるよう OS を準備します。[A] Prepare the OS for running SAP HANA on Azure NetApp with NFS, as described in NetApp SAP Applications on Microsoft Azure using Azure NetApp Files. NetApp 構成設定用の構成ファイル /etc/sysctl.d/netapp-hana.conf を作成します。Create configuration file /etc/sysctl.d/netapp-hana.conf for the NetApp configuration settings.

    
     vi /etc/sysctl.d/netapp-hana.conf
     # Add the following entries in the configuration file
     net.core.rmem_max = 16777216
     net.core.wmem_max = 16777216
     net.core.rmem_default = 16777216
     net.core.wmem_default = 16777216
     net.core.optmem_max = 16777216
     net.ipv4.tcp_rmem = 65536 16777216 16777216
     net.ipv4.tcp_wmem = 65536 16777216 16777216
     net.core.netdev_max_backlog = 300000 
     net.ipv4.tcp_slow_start_after_idle=0 
     net.ipv4.tcp_no_metrics_save = 1
     net.ipv4.tcp_moderate_rcvbuf = 1
     net.ipv4.tcp_window_scaling = 1
     net.ipv4.tcp_timestamps = 1
     net.ipv4.tcp_sack = 1
     
  5. [A] 追加の最適化設定を使用して、構成ファイル /etc/sysctl.d/ms-az.conf を作成します。[A] Create configuration file /etc/sysctl.d/ms-az.conf with additional optimization settings.

    
     vi /etc/sysctl.d/ms-az.conf
     # Add the following entries in the configuration file
     net.ipv6.conf.all.disable_ipv6 = 1
     net.ipv4.tcp_max_syn_backlog = 16348
     net.ipv4.conf.all.rp_filter = 0
     sunrpc.tcp_slot_table_entries = 128
     vm.swappiness=10
     

ヒント

SAP ホスト エージェントからポート範囲を管理できるように、sysctl 構成ファイルで明示的に net.ipv4.ip_local_port_range と net.ipv4.ip_local_reserved_ports を設定しないようにしてください。Avoid setting net.ipv4.ip_local_port_range and net.ipv4.ip_local_reserved_ports explicitly in the sysctl configuration files to allow SAP Host Agent to manage the port ranges. 詳細については、SAP Note 2382421 を参照してください。For more details see SAP note 2382421.

  1. [A]Azure NetApp Files を使用した Microsoft Azure 上での NetApp SAP アプリケーション」で推奨されているように、sunrpc 設定を調整します。[A] Adjust the sunrpc settings, as recommended in the NetApp SAP Applications on Microsoft Azure using Azure NetApp Files.

    
     vi /etc/modprobe.d/sunrpc.conf
     # Insert the following line
     options sunrpc tcp_max_slot_table_entries=128
     
  2. [A] Red Hat for HANA 構成。[A] Red Hat for HANA configuration.

    RHEL を SAP ノート 229269024555822593824、および https://access.redhat.com/solutions/2447641 のとおりに構成します。Configure RHEL as described in SAP Note 2292690, 2455582, 2593824 and https://access.redhat.com/solutions/2447641.

    注意

    HANA 2.0 SP04 をインストールする場合は、SAP ノート 2593824 で説明されているように、SAP HANA をインストールする前にパッケージ compat-sap-c++-7 をインストールする必要があります。If installing HANA 2.0 SP04 you will be required to install package compat-sap-c++-7 as described in SAP note 2593824, before you can install SAP HANA.

Azure NetApp Files ボリュームのマウントMount the Azure NetApp Files volumes

  1. [A] HANA データベース ボリュームのマウント ポイントを作成します。[A] Create mount points for the HANA database volumes.

    
     mkdir -p /hana/data/HN1/mnt00001
     mkdir -p /hana/data/HN1/mnt00002
     mkdir -p /hana/log/HN1/mnt00001
     mkdir -p /hana/log/HN1/mnt00002
     mkdir -p /hana/shared
     mkdir -p /usr/sap/HN1
     
  2. [1] HN1-shared で /usr/sap 用のノード固有ディレクトリを作成します。[1] Create node-specific directories for /usr/sap on HN1-shared.

    
     # Create a temporary directory to mount HN1-shared
     mkdir /mnt/tmp
     # if using NFSv3 for this volume, mount with the following command
     mount 10.9.0.4:/HN1-shared /mnt/tmp
     # if using NFSv4.1 for this volume, mount with the following command
     mount -t nfs -o sec=sys,vers=4.1 10.9.0.4:/HN1-shared /mnt/tmp
     cd /mnt/tmp
     mkdir shared usr-sap-hanadb1 usr-sap-hanadb2 usr-sap-hanadb3
     # unmount /hana/shared
     cd
     umount /mnt/tmp
     
  3. [A] NFS ドメイン設定を確認します。[A] Verify the NFS domain setting. ドメインが既定の Azure NetApp Files ドメイン (つまり、 defaultv4iddomain.com ) として構成され、マッピングが nobody に設定されていることを確認します。Make sure that the domain is configured as the default Azure NetApp Files domain, i.e. defaultv4iddomain.com and the mapping is set to nobody.

    重要

    Azure NetApp Files の既定のドメイン構成 ( defaultv4iddomain.com ) と一致するように、VM 上の /etc/idmapd.conf に NFS ドメインを設定していることを確認します。Make sure to set the NFS domain in /etc/idmapd.conf on the VM to match the default domain configuration on Azure NetApp Files: defaultv4iddomain.com. NFS クライアント (つまり、VM) と NFS サーバー (つまり、Azure NetApp 構成) のドメイン構成が一致しない場合、VM にマウントされている Azure NetApp ボリューム上のファイルのアクセス許可は nobody と表示されます。If there's a mismatch between the domain configuration on the NFS client (i.e. the VM) and the NFS server, i.e. the Azure NetApp configuration, then the permissions for files on Azure NetApp volumes that are mounted on the VMs will be displayed as nobody.

    
     sudo cat /etc/idmapd.conf
     # Example
     [General]
     Domain = defaultv4iddomain.com
     [Mapping]
     Nobody-User = nobody
     Nobody-Group = nobody
     
  4. [A] nfs4_disable_idmapping を確認します。[A] Verify nfs4_disable_idmapping. これは、Y に設定されている必要があります。nfs4_disable_idmapping が配置されるディレクトリ構造を作成するには、mount コマンドを実行します。It should be set to Y. To create the directory structure where nfs4_disable_idmapping is located, execute the mount command. アクセスがカーネル/ドライバー用に予約されるため、/sys/modules の下に手動でディレクトリを作成することはできなくなります。You won't be able to manually create the directory under /sys/modules, because access is reserved for the kernel / drivers.

    
     # Check nfs4_disable_idmapping 
     cat /sys/module/nfs/parameters/nfs4_disable_idmapping
     # If you need to set nfs4_disable_idmapping to Y
     mkdir /mnt/tmp
     mount 10.9.0.4:/HN1-shared /mnt/tmp
     umount  /mnt/tmp
     echo "Y" > /sys/module/nfs/parameters/nfs4_disable_idmapping
     # Make the configuration permanent
     echo "options nfs nfs4_disable_idmapping=Y" >> /etc/modprobe.d/nfs.conf
     

    パラメーターを変更する方法については、nfs4_disable_idmappingこちら https://access.redhat.com/solutions/1749883 を参照してください。For more details on how to change nfs4_disable_idmapping parameter see https://access.redhat.com/solutions/1749883.

  5. [A] 共有 Azure NetApp Files ボリュームをマウントします。[A] Mount the shared Azure NetApp Files volumes.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.9.0.4:/HN1-data-mnt00001 /hana/data/HN1/mnt00001  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.9.0.4:/HN1-data-mnt00002 /hana/data/HN1/mnt00002  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.9.0.4:/HN1-log-mnt00001 /hana/log/HN1/mnt00001  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.9.0.4:/HN1-log-mnt00002 /hana/log/HN1/mnt00002  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     10.9.0.4:/HN1-shared/shared /hana/shared  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount all volumes
     sudo mount -a 
     
  6. [1] hanadb1 にノード固有のボリュームをマウントします。[1] Mount the node-specific volumes on hanadb1.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.9.0.4:/HN1-shared/usr-sap-hanadb1 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  7. [2] hanadb2 にノード固有のボリュームをマウントします。[2] Mount the node-specific volumes on hanadb2.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.9.0.4:/HN1-shared/usr-sap-hanadb2 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  8. [3] hanadb3 にノード固有のボリュームをマウントします。[3] Mount the node-specific volumes on hanadb3.

    
     sudo vi /etc/fstab
     # Add the following entries
     10.9.0.4:/HN1-shared/usr-sap-hanadb3 /usr/sap/HN1  nfs   rw,vers=4,minorversion=1,hard,timeo=600,rsize=262144,wsize=262144,intr,noatime,lock,_netdev,sec=sys  0  0
     # Mount the volume
     sudo mount -a 
     
  9. [A] すべての HANA ボリュームが NFS プロトコル バージョン NFSv4 でマウントされていることを確認します。[A] Verify that all HANA volumes are mounted with NFS protocol version NFSv4.

    
    sudo nfsstat -m
    # Verify that flag vers is set to 4.1 
    # Example from hanadb1
    /hana/data/HN1/mnt00001 from 10.9.0.4:/HN1-data-mnt00001
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /hana/log/HN1/mnt00002 from 10.9.0.4:/HN1-log-mnt00002
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /hana/data/HN1/mnt00002 from 10.9.0.4:/HN1-data-mnt00002
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /hana/log/HN1/mnt00001 from 10.9.0.4:/HN1-log-mnt00001
    Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /usr/sap/HN1 from 10.9.0.4:/HN1-shared/usr-sap-hanadb1
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    /hana/shared from 10.9.0.4:/HN1-shared/shared
     Flags: rw,noatime,vers=4.1,rsize=262144,wsize=262144,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.9.3.4,local_lock=none,addr=10.9.0.4
    

インストールInstallation

この例では、Azure でスタンバイ ノードを使用したスケールアウト構成で SAP HANA をデプロイするために、HANA 2.0 SP4 を使用しました。In this example for deploying SAP HANA in scale-out configuration with standby node with Azure, we've used HANA 2.0 SP4.

HANA のインストールの準備Prepare for HANA installation

  1. [A] HANA をインストールする前に、ルート パスワードを設定します。[A] Before the HANA installation, set the root password. インストールが完了した後で、ルート パスワードを無効にすることができます。You can disable the root password after the installation has been completed. root として passwd コマンドを実行します。Execute as root command passwd.

  2. [1] パスワードの入力を求められることなく、hanadb2 および hanadb3 に SSH を使用してログインできることを確認します。[1] Verify that you can log in via SSH to hanadb2 and hanadb3, without being prompted for a password.

    
     ssh root@hanadb2
     ssh root@hanadb3
     
  3. [A] HANA 2.0 SP4 に必要な追加のパッケージをインストールします。[A] Install additional packages, which are required for HANA 2.0 SP4. 詳細については、SAP ノート 2593824 をご覧ください。For more information, see SAP Note 2593824.

    
     yum install libgcc_s1 libstdc++6 compat-sap-c++-7 libatomic1 
     
  4. [2]、[3] SAP HANA の datalog のディレクトリの所有権を hn1 adm に変更します。[2], [3] Change ownership of SAP HANA data and log directories to hn1 adm.

    
     # Execute as root
     sudo chown hn1adm:sapsys /hana/data/HN1
     sudo chown hn1adm:sapsys /hana/log/HN1
     
  5. [A] HANA のインストールに干渉しないように、ファイアウォールを一時的に無効にします。[A] Disable the firewall temporarily, so that it doesn't interfere with the HANA installation. HANA のインストールが完了したら、再度有効にすることができます。You can re-enable it, after the HANA installation is done.

    
     # Execute as root
     systemctl stop firewalld
     systemctl disable firewalld
    

HANA のインストールHANA installation

  1. [1]SAP HANA 2.0 のインストールと更新ガイド」の指示に従って、SAP HANA をインストールします。[1] Install SAP HANA by following the instructions in the SAP HANA 2.0 Installation and Update guide. この例では、マスター、1 つのワーカー、および 1 つのスタンバイ ノードを使用して、SAP HANA スケールアウトをインストールします。In this example, we install SAP HANA scale-out with master, one worker, and one standby node.

    a.a. HANA のインストール ソフトウェア ディレクトリから hdblcm プログラムを起動します。Start the hdblcm program from the HANA installation software directory. internal_network パラメーターを使用して、内部 HANA のノード間通信に使用されるサブネットのアドレス空間を渡します。Use the internal_network parameter and pass the address space for subnet, which is used for the internal HANA inter-node communication.

    
     ./hdblcm --internal_network=10.9.2.0/26
     

    b.b. プロンプトで次の値を入力します。At the prompt, enter the following values:

    • [Choose an action](アクションを選択する) : 「1」と入力します (インストールの場合)。For Choose an action: enter 1 (for install)
    • [Additional components for installation](追加でインストールするコンポーネント) : 「2, 3」と入力します。For Additional components for installation: enter 2, 3
    • [installation path](インストール パス): Enter キーを押します (既定値は /hana/shared)For installation path: press Enter (defaults to /hana/shared)
    • [Local Host Name](ローカル ホスト名) : Enter キーを押して既定値をそのまま使用しますFor Local Host Name: press Enter to accept the default
    • [Do you want to add hosts to the system?](システムにホストを追加しますか?) : 「y」と入力しますUnder Do you want to add hosts to the system?: enter y
    • [comma-separated host names to add](追加するコンマ区切りホスト名) : 「hanadb2, hanadb3」と入力しますFor comma-separated host names to add: enter hanadb2, hanadb3
    • [Root User Name](ルート ユーザー名) [root]: Enter キーを押して既定値をそのまま使用しますFor Root User Name [root]: press Enter to accept the default
    • [roles for host hanadb2](host hanadb2 のロール): 「1」と入力します (ワーカーの場合)For roles for host hanadb2: enter 1 (for worker)
    • ホスト hanadb2 の [Host Failover Group](ホスト フェールオーバー グループ) [既定値]: Enter キーを押して既定値をそのまま使用しますFor Host Failover Group for host hanadb2 [default]: press Enter to accept the default
    • ホスト hanadb2 の [Storage Partition Number](ストレージ パーティション番号) [<>]: Enter キーを押して既定値をそのまま使用しますFor Storage Partition Number for host hanadb2 [<>]: press Enter to accept the default
    • ホスト hanadb2 の [Worker Group](ワーカー グループ) [既定値]: Enter キーを押して既定値をそのまま使用しますFor Worker Group for host hanadb2 [default]: press Enter to accept the default
    • ホスト hanadb3 の [Select roles](ロールの選択) : 「2」と入力します (スタンバイ)For Select roles for host hanadb3: enter 2 (for standby)
    • ホスト hanadb3 の [Host Failover Group](ホスト フェールオーバー グループ) [既定値]: Enter キーを押して既定値をそのまま使用しますFor Host Failover Group for host hanadb3 [default]: press Enter to accept the default
    • ホスト hanadb3 の [Worker Group](ワーカー グループ) [既定値]: Enter キーを押して既定値をそのまま使用しますFor Worker Group for host hanadb3 [default]: press Enter to accept the default
    • [SAP HANA System ID](SAP HANA システム ID) : 「HN1」と入力しますFor SAP HANA System ID: enter HN1
    • [Instance number](インスタンス番号) [00]: 「03」と入力しますFor Instance number [00]: enter 03
    • [Local Host Worker Group](ローカル ホスト ワーカー グループ) [既定値]: Enter キーを押して既定値をそのまま使用しますFor Local Host Worker Group [default]: press Enter to accept the default
    • [Select System Usage / Enter index [4](システム用途の選択/インデックスを入力 [4]) : 「4」と入力します (カスタム)For Select System Usage / Enter index [4]: enter 4 (for custom)
    • [Location of Data Volumes](データ ボリュームの場所) [/hana/data/HN1]: Enter キーを押して既定値をそのまま使用しますFor Location of Data Volumes [/hana/data/HN1]: press Enter to accept the default
    • [Location of Log Volumes](ログ ボリュームの場所) [/hana/log/HN1]: Enter キーを押して既定値をそのまま使用しますFor Location of Log Volumes [/hana/log/HN1]: press Enter to accept the default
    • [Restrict maximum memory allocation?](メモリの最大割り当てを制限しますか?)For Restrict maximum memory allocation? [n]: 「n」と入力します
    • [Certificate Host Name For Host hanadb1](ホスト hanadb1 の 証明書ホスト名) [hanadb1]: Enter キーを押して既定値をそのまま使用しますFor Certificate Host Name For Host hanadb1 [hanadb1]: press Enter to accept the default
    • [Certificate Host Name For Host hanadb2](ホスト hanadb2 の 証明書ホスト名) [hanadb2]: Enter キーを押して既定値をそのまま使用しますFor Certificate Host Name For Host hanadb2 [hanadb2]: press Enter to accept the default
    • [Certificate Host Name For Host hanadb3](ホスト hanadb3 の 証明書ホスト名) [hanadb3]: Enter キーを押して既定値をそのまま使用しますFor Certificate Host Name For Host hanadb3 [hanadb3]: press Enter to accept the default
    • [System Administrator (hn1adm) Password](システム管理者 (hn1adm) のパスワード) : パスワードを入力しますFor System Administrator (hn1adm) Password: enter the password
    • [System Database User (system) Password](システム データベース ユーザー (system) のパスワード) : システムのパスワードを入力しますFor System Database User (system) Password: enter the system's password
    • [Confirm System Database User (system) Password](システム データベース ユーザー (system) のパスワードの確認) : システムのパスワードを入力しますFor Confirm System Database User (system) Password: enter system's password
    • [Restart system after machine reboot?](コンピューターの再起動後にシステムを再起動しますか?)For Restart system after machine reboot? [n]: 「n」と入力します
    • [Do you want to continue (y/n)](続行しますか? (y/n)) : 概要を検証し、すべて問題がなさそうな場合は「y」と入力しますFor Do you want to continue (y/n): validate the summary and if everything looks good, enter y
  2. [1] global.ini を確認します[1] Verify global.ini

    global.ini を表示し、内部 SAP HANA のノード間通信が正しく構成されていることを確認します。Display global.ini, and ensure that the configuration for the internal SAP HANA inter-node communication is in place. communication セクションを確認します。Verify the communication section. hana サブネットに対するアドレス空間があり、listeninterface.internal に設定されている必要があります。It should have the address space for the hana subnet, and listeninterface should be set to .internal. internal_hostname_resolution セクションを確認します。Verify the internal_hostname_resolution section. hana サブネットに属する HANA 仮想マシンの IP アドレスが含まれている必要があります。It should have the IP addresses for the HANA virtual machines that belong to the hana subnet.

    
     sudo cat /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini
     # Example 
     #global.ini last modified 2019-09-10 00:12:45.192808 by hdbnameserve
     [communication]
     internal_network = 10.9.2.0/26
     listeninterface = .internal
     [internal_hostname_resolution]
     10.9.2.4 = hanadb1
     10.9.2.5 = hanadb2
     10.9.2.6 = hanadb3
    
  3. [1] ホスト マッピングを追加して、クライアントの通信でクライアントの IP アドレスが確実に使用されるようにします。[1] Add host mapping to ensure that the client IP addresses are used for client communication. セクション public_host_resolution を追加し、クライアント サブネットから対応する IP アドレスを追加します。Add section public_host_resolution, and add the corresponding IP addresses from the client subnet.

    
     sudo vi /usr/sap/HN1/SYS/global/hdb/custom/config/global.ini
     #Add the section
     [public_hostname_resolution]
     map_hanadb1 = 10.9.1.5
     map_hanadb2 = 10.9.1.6
     map_hanadb3 = 10.9.1.7
    
  4. [1] SAP HANA を再起動して、変更をアクティブにします。[1] Restart SAP HANA to activate the changes.

    
     sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StopSystem HDB
     sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StartSystem HDB
    
  5. [1] クライアント インターフェイスが client サブネットの IP アドレスを使用して通信するようになっていることを確認します。[1] Verify that the client interface will be using the IP addresses from the client subnet for communication.

    
     # Execute as hn1adm
     /usr/sap/HN1/HDB03/exe/hdbsql -u SYSTEM -p "password" -i 03 -d SYSTEMDB 'select * from SYS.M_HOST_INFORMATION'|grep net_publicname
     # Expected result
     "hanadb3","net_publicname","10.9.1.7"
     "hanadb2","net_publicname","10.9.1.6"
     "hanadb1","net_publicname","10.9.1.5"
    

    構成を確認する方法については、SAP ノート 「2183363 - SAP HANA 内部ネットワークの構成」を参照してください。For information about how to verify the configuration, see SAP Note 2183363 - Configuration of SAP HANA internal network.

  6. [A] ファイアウォールを再度有効にします。[A] Re-enable the firewall.

    • HANA を停止するStop HANA

      
         sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StopSystem HDB
        
    • ファイアウォールを再度有効にするRe-enable the firewall

      
         # Execute as root
         systemctl start firewalld
         systemctl enable firewalld
        
    • 必要なファイアウォール ポートを開くOpen the necessary firewall ports

      重要

      HANA のノード間通信とクライアント トラフィックを許可するファイアウォール規則を作成します。Create firewall rules to allow HANA inter node communication and client traffic. 必要なポートは、すべての SAP 製品の TCP/IP ポートのページにあります。The required ports are listed on TCP/IP Ports of All SAP Products. 次にコマンドは 1 つの例にすぎません。The following commands are just an example. このシナリオでは、システム番号 03 が使用されています。In this scenario with used system number 03.

      
         # Execute as root
         sudo firewall-cmd --zone=public --add-port=30301/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30301/tcp
         sudo firewall-cmd --zone=public --add-port=30303/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30303/tcp
         sudo firewall-cmd --zone=public --add-port=30306/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30306/tcp
         sudo firewall-cmd --zone=public --add-port=30307/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30307/tcp
         sudo firewall-cmd --zone=public --add-port=30313/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30313/tcp
         sudo firewall-cmd --zone=public --add-port=30315/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30315/tcp
         sudo firewall-cmd --zone=public --add-port=30317/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30317/tcp
         sudo firewall-cmd --zone=public --add-port=30340/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30340/tcp
         sudo firewall-cmd --zone=public --add-port=30341/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30341/tcp
         sudo firewall-cmd --zone=public --add-port=30342/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30342/tcp
         sudo firewall-cmd --zone=public --add-port=1128/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=1128/tcp
         sudo firewall-cmd --zone=public --add-port=1129/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=1129/tcp
         sudo firewall-cmd --zone=public --add-port=40302/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40302/tcp
         sudo firewall-cmd --zone=public --add-port=40301/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40301/tcp
         sudo firewall-cmd --zone=public --add-port=40307/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40307/tcp
         sudo firewall-cmd --zone=public --add-port=40303/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40303/tcp
         sudo firewall-cmd --zone=public --add-port=40340/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=40340/tcp
         sudo firewall-cmd --zone=public --add-port=50313/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=50313/tcp
         sudo firewall-cmd --zone=public --add-port=50314/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=50314/tcp
         sudo firewall-cmd --zone=public --add-port=30310/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30310/tcp
         sudo firewall-cmd --zone=public --add-port=30302/tcp --permanent
         sudo firewall-cmd --zone=public --add-port=30302/tcp
        
    • HANA を開始するStart HANA

      
         sudo -u hn1adm /usr/sap/hostctrl/exe/sapcontrol -nr 03 -function StartSystem HDB
        
  7. 基になる Azure NetApp Files ストレージ向けに SAP HANA を最適化するには、次の SAP HANA パラメーターを設定します。To optimize SAP HANA for the underlying Azure NetApp Files storage, set the following SAP HANA parameters:

    • max_parallel_io_requests 128max_parallel_io_requests 128
    • async_read_submit オンasync_read_submit on
    • async_write_submit_active オンasync_write_submit_active on
    • async_write_submit_blocks すべてasync_write_submit_blocks all

    詳細については、「Azure NetApp Files を使用した Microsoft Azure 上の NetApp SAP アプリケーション」を参照してください。For more information, see NetApp SAP Applications on Microsoft Azure using Azure NetApp Files.

    SAP HANA 2.0 以降のシステムでは、global.ini でパラメーターを設定できます。Starting with SAP HANA 2.0 systems, you can set the parameters in global.ini. 詳細については、SAP ノート 1999930 をご覧ください。For more information, see SAP Note 1999930.

    SAP HANA 1.0 システム バージョン SPS12 以前の場合は、SAP ノート 2267798 で説明されているように、インストール時にこれらのパラメーターを設定できます。For SAP HANA 1.0 systems versions SPS12 and earlier, these parameters can be set during the installation, as described in SAP Note 2267798.

  8. Azure NetApp Files で使用されるストレージには、16 テラバイト (TB) のファイル サイズ制限があります。The storage that's used by Azure NetApp Files has a file size limitation of 16 terabytes (TB). SAP HANA では、ストレージの制限が暗黙的に認識されず、ファイル サイズの上限の 16 TB に達したときに新しいデータ ファイルが自動的に作成されることはありません。SAP HANA is not implicitly aware of the storage limitation, and it won't automatically create a new data file when the file size limit of 16 TB is reached. SAP HANA では 16 TB を超えてファイルを拡張しようとするため、エラーとなり、最終的にはインデックス サーバーがクラッシュします。As SAP HANA attempts to grow the file beyond 16 TB, that attempt will result in errors and, eventually, in an index server crash.

    重要

    SAP HANA がストレージ サブシステムの 16 TB の制限を超えてデータ ファイルを拡張しようとするのを防ぐには、global.ini で次のパラメーターを設定します。To prevent SAP HANA from trying to grow data files beyond the 16-TB limit of the storage subsystem, set the following parameters in global.ini.

    • datavolume_striping = truedatavolume_striping = true
    • datavolume_striping_size_gb = 15000 詳細については、SAP ノート 2400005 を参照してください。datavolume_striping_size_gb = 15000 For more information, see SAP Note 2400005. SAP ノート 2631285 に注意してください。Be aware of SAP Note 2631285.

SAP HANA フェールオーバーのテストTest SAP HANA failover

  1. SAP HANA ワーカー ノードでノード クラッシュをシミュレートします。Simulate a node crash on an SAP HANA worker node. 次の操作を行います。Do the following:

    a.a. ノード クラッシュをシミュレートする前に、hn1 adm として次のコマンドを実行して環境の状態をキャプチャします。Before you simulate the node crash, run the following commands as hn1 adm to capture the status of the environment:

    
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | yes    | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
    

    b.b. ノード クラッシュをシミュレートするには、ワーカー ノード (この場合は hanadb2) で次のコマンドを root として実行します。To simulate a node crash, run the following command as root on the worker node, which is hanadb2 in this case:

    
     echo b > /proc/sysrq-trigger
    

    c.c. システムのフェールオーバーの完了を監視します。Monitor the system for failover completion. フェールオーバーで状態のキャプチャが完了すると、次のように表示されます。When the failover has been completed, capture the status, which should look like the following:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | no     | info   |          |        |         2 |         0 | default  | default  | master 2   | slave      | worker      | standby     | worker  | standby | default | -       |
     | hanadb3 | yes    | info   |          |        |         0 |         2 | default  | default  | master 3   | slave      | standby     | slave       | standby | worker  | default | default |
    

    重要

    ノードでカーネル パニックが発生するときは、"すべての" HANA 仮想マシンで kernel.panic を 20 秒に設定することにより、SAP HANA のフェールオーバーによる遅延を回避します。When a node experiences kernel panic, avoid delays with SAP HANA failover by setting kernel.panic to 20 seconds on all HANA virtual machines. 構成は /etc/sysctl で行われます。The configuration is done in /etc/sysctl. 仮想マシンを再起動して、変更をアクティブにします。Reboot the virtual machines to activate the change. この変更を行わないと、ノードでカーネル パニックが発生したとき、フェールオーバーに 10 分以上かかることがあります。If this change isn't performed, failover can take 10 or more minutes when a node is experiencing kernel panic.

  2. 次のようにして、ネーム サーバーを強制終了します。Kill the name server by doing the following:

    a.a. テストの前に、hn1 adm として次のコマンドを実行し、環境の状態を確認します。Prior to the test, check the status of the environment by running the following commands as hn1 adm:

    
     #Landscape status 
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | yes    | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
    

    b.b. アクティブなマスター ノード (この場合は hanadb1) で hn1 adm として次のコマンドを実行します。Run the following commands as hn1 adm on the active master node, which is hanadb1 in this case:

    
         hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB kill
     

    スタンバイ ノード hanadb3 がマスター ノードとして引き継ぎます。The standby node hanadb3 will take over as master node. フェールオーバー テスト完了後のリソースの状態は次にようになります。Here is the resource state after the failover test is completed:

    
      # Check the instance status
      sapcontrol -nr 03  -function GetSystemInstanceList
      GetSystemInstanceList
      OK
      hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
      hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
      hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
      hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GRAY
      # Check the landscape status
      python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
      | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
      |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
      |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
      | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
      | hanadb1 | no     | info   |          |        |         1 |         0 | default  | default  | master 1   | slave      | worker      | standby     | worker  | standby | default | -       |
      | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
      | hanadb3 | yes    | info   |          |        |         0 |         1 | default  | default  | master 3   | master     | standby     | master      | standby | worker  | default | default |
     

    c.c. hanadb1 で (つまり、ネーム サーバーが強制終了されたのと同じ仮想マシンで) HANA インスタンスを再起動します。Restart the HANA instance on hanadb1 (that is, on the same virtual machine, where the name server was killed). hanadb1 ノードが環境に再び参加し、スタンバイ ロールを保持します。The hanadb1 node will rejoin the environment and will keep its standby role.

    
     hn1adm@hanadb1:/usr/sap/HN1/HDB03> HDB start
    

    hanadb1 で SAP HANA が起動されると、次のような状態になります。After SAP HANA has started on hanadb1, expect the following status:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | no     | info   |          |        |         1 |         0 | default  | default  | master 1   | slave      | worker      | standby     | worker  | standby | default | -       |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | yes    | info   |          |        |         0 |         1 | default  | default  | master 3   | master     | standby     | master      | standby | worker  | default | default |
    

    d.d. やはり、現在アクティブなマスター ノード (つまり、ノード hanadb3) でネーム サーバーを強制終了します。Again, kill the name server on the currently active master node (that is, on node hanadb3).

    
     hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB kill
    

    ノード hanadb1 が、マスター ノードのロールを再開します。Node hanadb1 will resume the role of master node. フェールオーバー テスト完了後の状態は、次のようになります。After the failover test has been completed, the status will look like this:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GRAY
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
    

    e.e. hanadb3 で SAP HANA を起動します。スタンバイ ノードとして機能する準備が整います。Start SAP HANA on hanadb3, which will be ready to serve as a standby node.

    
     hn1adm@hanadb3:/usr/sap/HN1/HDB03> HDB start
    

    hanadb3 で SAP HANA が起動した後、状態は次のようになります。After SAP HANA has started on hanadb3, the status looks like the following:

    
     # Check the instance status
     sapcontrol -nr 03  -function GetSystemInstanceList & python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     GetSystemInstanceList
     OK
     hostname, instanceNr, httpPort, httpsPort, startPriority, features, dispstatus
     hanadb2, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     hanadb3, 3, 50313, 50314, 0.3, HDB|HDB_STANDBY, GREEN
     hanadb1, 3, 50313, 50314, 0.3, HDB|HDB_WORKER, GREEN
     # Check the landscape status
     python /usr/sap/HN1/HDB03/exe/python_support/landscapeHostConfiguration.py
     | Host    | Host   | Host   | Failover | Remove | Storage   | Storage   | Failover | Failover | NameServer | NameServer | IndexServer | IndexServer | Host    | Host    | Worker  | Worker  |
     |         | Active | Status | Status   | Status | Config    | Actual    | Config   | Actual   | Config     | Actual     | Config      | Actual      | Config  | Actual  | Config  | Actual  |
     |         |        |        |          |        | Partition | Partition | Group    | Group    | Role       | Role       | Role        | Role        | Roles   | Roles   | Groups  | Groups  |
     | ------- | ------ | ------ | -------- | ------ | --------- | --------- | -------- | -------- | ---------- | ---------- | ----------- | ----------- | ------- | ------- | ------- | ------- |
     | hanadb1 | yes    | ok     |          |        |         1 |         1 | default  | default  | master 1   | master     | worker      | master      | worker  | worker  | default | default |
     | hanadb2 | yes    | ok     |          |        |         2 |         2 | default  | default  | master 2   | slave      | worker      | slave       | worker  | worker  | default | default |
     | hanadb3 | no     | ignore |          |        |         0 |         0 | default  | default  | master 3   | slave      | standby     | standby     | standby | standby | default | -       |
    

次のステップNext steps