クイック スタート:HDInsight クラスター上に Apache Kafka を作成するQuickstart: Create an Apache Kafka on HDInsight cluster

Apache Kafka は、オープンソースの分散ストリーミング プラットフォームです。Apache Kafka is an open-source, distributed streaming platform. 発行/サブスクライブ メッセージ キューと同様の機能を備えているため、メッセージ ブローカーとして多く使われています。It's often used as a message broker, as it provides functionality similar to a publish-subscribe message queue.

このクイックスタートでは、Azure Portal を使用して Apache Kafka クラスターを作成する方法について説明します。In this quickstart, you learn how to create an Apache Kafka cluster using the Azure portal. Apache Kafka を使って、付属のユーティリティでメッセージを送受信する方法についても説明します。You also learn how to use included utilities to send and receive messages using Apache Kafka.

警告

HDInsight クラスターの料金は、そのクラスターを使用しているかどうかに関係なく、分単位で課金されます。Billing for HDInsight clusters is prorated per minute, whether you use them or not. 使用後は、クラスターを必ず削除してください。Be sure to delete your cluster after you finish using it. HDInsight クラスターを削除する方法」をご覧ください。See how to delete an HDInsight cluster.

重要

Apache Kafka API は、同じ仮想ネットワーク内のリソースによってのみアクセスできます。The Apache Kafka API can only be accessed by resources inside the same virtual network. このクイック スタートでは、SSH を使って直接クラスターにアクセスします。In this quickstart, you access the cluster directly using SSH. 他のサービス、ネットワーク、または仮想マシンを Apache Kafka に接続するには、まず、仮想ネットワークを作成してから、ネットワーク内にリソースを作成する必要があります。To connect other services, networks, or virtual machines to Apache Kafka, you must first create a virtual network and then create the resources within the network.

詳しくは、仮想ネットワークを使用した Apache Kafka への接続に関するドキュメントをご覧ください。For more information, see the Connect to Apache Kafka using a virtual network document.

前提条件Prerequisites

Apache Kafka クラスターを作成するCreate an Apache Kafka cluster

HDInsight クラスターで Apache Kafka を作成するには、次の手順に従います。To create an Apache Kafka on HDInsight cluster, use the following steps:

  1. Azure Portal にサインインします。Sign in to the Azure portal.

  2. 左側のメニューから、[+ リソースの作成] > [Analytics] > [HDInsight] に移動します。From the left menu, navigate to + Create a resource > Analytics > HDInsight.

    HDInsight クラスターの作成

  3. [基本] から次の情報を入力するか、選択します。From Basics, enter or select the following information:

    SettingSetting Value
    クラスター名Cluster Name HDInsight クラスターの一意の名前。A unique name for the HDInsight cluster.
    サブスクリプションSubscription サブスクリプションを選択します。Select your subscription.

    [クラスターの種類] を選択して [クラスターの構成] を表示します。Select Cluster Type to display the Cluster configuration.

    HDInsight 基本構成の Apache Kafka クラスター

  4. [クラスターの構成] から、次の値を選択します。From Cluster configuration, select the following values:

    SettingSetting Value
    クラスターの種類Cluster Type KafkaKafka
    バージョンVersion Kafka 1.1.0 (HDI 3.6)Kafka 1.1.0 (HDI 3.6)

    [選択] を選択してクラスターの種類の設定を保存し、[基本] に戻ります。Select Select to save the cluster type settings and return to Basics.

    クラスターの種類の選択

  5. [基本] から次の情報を入力するか、選択します。From Basics, enter or select the following information:

    SettingSetting Value
    クラスター ログイン ユーザー名Cluster login username クラスターでホストされている Web サービスまたは REST API にアクセスするときのログイン名です。The login name when accessing web services or REST APIs hosted on the cluster. 既定値 (admin) を維持します。Keep the default value (admin).
    クラスター ログイン パスワードCluster login password クラスターでホストされている Web サービスまたは REST API にアクセスするときのログイン パスワードです。The login password when accessing web services or REST APIs hosted on the cluster.
    Secure Shell (SSH) ユーザー名Secure Shell (SSH) username SSH 経由でクラスターにアクセスする際に使用されるログイン。The login used when accessing the cluster over SSH. 既定では、このパスワードは、クラスター ログイン パスワードと同じです。By default the password is the same as the cluster login password.
    リソース グループResource Group クラスターが作成されるリソース グループ。The resource group to create the cluster in.
    LocationLocation クラスターが作成される Azure リージョン。The Azure region to create the cluster in.

    ヒント

    各 Azure リージョン (場所) は "障害ドメイン" を提供します。Each Azure region (location) provides fault domains. 障害ドメインとは、Azure データ センター内にある基になるハードウェアの論理的なグループです。A fault domain is a logical grouping of underlying hardware in an Azure data center. 各障害ドメインは、一般的な電源とネットワーク スイッチを共有します。Each fault domain shares a common power source and network switch. HDInsight クラスター内のノードを実装する仮想マシンと管理ディスクは、これらの障害ドメインに分散されます。The virtual machines and managed disks that implement the nodes within an HDInsight cluster are distributed across these fault domains. このアーキテクチャにより、物理的なハードウェア障害の潜在的な影響が制限されます。This architecture limits the potential impact of physical hardware failures.

    データの高可用性を実現するために、3 つの障害ドメイン を含むリージョン (場所) を選択します。For high availability of data, select a region (location) that contains three fault domains. リージョン内の障害ドメインの数については、Linux 仮想マシンの可用性に関するトピックを参照してください。For information on the number of fault domains in a region, see the Availability of Linux virtual machines document.

    サブスクリプションを選択します。

    [次へ] を選択して、基本的な構成を完了します。Select Next to finish basic configuration.

  6. このクイック スタートでは、既定のセキュリティ設定をそのまま使用します。For this quickstart, leave the default security settings. Enterprise セキュリティ パッケージの詳細については、「Azure Active Directory Domain Services を使用して、Enterprise セキュリティ パッケージで HDInsight クラスターを構成する」を参照してください。To learn more about Enterprise Security package, visit Configure a HDInsight cluster with Enterprise Security Package by using Azure Active Directory Domain Services. Apache Kafka のディスク暗号化に独自のキーを使用する方法については、「Azure HDInsight で Apache Kafka 用に自分のキーを持ち込む」を参照してください。To learn how to use your own key for Apache Kafka Disk Encryption, visit Bring your own key for Apache Kafka on Azure HDInsight

    クラスターを仮想ネットワークに接続したい場合は、[仮想ネットワーク] ボックスの一覧からいずれかの仮想ネットワークを選択します。If you would like to connect your cluster to a virtual network, select a virtual network from the Virtual network dropdown.

    仮想ネットワークにクラスターを追加する

  7. [ストレージ] で、ストレージ アカウントを選択または作成します。From Storage, select or create a Storage account. このドキュメントの手順では、他のフィールドを既定値のままにします。For the steps in this document, leave the other fields at the default values. [次へ] ボタンを使用して、ストレージの構成を保存します。Use the Next button to save storage configuration. Data Lake Storage Gen2 の使用の詳細については、「クイック スタート:HDInsight のクラスターを設定する」をご覧ください。For more information on using Data Lake Storage Gen2, see Quickstart: Set up clusters in HDInsight.

    HDInsight のストレージ アカウント設定

  8. [アプリケーション (オプション)][次へ] を選択して、既定の設定で続行します。From Applications (optional), select Next to continue with the default settings.

  9. [クラスター サイズ][次へ] を選択して、既定の設定で続行します。From Cluster size, select Next to continue with the default settings.

    重要

    HDInsight 上の Apache Kafka の可用性を確保するため、worker ノード数 エントリを 3 以上に設定する必要があります。To guarantee availability of Apache Kafka on HDInsight, the number of worker nodes entry must be set to 3 or greater. 既定値は 4 ですが、The default value is 4.

    ヒント

    ワーカー ノードごとのディスクの数は、HDInsight における Apache Kafka のスケーラビリティを構成する項目です。The disks per worker node entry configures the scalability of Apache Kafka on HDInsight. HDInsight 上の Apache Kafka は、クラスターの仮想マシンのローカル ディスクを使って、データを保存します。Apache Kafka on HDInsight uses the local disk of the virtual machines in the cluster to store data. Apache Kafka は I/O が多いため、Azure Managed Disks を使ってノードごとに高いスループットと多くの記憶域を提供します。Apache Kafka is I/O heavy, so Azure Managed Disks are used to provide high throughput and more storage per node. マネージド ディスクの種類は、Standard (HDD) または Premium (SSD) です。The type of managed disk can be either Standard (HDD) or Premium (SSD). ディスクの種類は、ワーカー ノード (Apache Kafka ブローカー) によって使われる VM のサイズによって異なります。The type of disk depends on the VM size used by the worker nodes (Apache Kafka brokers). DS および GS シリーズの VM では、Premium ディスクが自動的に使われます。Premium disks are used automatically with DS and GS series VMs. 他の種類の VM はすべて Standard を使います。All other VM types use standard.

    Apache Kafka のクラスター サイズの設定

  10. [詳細設定][次へ] を選択し、既存の設定で続行します。From Advanced settings, select Next to continue with the default settings.

  11. [概要] でクラスターの構成を確認します。From the Summary, review the configuration for the cluster. 間違った設定を変更するには、[編集] リンクを使用します。Use the Edit links to change any settings that are incorrect. 最後に、[作成] を選択してクラスターを作成します。Finally, select Create to create the cluster.

    クラスター構成の概要

    注意

    クラスターの作成には最大で 20 分かかります。It can take up to 20 minutes to create the cluster.

クラスターへの接続Connect to the cluster

  1. Apache Kafka クラスターのプライマリ ヘッド ノードに接続するには、次のコマンドを使用します。To connect to the primary head node of the Apache Kafka cluster, use the following command. sshuser を SSH ユーザー名で置き換えます。Replace sshuser with the SSH user name. mykafka を実際の Apache Kafka クラスターの名前に置き換えます。Replace mykafka with the name of your Apache Kafkacluster.

    ssh sshuser@mykafka-ssh.azurehdinsight.net
    
  2. クラスターに初めて接続すると、ホストの信頼性を確立できないという警告が SSH クライアントに表示されることがあります。When you first connect to the cluster, your SSH client may display a warning that the authenticity of the host can't be established. プロンプトが表示されたら、「yes」と入力して、Enter キーを押し、SSH クライアントの信頼済みサーバーの一覧にこのホストを追加します。When prompted type yes, and then press Enter to add the host to your SSH client's trusted server list.

  3. メッセージが表示されたら、SSH ユーザーのパスワードを入力します。When prompted, enter the password for the SSH user.

    接続されると、次のテキストのような情報が表示されます。Once connected, you see information similar to the following text:

    Authorized uses only. All activity may be monitored and reported.
    Welcome to Ubuntu 16.04.4 LTS (GNU/Linux 4.13.0-1011-azure x86_64)
    
     * Documentation:  https://help.ubuntu.com
     * Management:     https://landscape.canonical.com
     * Support:        https://ubuntu.com/advantage
    
      Get cloud support with Ubuntu Advantage Cloud Guest:
        https://www.ubuntu.com/business/services/cloud
    
    83 packages can be updated.
    37 updates are security updates.
    
    
    Welcome to Apache Kafka on HDInsight.
    
    Last login: Thu Mar 29 13:25:27 2018 from 108.252.109.241
    ssuhuser@hn0-mykafk:~$
    

Apache Zookeeper およびブローカーのホスト情報を取得するGet the Apache Zookeeper and Broker host information

Kafka を使うときは、Apache Zookeeper ホストと "ブローカー" ホストについて理解しておく必要があります。When working with Kafka, you must know the Apache Zookeeper and Broker hosts. これらのホストは、Apache Kafka の API や、Kafka に付属するユーティリティの多くで使用されます。These hosts are used with the Apache Kafka API and many of the utilities that ship with Kafka.

このセクションでは、クラスターで Apache Ambari REST API からホスト情報を取得します。In this section, you get the host information from the Apache Ambari REST API on the cluster.

  1. コマンド ライン JSON プロセッサの jq をインストールします。Install jq, a command-line JSON processor. このユーティリティは JSON ドキュメントを解析するためのものであり、ホスト情報の解析に役立ちます。This utility is used to parse JSON documents, and is useful in parsing the host information. 開いた SSH 接続から次のコマンドを入力して、jq をインストールします。From the open SSH connection, enter following command to install jq:

    sudo apt -y install jq
    
  2. 環境変数を設定します。Set up environment variables. PASSWORDCLUSTERNAME をそれぞれクラスター ログイン パスワードとクラスター名に置き換えた後、コマンドを入力します。Replace PASSWORD and CLUSTERNAME with the cluster login password and cluster name respectively, then enter the command:

    export password='PASSWORD'
    export clusterNameA='CLUSTERNAME'
    
  3. 大文字と小文字が正しく区別されたクラスター名を抽出します。Extract correctly cased cluster name. クラスターの作成方法によっては、クラスター名の実際の大文字小文字の区別が予想と異なる場合があります。The actual casing of the cluster name may be different than you expect, depending on how the cluster was created. このコマンドでは、実際の大文字と小文字の使い分けが取得され、変数に格納された後、正しい大文字と小文字の名前と、前に指定した名前が表示されます。This command will obtain the actual casing, store it in a variable, and then display the correctly cased name, and the name you provided earlier. 次のコマンドを入力します。Enter the following command:

    export clusterName=$(curl -u admin:$password -sS -G "https://$clusterNameA.azurehdinsight.net/api/v1/clusters" | jq -r '.items[].Clusters.cluster_name')
    echo $clusterName, $clusterNameA
    
  4. Zookeeper ホスト情報で環境変数を設定するには、次のコマンドを使用します。To set an environment variable with Zookeeper host information, use the following command:

    export KAFKAZKHOSTS=`curl -sS -u admin:$password -G http://headnodehost:8080/api/v1/clusters/$clusterName/services/ZOOKEEPER/components/ZOOKEEPER_SERVER | jq -r '["\(.host_components[].HostRoles.host_name):2181"] | join(",")' | cut -d',' -f1,2`
    

    ヒント

    このコマンドは、クラスター ヘッド ノード上の Ambari サービスを直接クエリします。This command directly queries the Ambari service on the cluster head node. https://$CLUSTERNAME.azurehdinsight.net:80/ のパブリック アドレスを使用して Ambari にアクセスすることもできます。You can also access Ambari using the public address of https://$CLUSTERNAME.azurehdinsight.net:80/. 一部のネットワーク構成は、パブリック アドレスへのアクセスを阻止します。Some network configurations can prevent access to the public address. たとえば、ネットワーク セキュリティ グループ (NSG) を使用して、仮想ネットワークで HDInsight へのアクセスを制限します。For example, using Network Security Groups (NSG) to restrict access to HDInsight in a virtual network.

    注意

    このコマンドはすべての Zookeeper ホストを取得してから、最初の 2 つのエントリのみを返します。This command retrieves all Zookeeper hosts, then returns only the first two entries. これは、1 つのホストに到達できない場合に、いくらかの冗長性が必要なためです。This is because you want some redundancy in case one host is unreachable.

  5. 環境変数が正しく設定されていることを確認するには、次のコマンドを使用します。To verify that the environment variable is set correctly, use the following command:

    echo $KAFKAZKHOSTS
    

    このコマンドでは、次のテキストのような情報が返されます。This command returns information similar to the following text:

    zk0-kafka.eahjefxxp1netdbyklgqj5y1ud.ex.internal.cloudapp.net:2181,zk2-kafka.eahjefxxp1netdbyklgqj5y1ud.ex.internal.cloudapp.net:2181

  6. Apache Kafka ブローカー ホスト情報で環境変数を設定するには、次のコマンドを使用します。To set an environment variable with Apache Kafka broker host information, use the following command:

    export KAFKABROKERS=`curl -sS -u admin:$password -G http://headnodehost:8080/api/v1/clusters/$clusterName/services/KAFKA/components/KAFKA_BROKER | jq -r '["\(.host_components[].HostRoles.host_name):9092"] | join(",")' | cut -d',' -f1,2`
    
  7. 環境変数が正しく設定されていることを確認するには、次のコマンドを使用します。To verify that the environment variable is set correctly, use the following command:

    echo $KAFKABROKERS
    

    このコマンドでは、次のテキストのような情報が返されます。This command returns information similar to the following text:

    wn1-kafka.eahjefxxp1netdbyklgqj5y1ud.cx.internal.cloudapp.net:9092,wn0-kafka.eahjefxxp1netdbyklgqj5y1ud.cx.internal.cloudapp.net:9092

Apache Kafka トピックの管理Manage Apache Kafka topics

Kafka は、"トピック" にデータのストリームを格納します。Kafka stores streams of data in topics. kafka-topics.sh ユーティリティを使って、トピックを管理できます。You can use the kafka-topics.sh utility to manage topics.

  • トピックを作成するには、SSH 接続で次のコマンドを使います。To create a topic, use the following command in the SSH connection:

    /usr/hdp/current/kafka-broker/bin/kafka-topics.sh --create --replication-factor 3 --partitions 8 --topic test --zookeeper $KAFKAZKHOSTS
    

    このコマンドを使用すると、$KAFKAZKHOSTS に格納されているホスト情報を使用して Zookeeper に接続されます。This command connects to Zookeeper using the host information stored in $KAFKAZKHOSTS. 次に、test という名前の Apache Kafka トピックが作成されます。It then creates an Apache Kafka topic named test.

    • このトピックに格納されるデータは、8 つのパーティションに分割されます。Data stored in this topic is partitioned across eight partitions.

    • 各パーティションは、クラスター内の 3 つのワーカー ノード間でレプリケートされます。Each partition is replicated across three worker nodes in the cluster.

      重要

      3 つの障害ドメインを提供する Azure リージョンにクラスターを作成した場合は、3 のレプリケーション係数を使います。If you created the cluster in an Azure region that provides three fault domains, use a replication factor of 3. そうでない場合は、4 のレプリケーション係数を使います。Otherwise, use a replication factor of 4.

      3 つの障害ドメインがあるリージョンでは、3 のレプリケーション係数により、レプリカを障害ドメインに分散できます。In regions with three fault domains, a replication factor of 3 allows replicas to be spread across the fault domains. 2 つの障害ドメインのリージョンでは、4 のレプリケーション係数により、ドメイン全体に均等にレプリカが分散されます。In regions with two fault domains, a replication factor of four spreads the replicas evenly across the domains.

      リージョン内の障害ドメインの数については、Linux 仮想マシンの可用性に関するトピックを参照してください。For information on the number of fault domains in a region, see the Availability of Linux virtual machines document.

      重要

      Apache Kafka は、Azure 障害ドメインを認識しません。Apache Kafka is not aware of Azure fault domains. トピック用にパーティションのレプリカを作成すると、レプリカが適切に分散されず、高可用性が実現しない場合があります。When creating partition replicas for topics, it may not distribute replicas properly for high availability.

      高可用性を確保するには、Apache Kafka パーティション再調整ツールを使用してください。To ensure high availability, use the Apache Kafka partition rebalance tool. このツールは、Apache Kafka クラスターのヘッド ノードへの SSH 接続から実行する必要があります。This tool must be ran from an SSH connection to the head node of your Apache Kafka cluster.

      Apache Kafka データの最高の可用性のために、次のときにトピックのパーティションのレプリカを再調整する必要があります。For the highest availability of your Apache Kafka data, you should rebalance the partition replicas for your topic when:

      • 新しいトピックまたはパーティションの作成You create a new topic or partition

      • クラスターのスケールアップYou scale up a cluster

  • トピックの一覧を表示するには、次のコマンドを使います。To list topics, use the following command:

    /usr/hdp/current/kafka-broker/bin/kafka-topics.sh --list --zookeeper $KAFKAZKHOSTS
    

    このコマンドは、Apache Kafka クラスターで使用可能なトピックの一覧を表示します。This command lists the topics available on the Apache Kafka cluster.

  • トピックを削除するには、次のコマンドを使います。To delete a topic, use the following command:

    /usr/hdp/current/kafka-broker/bin/kafka-topics.sh --delete --topic topicname --zookeeper $KAFKAZKHOSTS
    

    このコマンドは、topicname という名前のトピックを削除します。This command deletes the topic named topicname.

    警告

    前に作成した test トピックを削除した場合は、再作しなおす必要があります。If you delete the test topic created earlier, then you must recreate it. このドキュメントの後半で使います。It is used by steps later in this document.

kafka-topics.sh ユーティリティで使用可能なコマンドの詳細については、次のコマンドを使用します。For more information on the commands available with the kafka-topics.sh utility, use the following command:

/usr/hdp/current/kafka-broker/bin/kafka-topics.sh

レコードの生成および消費Produce and consume records

Kafka では、トピック内にレコードが格納されます。Kafka stores records in topics. レコードは、プロデューサーによって生成され、コンシューマーによって消費されます。Records are produced by producers, and consumed by consumers. プロデューサーとコンシューマーは "Kafka ブローカー" サービスと通信します。Producers and consumers communicate with the Kafka broker service. HDInsight クラスターの各ワーカー ノードが、Apache Kafka ブローカー ホストです。Each worker node in your HDInsight cluster is an Apache Kafka broker host.

先ほど作成した test トピックにレコードを格納し、コンシューマーを使用してそれらを読み取るには、次の手順に従います。To store records into the test topic you created earlier, and then read them using a consumer, use the following steps:

  1. トピックにレコードを書き込むには、SSH 接続から kafka-console-producer.sh ユーティリティを使用します。To write records to the topic, use the kafka-console-producer.sh utility from the SSH connection:

    /usr/hdp/current/kafka-broker/bin/kafka-console-producer.sh --broker-list $KAFKABROKERS --topic test
    

    このコマンドの後ろには空の行があります。After this command, you arrive at an empty line.

  2. 空の行にテキスト メッセージを入力して、Enter キーを押します。Type a text message on the empty line and hit enter. このようにメッセージをいくつか入力してから、Ctrl + C キーを使用して通常のプロンプトに戻ります。Enter a few messages this way, and then use Ctrl + C to return to the normal prompt. 各行が、個別のレコードとして Apache Kafka トピックに送信されます。Each line is sent as a separate record to the Apache Kafka topic.

  3. トピックからレコードを読み取るには、SSH 接続から kafka-console-consumer.sh ユーティリティを使用します。To read records from the topic, use the kafka-console-consumer.sh utility from the SSH connection:

    /usr/hdp/current/kafka-broker/bin/kafka-console-consumer.sh --bootstrap-server $KAFKABROKERS --topic test --from-beginning
    

    このコマンドにより、レコードがトピックから取得され、表示されます。This command retrieves the records from the topic and displays them. --from-beginning を使用することで、すべてのレコードが取得されるように、コンシューマーにストリームの先頭から開始するように指示しています。Using --from-beginning tells the consumer to start from the beginning of the stream, so all records are retrieved.

    注意

    以前のバージョンの Kafka を使っている場合、--bootstrap-server $KAFKABROKERS--zookeeper $KAFKAZKHOSTS に置き換えます。If you are using an older version of Kafka, replace --bootstrap-server $KAFKABROKERS with --zookeeper $KAFKAZKHOSTS.

  4. Ctrl+C キーを使用してコンシューマーを停止します。Use Ctrl + C to stop the consumer.

プロデューサーとコンシューマーをプログラムから作成することもできます。You can also programmatically create producers and consumers. この API の使用例については、HDInsight における Apache Kafka Producer API と Consumer API に関するドキュメントを参照してください。For an example of using this API, see the Apache Kafka Producer and Consumer API with HDInsight document.

リソースのクリーンアップClean up resources

このクイックスタートで作成したリソースをクリーンアップするために、リソース グループを削除できます。To clean up the resources created by this quickstart, you can delete the resource group. リソース グループを削除すると、関連付けられている HDInsight クラスター、およびリソース グループに関連付けられているその他のリソースも削除されます。Deleting the resource group also deletes the associated HDInsight cluster, and any other resources associated with the resource group.

Azure Portal を使用してリソース グループを削除するには:To remove the resource group using the Azure portal:

  1. Azure Portal で左側のメニューを展開してサービスのメニューを開き、[リソース グループ] を選択して、リソース グループの一覧を表示します。In the Azure portal, expand the menu on the left side to open the menu of services, and then choose Resource Groups to display the list of your resource groups.
  2. 削除するリソース グループを見つけて、一覧の右側にある [詳細] ボタン ([...]) を右クリックします。Locate the resource group to delete, and then right-click the More button (...) on the right side of the listing.
  3. [リソース グループの削除] を選択し、確認します。Select Delete resource group, and then confirm.

警告

HDInsight クラスターの課金は、クラスターが作成されると開始し、クラスターが削除されると停止します。HDInsight cluster billing starts once a cluster is created and stops when the cluster is deleted. 課金は分単位なので、クラスターを使わなくなったら必ず削除してください。Billing is pro-rated per minute, so you should always delete your cluster when it is no longer in use.

HDInsight クラスター上の Apache Kafka を削除すると、Kafka に格納されているすべてのデータが削除されます。Deleting an Apache Kafka on HDInsight cluster deletes any data stored in Kafka.

次の手順Next steps