Rychlý start: Vytvoření clusteru Apache Kafka ve službě Azure HDInsight pomocí Azure PortalQuickstart: Create Apache Kafka cluster in Azure HDInsight using Azure portal

Apache Kafka je open source distribuovaná streamovací platforma.Apache Kafka is an open-source, distributed streaming platform. Často se používá jako zprostředkovatel zpráv, protože nabízí funkce podobné frontě pro publikování a odběr zpráv.It's often used as a message broker, as it provides functionality similar to a publish-subscribe message queue.

V tomto rychlém startu se dozvíte, jak vytvořit cluster Apache Kafka pomocí webu Azure Portal.In this quickstart, you learn how to create an Apache Kafka cluster using the Azure portal. Dozvíte se také, jak používat obsažené nástroje k odesílání a příjmu zpráv pomocí platformy Apache Kafka.You also learn how to use included utilities to send and receive messages using Apache Kafka.

Varování

Za clustery HDInsight se fakturuje za minutu, ať už používáte je nebo není.Billing for HDInsight clusters is prorated per minute, whether you use them or not. Nezapomeňte odstranit cluster po dokončení jeho použití.Be sure to delete your cluster after you finish using it. Zobrazit odstranění clusteru služby HDInsight.See how to delete an HDInsight cluster.

Rozhraní Apache Kafka API je přístupné jenom pro prostředky ve stejné virtuální síti.The Apache Kafka API can only be accessed by resources inside the same virtual network. V tomto rychlém startu budete ke clusteru přistupovat přímo pomocí SSH.In this quickstart, you access the cluster directly using SSH. Pokud chcete k platformě Apache Kafka připojit jiné služby, sítě nebo virtuální počítače, musíte nejprve vytvořit virtuální síť a pak v síti vytvořit prostředky.To connect other services, networks, or virtual machines to Apache Kafka, you must first create a virtual network and then create the resources within the network. Další informace najdete v dokumentu Připojení k platformě Apache Kafka pomocí virtuální sítě.For more information, see the Connect to Apache Kafka using a virtual network document.

Pokud ještě nemáte předplatné Azure, vytvořte si bezplatný účet před tím, než začnete.If you don't have an Azure subscription, create a free account before you begin.

PožadavkyPrerequisites

Klient SSH.An SSH client. Další informace najdete v tématu připojení ke službě HDInsight (Apache Hadoop) pomocí SSH.For more information, see Connect to HDInsight (Apache Hadoop) using SSH.

Vytvoření clusteru Apache KafkaCreate an Apache Kafka cluster

K vytvoření clusteru Apache Kafka ve službě HDInsight použijte následující postup:To create an Apache Kafka on HDInsight cluster, use the following steps:

  1. Přihlaste se k webu Azure Portal.Sign in to the Azure portal.

  2. V nabídce vlevo přejděte na + vytvořit Resource > Analytics > HDInsight.From the left menu, navigate to + Create a resource > Analytics > HDInsight.

    Vytvoření clusteru HDInsight

  3. V části Základy zadejte nebo vyberte následující informace:From Basics, enter or select the following information:

    NastaveníSetting HodnotaValue
    Název clusteruCluster Name Jedinečný název clusteru HDInsight.A unique name for the HDInsight cluster.
    SubscriptionSubscription Vyberte své předplatné.Select your subscription.

    Vyberte Typ clusteru a zobrazte Konfiguraci clusteru.Select Cluster Type to display the Cluster configuration.

    Základní konfigurace clusteru Apache Kafka ve službě HDInsight

  4. V části __Konfigurace clusteru__vyberte následující hodnoty:From Cluster configuration, select the following values:

    NastaveníSetting ValueValue
    Typ clusteruCluster Type KafkaKafka
    VersionVersion Kafka 1.1.0 (HDI 3.6)Kafka 1.1.0 (HDI 3.6)

    Výběrem možnosti vybrat uložte nastavení typu clusteru a vraťte se k základům.Select Select to save the cluster type settings and return to Basics.

    Vybrat typ clusteru

  5. V části Základy zadejte nebo vyberte následující informace:From Basics, enter or select the following information:

    NastaveníSetting ValueValue
    Uživatelské jméno přihlášení clusteruCluster login username Přihlašovací jméno pro přístup k webovým službám nebo rozhraním REST API hostovaným v clusteru.The login name when accessing web services or REST APIs hosted on the cluster. Ponechte výchozí hodnotu (admin).Keep the default value (admin).
    Heslo přihlášení clusteruCluster login password Přihlašovací heslo pro přístup k webovým službám nebo rozhraním REST API hostovaným v clusteru.The login password when accessing web services or REST APIs hosted on the cluster.
    Uživatelské jméno Secure Shell (SSH)Secure Shell (SSH) username Přihlašovací údaje používané pro přístup ke clusteru přes SSH.The login used when accessing the cluster over SSH. Ve výchozím nastavení je heslo stejné jako pro přihlášení ke clusteru.By default the password is the same as the cluster login password.
    Skupina prostředkůResource Group Skupina prostředků, ve které se cluster vytváří.The resource group to create the cluster in.
    LocationLocation Oblast Azure, ve které se cluster vytváří.The Azure region to create the cluster in.

    Každá oblast Azure (umístění) poskytuje domény selhání.Each Azure region (location) provides fault domains. Doména selhání je logické seskupení základního hardwaru v datovém centru Azure.A fault domain is a logical grouping of underlying hardware in an Azure data center. Všechny domény selhání sdílí společný zdroje napájení a síťový přepínač.Each fault domain shares a common power source and network switch. Virtuální počítače a spravované disky, které implementují uzly v clusteru služby HDInsight, jsou distribuované napříč těmito doménami selhání.The virtual machines and managed disks that implement the nodes within an HDInsight cluster are distributed across these fault domains. Tato architektura omezuje potenciální dopad selhání fyzického hardwaru.This architecture limits the potential impact of physical hardware failures.

    Pro zajištění vysoké dostupnosti dat vyberte oblast (umístění), které obsahuje tři domény selhání.For high availability of data, select a region (location) that contains three fault domains. Informace o počtu domén selhání v oblasti najdete v dokumentu popisujícím dostupnost Linuxových virtuálních počítačů.For information on the number of fault domains in a region, see the Availability of Linux virtual machines document.

    Výběr předplatného

    Kliknutím na tlačítko Další dokončete základní konfiguraci.Select Next to finish basic configuration.

  6. Pro účely tohoto rychlého startu ponechte výchozí nastavení zabezpečení.For this quickstart, leave the default security settings. Další informace o Balíčku zabezpečení podniku najdete v tématu Konfigurace clusteru HDInsight s Balíčkem zabezpečení podniku pomocí služby Azure Active Directory Domain Services.To learn more about Enterprise Security package, visit Configure a HDInsight cluster with Enterprise Security Package by using Azure Active Directory Domain Services. Informace o tom, jak k šifrování disku Apache Kafka použít vlastní klíč, najdete v tématu Používání vlastního klíče pro Apache Kafka ve službě Azure HDInsight.To learn how to use your own key for Apache Kafka Disk Encryption, visit Bring your own key for Apache Kafka on Azure HDInsight

    Pokud chcete svůj cluster připojit k virtuální síti, vyberte virtuální síť v rozevíracím seznamu Virtuální síť.If you would like to connect your cluster to a virtual network, select a virtual network from the Virtual network dropdown.

    Přidání clusteru do virtuální sítě

  7. V části Úložiště vyberte nebo vytvořte účet úložiště.From Storage, select or create a Storage account. Pro ukázkový postup v tomto dokumentu ponechte ve všech ostatních polích výchozí hodnoty.For the steps in this document, leave the other fields at the default values. Stisknutím tlačítka Další uložte konfiguraci úložiště.Use the Next button to save storage configuration. Další informace o používání Data Lake Storage Gen2 najdete v tématu rychlý Start: Nastavte clustery v HDInsight.For more information on using Data Lake Storage Gen2, see Quickstart: Set up clusters in HDInsight.

    Nastavení účtu úložiště pro HDInsight

  8. Pokud chcete pokračovat s výchozím nastavením, v části Aplikace (volitelné) vyberte Další.From Applications (optional), select Next to continue with the default settings.

  9. Pokud chcete pokračovat s výchozím nastavením, v části Velikost clusteru vyberte Další.From Cluster size, select Next to continue with the default settings.

    K zajištění dostupnosti systému Apache Kafka ve službě HDInsight musí být položka Počet pracovních uzlů nastavená na hodnotu 3 nebo vyšší.To guarantee availability of Apache Kafka on HDInsight, the number of worker nodes entry must be set to 3 or greater. Výchozí hodnota je 4.The default value is 4.

    Položka Počet disků na pracovní uzel konfiguruje škálovatelnost systému Apache Kafka ve službě HDInsight.The disks per worker node entry configures the scalability of Apache Kafka on HDInsight. Apache Kafka ve službě HDInsight používá k ukládání dat místní disky virtuálních počítačů v clusteru.Apache Kafka on HDInsight uses the local disk of the virtual machines in the cluster to store data. Platforma Apache Kafka je náročná na vstupně-výstupní operace, proto se k zajištění vysoké propustnosti a vyšší kapacity úložiště na každý uzel využívají Spravované disky Azure.Apache Kafka is I/O heavy, so Azure Managed Disks are used to provide high throughput and more storage per node. Typ spravovaného disku může být buď Standardní (HDD), nebo Prémiový (SSD).The type of managed disk can be either Standard (HDD) or Premium (SSD). Typ disku závisí na velikosti virtuálního počítače používaného pracovními uzly (zprostředkovateli Apache Kafka).The type of disk depends on the VM size used by the worker nodes (Apache Kafka brokers). U virtuálních počítačů řady DS a GS se automaticky používají disky Premium.Premium disks are used automatically with DS and GS series VMs. Všechny ostatní typy virtuálních počítačů používají standardní disky.All other VM types use standard.

    Nastavení velikosti clusteru Apache Kafka

  10. Pokud chcete pokračovat s výchozím nastavením, v části Upřesňující nastavení vyberte Další.From Advanced settings, select Next to continue with the default settings.

  11. V části Souhrn zkontrolujte konfiguraci clusteru.From the Summary, review the configuration for the cluster. Pomocí odkazů Upravit opravte případná chybná nastavení.Use the Edit links to change any settings that are incorrect. Nakonec vyberte vytvořit a vytvořte cluster.Finally, select Create to create the cluster.

    Souhrn konfigurace clusteru

    Vytvoření clusteru trvá přibližně 20 minut.It can take up to 20 minutes to create the cluster.

Připojení ke clusteruConnect to the cluster

  1. Pokud se chcete připojit k primárnímu hlavnímu uzlu Apache Kafka clusteru, použijte následující příkaz.To connect to the primary head node of the Apache Kafka cluster, use the following command. Nahraďte sshuser uživatelským jménem SSH.Replace sshuser with the SSH user name. Nahraďte mykafka názvem vašeho Kafkaclusteru Apache.Replace mykafka with the name of your Apache Kafkacluster.

    ssh sshuser@mykafka-ssh.azurehdinsight.net
    
  2. Když se ke clusteru poprvé připojíte, ve vašem klientovi SSH se může zobrazit upozornění na nemožnost potvrzení pravosti hostitele.When you first connect to the cluster, your SSH client may display a warning that the authenticity of the host can't be established. Po zobrazení výzvy zadejte yes (ano) a pak stisknutím klávesy Enter přidejte hostitele na seznam důvěryhodných serverů vašeho klienta SSH.When prompted type yes, and then press Enter to add the host to your SSH client's trusted server list.

  3. Po zobrazení výzvy zadejte heslo uživatele SSH.When prompted, enter the password for the SSH user.

    Po připojení se zobrazí informace podobné tomuto textu:Once connected, you see information similar to the following text:

    Authorized uses only. All activity may be monitored and reported.
    Welcome to Ubuntu 16.04.4 LTS (GNU/Linux 4.13.0-1011-azure x86_64)
    
     * Documentation:  https://help.ubuntu.com
     * Management:     https://landscape.canonical.com
     * Support:        https://ubuntu.com/advantage
    
      Get cloud support with Ubuntu Advantage Cloud Guest:
        https://www.ubuntu.com/business/services/cloud
    
    83 packages can be updated.
    37 updates are security updates.
    
    
    Welcome to Apache Kafka on HDInsight.
    
    Last login: Thu Mar 29 13:25:27 2018 from 108.252.109.241
    

Získání informací o hostiteli Apache Zookeeper a BrokerGet the Apache Zookeeper and Broker host information

Při práci s Kafka je nutné znát hostitele Apache Zookeeper a Broker .When working with Kafka, you must know the Apache Zookeeper and Broker hosts. Tito hostitelé se používají s rozhraním Apache Kafka API a mnohými z nástrojů, které se se systémem Kafka dodávají.These hosts are used with the Apache Kafka API and many of the utilities that ship with Kafka.

V této části získáte informace o hostiteli z REST API Apache Ambari v clusteru.In this section, you get the host information from the Apache Ambari REST API on the cluster.

  1. Nainstalujte JQprocesor JSON pro příkazový řádek.Install jq, a command-line JSON processor. Tento nástroj slouží k analýze dokumentů JSON a je užitečný při analýze informací o hostiteli.This utility is used to parse JSON documents, and is useful in parsing the host information. V otevřeném připojení SSH zadejte následující příkaz, který chcete jqnainstalovat:From the open SSH connection, enter following command to install jq:

    sudo apt -y install jq
    
  2. Nastavte proměnné prostředí.Set up environment variables. V uvedeném pořadí nahraďte PASSWORD heslem přihlášení clusteru a názvem clusteru a potom zadejte příkaz: CLUSTERNAMEReplace PASSWORD and CLUSTERNAME with the cluster login password and cluster name respectively, then enter the command:

    export password='PASSWORD'
    export clusterNameA='CLUSTERNAME'
    
  3. Extrahuje správně použita název clusteru.Extract correctly cased cluster name. V závislosti na tom, jak byl cluster vytvořen, může být skutečná velikost názvu clusteru odlišná, než očekáváte.The actual casing of the cluster name may be different than you expect, depending on how the cluster was created. Tento příkaz získá skutečná velká a malá písmena, uloží je do proměnné a pak zobrazí správně použita jméno a název, který jste zadali dříve.This command will obtain the actual casing, store it in a variable, and then display the correctly cased name, and the name you provided earlier. Zadejte následující příkaz:Enter the following command:

    export clusterName=$(curl -u admin:$password -sS -G "https://$clusterNameA.azurehdinsight.net/api/v1/clusters" | jq -r '.items[].Clusters.cluster_name')
    echo $clusterName, $clusterNameA
    
  4. K nastavení proměnné prostředí s informacemi o hostiteli Zookeeper použijte následující příkaz.To set an environment variable with Zookeeper host information, use the command below. Příkaz načte všechny hostitele Zookeeper a potom vrátí pouze první dvě položky.The command retrieves all Zookeeper hosts, then returns only the first two entries. Je to proto, že chcete určitou redundanci pro případ, že jeden hostitel bude nedosažitelný.This is because you want some redundancy in case one host is unreachable.

    export KAFKAZKHOSTS=`curl -sS -u admin:$password -G http://headnodehost:8080/api/v1/clusters/$clusterName/services/ZOOKEEPER/components/ZOOKEEPER_SERVER | jq -r '["\(.host_components[].HostRoles.host_name):2181"] | join(",")' | cut -d',' -f1,2`
    

    Tento příkaz se přímo dotazuje služby Ambari na hlavním uzlu clusteru.This command directly queries the Ambari service on the cluster head node. K Ambari můžete také přistupovat pomocí veřejné adresy https://$CLUSTERNAME.azurehdinsight.net:80/.You can also access Ambari using the public address of https://$CLUSTERNAME.azurehdinsight.net:80/. Některé síťové konfigurace mohou přístupu k veřejné adrese bránit.Some network configurations can prevent access to the public address. Použití skupin zabezpečení sítě například omezuje přístup k HDInsight ve virtuální síti.For example, using Network Security Groups (NSG) to restrict access to HDInsight in a virtual network.

  5. Pokud chcete ověřit správné nastavení proměnné prostředí, použijte následující příkaz:To verify that the environment variable is set correctly, use the following command:

    echo $KAFKAZKHOSTS
    

    Tento příkaz by měl vrátit informace podobné následujícímu textu:This command returns information similar to the following text:

    zk0-kafka.eahjefxxp1netdbyklgqj5y1ud.ex.internal.cloudapp.net:2181,zk2-kafka.eahjefxxp1netdbyklgqj5y1ud.ex.internal.cloudapp.net:2181

  6. K nastavení proměnné prostředí s použitím informací o hostiteli zprostředkovatele Apache Kafka použijte následující příkaz:To set an environment variable with Apache Kafka broker host information, use the following command:

    export KAFKABROKERS=`curl -sS -u admin:$password -G http://headnodehost:8080/api/v1/clusters/$clusterName/services/KAFKA/components/KAFKA_BROKER | jq -r '["\(.host_components[].HostRoles.host_name):9092"] | join(",")' | cut -d',' -f1,2`
    
  7. Pokud chcete ověřit správné nastavení proměnné prostředí, použijte následující příkaz:To verify that the environment variable is set correctly, use the following command:

    echo $KAFKABROKERS
    

    Tento příkaz by měl vrátit informace podobné následujícímu textu:This command returns information similar to the following text:

    wn1-kafka.eahjefxxp1netdbyklgqj5y1ud.cx.internal.cloudapp.net:9092,wn0-kafka.eahjefxxp1netdbyklgqj5y1ud.cx.internal.cloudapp.net:9092

Správa témat Apache KafkaManage Apache Kafka topics

Kafka ukládá datové proudy do témat.Kafka stores streams of data in topics. Témata můžete spravovat pomocí nástroje kafka-topics.sh.You can use the kafka-topics.sh utility to manage topics.

  • K vytvoření tématu použijte tento příkaz v připojení SSH:To create a topic, use the following command in the SSH connection:

    /usr/hdp/current/kafka-broker/bin/kafka-topics.sh --create --replication-factor 3 --partitions 8 --topic test --zookeeper $KAFKAZKHOSTS
    

    Tento příkaz se připojí k hostiteli Zookeeper s použitím informací uložených v proměnné $KAFKAZKHOSTS.This command connects to Zookeeper using the host information stored in $KAFKAZKHOSTS. Pak vytvoří téma Apache Kafka s názvem test.It then creates an Apache Kafka topic named test.

    • Data uložená v tomto tématu jsou rozdělená mezi osm oddílů.Data stored in this topic is partitioned across eight partitions.

    • Každý oddíl se replikuje mezi tři pracovní uzly v clusteru.Each partition is replicated across three worker nodes in the cluster.

      Pokud jste vytvořili cluster v oblasti Azure, která poskytuje tři domény selhání, použijte faktor replikace 3.If you created the cluster in an Azure region that provides three fault domains, use a replication factor of 3. Jinak použijte faktor replikace 4.Otherwise, use a replication factor of 4.

      V oblastech se třemi doménami selhání faktor replikace 3 umožní rozložení replik mezi domény selhání.In regions with three fault domains, a replication factor of 3 allows replicas to be spread across the fault domains. V oblastech se dvěma doménami selhání faktor replikace 4 rozloží repliky rovnoměrně mezi domény selhání.In regions with two fault domains, a replication factor of four spreads the replicas evenly across the domains.

      Informace o počtu domén selhání v oblasti najdete v dokumentu popisujícím dostupnost Linuxových virtuálních počítačů.For information on the number of fault domains in a region, see the Availability of Linux virtual machines document.

      Apache Kafka nemá o doménách selhání Azure žádné informace.Apache Kafka is not aware of Azure fault domains. Při vytváření replik oddílu pro témata se nemusí repliky distribuovat správně z hlediska vysoké dostupnosti.When creating partition replicas for topics, it may not distribute replicas properly for high availability.

      Pokud chcete zajistit vysokou dostupnost, použijte Nástroj pro obnovení rovnováhy oddílu Apache Kafka.To ensure high availability, use the Apache Kafka partition rebalance tool. Tento nástroj se musí spustit z připojení SSH k hlavnímu uzlu clusteru Apache Kafka.This tool must be ran from an SSH connection to the head node of your Apache Kafka cluster.

      K zajištění nejvyšší dostupnosti dat Apache Kafka byste měli obnovit rovnováhu replik oddílů pro vaše téma v těchto situacích:For the highest availability of your Apache Kafka data, you should rebalance the partition replicas for your topic when:

      • Při vytvoření nového tématu nebo oddíluYou create a new topic or partition

      • Při vertikálním navýšení kapacity clusteruYou scale up a cluster

  • K zobrazení seznamu témat použijte tento příkaz:To list topics, use the following command:

    /usr/hdp/current/kafka-broker/bin/kafka-topics.sh --list --zookeeper $KAFKAZKHOSTS
    

    Tento příkaz vypíše seznam témat dostupných v clusteru Apache Kafka.This command lists the topics available on the Apache Kafka cluster.

  • K odstranění tématu použijte tento příkaz:To delete a topic, use the following command:

    /usr/hdp/current/kafka-broker/bin/kafka-topics.sh --delete --topic topicname --zookeeper $KAFKAZKHOSTS
    

    Tento příkaz odstraní téma s názvem topicname.This command deletes the topic named topicname.

    Varování

    Pokud odstraníte dříve vytvořené téma test, pak ho musíte vytvořit znovu.If you delete the test topic created earlier, then you must recreate it. Používá se v dalších krocích tohoto dokumentu.It is used by steps later in this document.

Další informace o příkazech, které jsou k dispozici v nástroji kafka-topics.sh, získáte pomocí tohoto příkazu:For more information on the commands available with the kafka-topics.sh utility, use the following command:

/usr/hdp/current/kafka-broker/bin/kafka-topics.sh

Produkce a konzumace záznamůProduce and consume records

Kafka ukládá záznamy v tématech.Kafka stores records in topics. Záznamy jsou vytvářeny producenty a spotřebovávány konzumenty.Records are produced by producers, and consumed by consumers. Producenti a konzumenti komunikují se službou zprostředkovatele Kafka.Producers and consumers communicate with the Kafka broker service. Každý pracovní uzel v clusteru HDInsight je hostitelem zprostředkovatele Apache Kafka.Each worker node in your HDInsight cluster is an Apache Kafka broker host.

Pokud chcete uložit záznamy do dříve vytvořeného tématu test a pak je načíst pomocí konzumenta, použijte následující postup:To store records into the test topic you created earlier, and then read them using a consumer, use the following steps:

  1. Pokud chcete zapsat záznamy do tématu, použijte nástroj kafka-console-producer.sh z připojení SSH:To write records to the topic, use the kafka-console-producer.sh utility from the SSH connection:

    /usr/hdp/current/kafka-broker/bin/kafka-console-producer.sh --broker-list $KAFKABROKERS --topic test
    

    Po tomto příkazu přejdete na prázdný řádek.After this command, you arrive at an empty line.

  2. Na prázdný řádek zadejte textovou zprávu a stiskněte Enter.Type a text message on the empty line and hit enter. Tímto způsobem zadejte několik zpráv a pak se pomocí klávesové zkratky Ctrl + C vraťte na normální příkazový řádek.Enter a few messages this way, and then use Ctrl + C to return to the normal prompt. Každý řádek se odešle do tématu Apache Kafka jako samostatný záznam.Each line is sent as a separate record to the Apache Kafka topic.

  3. Pokud chcete číst záznamy z tématu, použijte nástroj kafka-console-consumer.sh z připojení SSH:To read records from the topic, use the kafka-console-consumer.sh utility from the SSH connection:

    /usr/hdp/current/kafka-broker/bin/kafka-console-consumer.sh --bootstrap-server $KAFKABROKERS --topic test --from-beginning
    

    Tento příkaz načte záznamy z tématu a zobrazí je.This command retrieves the records from the topic and displays them. Parametr --from-beginning způsobí, že konzument začne načítat od začátku datového proudu a zpracuje tak všechny záznamy.Using --from-beginning tells the consumer to start from the beginning of the stream, so all records are retrieved.

    Pokud používáte starší verzi Kafka, nahraďte --bootstrap-server $KAFKABROKERS za --zookeeper $KAFKAZKHOSTS.If you are using an older version of Kafka, replace --bootstrap-server $KAFKABROKERS with --zookeeper $KAFKAZKHOSTS.

  4. Konzumenta zastavíte stisknutím Ctrl+C.Use Ctrl + C to stop the consumer.

Můžete také programově vytvořit producenty a spotřebitele.You can also programmatically create producers and consumers. Příklad použití tohoto rozhraní API najdete v dokumentu rozhraní API pro Apache Kafka výrobce a příjemce s využitím služby HDInsight.For an example of using this API, see the Apache Kafka Producer and Consumer API with HDInsight document.

Vyčištění prostředkůClean up resources

Pokud chcete vyčistit prostředky vytvořené v tomto rychlém startu, můžete odstranit skupinu prostředků.To clean up the resources created by this quickstart, you can delete the resource group. Odstraněním skupiny prostředků odstraníte také přidružený cluster HDInsight a všechny další prostředky, které jsou k příslušné skupině prostředků přidružené.Deleting the resource group also deletes the associated HDInsight cluster, and any other resources associated with the resource group.

Odebrání skupiny prostředků pomocí webu Azure Portal:To remove the resource group using the Azure portal:

  1. Na webu Azure Portal rozbalením nabídky na levé straně otevřete nabídku služeb a pak zvolte Skupiny prostředků. Zobrazí se seznam skupin prostředků.In the Azure portal, expand the menu on the left side to open the menu of services, and then choose Resource Groups to display the list of your resource groups.
  2. Vyhledejte skupinu prostředků, kterou chcete odstranit, a klikněte pravým tlačítkem na tlačítko Další (...) na pravé straně seznamu.Locate the resource group to delete, and then right-click the More button (...) on the right side of the listing.
  3. Vyberte Odstranit skupinu prostředků a potvrďte tuto akci.Select Delete resource group, and then confirm.

Varování

Účtování clusteru HDInsight začne vytvořením clusteru a skončí jeho odstraněním.HDInsight cluster billing starts once a cluster is created and stops when the cluster is deleted. Účtuje se poměrnou částí po minutách, takže byste cluster měli odstranit vždy, když už se nepoužívá.Billing is pro-rated per minute, so you should always delete your cluster when it is no longer in use.

Odstraněním clusteru Apache Kafka ve službě HDInsight odstraníte také všechna data uložená v systému Kafka.Deleting an Apache Kafka on HDInsight cluster deletes any data stored in Kafka.

Další postupNext steps