Installieren von Apache Hadoop-Anwendungen von Drittanbietern in Azure HDInsightInstall third-party Apache Hadoop applications on Azure HDInsight

Hier erfahren Sie, wie Sie Apache Hadoop-Anwendungen von Drittanbietern in Azure HDInsight installieren.Learn how to install a third-party Apache Hadoop application on Azure HDInsight. Eine Anleitung zur Installation Ihrer eigenen Anwendung finden Sie unter Installieren benutzerdefinierter HDInsight-Anwendungen.For instructions on installing your own application, see Install custom HDInsight applications.

Eine HDInsight-Anwendung kann von Benutzern in einem HDInsight-Cluster installiert werden.An HDInsight application is an application that users can install on an HDInsight cluster. Diese Anwendungen können von Microsoft oder von unabhängigen Softwareanbietern (Independent Software Vendors, ISVs) bezogen oder aber selbst entwickelt werden.These applications can be developed by Microsoft, independent software vendors (ISV) or by yourself.

Die folgende Liste zeigt die veröffentlichten Anwendungen:The following list shows the published applications:

AnwendungApplication Clustertyp(en)Cluster type(s) BESCHREIBUNGDescription
AtScale Intelligence-PlattformAtScale Intelligence Platform HadoopHadoop AtScale wandelt Ihren HDInsight-Cluster in einen OLAP-Server mit horizontaler Skalierung um, wodurch Sie vertraute Business Intelligence-Tools (von Microsoft Excel, Power BI und Tableau Software bis hin zu Qlikview), die Sie bereits besitzen und zu schätzen wissen, interaktiv zum Abfragen von Milliarden von Zeilen von Daten verwenden können.AtScale turns your HDInsight cluster into a scale-out OLAP server, allowing you to query billions of rows of data interactively using the BI tools you already know, own, and love – from Microsoft Excel, Power BI, Tableau Software to QlikView.
CDAP für HDInsightCDAP for HDInsight hbaseHBase CDAP ist die erste einheitliche Integrationsplattform für Big Data, die die Amortisationszeit für Hadoop beschleunigt und Informatikern ermöglicht, Self-Service-Daten bereitzustellen.CDAP is the first unified integration platform for big data that accelerates time to value for Hadoop and enables IT to provide self-service data. CDAP ist Open Source und erweiterbar, wodurch Hürden für die Innovation entfernt werden.Open source and extensible, CDAP removes barriers to innovation. Anforderungen: 4 Regionsknoten und eine D3 v2-Instanz (mindestens).Requirements: 4 Region nodes, min D3 v2.
DatameerDatameer HadoopHadoop Die skalierbare Self-Service-Plattform von Datameer zum Vorbereiten, Untersuchen und Steuern Ihrer Daten für die Analyse, mit der Sie komplexe Daten aus mehreren Quellen schneller in wertvolle unternehmensrelevante Informationen verwandeln und schnell hilfreiche Erkenntnisse für das gesamte Unternehmen gewinnen können.Datameer’s self-service scalable platform for preparing, exploring, and governing your data for analytics accelerates turning complex multisource data into valuable business-ready information, delivering faster, smarter insights at an enterprise-scale.
Dataiku DSS in HDInsightDataiku DSS on HDInsight Hadoop, SparkHadoop, Spark Dataiku DSS ist eine Data Science-Plattform für Unternehmen, mit der Data Scientists und Data Analysts zusammenarbeiten können, um neue Datenprodukte und Dienste effizienter zu entwerfen und auszuführen, wodurch Rohdaten in aussagekräftig Vorhersagen konvertiert werden.Dataiku DSS in an enterprise data science platform that lets data scientists and data analysts collaborate to design and run new data products and services more efficiently, turning raw data into impactful predictions.
WANdisco Fusion HDI AppWANdisco Fusion HDI App Hadoop, Spark, HBase, Storm, KafkaHadoop, Spark,HBase,Storm,Kafka Die Beibehaltung der Datenkonsistenz in einer verteilten Umgebung ist eine große Herausforderung für Datenvorgänge.Keeping data consistent in a distributed environment is a massive data operations challenge. WANdisco Fusion ist eine professionelle Softwareplattform, die dieses Problem löst, indem unstrukturierte Datenkonsistenz zwischen beliebigen Umgebungen ermöglicht wird.WANdisco Fusion, an enterprise-class software platform, solves this problem by enabling unstructured data consistency across any environment.
H2O SparklingWater für HDInsightH2O SparklingWater for HDInsight SparkSpark H2O Sparkling Water unterstützt die folgenden verteilten Algorithmen: GLM, Naïve Bayes, Distributed Random Forest, Gradient Boosting Machine, Deep Neural Networks, Deep learning, K-means, PCA, Generalized Low Rank Models, Anomalieerkennung und Autoencoders.H2O Sparkling Water supports the following distributed algorithms: GLM, Naïve Bayes, Distributed Random Forest, Gradient Boosting Machine, Deep Neural Networks, Deep learning, K-means, PCA, Generalized Low Rank Models, Anomaly Detection, Autoencoders.
Striim für Echtzeitdatenintegration in HDInsightStriim for Real-Time Data Integration to HDInsight Hadoop, HBase, Storm, Spark, KafkaHadoop,HBase,Storm,Spark,Kafka Striim (Aussprache: Stream) ist eine End-to-End-Integrations- und Intelligence-Plattform für Streamingdaten, die eine kontinuierliche Erfassung, Verarbeitung und Analyse unterschiedlicher Datenströme ermöglicht.Striim (pronounced "stream") is an end-to-end streaming data integration + intelligence platform, enabling continuous ingestion, processing, and analytics of disparate data streams.
Jumbune – BigData-Analyse für UnternehmensbeschleunigungJumbune Enterprise-Accelerating BigData Analytics Hadoop, SparkHadoop, Spark Jumbune unterstützt Unternehmen im Allgemeinen wie folgt:At a high level, Jumbune assists enterprises by, 1. 1. Beschleunigt die Workloadleistung von Tez, MapReduce & Spark-basiertes Hive, Java, und Scala.Accelerating Tez, MapReduce & Spark engine based Hive, Java, Scala workload performance. 2.2. Überwacht Hadoop-Cluster proaktiv.Proactive Hadoop Cluster Monitoring, 3. 3. Richtet Datenqualitätsverwaltung für verteilte Dateisysteme ein.Establishing Data Quality management on distributed file system.
Kyligence EnterpriseKyligence Enterprise Hadoop, HBase, SparkHadoop,HBase,Spark Unterstützt von Apache Kylin ermöglicht Kyligence Enterprise Business Intelligence für Big Data.Powered by Apache Kylin, Kyligence Enterprise Enables BI on Big Data. Kyligence Enterprise ist eine professionelle OLAP-Engine für Hadoop, mit der Business Analysten Business Intelligence für Hadoop mit Data Warehouse- und BI-Methoden entwerfen können, die dem Industriestandard entsprechen.As an enterprise OLAP engine on Hadoop, Kyligence Enterprise empowers business analyst to architect BI on Hadoop with industry-standard data warehouse and BI methodology.
Spark Job Server für KNIME Spark ExecutorSpark Job Server for KNIME Spark Executor SparkSpark Spark Job Server for KNIME Spark Executor wird zum Verbinden der KNIME Analytics-Plattform mit HDInsight-Clustern verwendet.Spark Job Server for KNIME Spark Executor is used to connect the KNIME Analytics Platform to HDInsight clusters.
Starburst Presto für Azure HDInsightStarburst Presto for Azure HDInsight HadoopHadoop Presto ist eine schnelle und skalierbare verteilte SQL-Abfrage-Engine.Presto is a fast and scalable distributed SQL query engine. Dank der architekturbedingten Trennung der Speicher- und Computekomponenten eignet sich Presto perfekt zum Abfragen von Daten in Azure Data Lake Storage, Azure Blob Storage, SQL- und NoSQL-Datenbanken sowie in anderen Datenquellen.Architected for the separation of storage and compute, Presto is perfect for querying data in Azure Data Lake Storage, Azure Blob Storage, SQL and NoSQL databases, and other data sources.
StreamSets Data Collector für HDInsight CloudStreamSets Data Collector for HDInsight Cloud Hadoop, HBase, Spark, KafkaHadoop,HBase,Spark,Kafka StreamSets Data Collector ist eine einfache, leistungsstarke Engine, die Daten in Echtzeit übermittelt.StreamSets Data Collector is a lightweight, powerful engine that streams data in real time. Mit Data Collector können Sie Daten in Ihren Datenströmen weiterleiten und verarbeiten.Use Data Collector to route and process data in your data streams. Eine kostenlose 30-tägige Testlizenz steht zur Verfügung.It comes with a 30 day trial license.
Trifacta Wrangler EnterpriseTrifacta Wrangler Enterprise Hadoop, Spark, HBaseHadoop, Spark,HBase Trifacta Wrangler Enterprise für HDInsight unterstützt unternehmensweites Data Wrangling für Daten bei jeder Skalierung.Trifacta Wrangler Enterprise for HDInsight supports enterprise-wide data wrangling for any scale of data. Beim Ausführen von Trifacta in Azure entstehen die Kosten aus den Kosten für das Trifacta-Abonnement und den Kosten Azure-Infrastrukturkosten für die virtuellen Computer.The cost of running Trifacta on Azure is a combination of Trifacta subscription costs plus the Azure infrastructure costs for the virtual machines.
Unifi Data PlatformUnifi Data Platform Hadoop, HBase, Storm, SparkHadoop,HBase,Storm,Spark Unifi Data Platform ist eine nahtlos integrierte Sammlung von Self-Service-Datentools, mit der Unternehmensbenutzer datenbezogene Herausforderungen bewältigen können, um höhere Umsätze zu erzielen, Kosten zu senken oder die Komplexität des Betriebs zu verringern.The Unifi Data Platform is a seamlessly integrated suite of self-service data tools designed to empower the business user to tackle data challenges that drive incremental revenue, reduce costs or operational complexity.
Unraveldata APMUnraveldata APM SparkSpark Unravel Data-App für HDInsight Spark-Cluster.Unravel Data app for HDInsight Spark cluster.
Waterline – KI-gesteuerter DatenkatalogWaterline AI-Driven Data Catalog SparkSpark Waterline katalogisiert, strukturiert und steuert Daten und nutzt KI, um Daten automatisch mit geschäftlichen Begriffen zu markieren.Waterline catalogs, organizes, and governs data using AI to auto-tag data with business terms. Der Geschäftsdatenkatalog von Waterline in eine wichtige Erfolgskomponente für Self-Service-Analysen, Compliance und Governance sowie für IT-Verwaltungsinitiativen.Waterline’s business literate catalog is a critical, success component for self-service analytics, compliance and governance, and IT management initiatives.

Für die Anleitungen in diesem Artikel wird das Azure-Portal verwendet.The instructions provided in this article use Azure portal. Sie können die Azure Resource Manager-Vorlage auch aus dem Portal exportieren oder eine Kopie der Resource Manager-Vorlage von Anbietern erhalten und Azure PowerShell und die klassische Azure-Befehlszeilenschnittstelle zum Bereitstellen der Vorlage verwenden.You can also export the Azure Resource Manager template from the portal or obtain a copy of the Resource Manager template from vendors, and use Azure PowerShell and Azure Classic CLI to deploy the template. Weitere Informationen finden Sie unter Erstellen von Apache Hadoop-Clustern in HDInsight mit Resource Manager-Vorlagen.See Create Apache Hadoop clusters on HDInsight using Resource Manager templates.

VoraussetzungenPrerequisites

Wenn Sie HDInsight-Anwendungen in einem vorhandenen HDInsight-Cluster installieren möchten, benötigen Sie einen HDInsight-Cluster.If you want to install HDInsight applications on an existing HDInsight cluster, you must have an HDInsight cluster. Informationen zum Erstellen eines solchen Clusters finden Sie unter Erstellen von Clustern.To create one, see Create clusters. Im Zuge der HDInsight-Clustererstellung können Sie auch HDInsight-Anwendungen installieren.You can also install HDInsight applications when you create an HDInsight cluster.

Installieren von Anwendungen für vorhandene ClusterInstall applications to existing clusters

Das folgende Verfahren veranschaulicht, wie Sie HDInsight-Anwendungen für einen vorhandenen HDInsight-Cluster installieren.The following procedure shows you how to install HDInsight applications to an existing HDInsight cluster.

Installieren einer HDInsight-AnwendungInstall an HDInsight application

  1. Melden Sie sich beim Azure-Portal an.Sign in to the Azure portal.

  2. Navigieren Sie im linken Menü zu Alle Dienste > Analytics > HDInsight-Cluster.From the left menu, navigate to All services > Analytics > HDInsight clusters.

  3. Wählen Sie dann einen HDInsight-Cluster aus der Liste aus.Select an HDInsight cluster from the list. Falls Sie noch keinen Cluster besitzen, müssen Sie zuerst einen erstellen.If you don't have one, you must create one first. Weitere Informationen finden Sie unter Erstellen von Clustern.see Create clusters.

  4. Klicken Sie in der Kategorie Einstellungen auf Anwendungen.Under the Settings category, select Applications. Im Hauptfenster wird eine Liste der installierten Anwendungen angezeigt.You can see a list of installed applications in the main window.

    HDInsight-Anwendungen – Portal-Menü

  5. Klicken Sie im Menü auf + Hinzufügen.Select +Add from the menu. Ihnen wird eine Liste der verfügbaren Anwendungen angezeigt.You can see a list of available applications. Wenn + Hinzufügen ausgegraut ist, sind keine Anwendungen für diese Version des HDInsight-Clusters verfügbar.If +Add is greyed out, that means there are no applications for this version of the HDInsight cluster.

    HDInsight-Anwendungen – Verfügbare Anwendungen

  6. Klicken Sie auf eine der verfügbaren Anwendungen, und folgen Sie dann den Anweisungen zum Akzeptieren der rechtlichen Bedingungen.Select one of the available applications, and then follow the instructions to accept the legal terms.

Sie können den Status der Installation über die Portalbenachrichtigungen verfolgen. (Klicken Sie hierzu oben im Portal auf das Glockensymbol).You can see the installation status from the portal notifications (select the bell icon on the top of the portal). (Klicken Sie oben im Portal auf das Glockensymbol.) Nach der Installation wird die Anwendung in der Liste „Installierte Apps“ angezeigt.After the application is installed, the application appears on the Installed Apps list.

Installieren von Anwendungen während der ClustererstellungInstall applications during cluster creation

Sie haben die Möglichkeit, die HDInsight-Anwendung beim Erstellen eines Clusters zu installieren.You have the option to install HDInsight applications when you create a cluster. Während des Prozesses werden HDInsight-Anwendungen installiert, nachdem der Cluster erstellt wurde und sich im ausgeführten Zustand befindet.During the process, HDInsight applications are installed after the cluster is created and is in the running state. Verwenden Sie die Option Benutzerdefiniert anstelle der Standardoption Schnellerstellung, um Anwendungen während der Clustererstellung über das Azure-Portal zu installieren.To install applications during cluster creation using the Azure portal, you use the Custom option instead of the default Quick create option.

Auflisten der installierten HDInsight-Apps und EigenschaftenList installed HDInsight apps and properties

Im Portal wird eine Liste mit den installierten HDInsight-Anwendungen für einen Cluster und den Eigenschaften der einzelnen installierten Anwendungen angezeigt.The portal shows a list of the installed HDInsight applications for a cluster, and the properties of each installed application.

Auflisten von HDInsight-Anwendungen und EigenschaftenList HDInsight application and display properties

  1. Melden Sie sich beim Azure-Portal an.Sign in to the Azure portal.

  2. Navigieren Sie im linken Menü zu Alle Dienste > Analytics > HDInsight-Cluster.From the left menu, navigate to All services > Analytics > HDInsight clusters.

  3. Wählen Sie dann einen HDInsight-Cluster aus der Liste aus.Select an HDInsight cluster from the list.

  4. Klicken Sie in der Kategorie Einstellungen auf Anwendungen.Under the Settings category, select Applications. Im Hauptfenster wird eine Liste der installierten Anwendungen angezeigt.You can see a list of installed applications in the main window.

    HDInsight-Anwendungen – Installierte Apps

  5. Wählen Sie eine der installierten Anwendungen aus, um die Eigenschaften anzuzeigen.Select one of the installed applications to show the property. Die Eigenschaft zeigt Folgendes:The property lists:

    EigenschaftProperty BESCHREIBUNGDescription
    App-NameApp name Der Anwendungsname.Application name.
    StatusStatus AnwendungsstatusApplication status.
    WebseiteWebpage Die URL der Webanwendung, die Sie auf dem Edgeknoten bereitgestellt haben.The URL of the web application that you have deployed to the edge node. Die Anmeldeinformationen sind mit den HTTP-Benutzeranmeldeinformationen identisch, die Sie für den Cluster konfiguriert haben.The credential is the same as the HTTP user credentials that you have configured for the cluster.
    SSH-EndpunktSSH endpoint Sie können über SSH eine Verbindung mit dem Edgeknoten herstellen.You can use SSH to connect to the edge node. Die SSH-Anmeldeinformationen sind mit den SSH-Benutzeranmeldeinformationen identisch, die Sie für den Cluster konfiguriert haben.The SSH credentials are the same as the SSH user credentials that you have configured for the cluster. Informationen hierzu finden Sie unter Verwenden von SSH mit Linux-basiertem Hadoop in HDInsight unter Linux, Unix oder OS X.For information, see Use SSH with HDInsight.
    BESCHREIBUNGDescription AnwendungsbeschreibungApplication description.
  6. Klicken Sie zum Löschen einer Anwendung mit der rechten Maustaste darauf, und klicken Sie dann im Kontextmenü auf Löschen.To delete an application, right-click the application, and then click Delete from the context menu.

Herstellen einer Verbindung mit dem EdgeknotenConnect to the edge node

Sie können per HTTP und SSH eine Verbindung mit dem Edgeknoten herstellen.You can connect to the edge node using HTTP and SSH. Sie finden die Endpunktinformationen im Portal.The endpoint information can be found from the portal. Informationen hierzu finden Sie unter Verwenden von SSH mit Linux-basiertem Hadoop in HDInsight unter Linux, Unix oder OS X.For information, see Use SSH with HDInsight.

Die HTTP-Endpunkt-Anmeldeinformationen sind die HTTP-Benutzeranmeldeinformationen, die Sie für den HDInsight-Cluster konfiguriert haben. Die SSH-Endpunkt-Anmeldeinformationen sind die SSH-Anmeldeinformationen, die Sie für den HDInsight-Cluster konfiguriert haben.The HTTP endpoint credentials are the HTTP user credentials that you have configured for the HDInsight cluster; the SSH endpoint credentials are the SSH credentials that you have configured for the HDInsight cluster.

ProblembehandlungTroubleshoot

Weitere Informationen finden Sie unter Behandeln von Installationsproblemen.See Troubleshoot the installation.

Nächste SchritteNext steps