Verwenden von Data Lake Storage Gen1 mit Azure HDInsight-ClusternUse Data Lake Storage Gen1 with Azure HDInsight clusters

Hinweis

Stellen Sie neue HDInsight-Cluster mithilfe von Azure Data Lake Storage Gen2 für verbesserte Leistung und neue Funktionen bereit.Deploy new HDInsight clusters using Azure Data Lake Storage Gen2 for improved performance and new features.

Zum Analysieren von Daten im HDInsight-Cluster können Sie die Daten in Azure Storage, Azure Data Lake Storage Gen 1 oder Azure Data Lake Storage Gen2 speichern.To analyze data in HDInsight cluster, you can store the data either in Azure Storage, Azure Data Lake Storage Gen 1, or Azure Data Lake Storage Gen 2. Alle Speichervarianten ermöglichen das sichere Löschen von HDInsight-Clustern, die für Berechnungen verwendet werden, ohne dass Benutzerdaten verloren gehen.All storage options enable you to safely delete HDInsight clusters that are used for computation without losing user data.

In diesem Artikel erfahren Sie, wie Data Lake Storage Gen1 mit HDInsight-Clustern funktioniert.In this article, you learn how Data Lake Storage Gen1 works with HDInsight clusters. Weitere Informationen zur Funktionsweise von Azure Store mit HDInsight-Clustern finden Sie unter Verwenden von Azure Storage mit Azure HDInsight-Clustern.To learn how Azure Storage works with HDInsight clusters, see Use Azure Storage with Azure HDInsight clusters. Weitere Informationen zum Erstellen eines HDInsight-Clusters finden Sie unter Erstellen von Apache Hadoop-Clustern in HDInsight.For more information about creating an HDInsight cluster, see Create Apache Hadoop clusters in HDInsight.

Hinweis

Da auf Data Lake Storage Gen1 immer über einen sicheren Kanal zugegriffen wird, ist kein adls-Dateisystem-Schemaname vorhanden.Data Lake Storage Gen1 is always accessed through a secure channel, so there is no adls filesystem scheme name. Sie verwenden immer adl.You always use adl.

Hinweis

Dieser Artikel wurde aktualisiert und beinhaltet jetzt das neue Az-Modul von Azure PowerShell.This article has been updated to use the new Azure PowerShell Az module. Sie können das AzureRM-Modul weiterhin verwenden, das bis mindestens Dezember 2020 weiterhin Fehlerbehebungen erhält.You can still use the AzureRM module, which will continue to receive bug fixes until at least December 2020. Weitere Informationen zum neuen Az-Modul und zur Kompatibilität mit AzureRM finden Sie unter Introducing the new Azure PowerShell Az module (Einführung in das neue Az-Modul von Azure PowerShell).To learn more about the new Az module and AzureRM compatibility, see Introducing the new Azure PowerShell Az module. Anweisungen zur Installation des Az-Moduls finden Sie unter Install Azure PowerShell (Installieren von Azure PowerShell).For Az module installation instructions, see Install Azure PowerShell.

Verfügbarkeit für HDInsight-ClusterAvailability for HDInsight clusters

Apache Hadoop unterstützt eine Variante des Standarddateisystems.Apache Hadoop supports a notion of the default file system. Das Standarddateisystem gibt ein Standardschema und eine Standardautorität vor.The default file system implies a default scheme and authority. Es kann auch zur Auflösung relativer Pfade verwendet werden.It can also be used to resolve relative paths. Bei der Erstellung des HDInsight-Clusters können Sie einen Blobcontainer in Azure Storage als Standarddateisystem angeben. Mit HDInsight 3.5 oder einer neueren Version können Sie mit einigen wenigen Ausnahmen Azure Storage oder Azure Data Lake Storage Gen1 als Standarddateisystem auswählen.During the HDInsight cluster creation process, you can specify a blob container in Azure Storage as the default file system, or with HDInsight 3.5 and newer versions, you can select either Azure Storage or Azure Data Lake Storage Gen1 as the default files system with a few exceptions. Beachten Sie, dass Cluster und Speicherkonto in der gleichen Region gehostet werden müssen.Note that the cluster and the storage account must be hosted in the same region.

Für HDInsight-Cluster kann Data Lake Storage Gen1 auf zwei Arten verwendet werden:HDInsight clusters can use Data Lake Storage Gen1 in two ways:

  • Als StandardspeicherAs the default storage
  • Als zusätzlicher Speicher mit Azure Storage Blob als StandardspeicherAs additional storage, with Azure Storage Blob as default storage.

Zum aktuellen Zeitpunkt unterstützen nur einige der HDInsight-Clustertypen/-versionen Data Lake Storage Gen1 als Konten für Standardspeicher und Zusatzspeicher:As of now, only some of the HDInsight cluster types/versions support using Data Lake Storage Gen1 as default storage and additional storage accounts:

HDInsight-ClustertypHDInsight cluster type Data Lake Storage Gen1 als StandardspeicherData Lake Storage Gen1 as default storage Data Lake Storage Gen1 als zusätzlicher SpeicherData Lake Storage Gen1 as additional storage NotizenNotes
HDInsight-Version 4.0HDInsight version 4.0 NeinNo NeinNo ADLS Gen1 wird mit HDInsight 4.0 nicht unterstütztADLS Gen1 isn't supported with HDInsight 4.0
HDInsight-Version 3.6HDInsight version 3.6 JaYes JaYes Mit Ausnahme von HBaseWith the exception of HBase
HDInsight-Version 3.5HDInsight version 3.5 JaYes JaYes Mit Ausnahme von HBaseWith the exception of HBase
HDInsight-Version 3.4HDInsight version 3.4 NeinNo JaYes
HDInsight, Version 3.3HDInsight version 3.3 NeinNo NeinNo
HDInsight, Version 3.2HDInsight version 3.2 NeinNo JaYes
StormStorm Sie können Data Lake Storage Gen1 verwenden, um dort Daten aus einer Storm-Topologie zu schreiben.You can use Data Lake Storage Gen1 to write data from a Storm topology. Sie können Data Lake Storage auch zum Speichern von Verweisdaten verwenden, die anschließend von einer Storm-Topologie gelesen werden.You can also use Data Lake Storage for reference data that can then be read by a Storm topology.

Warnung

HDInsight HBase wird mit Azure Data Lake Storage Gen1 nicht unterstützt.HDInsight HBase is not supported with Azure Data Lake Storage Gen1

Das Verwenden von Data Lake Storage Gen1 als zusätzliches Speicherkonto wirkt sich nicht auf die Leistung oder die Fähigkeit aus, Daten aus dem Cluster in Azure Storage zu lesen bzw. zu schreiben.Using Data Lake Storage Gen1 as an additional storage account doesn't affect performance or the ability to read or write to Azure storage from the cluster.

Verwenden von Data Lake Storage Gen1 als StandardspeicherUse Data Lake Storage Gen1 as default storage

Wenn HDInsight mit Data Lake Storage Gen1 als Standardspeicher bereitgestellt wird, werden die clusterbezogenen Dateien in adl://mydatalakestore/<cluster_root_path>/ gespeichert, wobei <cluster_root_path> der Name eines Ordners ist, den Sie in Data Lake Storage erstellen.When HDInsight is deployed with Data Lake Storage Gen1 as default storage, the cluster-related files are stored in adl://mydatalakestore/<cluster_root_path>/, where <cluster_root_path> is the name of a folder you create in Data Lake Storage. Indem Sie einen Stammpfad für jeden Cluster angeben, können Sie dasselbe Data Lake Storage-Konto für mehrere Cluster verwenden.By specifying a root path for each cluster, you can use the same Data Lake Storage account for more than one cluster. Beispielsweise können Sie das folgende Setup verwenden:So, you can have a setup where:

  • Cluster1 kann den Pfad adl://mydatalakestore/cluster1storage nutzen.Cluster1 can use the path adl://mydatalakestore/cluster1storage
  • Cluster2 kann den Pfad adl://mydatalakestore/cluster2storage nutzen.Cluster2 can use the path adl://mydatalakestore/cluster2storage

Beachten Sie, dass für beide Cluster dasselbe Data Lake Storage Gen1-Konto mydatalakestore verwendet wird.Notice that both the clusters use the same Data Lake Storage Gen1 account mydatalakestore. Jeder Cluster hat in Data Lake Storage Zugriff auf sein eigenes Stammdateisystem.Each cluster has access to its own root filesystem in Data Lake Storage. Bei der Bereitstellung im Azure-Portal werden Sie aufgefordert, für den Stammpfad einen Ordnernamen wie /clusters/<Clustername> zu verwenden.The Azure portal deployment experience in particular prompts you to use a folder name such as /clusters/<clustername> for the root path.

Um Data Lake Storage Gen1 als Standardspeicher verwenden zu können, müssen Sie dem Dienstprinzipal Zugriff auf die folgenden Pfade gewähren:To be able to use Data Lake Storage Gen1 as default storage, you must grant the service principal access to the following paths:

  • Den Data Lake Storage Gen1-Kontostamm.The Data Lake Storage Gen1 account root. Beispiel: adl://mydatalakestore/.For example: adl://mydatalakestore/.
  • Den Ordner für alle Clusterordner.The folder for all cluster folders. Beispiel: adl://mydatalakestore/clusters.For example: adl://mydatalakestore/clusters.
  • Den Ordner für den Cluster.The folder for the cluster. Beispiel: adl://mydatalakestore/clusters/cluster1storage.For example: adl://mydatalakestore/clusters/cluster1storage.

Weitere Informationen zum Erstellen von Dienstprinzipalen und zum Gewähren des Zugriffs für diese finden Sie unter „Konfigurieren des Data Lake Storage-Zugriffs“.For more information for creating service principal and grant access, see Configure Data Lake Storage access.

Extrahieren eines Zertifikats aus Azure Key Vault für die Verwendung in der ClustererstellungExtracting a certificate from Azure Keyvault for use in cluster creation

Wenn Sie Azure Data Lake Storage Gen1 als Standardspeicher für einen neuen Cluster einrichten möchten und das Zertifikat für den Dienstprinzipal in Azure Key Vault gespeichert ist, sind einige zusätzliche Schritte erforderlich, um das Zertifikat in das richtige Format zu konvertieren.If you want to set up Azure Data Lake Storage Gen1 as your default storage for a new cluster and the certificate for your service principal is stored in Azure Key Vault, there are a few additional steps required to convert the certificate to the correct format. Die folgenden Codeausschnitte zeigen die Durchführung der Konvertierung.The following code snippets show how to perform the conversion.

Laden Sie zuerst das Zertifikat aus Key Vault herunter, und extrahieren Sie den SecretValueText.First, download the certificate from Key Vault and extract the SecretValueText.

$certPassword = Read-Host "Enter Certificate Password"
$cert = (Get-AzureKeyVaultSecret -VaultName 'MY-KEY-VAULT' -Name 'MY-SECRET-NAME')
$certValue = [System.Convert]::FromBase64String($cert.SecretValueText)

Konvertieren Sie als Nächstes SecretValueText in ein Zertifikat.Next, convert the SecretValueText to a certificate.

$certObject = New-Object System.Security.Cryptography.X509Certificates.X509Certificate2 -ArgumentList $certValue,$null,"Exportable, PersistKeySet"
$certBytes = $certObject.Export([System.Security.Cryptography.X509Certificates.X509ContentType]::Pkcs12, $certPassword.SecretValueText);
$identityCertificate = [System.Convert]::ToBase64String($certBytes)

Anschließend können Sie mit dem $identityCertificate einen neuen Cluster wie im folgenden Codeausschnitt bereitstellen:Then you can use the $identityCertificate to deploy a new cluster as in the following snippet:

New-AzResourceGroupDeployment `
    -ResourceGroupName $resourceGroupName `
    -TemplateFile $pathToArmTemplate `
    -identityCertificate $identityCertificate `
    -identityCertificatePassword $certPassword.SecretValueText `
    -clusterName  $clusterName `
    -clusterLoginPassword $SSHpassword `
    -sshPassword $SSHpassword `
    -servicePrincipalApplicationId $application.ApplicationId

Verwenden von Data Lake Storage Gen1 als zusätzlicher SpeicherUse Data Lake Storage Gen1 as additional storage

Sie können Data Lake Storage Gen1 zudem als zusätzlichen Speicher für den Cluster verwenden.You can use Data Lake Storage Gen1 as additional storage for the cluster as well. In solchen Fällen kann der Clusterstandardspeicher ein Azure Storage Blob- oder ein Data Lake Storage-Konto sein.In such cases, the cluster default storage can either be an Azure Storage Blob or a Data Lake Storage account. Wenn Sie HDInsight-Aufträge mit den in Data Lake Storage gespeicherten Daten als zusätzlichem Speicher ausführen, müssen Sie den vollqualifizierten Pfad zu den Dateien verwenden.If you're running HDInsight jobs against the data stored in Data Lake Storage as additional storage, you must use the fully qualified path to the files. Beispiel:For example:

adl://mydatalakestore.azuredatalakestore.net/<file_path>

Beachten Sie, dass die URL jetzt keinen cluster_root_path enthält.Note that there's no cluster_root_path in the URL now. Dies liegt daran, dass Data Lake Storage hier kein Standardspeicher ist. Sie müssen also nur den Pfad zu den Dateien angeben.That's because Data Lake Storage isn't a default storage in this case so all you need to do is provide the path to the files.

Um Data Lake Storage Gen1 als zusätzlichen Speicher verwenden zu können, müssen Sie lediglich dem Dienstprinzipal Zugriff auf die Pfade gewähren, in denen Ihre Dateien gespeichert sind.To be able to use a Data Lake Storage Gen1 as additional storage, you only need to grant the service principal access to the paths where your files are stored. Beispiel:For example:

adl://mydatalakestore.azuredatalakestore.net/<file_path>

Weitere Informationen zum Erstellen von Dienstprinzipalen und zum Gewähren des Zugriffs für diese finden Sie unter „Konfigurieren des Data Lake Storage-Zugriffs“.For more information for creating service principal and grant access, see Configure Data Lake Storage access.

Verwenden von mehreren Data Lake Storage-KontenUse more than one Data Lake Storage accounts

Das Hinzufügen eines Data Lake Storage-Kontos als Zusatz und das Hinzufügen von mehreren Data Lake Storage-Konten wird erreicht, indem Sie dem HDInsight-Cluster den Zugriff auf Daten in einem oder mehreren Data Lake Storage-Konten gewähren.Adding a Data Lake Storage account as additional and adding more than one Data Lake Storage accounts are accomplished by giving the HDInsight cluster permission on data in one ore more Data Lake Storage accounts. Siehe „Konfigurieren des Data Lake Storage-Zugriffs“.See Configure Data Lake Storage access.

Konfigurieren des Data Lake Storage-ZugriffsConfigure Data Lake Storage access

Um den Zugriff auf Data Lake Storage von Ihrem HDInsight-Cluster aus zu konfigurieren, benötigen Sie einen Azure Active Directory-Dienstprinzipal (Azure AD).To configure Data Lake Storage access from your HDInsight cluster, you must have an Azure Active directory (Azure AD) service principal. Nur ein Azure AD-Administrator kann einen Dienstprinzipal erstellen.Only an Azure AD administrator can create a service principal. Der Dienstprinzipal muss mit einem Zertifikat erstellt werden.The service principal must be created with a certificate. Weitere Informationen finden Sie unter Quickstart: Set up clusters in HDInsight (Schnellstart: Einrichten von Clustern in HDInsight) und Erstellen eines Dienstprinzipals mit selbstsigniertem Zertifikat.For more information, see Quickstart: Set up clusters in HDInsight, and Create service principal with self-signed-certificate.

Hinweis

Wenn Sie Azure Data Lake Storage Gen1 als zusätzlichen Speicher für HDInsight-Cluster verwenden, wird dringend empfohlen, diesen Vorgang beim Erstellen des Clusters auszuführen, wie in diesem Artikel beschrieben.If you are going to use Azure Data Lake Storage Gen1 as additional storage for HDInsight cluster, we strongly recommend that you do this while you create the cluster as described in this article. Das Hinzufügen von Azure Data Lake Storage Gen1 zu einem vorhandenen HDInsight-Cluster als zusätzlicher Speicher wird nicht unterstützt.Adding Azure Data Lake Storage Gen1 as additional storage to an existing HDInsight cluster is not a supported scenario.

Weitere Informationen zu den Grundlagen des Zugriffssteuerungsmodells für Data Lake Storage Gen1 finden Sie unter Zugriffssteuerung in Azure Data Lake Storage Gen1.For more information on the basics of the access control model for Data Lake Storage Gen1, see Access control in Azure Data Lake Storage Gen1.

Zugreifen auf Dateien aus dem ClusterAccess files from the cluster

Es gibt mehrere Möglichkeiten, wie Sie auf die Dateien in Data Lake Storage über einen HDInsight-Cluster zugreifen können.There are several ways you can access the files in Data Lake Storage from an HDInsight cluster.

  • Verwenden des vollqualifizierten NamensUsing the fully qualified name. Bei diesem Ansatz geben Sie den vollständigen Pfad zu der Datei an, auf die Sie zugreifen möchten.With this approach, you provide the full path to the file that you want to access.

    adl://<data_lake_account>.azuredatalakestore.net/<cluster_root_path>/<file_path>
    
  • Verwenden des verkürzten PfadformatsUsing the shortened path format. Bei diesem Ansatz ersetzen Sie den Pfad bis zum Clusterstamm durch:With this approach, you replace the path up to the cluster root with:

    adl:///<file path>
    
  • Verwenden des relativen PfadsUsing the relative path. Bei diesem Ansatz geben Sie nur den relativen Pfad zu der Datei an, auf die Sie zugreifen möchten.With this approach, you only provide the relative path to the file that you want to access.

    /<file.path>/
    

Beispiele für DatenzugriffData access examples

Die Beispiele basieren auf einer ssh-Verbindung mit dem Hauptknoten des Clusters.Examples are based on an ssh connection to the head node of the cluster. In den Beispielen werden alle drei URI-Schemas verwendet.The examples use all three URI schemes. Ersetzen Sie DATALAKEACCOUNT und CLUSTERNAME durch die entsprechenden Werte.Replace DATALAKEACCOUNT and CLUSTERNAME with the relevant values.

Ein paar HDFS-BefehleA few hdfs commands

  1. Erstellen einer einfachen Datei im lokalen Speicher.Create a simple file on local storage.

    touch testFile.txt
    
  2. Erstellen von Verzeichnissen im Clusterspeicher.Create directories on cluster storage.

    hdfs dfs -mkdir adl://DATALAKEACCOUNT.azuredatalakestore.net/clusters/CLUSTERNAME/sampledata1/
    hdfs dfs -mkdir adl:///sampledata2/
    hdfs dfs -mkdir /sampledata3/
    
  3. Kopieren von Daten aus dem lokalen Speicher in den Clusterspeicher.Copy data from local storage to cluster storage.

    hdfs dfs -copyFromLocal testFile.txt adl://DATALAKEACCOUNT.azuredatalakestore.net/clusters/CLUSTERNAME/sampledata1/
    hdfs dfs -copyFromLocal testFile.txt adl:///sampledata2/
    hdfs dfs -copyFromLocal testFile.txt /sampledata3/
    
  4. Auflisten von Verzeichnisinhalten im Clusterspeicher.List directory contents on cluster storage.

    hdfs dfs -ls adl://DATALAKEACCOUNT.azuredatalakestore.net/clusters/CLUSTERNAME/sampledata1/
    hdfs dfs -ls adl:///sampledata2/
    hdfs dfs -ls /sampledata3/
    

Erstellen einer Hive-TabelleCreating a Hive table

Zu Zwecken der Veranschaulichung werden drei Speicherorte gezeigt.Three file locations are shown for illustrative purposes. Verwenden Sie für die tatsächliche Ausführung nur einen der LOCATION-Einträge.For actual execution, use only one of the LOCATION entries.

DROP TABLE myTable;
CREATE EXTERNAL TABLE myTable (
    t1 string,
    t2 string,
    t3 string,
    t4 string,
    t5 string,
    t6 string,
    t7 string)
ROW FORMAT DELIMITED FIELDS TERMINATED BY ' '
STORED AS TEXTFILE
LOCATION 'adl://DATALAKEACCOUNT.azuredatalakestore.net/clusters/CLUSTERNAME/example/data/';
LOCATION 'adl:///example/data/';
LOCATION '/example/data/';

Bestimmen des Speicherpfads aus AmbariIdentify storage path from Ambari

Um den vollständigen Pfad zum konfigurierten Standardspeicher zu ermitteln, navigieren Sie zu HDFS > Konfigurationen, und geben Sie fs.defaultFS in das Filtereingabefeld ein.To identify the complete path to the configured default store, navigate to HDFS > Configs and enter fs.defaultFS in the filter input box.

Erstellen von HDInsight-Clustern mit Zugriff auf Data Lake Storage Gen1Create HDInsight clusters with access to Data Lake Storage Gen1

Unter den folgenden Links finden Sie eine ausführliche Anleitung, wie Sie HDInsight-Cluster mit Zugriff auf Data Lake Storage Gen1 erstellen.Use the following links for detailed instructions on how to create HDInsight clusters with access to Data Lake Storage Gen1.

Aktualisieren des HDInsight-Zertifikats für den Data Lake Storage Gen1-ZugriffRefresh the HDInsight certificate for Data Lake Storage Gen1 access

Im folgenden Beispiel liest PowerShell-Code ein Zertifikat aus einer lokalen Datei oder Azure Key Vault und aktualisiert Ihren HDInsight-Cluster mit dem neuen Zertifikat für den Zugriff auf Azure Data Lake Storage Gen1.The following example PowerShell code reads a certificate from a local file or Azure Key Vault, and updates your HDInsight cluster with the new certificate to access Azure Data Lake Storage Gen1. Geben Sie Ihren eigenen HDInsight-Clusternamen, den Ressourcengruppennamen, die Abonnement-ID, die App-ID und den lokalen Pfad zum Zertifikat an.Provide your own HDInsight cluster name, resource group name, subscription ID, app ID, local path to the certificate. Geben Sie Ihr Kennwort ein, wenn Sie dazu aufgefordert werden.Type in the password when prompted.

$clusterName = '<clustername>'
$resourceGroupName = '<resourcegroupname>'
$subscriptionId = '01234567-8a6c-43bc-83d3-6b318c6c7305'
$appId = '01234567-e100-4118-8ba6-c25834f4e938'
$addNewCertKeyCredential = $true
$certFilePath = 'C:\localfolder\adls.pfx'
$KeyVaultName = "my-key-vault-name"
$KeyVaultSecretName = "my-key-vault-secret-name"
$certPassword = Read-Host "Enter Certificate Password"
# certSource
# 0 - create self signed cert
# 1 - read cert from file path
# 2 - read cert from key vault
$certSource = 0

Login-AzAccount
Select-AzSubscription -SubscriptionId $subscriptionId

if($certSource -eq 0)
{
    Write-Host "Generating new SelfSigned certificate"

    $cert = New-SelfSignedCertificate -CertStoreLocation "cert:\CurrentUser\My" -Subject "CN=hdinsightAdlsCert" -KeySpec KeyExchange
    $certBytes = $cert.Export([System.Security.Cryptography.X509Certificates.X509ContentType]::Pkcs12, $certPassword);
    $certString = [System.Convert]::ToBase64String($certBytes)
}
elseif($certSource -eq 1)
{

    Write-Host "Reading the cert file from path $certFilePath"

    $cert = new-object System.Security.Cryptography.X509Certificates.X509Certificate2($certFilePath, $certPassword)
    $certString = [System.Convert]::ToBase64String([System.IO.File]::ReadAllBytes($certFilePath))
}
elseif($certSource -eq 2)
{

    Write-Host "Reading the cert file from Azure Key Vault $KeyVaultName"

    $cert = (Get-AzureKeyVaultSecret -VaultName $KeyVaultName -Name $KeyVaultSecretName)
    $certValue = [System.Convert]::FromBase64String($cert.SecretValueText)
    $certObject = New-Object System.Security.Cryptography.X509Certificates.X509Certificate2 -ArgumentList $certValue, $null,"Exportable, PersistKeySet"

    $certBytes = $certObject.Export([System.Security.Cryptography.X509Certificates.X509ContentType]::Pkcs12, $certPassword.SecretValueText);

    $certString =[System.Convert]::ToBase64String($certBytes)
}

if($addNewCertKeyCredential)
{
    Write-Host "Creating new KeyCredential for the app"
    $keyValue = [System.Convert]::ToBase64String($cert.GetRawCertData())
    New-AzADAppCredential -ApplicationId $appId -CertValue $keyValue -EndDate $cert.NotAfter -StartDate $cert.NotBefore
    Write-Host "Waiting for 7 minutes for the permissions to get propagated"
    Start-Sleep -s 420 #7 minutes
}

Write-Host "Updating the certificate on HDInsight cluster..."

Invoke-AzResourceAction `
    -ResourceGroupName $resourceGroupName `
    -ResourceType 'Microsoft.HDInsight/clusters' `
    -ResourceName $clusterName `
    -ApiVersion '2015-03-01-preview' `
    -Action 'updateclusteridentitycertificate' `
    -Parameters @{ ApplicationId = $appId; Certificate = $certString; CertificatePassword = $certPassword.ToString() } `
    -Force

Nächste SchritteNext steps

In diesem Artikel wurde beschrieben, wie Sie HDFS-kompatibles Azure Data Lake Storage Gen1 mit HDInsight verwenden.In this article, you learned how to use HDFS-compatible Azure Data Lake Storage Gen1 with HDInsight. Dadurch können Sie skalierbare Datenerfassungslösungen mit langfristiger Archivierung aufbauen und HDInsight verwenden, um die Informationen innerhalb der gespeicherten strukturierten und unstrukturierten Daten zu entsperren.This allows you to build scalable, long-term, archiving data acquisition solutions and use HDInsight to unlock the information inside the stored structured and unstructured data.

Weitere Informationen finden Sie unterFor more information, see: