New-AzureHDInsightSqoopJobDefinition

Définit un nouveau travail Sqoop.

Notes

Les cmdlets mentionnées dans cette documentation servent à gérer les ressources Azure héritées qui utilisent les API Gestion des services. Pour ce qui est des cmdlets permettant de gérer des ressources Azure Resource Manager, consultez le Module Az PowerShell.

Syntax

New-AzureHDInsightSqoopJobDefinition
   [-Command <String>]
   [-File <String>]
   [-Files <String[]>]
   [-StatusFolder <String>]
   [-Profile <AzureSMProfile>]
   [<CommonParameters>]

Description

Cette version d’Azure PowerShell HDInsight est déconseillée. Ces applets de commande seront supprimées le 1er janvier 2017. Utilisez la version plus récente d’Azure PowerShell HDInsight.

Pour plus d’informations sur l’utilisation du nouveau HDInsight pour créer un cluster, consultez Créer des clusters Linux dans HDInsight à l’aide d’Azure PowerShell (https://azure.microsoft.com/en-us/documentation/articles/hdinsight-hadoop-create-linux-clusters-azure-powershell/). Pour plus d’informations sur l’envoi de travaux à l’aide d’Azure PowerShell et d’autres approches, consultez Envoyer des tâches Hadoop dans HDInsight (https://azure.microsoft.com/en-us/documentation/articles/hdinsight-submit-hadoop-jobs-programmatically/). Pour obtenir des informations de référence sur Azure PowerShell HDInsight, consultez les applets de commande Azure HDInsight.

L’applet de commande New-AzureHDInsightSqoopJobDefinition crée un travail Sqoop à exécuter sur un cluster Azure HDInsight.

Sqoop est un outil permettant de transférer des données entre des clusters Hadoop et des bases de données relationnelles. Vous pouvez utiliser Sqoop pour importer des données à partir d’une base de données SQL Server vers un système de fichiers distribué Hadoop (HDFS), transformer les données avec Hadoop MapReduce, puis exporter les données à partir de HDFS vers la base de données SQL Server.

Exemples

Exemple 1 : Importer des données

PS C:\>$SqoopJobDef = New-AzureHDInsightSqoopJobDefinition -Command "import --connect jdbc:sqlserver://<SQLDatabaseServerName>.database.windows.net:1433;username=<SQLDatabasUsername>@<SQLDatabaseServerName>; password=<SQLDatabasePassword>; database=<SQLDatabaseDatabaseName> --table <TableName> --target-dir wasb://<ContainerName>@<WindowsAzureStorageAccountName>.blob.core.windows.net/<Path>"

Cette commande définit un travail Sqoop qui importe toutes les lignes d’une table d’une base de données AzureSQL Server vers un cluster HDInsight, puis stocke la définition du travail dans la variable $SqoopJobDef.

Paramètres

-Command

Spécifie une commande Sqoop et ses arguments.

Type:String
Position:Named
Default value:None
Required:False
Accept pipeline input:False
Accept wildcard characters:False

-File

Spécifie le chemin d’accès à un fichier de script qui contient les commandes à exécuter. Le fichier de script doit se trouver sur WASB.

Type:String
Aliases:QueryFile
Position:Named
Default value:None
Required:False
Accept pipeline input:False
Accept wildcard characters:False

-Files

Spécifie la collection de fichiers WASB requis pour un travail.

Type:String[]
Position:Named
Default value:None
Required:False
Accept pipeline input:False
Accept wildcard characters:False

-Profile

Spécifie le profil Azure à partir duquel cette applet de commande lit. Si vous ne spécifiez pas de profil, cette applet de commande lit le profil par défaut local.

Type:AzureSMProfile
Position:Named
Default value:None
Required:False
Accept pipeline input:False
Accept wildcard characters:False

-StatusFolder

Spécifie l’emplacement du dossier qui contient des sorties standard et des sorties d’erreur pour un travail, y compris son code de sortie et ses journaux de tâches.

Type:String
Position:Named
Default value:None
Required:False
Accept pipeline input:False
Accept wildcard characters:False