New-AzureHDInsightSqoopJobDefinition
Definiuje nowe zadanie sqoop.
Uwaga
Polecenia cmdlet, do których odwołuje się ta dokumentacja, służą do zarządzania starszymi zasobami platformy Azure korzystającymi z interfejsów API zarządzania usługami. Zobacz moduł Az programu PowerShell, aby uzyskać polecenia cmdlet do zarządzania zasobami usługi Azure Resource Manager.
Składnia
New-AzureHDInsightSqoopJobDefinition
[-Command <String>]
[-File <String>]
[-Files <String[]>]
[-StatusFolder <String>]
[-Profile <AzureSMProfile>]
[<CommonParameters>]
Opis
Ta wersja usługi Azure PowerShell HDInsight jest przestarzała. Te polecenia cmdlet zostaną usunięte do 1 stycznia 2017 r. Użyj nowszej wersji usługi Azure PowerShell HDInsight.
Aby uzyskać informacje na temat używania nowej usługi HDInsight do tworzenia klastra, zobacz Tworzenie klastrów opartych na systemie Linux w usłudze HDInsight przy użyciu programu Azure PowerShell (https://azure.microsoft.com/en-us/documentation/articles/hdinsight-hadoop-create-linux-clusters-azure-powershell/). Aby uzyskać informacje na temat przesyłania zadań przy użyciu programu Azure PowerShell i innych podejść, zobacz Przesyłanie zadań hadoop w usłudze HDInsight (https://azure.microsoft.com/en-us/documentation/articles/hdinsight-submit-hadoop-jobs-programmatically/). Aby uzyskać informacje referencyjne dotyczące usługi Azure PowerShell HDInsight, zobacz Azure HDInsight Cmdlets (Polecenia cmdlet usługi Azure HDInsight).
Polecenie cmdlet New-AzureHDInsightSqoopJobDefinition tworzy zadanie sqoop do uruchomienia w klastrze usługi Azure HDInsight.
Sqoop to narzędzie do przesyłania danych między klastrami Hadoop i relacyjnymi bazami danych. Narzędzie Sqoop umożliwia importowanie danych z bazy danych programu SQL Server do rozproszonego systemu plików Hadoop (HDFS), przekształcanie danych za pomocą usługi Hadoop MapReduce, a następnie eksportowanie danych z systemu plików HDFS z powrotem do bazy danych programu SQL Server.
Przykłady
Przykład 1. Importowanie danych
PS C:\>$SqoopJobDef = New-AzureHDInsightSqoopJobDefinition -Command "import --connect jdbc:sqlserver://<SQLDatabaseServerName>.database.windows.net:1433;username=<SQLDatabasUsername>@<SQLDatabaseServerName>; password=<SQLDatabasePassword>; database=<SQLDatabaseDatabaseName> --table <TableName> --target-dir wasb://<ContainerName>@<WindowsAzureStorageAccountName>.blob.core.windows.net/<Path>"
To polecenie definiuje zadanie sqoop, które importuje wszystkie wiersze w tabeli z bazy danych programu AzureSQL Server do klastra usługi HDInsight, a następnie przechowuje definicję zadania w zmiennej $SqoopJobDef.
Parametry
-Command
Określa polecenie Sqoop i jego argumenty.
Type: | String |
Position: | Named |
Default value: | None |
Required: | False |
Accept pipeline input: | False |
Accept wildcard characters: | False |
-File
Określa ścieżkę do pliku skryptu zawierającego polecenia do uruchomienia. Plik skryptu musi znajdować się w usłudze WASB.
Type: | String |
Aliases: | QueryFile |
Position: | Named |
Default value: | None |
Required: | False |
Accept pipeline input: | False |
Accept wildcard characters: | False |
-Files
Określa kolekcję plików WASB, które są wymagane dla zadania.
Type: | String[] |
Position: | Named |
Default value: | None |
Required: | False |
Accept pipeline input: | False |
Accept wildcard characters: | False |
-Profile
Określa profil platformy Azure, z którego to polecenie cmdlet odczytuje. Jeśli nie określisz profilu, to polecenie cmdlet odczytuje z lokalnego profilu domyślnego.
Type: | AzureSMProfile |
Position: | Named |
Default value: | None |
Required: | False |
Accept pipeline input: | False |
Accept wildcard characters: | False |
-StatusFolder
Określa lokalizację folderu, który zawiera standardowe dane wyjściowe i dane wyjściowe błędów dla zadania, w tym jego kod zakończenia i dzienniki zadań.
Type: | String |
Position: | Named |
Default value: | None |
Required: | False |
Accept pipeline input: | False |
Accept wildcard characters: | False |