Azure Feature Pack für Integration Services (SSIS)Azure Feature Pack for Integration Services (SSIS)

Anwendungsbereich:Applies to: JaSQL ServerSQL Server (alle unterstützten Versionen) yesSQL ServerSQL Server (all supported versions) Ja SSIS-Integrationslaufzeit in Azure Data FactorySSIS Integration Runtime in Azure Data Factoryyes SSIS-Integrationslaufzeit in Azure Data FactorySSIS Integration Runtime in Azure Data FactoryAnwendungsbereich:Applies to: JaSQL ServerSQL Server (alle unterstützten Versionen) yesSQL ServerSQL Server (all supported versions) Ja SSIS-Integrationslaufzeit in Azure Data FactorySSIS Integration Runtime in Azure Data Factoryyes SSIS-Integrationslaufzeit in Azure Data FactorySSIS Integration Runtime in Azure Data Factory

Das SQL Server Integration Services-Feature Pack (SSIS) für Azure ist eine Erweiterung, die die auf dieser Seite für SSIS aufgelisteten Komponenten für Verbindungen mit Azure-Diensten, für die Übertragung von Daten zwischen Azure und lokalen Datenquellen und für die Verarbeitung der in Azure gespeicherten Daten bereitstellt.SQL Server Integration Services (SSIS) Feature Pack for Azure is an extension that provides the components listed on this page for SSIS to connect to Azure services, transfer data between Azure and on-premises data sources, and process data stored in Azure.

Herunterladen des SSIS-Feature Packs für Azure HerunterladenDownload SSIS Feature Pack for Azure Download

Die Downloadseiten enthalten auch Informationen zu erforderlichen Komponenten.The download pages also include information about prerequisites. Stellen Sie sicher, dass Sie SQL Server installieren, bevor Sie Azure Feature Pack auf einem Server installieren, andernfalls sind die Komponenten im Feature Pack womöglich nicht verfügbar, wenn Sie Pakete für die SSIS-Katalogdatenbank (SSISDB) auf dem Server bereitstellen.Make sure you install SQL Server before you install the Azure Feature Pack on a server, or the components in the Feature Pack may not be available when you deploy packages to the SSIS Catalog database, SSISDB, on the server.

Komponenten im Feature PackComponents in the Feature Pack

Verwenden von TLS 1.2Use TLS 1.2

Die vom Azure Feature Pack verwendete TLS-Version folgt den .NET Framework-Einstellungen.The TLS version used by Azure Feature Pack follows system .NET Framework settings. Wenn Sie TLS 1.2 verwenden möchten, fügen Sie einen REG_DWORD-Wert mit dem Namen SchUseStrongCrypto für „data“ (Daten) unter den folgenden zwei Registrierungsschlüsseln 1 hinzu.To use TLS 1.2, add a REG_DWORD value named SchUseStrongCrypto with data 1 under the following two registry keys.

  1. HKEY_LOCAL_MACHINE\SOFTWARE\WOW6432Node\Microsoft\.NETFramework\v4.0.30319
  2. HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\.NETFramework\v4.0.30319

Abhängigkeit von JavaDependency on Java

Java ist erforderlich, um ORC-/Parquet-Dateiformate mit Azure Data Lake Store/flexiblen Dateiconnectors zu verwenden.Java is required to use ORC/Parquet file formats with Azure Data Lake Store/Flexible File connectors.
Die Architektur (32 oder 64 Bit) des Java-Builds muss mit der zu verwendenden SSIS-Runtime übereinstimmen.The architecture (32/64-bit) of Java build should match that of the SSIS runtime to use. Die folgenden Java-Builds wurden getestet.The following Java builds have been tested.

Einrichten von OpenJDK für ZuluSet Up Zulu's OpenJDK

  1. Laden Sie das ZIP-Paket für die Installation herunter, und extrahieren Sie es.Download and extract the installation zip package.
  2. Führen Sie über die Eingabeaufforderung sysdm.cpl aus.From the Command Prompt, run sysdm.cpl.
  3. Klicken Sie auf der Registerkarte Erweitert auf Umgebungsvariablen.On the Advanced tab, select Environment Variables.
  4. Klicken Sie im Abschnitt Systemvariablen auf Neu.Under the System variables section, select New.
  5. Geben Sie JAVA_HOME für den Variablennamen ein.Enter JAVA_HOME for the Variable name.
  6. Klicken Sie auf Verzeichnis durchsuchen, navigieren Sie zum extrahierten Ordner, und wählen Sie den Unterordner jre aus.Select Browse Directory, navigate to the extracted folder, and select the jre subfolder. Wählen Sie anschließend OK aus. Daraufhin wird der Variablenwert automatisch aufgefüllt.Then select OK, and the Variable value is populated automatically.
  7. Klicken Sie auf OK, um das Dialogfeld New System Variable (Neue Systemvariable) zu schließen.Select OK to close the New System Variable dialog box.
  8. Klicken Sie auf OK, um das Dialogfeld Umgebungsvariablen zu schließen.Select OK to close the Environment Variables dialog box.
  9. Klicken Sie auf OK, um das Dialogfeld Systemeigenschaften zu schließen.Select OK to close the System Properties dialog box.

Tipp

Wenn Sie das Parquet-Format verwenden und die Fehlermeldung "An error occurred when invoking java, message: java.lang.OutOfMemoryError:Java heap space" (Beim Aufrufen von Java ist ein Fehler aufgetreten. Meldung: java.lang.OutOfMemoryError:Java heap space) auftritt, können Sie die Umgebungsvariable _JAVA_OPTIONS hinzufügen, um die minimale/maximale Heapgröße für JVM anzupassen.If you use Parquet format and hit error saying "An error occurred when invoking java, message: java.lang.OutOfMemoryError:Java heap space", you can add an environment variable _JAVA_OPTIONS to adjust the min/max heap size for JVM.

JVM-Heap

Beispiel: Legen Sie für die Variable _JAVA_OPTIONS den Wert -Xms256m -Xmx16g fest.Example: set variable _JAVA_OPTIONS with value -Xms256m -Xmx16g. Das Flag „Xms“ gibt den anfänglichen Speicherzuweisungspool für eine Java Virtual Machine (JVM) an, während Xmx den maximalen Speicherzuweisungspool angibt.The flag Xms specifies the initial memory allocation pool for a Java Virtual Machine (JVM), while Xmx specifies the maximum memory allocation pool. Das bedeutet, dass die JVM mit einer Speichergröße von Xms gestartet wird und eine maximale Speichergröße von Xmx verwenden kann.This means that JVM will be started with Xms amount of memory and will be able to use a maximum of Xmx amount of memory. Die Standardwerte sind mindestens 64 MB und maximal 1 GB.The default values are min 64MB and max 1G.

Einrichten des Zulu OpenJDK in Azure-SSIS Integration RuntimeSet Up Zulu's OpenJDK on Azure-SSIS Integration Runtime

Dies sollte über eine benutzerdefinierte Setupschnittstelle für Azure-SSIS Integration Runtime erfolgen.This should be done via custom setup interface for Azure-SSIS Integration Runtime. Angenommen, es wird zulu8.33.0.1-jdk8.0.192-win_x64.zip verwendet.Suppose zulu8.33.0.1-jdk8.0.192-win_x64.zip is used. Der Blobcontainer könnte wie folgt organisiert werden.The blob container could be organized as follows.

main.cmd
install_openjdk.ps1
zulu8.33.0.1-jdk8.0.192-win_x64.zip

Als Einstiegspunkt löst main.cmd die Ausführung des PowerShell-Skripts install_openjdk.ps1 aus, welches wiederum zulu8.33.0.1-jdk8.0.192-win_x64.zip extrahiert und JAVA_HOME entsprechend festlegt.As the entry point, main.cmd triggers execution of the PowerShell script install_openjdk.ps1 which in turn extracts zulu8.33.0.1-jdk8.0.192-win_x64.zip and sets JAVA_HOME accordingly.

main.cmdmain.cmd

powershell.exe -file install_openjdk.ps1

Tipp

Wenn Sie das Parquet-Format verwenden und die Fehlermeldung "An error occurred when invoking java, message: java.lang.OutOfMemoryError:Java heap space" (Beim Aufrufen von Java ist ein Fehler aufgetreten. Meldung: java.lang.OutOfMemoryError:Java heap space) auftritt, können Sie einen Befehl in main.cmd hinzufügen, um die minimale/maximale Heapgröße für JVM anzupassen.If you use Parquet format and hit error saying "An error occurred when invoking java, message: java.lang.OutOfMemoryError:Java heap space", you can add command in main.cmd to adjust the min/max heap size for JVM. Beispiel:Example:

setx /M _JAVA_OPTIONS "-Xms256m -Xmx16g"

Das Flag „Xms“ gibt den anfänglichen Speicherzuweisungspool für eine Java Virtual Machine (JVM) an, während Xmx den maximalen Speicherzuweisungspool angibt.The flag Xms specifies the initial memory allocation pool for a Java Virtual Machine (JVM), while Xmx specifies the maximum memory allocation pool. Das bedeutet, dass die JVM mit einer Speichergröße von Xms gestartet wird und eine maximale Speichergröße von Xmx verwenden kann.This means that JVM will be started with Xms amount of memory and will be able to use a maximum of Xmx amount of memory. Die Standardwerte sind mindestens 64 MB und maximal 1 GB.The default values are min 64MB and max 1G.

install_openjdk.ps1install_openjdk.ps1

Expand-Archive zulu8.33.0.1-jdk8.0.192-win_x64.zip -DestinationPath C:\
[Environment]::SetEnvironmentVariable("JAVA_HOME", "C:\zulu8.33.0.1-jdk8.0.192-win_x64\jre", "Machine")

Einrichten von Oracle Java SE Runtime EnvironmentSet Up Oracle's Java SE Runtime Environment

  1. Laden Sie das EXE-Installationsprogramm herunter, und führen Sie es aus.Download and run the exe installer.
  2. Führen Sie die Installationsanweisungen aus, um das Setup abzuschließen.Follow the installer instructions to complete setup.

Szenario: Verarbeitung großer DatenmengenScenario: Processing big data

Verwenden Sie den Azure Connector zum Ausführen der folgenden Big Data-Verarbeitungsaufgaben:Use Azure Connector to complete following big data processing work:

  1. Verwenden Sie den Azure Blob Upload-Task zum Hochladen von Eingabedaten in den Azure BLOB-Speicher.Use the Azure Blob Upload Task to upload input data to Azure Blob Storage.

  2. Verwenden Sie den Azure HDInsight Create Cluster-Task zum Erstellen eines Azure HDInsight-Clusters.Use the Azure HDInsight Create Cluster Task to create an Azure HDInsight cluster. Dieser Schritt ist optional, wenn Sie einen eigenen Cluster verwenden möchten.This step is optional if you want to use your own cluster.

  3. Verwenden Sie den Azure HDInsight Hive-Task oder Azure HDInsight Pig-Task zum Aufrufen eines Pig- oder Hive-Auftrags auf dem Azure HDInsight-Cluster.Use the Azure HDInsight Hive Task or Azure HDInsight Pig Task to invoke a Pig or Hive job on the Azure HDInsight cluster.

  4. Verwenden Sie den Azure HDInsight Delete Cluster-Task zum Löschen des HDInsight-Clusters nach der Verwendung, wenn Sie in Schritt 2 einen HDInsight-Bedarfscluster erstellt haben.Use the Azure HDInsight Delete Cluster Task to delete the HDInsight Cluster after use if you have created an on-demand HDInsight cluster in step #2.

  5. Verwenden Sie den Azure HDInsight Blob Download-Task zum Herunterladen der Pig/Hive-Ausgabedaten vom Azure BLOB-Speicher.Use the Azure HDInsight Blob Download Task to download the Pig/Hive output data from the Azure Blob Storage.

SSIS-AzureConnector-BigDataScenario

Szenario: Verwalten von Daten in der CloudScenario: Managing data in the cloud

Verwenden Sie das Azure BLOB-Ziel in einem SSIS-Paket, um Ausgabedaten in einen Azure BLOB-Speicher zu schreiben, oder verwenden Sie die Azure Blob-Quelle zum Lesen von Daten aus einem Azure BLOB-Speicher.Use the Azure Blob Destination in an SSIS package to write output data to Azure Blob Storage, or use the Azure Blob Source to read data from an Azure Blob Storage.

SSIS-AzureConnector-CloudArchive-1

SSIS-AzureConnector-CloudArchive-2

Verwenden Sie den Foreach-Schleifencontainer mit dem Azure Blob-Enumerator, um Daten in mehreren BLOB-Dateien zu verarbeiten.Use the Foreach Loop Container with the Azure Blob Enumerator to process data in multiple blob files.

SSIS-AzureConnector-CloudArchive-3

VersionsinformationenRelease Notes

Version 1.19.0Version 1.19.0

VerbesserungenImprovements

  1. Azure Storage-Verbindungs-Manager wurde Unterstützung für SAS-Authentifizierung (Shared Access Signature) hinzugefügt.Added support for shared access signature authentication to Azure Storage connection manager.

Version 1.18.0Version 1.18.0

VerbesserungenImprovements

  1. Für flexible Dateitasks wurden drei Verbesserungen eingeführt: (1) Es wurde Unterstützung für Platzhalter bei Kopier-/Löschvorgängen hinzugefügt. (2) Der Benutzer kann die rekursive Suche bei Löschvorgängen aktivieren/deaktivieren. (3) Der Name der Zieldatei kann bei Kopiervorgängen leer bleiben, um den Namen der Quelldatei beizubehalten.For Flexible File task, three are three improvements: (1) wildcard support for copy/delete operations is added; (2) user can enable/disable recursive searching for delete operation; and (3) the file name of Destination for copy operation can be empty to keep the source file name.

Version 1.17.0Version 1.17.0

Hierbei handelt es sich um eine ausschließlich für SQL Server 2019 veröffentlichte Hotfixversion.This is a hotfix version released for SQL Server 2019 only.

FehlerbehebungenBugfixes

  1. Beim Ausführen in Visual Studio 2019 mit SQL Server 2019 als Ziel kann es bei flexiblen Dateitasks/Quellen/Zielen zu folgender Fehlermeldung kommen: Attempted to access an element as a type incompatible with the array.When executing in Visual Studio 2019 and targeting SQL Server 2019, Flexible File Task/Source/Destination may fail with the error message Attempted to access an element as a type incompatible with the array.
  2. Beim Ausführen in Visual Studio 2019 mit SQL Server 2019 als Ziel kann es bei flexiblen Dateitasks/Zielen bei Verwendung des ORC-/Parquet-Formats zu folgender Fehlermeldung kommen: Microsoft.DataTransfer.Common.Shared.HybridDeliveryException: An unknown error occurred. JNI.JavaExceptionCheckException. (Microsoft.DataTransfer.Common.Shared.HybridDeliveryException: Unbekannter Fehler. JNI.JavaExceptionCheckException.).When executing in Visual Studio 2019 and targeting SQL Server 2019, Flexible File Source/Destination using ORC/Parquet format may fail with the error message Microsoft.DataTransfer.Common.Shared.HybridDeliveryException: An unknown error occurred. JNI.JavaExceptionCheckException.

Version 1.16.0Version 1.16.0

FehlerbehebungenBugfixes

  1. In bestimmten Fällen meldet die Paketausführung „Fehler: Die Datei oder Assembly ‚Newtonsoft.Json, Version=11.0.0.0, Culture=neutral, PublicKeyToken=30ad4fe6b2a6aeed‘ oder eine ihrer Abhängigkeit konnte nicht gefunden werden.“In certain cases, package execution reports "Error: Could not load file or assembly ‘Newtonsoft.Json, Version=11.0.0.0, Culture=neutral, PublicKeyToken=30ad4fe6b2a6aeed’ or one of its dependencies."

Version 1.15.0Version 1.15.0

VerbesserungenImprovements

  1. Vorgang zum Löschen eines Ordners bzw. einer Datei zum flexiblen Dateitask hinzugefügtAdd delete folder/file operation to Flexible File Task
  2. Funktion zum Konvertieren des externen bzw. Ausgabedatentyps zur flexiblen Dateiquelle hinzugefügtAdd External/Output data type convert function in Flexible File Source

FehlerbehebungenBugfixes

  1. In bestimmten Fällen treten Fehler beim Testen der Verbindung für Data Lake Storage Gen2 auf, und die Fehlermeldung „Es wurde versucht, auf ein Element zuzugreifen, dessen Typ mit dem Array nicht kompatibel ist“ wird angezeigt.In certain cases, test connection malfunctions for Data Lake Storage Gen2 with the error message "Attempted to access an element as a type incompatible with the array"
  2. Unterstützung für den Azure-Speicheremulator wieder verfügbarBring back support for Azure storage emulator