Power Query-Connectors (Vorschau – eingestellt)

Wichtig

Die Unterstützung für Power Query-Connectors wurde als Public Preview unter Zusätzliche Nutzungsbedingungen für Microsoft Azure-Vorschauen eingeführt, wird aber jetzt eingestellt. Wenn Sie über eine Suchlösung verfügen, die einen Power Query-Connector verwendet, migrieren Sie bitte zu einer alternativen Lösung.

Migrieren bis zum 28. November 2022

Die Vorschauversion der Power Query-Connectors wurde im Mai 2021 angekündigt und wird nicht allgemein verfügbar gemacht. Im Folgenden finden Sie einen Migrationsleitfaden für Snowflake und PostgreSQL. Falls Sie einen anderen Connector verwenden und eine Anleitung zur Migration benötigen, fordern Sie über die E-Mail-Kontaktinformationen in Ihrer Registrierung für die Vorschauversion Hilfe an, oder öffnen Sie ein Supportticket beim Azure-Support.

Voraussetzungen

Migrieren einer Snowflake-Datenpipeline

In diesem Abschnitt wird erläutert, wie Sie Daten aus einer Snowflake-Datenbank in einen Azure Cognitive Search-Index kopieren. Es ist kein Prozess für die direkte Indizierung aus Snowflake in Azure Cognitive Search verfügbar. Dieser Abschnitt enthält daher eine Stagingphase, in der Datenbankinhalte in einen Azure Storage-Blobcontainer kopiert werden. Anschließend indizieren Sie die Daten aus diesem Stagingcontainer mithilfe einer Data Factory-Pipeline.

Schritt 1: Abrufen der Snowflake-Datenbankinformationen

  1. Wechseln Sie zu Snowflake, und melden Sie sich bei Ihrem Snowflake-Konto an. Ein Snowflake-Konto sieht wie folgt aus: https://<account_name>.snowflakecomputing.com.

  2. Sammeln Sie nach der Anmeldung die folgenden Informationen aus dem linken Bereich. Sie benötigen diese Informationen im nächsten Schritt:

    • Wählen Sie unter Data die Option Databases aus, und kopieren Sie den Namen der Datenbankquelle.
    • Wählen Sie in AdminBenutzer & Rollen aus, und kopieren Sie den Namen des Benutzers. Stellen Sie sicher, dass der Benutzer über Leseberechtigungen verfügt.
    • Wählen Sie unter Admin die Option Accounts aus, und kopieren Sie den LOCATOR-Wert des Kontos.
    • Kopieren Sie aus der Snowflake-URL im Format https://app.snowflake.com/<region_name>/xy12345/organization) den Regionsnamen. In https://app.snowflake.com/south-central-us.azure/xy12345/organization ist der Regionsname beispielsweise south-central-us.azure.
    • Wählen Sie unter Admin die Option Warehouses aus, und kopieren Sie den Namen des Warehouse, das der Datenbank zugeordnet ist, die Sie als Quelle verwenden.

Schritt 2: Konfigurieren des verknüpften Snowflake-Diensts

  1. Melden Sie sich mit Ihrem Azure-Konto bei Azure Data Factory Studio an.

  2. Wählen Sie Ihre Data Factory und dann Weiter aus.

  3. Wählen Sie im Menü auf der linken Seite das Symbol Verwalten aus.

    Screenshot: Auswählen des Symbols „Verwalten“ in Azure Data Factory zum Konfigurieren des verknüpften Snowflake-Diensts

  4. Wählen Sie unter Verknüpfte Dienste die Option Neu aus.

    Screenshot: Auswählen von „Neuer verknüpfter Dienst“ in Azure Data Factory

  5. Geben Sie im rechten Bereich „snowflake“ in das Suchfeld unter „Datenspeicher“ ein. Wählen Sie die Kachel Snowflake und dann Weiter aus.

    Screenshot: Auswählen der Snowflake-Kachel im Datenspeicher des neuen verknüpften Diensts

  6. Füllen Sie das Formular Neuer verknüpfter Dienst mit den Daten aus, die Sie im vorherigen Schritt gesammelt haben. Der Kontoname enthält einen LOCATOR-Wert und die Region (z. B. xy56789south-central-us.azure).

    Screenshot: Ausfüllen des Formulars für den verknüpften Dienst Snowflake

  7. Wählen Sie nach dem Ausfüllen des Formulars Verbindung testen aus.

  8. Wählen Sie Erstellen aus, wenn der Test erfolgreich ist.

Schritt 3: Konfigurieren des Snowflake-Datasets

  1. Wählen Sie im Menü auf der linken Seite das Symbol Autor aus.

  2. Wählen Sie Datasets und dann das Menü mit den Auslassungspunkten (...) aus, um die Datasetaktionen anzuzeigen.

    Screenshot: Auswählen des Symbols „Ersteller“ und von Datasetoptionen

  3. Wählen Sie Neues Dataset aus.

    Screenshot: Auswählen eines neuen Datasets in Azure Data Factory für Snowflake

  4. Geben Sie im rechten Bereich „snowflake“ in das Suchfeld unter „Datenspeicher“ ein. Wählen Sie die Kachel Snowflake und dann Weiter aus.

    Screenshot: Auswählen von „Snowflake“ aus der Datenquelle für das Dataset

  5. Unter Eigenschaften festlegen:

    • Wählen Sie den verknüpften Dienst aus, den Sie in Schritt 2 erstellt haben.
    • Wählen Sie die Tabelle, die Sie importieren möchten, und dann OK aus.

    Screenshot: Konfigurieren der Dataseteigenschaften für Snowflake

  6. Wählen Sie Speichern aus.

Erstellen Sie einen neuen Index mit dem gleichen Schema, das Sie derzeit für Ihre Snowflake-Daten konfiguriert haben, in Ihrem Azure Cognitive Search-Dienst.

Sie können Ihren aktuellen Index für den Snowflake-Power Query-Connector wiederverwenden. Suchen Sie im Azure-Portal nach dem Index, und wählen Sie dann Indexdefinition (JSON) aus. Wählen Sie die Definition aus, und kopieren Sie sie in den Text Ihrer neuen Indexanforderung.

Screenshot: Kopieren einer vorhandenen JSON-Indexkonfiguration in Azure Cognitive Search für den vorhandenen Snowflake-Index

Schritt 5: Konfigurieren des verknüpften Azure Cognitive Search-Diensts

  1. Wählen Sie im Menü auf der linken Seite das Symbol Verwalten aus.

    Screenshot: Auswählen des Symbols „Verwalten“ in Azure Data Factory zum Hinzufügen eines neuen verknüpften Diensts

  2. Wählen Sie unter Verknüpfte Dienste die Option Neu aus.

    Screenshot: Auswählen von „Neuer verknüpfter Dienst“ in Azure Data Factory für Cognitive Search

  3. Geben Sie im rechten Bereich „search“ in das Suchfeld unter „Datenspeicher“ ein. Wählen Sie die Kachel Azure Search und dann Weiter aus.

    Screenshot: Auswählen eines neuen verknüpften Search-Diensts in Azure Data Factory zum Importieren aus Snowflake

  4. Füllen Sie die Felder unter Neuer verknüpfter Dienst aus:

    • Wählen Sie das Azure-Abonnement aus, in dem sich Ihr Azure Cognitive Search-Dienst befindet.
    • Wählen Sie den Azure Cognitive Search-Dienst aus, der den Indexer für Ihren Power Query-Connector enthält.
    • Klicken Sie auf Erstellen.

    Screenshot: Auswählen eines neuen verknüpften Search-Diensts in Azure Data Factory mit Eigenschaften zum Importieren aus Snowflake

Schritt 6: Konfigurieren des Azure Cognitive Search-Datasets

  1. Wählen Sie im Menü auf der linken Seite das Symbol Autor aus.

  2. Wählen Sie Datasets und dann das Menü mit den Auslassungspunkten (...) aus, um die Datasetaktionen anzuzeigen.

    Screenshot: Auswählen des Symbols „Ersteller“ und von Datasetoptionen für Cognitive Search

  3. Wählen Sie Neues Dataset aus.

    Screenshot: Auswählen eines neuen Datasets in Azure Data Factory

  4. Geben Sie im rechten Bereich „search“ in das Suchfeld unter „Datenspeicher“ ein. Wählen Sie die Kachel Azure Search und dann Weiter aus.

    Screenshot: Auswählen eines Azure Cognitive Search-Diensts für ein Dataset in Azure Data Factory zur Verwendung als Senke

  5. Unter Eigenschaften festlegen:

    • Wählen Sie den verknüpften Dienst aus, den Sie in Schritt 5 erstellt haben.

    • Wählen Sie den Suchindex aus, den Sie in Schritt 4 erstellt haben.

    • Klicken Sie auf OK.

      Screenshot: Auswählen eines neuen verknüpften Search-Diensts in Azure Data Factory für Snowflake

  6. Wählen Sie Speichern aus.

Schritt 7: Konfigurieren des verknüpften Azure Blob Storage-Diensts

  1. Wählen Sie im Menü auf der linken Seite das Symbol Verwalten aus.

    Screenshot: Auswählen des Symbols „Verwalten“ in Azure Data Factory zum Verknüpfen eines neuen Diensts

  2. Wählen Sie unter Verknüpfte Dienste die Option Neu aus.

    Screenshot: Auswählen von „Neuer verknüpfter Dienst“ in Azure Data Factory zum Zuweisen eines Speicherkontos

  3. Geben Sie im rechten Bereich „storage“ in das Suchfeld unter „Datenspeicher“ ein. Wählen Sie die Kachel Azure Blob Storage und dann Weiter aus.

    Screenshot: Auswählen eines neuen verknüpften Blob Storage-Diensts zur Verwendung als Senke für Snowflake in Azure Data Factory

  4. Füllen Sie die Felder unter Neuer verknüpfter Dienst aus:

    • Wählen Sie den Authentifizierungstyp „SAS-URI“ aus. Zum Importieren von Daten aus Snowflake in Azure Blob Storage kann nur dieser Authentifizierungstyp verwendet werden.

    • Generieren Sie eine SAS-URL für das Speicherkonto, das Sie für das Staging verwenden. Fügen Sie die Blob-SAS-URL in das Feld „SAS-URL“ ein.

    • Klicken Sie auf Erstellen.

      Screenshot: Ausfüllen des Formulars für den neuen verknüpften Search-Dienst in Azure Data Factory mit Eigenschaften zum Importieren aus Snowflake

Schritt 8: Konfigurieren des Storage-Datasets

  1. Wählen Sie im Menü auf der linken Seite das Symbol Autor aus.

  2. Wählen Sie Datasets und dann das Menü mit den Auslassungspunkten (...) aus, um die Datasetaktionen anzuzeigen.

    Screenshot: Auswählen des Symbols „Ersteller“ und von Datasetoptionen

  3. Wählen Sie Neues Dataset aus.

    Screenshot: Auswählen eines neuen Datasets für den Speicher in Azure Data Factory

  4. Geben Sie im rechten Bereich „storage“ in das Suchfeld unter „Datenspeicher“ ein. Wählen Sie die Kachel Azure Blob Storage und dann Weiter aus.

    Screenshot: Auswählen eines neuen Blob Storage-Datenspeichers in Azure Data Factory für das Staging

  5. Wählen Sie das Format DelimitedText und dann Weiter aus.

  6. Unter Eigenschaften festlegen:

    • Wählen Sie unter Verknüpfter Dienst den verknüpften Dienst aus, den Sie in Schritt 7 erstellt haben.

    • Wählen Sie unter Dateipfad den Container, der als Senke für den Stagingprozess verwendet werden soll, und dann OK aus.

      Screenshot: Konfigurieren von Eigenschaften für das Storage-Dataset für Snowflake in Azure Data Factory

    • Wählen Sie unter Zeilentrennzeichen die Option Zeilenvorschub (\n) aus.

    • Aktivieren Sie das Kontrollkästchen Erste Zeile als Kopfzeile.

    • Wählen Sie Speichern aus.

      Screenshot: Speichern einer DelimitedText-Konfiguration zur Verwendung als Senke für Snowflake

Schritt 9: Konfigurieren der Pipeline

  1. Wählen Sie im Menü auf der linken Seite das Symbol Autor aus.

  2. Wählen Sie Pipelines und dann das Menü mit den Auslassungspunkten (...) aus, um die Pipelineaktionen anzuzeigen.

    Screenshot: Auswählen des Symbols „Ersteller“ und der Option für Pipelines zum Konfigurieren der Pipeline für die Snowflake-Datentransformation

  3. Wählen Sie Neue Pipeline aus.

    Screenshot: Auswählen einer neuen Pipeline in Azure Data Factory, die für die Snowflake-Datenerfassung erstellt werden soll

  4. Erstellen und konfigurieren Sie die Data Factory-Aktivitäten zum Kopieren von Daten aus Snowflake in den Azure Storage-Container:

    • Erweitern Sie den Abschnitt Verschieben & Transformieren , und ziehen Sie die Aktivität Daten kopieren in die leere Pipeline-Editor-Canvas.

      Screenshot: Verschieben einer Datenkopieraktivität per Drag & Drop in die Pipelinecanvas, um Daten aus Snowflake zu kopieren

    • Öffnen Sie die Registerkarte Allgemein. Übernehmen Sie die Standardwerte, es sei denn, Sie müssen die Ausführung anpassen.

    • Wählen Sie auf der Registerkarte Quelle Ihre Snowflake-Tabelle aus. Übernehmen Sie für die übrigen Optionen die Standardwerte.

      Screenshot: Konfigurieren der Quelle in einer Pipeline zum Importieren von Daten aus Snowflake

    • Auf der Registerkarte Senke:

      • Wählen Sie das Storage-Dataset im Format DelimitedText aus, das Sie in Schritt 8 erstellt haben.

      • Fügen Sie im Feld Dateierweiterung die Erweiterung .csv hinzu.

      • Übernehmen Sie für die übrigen Optionen die Standardwerte.

        Screenshot: Konfigurieren der Senke in einer Pipeline zum Verschieben der Daten aus Snowflake zu Azure Storage

    • Wählen Sie Speichern aus.

  5. Konfigurieren Sie die Aktivitäten zum Kopieren von Daten aus Azure Storage Blob in einen Suchindex:

    • Erweitern Sie den Abschnitt Verschieben & Transformieren , und ziehen Sie die Aktivität Daten kopieren in die leere Pipeline-Editor-Canvas.

      Screenshot: Verschieben einer Datenkopieraktivität per Drag & Drop in die Pipelinecanvas zum Indizieren aus Storage

    • Übernehmen Sie auf der Registerkarte Allgemein die Standardwerte, es sei denn, Sie müssen die Ausführung anpassen.

    • Auf der Registerkarte Quelle:

      • Wählen Sie das Storage-Dataset im Format DelimitedText aus, das Sie in Schritt 8 erstellt haben.
      • Wählen Sie im Feld Dateipfadtyp die Option Platzhalterdateipfad aus.
      • Übernehmen Sie für alle anderen Felder die Standardwerte.

      Screenshot: Konfigurieren der Quelle in einer Pipeline zum Importieren von Daten aus Blob Storage in den Azure Cognitive Search-Index für die Stagingphase

    • Wählen Sie auf der Registerkarte Senke Ihren Azure Cognitive Search-Index aus. Übernehmen Sie für die übrigen Optionen die Standardwerte.

      Screenshot: Konfigurieren der Senke in einer Pipeline zum Importieren von Daten aus Blob Storage in den Azure Cognitive Search-Index als finaler Schritt in der Pipeline

    • Wählen Sie Speichern aus.

Schritt 10: Konfigurieren der Aktivitätsreihenfolge

  1. Wählen Sie in der Canvas des Pipeline-Editors das kleine grüne Quadrat am Rand der Kachel für die Pipelineaktivität aus. Ziehen Sie es in die Aktivität „Index von Speicherkonto in Azure Cognitive Search“, um die Ausführungsreihenfolge festzulegen.

  2. Wählen Sie Speichern aus.

    Screenshot: Verknüpfen von Pipelineaktivitäten zum Bereitstellen der Ausführungsreihenfolge für Snowflake

Schritt 11: Hinzufügen eines Pipelinetriggers

  1. Wählen Sie Trigger hinzufügen aus, um die Pipelineausführung zu planen, und wählen Sie dann Neu/Bearbeiten aus.

    Screenshot: Hinzufügen eines neuen Triggers für eine Pipeline in Data Factory zur Ausführung für Snowflake

  2. Wählen Sie in der Dropdownliste Trigger auswählen die Option Neu aus.

    Screenshot: Auswählen der Option zum Hinzufügen eines neuen Triggers für eine Pipeline in Data Factory für Snowflake

  3. Überprüfen Sie die Triggeroptionen zum Ausführen der Pipeline, und wählen Sie OK aus.

    Screenshot: Konfigurieren eines Triggers zur Ausführung einer Pipeline in Data Factory für Snowflake

  4. Wählen Sie Speichern aus.

  5. Wählen Sie Veröffentlichen.

    Veröffentlichen einer Pipeline in Data Factory zum Indizieren durch die Snowflake-Erfassung

Migrieren einer PostgreSQL-Datenpipeline

In diesem Abschnitt wird erläutert, wie Sie Daten aus einer PostgreSQL-Datenbank in einen Azure Cognitive Search-Index kopieren. Es ist kein Prozess für die direkte Indizierung aus PostgreSQL in Azure Cognitive Search verfügbar. Dieser Abschnitt enthält daher eine Stagingphase, in der Datenbankinhalte in einen Azure Storage-Blobcontainer kopiert werden. Anschließend indizieren Sie die Daten aus diesem Stagingcontainer mithilfe einer Data Factory-Pipeline.

Schritt 1: Konfigurieren des verknüpften PostgreSQL-Diensts

  1. Melden Sie sich mit Ihrem Azure-Konto bei Azure Data Factory Studio an.

  2. Wählen Sie Ihre Data Factory und dann Weiter aus.

  3. Wählen Sie im Menü auf der linken Seite das Symbol Verwalten aus.

    Auswählen des Symbols „Verwalten“ in Azure Data Factory

  4. Wählen Sie unter Verknüpfte Dienste die Option Neu aus.

    Screenshot: Auswählen von „Neuer verknüpfter Dienst“ in Azure Data Factory

  5. Geben Sie im rechten Bereich „postgresql“ in das Suchfeld unter „Datenspeicher“ ein. Wählen Sie die Kachel PostgreSQL aus, die zeigt, wo sich Ihre PostgreSQL-Datenbank befindet (Azure oder anderer Speicherort), und wählen Sie Weiter aus. In diesem Beispiel befindet sich die PostgreSQL-Datenbank in Azure.

    Auswählen des PostgreSQL-Datenspeichers für einen verknüpften Dienst in Azure Data Factory

  6. Füllen Sie die Felder unter Neuer verknüpfter Dienst aus:

    • Wählen Sie unter Methode für Kontoauswahl die Option Manuell eingeben aus.

    • Fügen Sie im Azure-Portal auf Ihrer Übersichtsseite für Azure Database for PostgreSQL die folgenden Werte in die entsprechenden Felder ein:

      • Fügen Sie im Feld Vollqualifizierter Domänenname den Servernamen hinzu.
      • Fügen Sie im Feld Benutzername des Administrators den Benutzernamen hinzu.
      • Fügen Sie im Feld Datenbankname die Datenbank hinzu.
      • Geben Sie das Kennwort für den Administratorbenutzernamen in das Feld Kennwort ein.
      • Klicken Sie auf Erstellen.

      Auswählen des Symbols „Verwalten“ in Azure Data Factory

Schritt 2: Konfigurieren des PostgreSQL-Datasets

  1. Wählen Sie im Menü auf der linken Seite das Symbol Autor aus.

  2. Wählen Sie Datasets und dann das Menü mit den Auslassungspunkten (...) aus, um die Datasetaktionen anzuzeigen.

    Screenshot: Auswählen des Symbols „Ersteller“ und von Datasetoptionen

  3. Wählen Sie Neues Dataset aus.

    Screenshot: Auswählen eines neuen Datasets in Azure Data Factory

  4. Geben Sie im rechten Bereich „postgresql“ in das Suchfeld unter „Datenspeicher“ ein. Wählen Sie die Kachel Azure PostgreSQL aus. Wählen Sie Weiter.

    Screenshot: Auswählen des PostgreSQL-Datenspeichers für ein Dataset in Azure Data Factory

  5. Füllen Sie die Felder unter Eigenschaften festlegen aus:

    • Wählen Sie den verknüpften PostgreSQL-Dienst aus, den Sie in Schritt 1 erstellt haben.

    • Wählen Sie die Tabelle aus, die Sie importieren/indizieren möchten.

    • Klicken Sie auf OK.

      Screenshot: Festlegen von PostgreSQL-Eigenschaften für ein Dataset in Azure Data Factory

  6. Wählen Sie Speichern aus.

Erstellen Sie einen neuen Index mit dem gleichen Schema, das Sie für Ihre PostgreSQL-Daten verwendet haben, in Ihrem Azure Cognitive Search-Dienst.

Sie können Ihren aktuellen Index für den PostgreSQL-Power Query-Connector wiederverwenden. Suchen Sie im Azure-Portal nach dem Index, und wählen Sie dann Indexdefinition (JSON) aus. Wählen Sie die Definition aus, und kopieren Sie sie in den Text Ihrer neuen Indexanforderung.

Screenshot: Kopieren einer vorhandenen JSON-Indexkonfiguration in Azure Cognitive Search

Schritt 4: Konfigurieren des verknüpften Azure Cognitive Search-Diensts

  1. Wählen Sie im Menü auf der linken Seite das Symbol Verwalten aus.

    Screenshot: Auswählen des Symbols „Verwalten“ in Azure Data Factory zum Verknüpfen eines Diensts

  2. Wählen Sie unter Verknüpfte Dienste die Option Neu aus.

    Screenshot: Auswählen von „Neuer verknüpfter Dienst“ in Azure Data Factory

  3. Geben Sie im rechten Bereich „search“ in das Suchfeld unter „Datenspeicher“ ein. Wählen Sie die Kachel Azure Search und dann Weiter aus.

    Screenshot: Auswählen eines neuen verknüpften Search-Diensts in Azure Data Factory

  4. Füllen Sie die Felder unter Neuer verknüpfter Dienst aus:

    • Wählen Sie das Azure-Abonnement aus, in dem sich Ihr Azure Cognitive Search-Dienst befindet.
    • Wählen Sie den Azure Cognitive Search-Dienst aus, der den Indexer für Ihren Power Query-Connector enthält.
    • Klicken Sie auf Erstellen.

    Screenshot: Auswählen eines neuen verknüpften Search-Diensts in Azure Data Factory mit Eigenschaften zum Importieren aus PostgreSQL

Schritt 5: Konfigurieren des Azure Cognitive Search-Datasets

  1. Wählen Sie im Menü auf der linken Seite das Symbol Autor aus.

  2. Wählen Sie Datasets und dann das Menü mit den Auslassungspunkten (...) aus, um die Datasetaktionen anzuzeigen.

    Screenshot: Auswählen des Symbols „Ersteller“ und von Datasetoptionen

  3. Wählen Sie Neues Dataset aus.

    Screenshot: Auswählen eines neuen Datasets in Azure Data Factory

  4. Geben Sie im rechten Bereich „search“ in das Suchfeld unter „Datenspeicher“ ein. Wählen Sie die Kachel Azure Search und dann Weiter aus.

    Screenshot: Auswählen eines Azure Cognitive Search-Diensts für ein Dataset in Azure Data Factory

  5. Unter Eigenschaften festlegen:

    • Wählen Sie den verknüpften Dienst aus, den Sie in Schritt 4 für Azure Cognitive Search erstellt haben.

    • Wählen Sie den Index aus, den Sie in Schritt 3 erstellt haben.

    • Klicken Sie auf OK.

      Screenshot: Ausfüllen der Felder unter „Eigenschaften festlegen“ für das Search-Dataset

  6. Wählen Sie Speichern aus.

Schritt 6: Konfigurieren des verknüpften Azure Blob Storage-Diensts

  1. Wählen Sie im Menü auf der linken Seite das Symbol Verwalten aus.

    Screenshot: Auswählen des Symbols „Verwalten“ in Azure Data Factory zum Verknüpfen eines Diensts

  2. Wählen Sie unter Verknüpfte Dienste die Option Neu aus.

    Screenshot: Auswählen von „Neuer verknüpfter Dienst“ in Azure Data Factory

  3. Geben Sie im rechten Bereich „storage“ in das Suchfeld unter „Datenspeicher“ ein. Wählen Sie die Kachel Azure Blob Storage und dann Weiter aus.

    Screenshot: Auswählen eines neuen Datenspeichers

  4. Füllen Sie die Felder unter Neuer verknüpfter Dienst aus:

    • Wählen Sie für Authentifizierungstyp die Option SAS-URI aus. Zum Importieren von Daten aus PostgreSQL in Azure Blob Storage kann nur diese Methode verwendet werden.

    • Generieren Sie eine SAS-URL für das Speicherkonto, das Sie für das Staging verwenden, und kopieren Sie die Blob-SAS-URL in das Feld „SAS-URL“.

    • Klicken Sie auf Erstellen.

      Screenshot: Ausfüllen des Formulars für den neuen verknüpften Search-Dienst in Azure Data Factory mit Eigenschaften zum Importieren aus PostgreSQL

Schritt 7: Konfigurieren des Storage-Datasets

  1. Wählen Sie im Menü auf der linken Seite das Symbol Autor aus.

  2. Wählen Sie Datasets und dann das Menü mit den Auslassungspunkten (...) aus, um die Datasetaktionen anzuzeigen.

    Screenshot: Auswählen des Symbols „Ersteller“ und von Datasetoptionen

  3. Wählen Sie Neues Dataset aus.

    Screenshot: Auswählen eines neuen Datasets in Azure Data Factory

  4. Geben Sie im rechten Bereich „storage“ in das Suchfeld unter „Datenspeicher“ ein. Wählen Sie die Kachel Azure Blob Storage und dann Weiter aus.

    Screenshot: Auswählen eines neuen Blob Storage-Datenspeichers in Azure Data Factory

  5. Wählen Sie das Format DelimitedText und dann Weiter aus.

  6. Wählen Sie unter Zeilentrennzeichen die Option Zeilenvorschub (\n) aus.

  7. Aktivieren Sie das Kontrollkästchen Erste Zeile als Kopfzeile.

  8. Wählen Sie Speichern aus.

    Screenshot: Optionen zum Importieren von Daten in Azure Storage Blob

Schritt 8: Konfigurieren der Pipeline

  1. Wählen Sie im Menü auf der linken Seite das Symbol Autor aus.

  2. Wählen Sie Pipelines und dann das Menü mit den Auslassungspunkten (...) aus, um die Pipelineaktionen anzuzeigen.

    Screenshot: Auswählen des Symbols „Ersteller“ und von Pipelineoptionen

  3. Wählen Sie Neue Pipeline aus.

    Screenshot: Auswählen einer neuen Pipeline in Azure Data Factory

  4. Erstellen und konfigurieren Sie die Data Factory-Aktivitäten zum Kopieren von Daten aus PostgreSQL in den Azure Storage-Container.

    • Erweitern Sie den Abschnitt Verschieben & Transformieren , und ziehen Sie die Aktivität Daten kopieren in die leere Pipeline-Editor-Canvas.

      Screenshot: Drag & Drop in Azure Data Factory zum Kopieren von Daten aus PostgreSQL

    • Öffnen Sie die Registerkarte Allgemein, und übernehmen Sie die Standardwerte, es sei denn, Sie müssen die Ausführung anpassen.

    • Wählen Sie auf der Registerkarte Quelle Ihre PostgreSQL-Tabelle aus. Übernehmen Sie für die übrigen Optionen die Standardwerte.

      Screenshot: Konfigurieren der Quelle zum Importieren von Daten aus PostgreSQL in Azure Storage Blob in der Stagingphase

    • Auf der Registerkarte Senke:

      • Wählen Sie das Storage-Dataset für PostgreSQL im Format „DelimitedText“ aus, das Sie in Schritt 7 konfiguriert haben.

      • Fügen Sie im Feld Dateierweiterung die Erweiterung .csv hinzu.

      • Übernehmen Sie für die übrigen Optionen die Standardwerte.

        Screenshot: Konfigurieren der Senke zum Importieren von Daten aus PostgreSQL in Azure Storage Blob

    • Wählen Sie Speichern aus.

  5. Konfigurieren Sie die Aktivitäten zum Kopieren von Daten aus Azure Storage in einen Suchindex:

    • Erweitern Sie den Abschnitt Verschieben & Transformieren , und ziehen Sie die Aktivität Daten kopieren in die leere Pipeline-Editor-Canvas.

      Screenshot: Drag & Drop in Azure Data Factory zum Konfigurieren einer Kopieraktivität

    • Übernehmen Sie auf der Registerkarte Allgemein die Standardwerte, es sei denn, Sie müssen die Ausführung anpassen.

    • Auf der Registerkarte Quelle:

      • Wählen Sie das Storage-Quelldataset aus, das Sie in Schritt 7 konfiguriert haben.
      • Wählen Sie im Feld Dateipfadtyp die Option Platzhalterdateipfad aus.
      • Übernehmen Sie für alle anderen Felder die Standardwerte.

      Screenshot: Konfigurieren der Quelle zum Indizieren aus Storage in den Azure Cognitive Search-Index

    • Wählen Sie auf der Registerkarte Senke Ihren Azure Cognitive Search-Index aus. Übernehmen Sie für die übrigen Optionen die Standardwerte.

      Screenshot: Konfigurieren der Senke zum Indizieren aus Storage in den Azure Cognitive Search-Index

    • Wählen Sie Speichern aus.

Schritt 9: Konfigurieren der Aktivitätsreihenfolge

  1. Wählen Sie in der Canvas des Pipeline-Editors das kleine grüne Quadrat am Rand der Pipelineaktivität aus. Ziehen Sie es in die Aktivität „Index von Speicherkonto in Azure Cognitive Search“, um die Ausführungsreihenfolge festzulegen.

  2. Wählen Sie Speichern aus.

    Screenshot: Konfigurieren der Aktivitätsreihenfolge in der Pipeline für die richtige Ausführung

Schritt 10: Hinzufügen eines Pipelinetriggers

  1. Wählen Sie Trigger hinzufügen aus, um die Pipelineausführung zu planen, und wählen Sie dann Neu/Bearbeiten aus.

    Screenshot: Hinzufügen eines neuen Triggers für eine Pipeline in Data Factory

  2. Wählen Sie in der Dropdownliste Trigger auswählen die Option Neu aus.

    Screenshot: Auswählen der Option zum Hinzufügen eines neuen Triggers für eine Pipeline in Data Factory

  3. Überprüfen Sie die Triggeroptionen zum Ausführen der Pipeline, und wählen Sie OK aus.

    Screenshot: Konfigurieren eines Triggers zur Ausführung einer Pipeline in Data Factory

  4. Wählen Sie Speichern aus.

  5. Wählen Sie Veröffentlichen.

    Screenshot: Veröffentlichen einer Pipeline in Data Factory für das Kopieren von PostgreSQL-Daten

Legacyinhalte für die Vorschau der Power Query-Connectors

Ein Power Query-Connector wird mit einem Suchindexer verwendet, um die Datenerfassung aus verschiedenen Datenquellen zu automatisieren (einschließlich der Quellen bei anderen Cloudanbietern). Der Connector verwendet Power Query, um die Daten abzurufen.

In der Vorschauversion werden die folgenden Datenquellen unterstützt:

  • Amazon Redshift
  • Elasticsearch
  • PostgreSQL
  • Salesforce-Objekte
  • Salesforce-Berichte
  • Smartsheet
  • Snowflake

Unterstützte Funktionen

Power Query-Connectors werden in Indexern verwendet. Ein Indexer in Azure Cognitive Search ist ein Crawler, mit dem durchsuchbare Daten und Metadaten aus einer externen Datenquelle extrahiert werden und ein Index basierend auf Feld-zu-Feld-Zuordnungen zwischen dem Index und Ihrer Datenquelle aufgefüllt wird. Dieser Ansatz wird auch als „Pullmodell“ bezeichnet, weil der Dienst Daten abruft, ohne dass Sie Code schreiben müssen, der einem Index Daten hinzufügt. Indexer bieten Benutzern eine bequeme Möglichkeit, Inhalte aus ihrer Datenquelle zu indizieren, ohne ein eigenes Crawler- oder Pushmodell schreiben zu müssen.

Indexer, die auf Power Query-Datenquellen verweisen, verfügen über dasselbe Maß an Unterstützung für Skillsets, Zeitpläne, Erkennungslogik für Änderungen in der Obergrenzenmarkierung und die meisten Parameter, die von anderen Indexern unterstützt werden.

Voraussetzungen

Obwohl Sie dieses Feature nicht mehr verwenden können, wurden in der Vorschau die folgenden Anforderungen erfüllt:

  • Azure Cognitive Search-Dienst in einer unterstützten Region.

  • Vorschauregistrierung. Dieses Feature muss auf dem Back-End aktiviert sein.

  • Azure Blob Storage-Konto, das als Vermittler für Ihre Daten verwendet wird. Die Daten werden von Ihrer Datenquelle an Blob Storage und dann zum Index fließen. Diese Anforderung ist nur bei der anfänglichen geschlossenen Vorschau vorhanden.

Regionale Verfügbarkeit

Die Vorschauversion war nur für Suchdienste in den folgenden Regionen verfügbar:

  • USA (Mitte)
  • East US
  • USA (Ost) 2
  • USA Nord Mitte
  • Nordeuropa
  • USA Süd Mitte
  • USA, Westen-Mitte
  • Europa, Westen
  • USA (Westen)
  • USA, Westen 2

Einschränkungen der Vorschau

In diesem Abschnitt werden die Einschränkungen beschrieben, die konkret für die aktuelle Version der Vorschau gelten.

  • Das Pullen von Binärdaten aus der Datenquelle wird nicht unterstützt.

  • Die Funktion Debugsitzung wird nicht unterstützt.

Erste Schritte mit dem Azure-Portal

Das Azure-Portal bietet Unterstützung für die Power Query-Connectors. Der Datenimport-Assistent in der kognitiven Azure-Suche kann durch die Entnahme von Stichproben und das Lesen von Metadaten im Container einen Standardindex erstellen, Quellfelder Zielindexfeldern zuordnen und den Index in einem einzigen Vorgang laden. Je nach Größe und Komplexität der Quelldaten können Sie auch innerhalb von Minuten einen funktionsfähigen Volltextsuchindex erstellen.

Im folgenden Video wird gezeigt, wie Sie einen Power Query-Connector in Azure Cognitive Search einrichten.

Schritt 1: Aufbereiten von Quelldaten

Vergewissern Sie sich, dass Ihre Datenquelle Daten enthält. Zur Ableitung eines Indexschemas werden vom Datenimport-Assistenten Metadaten gelesen und Stichproben entnommen, aber es werden auch Daten aus Ihren Datenquellen geladen. Wenn die Daten fehlen, wird der Assistent beendet, und es wird ein Fehler zurückgegeben.

Schritt 2: Starten des Datenimport-Assistenten

Nachdem Sie für die Vorschau genehmigt wurden, stellt Ihnen das Azure Cognitive Search-Team einen Azure-Portal-Link bereit, der ein Featureflag verwendet, damit Sie auf die Power Query-Connectors zugreifen können. Öffnen Sie diese Seite, und starten Sie den Assistenten über die Befehlsleiste auf der Seite des Azure Cognitive Search-Diensts, indem Sie Daten importieren auswählen.

Schritt 3: Auswählen der Datenquelle

Es gibt einige Datenquellen, aus denen Sie Daten mithilfe dieser Vorschau abrufen können. Alle Datenquellen, für die Power Query verwendet wird, enthalten den Hinweis „Powered By Power Query“ auf ihrer Kachel. Wählen Sie Ihre Datenquelle aus.

Screenshot: Seite zum Auswählen einer Datenquelle

Nachdem Sie Ihre Datenquelle ausgewählt haben, wählen Sie Weiter: Daten konfigurieren aus, um mit dem nächsten Abschnitt fortzufahren.

Schritt 4: Konfigurieren Ihrer Daten

In diesem Schritt konfigurieren Sie Ihre Verbindung. Die einzelnen Datenquellen erfordern jeweils unterschiedliche Informationen. Für einige Datenquellen enthält die Power Query-Dokumentation ausführlichere Informationen zum Herstellen einer Verbindung mit Ihren Daten.

Nachdem Sie Ihre Anmeldeinformationen für die Verbindung angegeben haben, wählen Sie Weiter aus.

Schritt 5: Auswählen Ihrer Daten

Im Import-Assistenten wird eine Vorschau verschiedener Tabellen angezeigt, die in Ihrer Datenquelle verfügbar sind. In diesem Schritt überprüfen Sie eine Tabelle, die die Daten enthält, die Sie in Ihren Index importieren möchten.

Screenshot: Datenvorschau

Nachdem Sie die Tabelle ausgewählt haben, wählen Sie Weiter aus.

Schritt 6: Transformieren Ihrer Daten (optional)

Power Query-Connectors bieten Ihnen eine umfassende Benutzeroberfläche, mit der Sie die Daten bearbeiten können, damit Sie die richtigen Daten an den Index senden können. Sie können Spalten entfernen, Zeilen filtern und vieles mehr.

Es ist nicht erforderlich, dass Sie die Daten transformieren, bevor Sie sie in Azure Cognitive Search importieren.

Screenshot: Seite zum Transformieren der Daten

Weitere Informationen zum Transformieren von Daten mit Power Query finden Sie unter Verwenden von Power Query in Power BI Desktop.

Wählen Sie nach dem Transformieren der Daten Weiter aus.

Schritt 7: Hinzufügen von Azure Blob Storage

Für die Vorschauversion der Power Query-Connectors müssen Sie derzeit ein Blob-Speicherkonto angeben. Dieser Schritt ist nur bei der anfänglichen geschlossenen Vorschau vorhanden. Dieses Blob-Speicherkonto dient als temporärer Speicher für Daten, die von Ihrer Datenquelle in einen Azure Cognitive Search-Index verschoben werden.

Es wird empfohlen, eine Verbindungszeichenfolge für das Speicherkonto mit Vollzugriff bereitzustellen:

{ "connectionString" : "DefaultEndpointsProtocol=https;AccountName=<your storage account>;AccountKey=<your account key>;" }

Sie können die Verbindungszeichenfolge über das Azure-Portal abrufen, indem Sie auf dem Blatt des Speicherkontos zu > „Einstellungen“ > „Schlüssel“ (für klassische Speicherkonten) oder zu „Einstellungen“ > „Zugriffsschlüssel“ (für Azure Resource Manager-Speicherkonten) navigieren.

Nachdem Sie einen Datenquellennamen und eine Verbindungszeichenfolge angegeben haben, wählen Sie „Weiter: Kognitive Qualifikationen hinzufügen (Optional)“ aus.

Schritt 8: Kognitive Qualifikationen hinzufügen (Optional)

Die KI-Anreicherung ist eine Erweiterung von Indexern, die dazu verwendet werden kann, Ihre Inhalte leichter durchsuchbar zu machen.

Sie können beliebige Anreicherungen hinzufügen, die für Ihr Szenario von Nutzen sind. Wählen Sie nach Abschluss des Vorgangs Weiter: Zielindex anpassen aus.

Schritt 9: Anpassen des Zielindex

Auf der Indexseite sollte eine Liste von Feldern mit einem Datentyp sowie mehrere Kontrollkästchen zum Festlegen von Indexattributen aufgeführt sein. Der Assistent kann basierend auf Metadaten und durch Sampling der Quelldaten eine Felderliste erstellen.

Sie können mehrere Attribute gleichzeitig auswählen, indem Sie das Kontrollkästchen oben in einer Attributspalte aktivieren. Wählen Sie Abrufbar und Durchsuchbar für jedes Feld aus, das an eine Client-App zurückgegeben werden sollte und der Volltextsuche unterliegt. Sie werden feststellen, dass ganze Zahlen bei der Volltext- oder Fuzzysuche nicht suchbar sind (Zahlen werden nach ihrem genauen Wortlaut ausgewertet und sind in Filtern häufig hilfreich).

Weitere Informationen finden Sie in den Beschreibungen der Indexattribute und Sprachanalysetools.

Nehmen Sie sich einen Moment Zeit, um Ihre Auswahl zu überprüfen. Wenn Sie den Assistenten ausführen, werden physische Datenstrukturen erstellt, und Sie können den Großteil der Eigenschaften für diese Felder nicht bearbeiten, ohne alle Objekte zu löschen und neu zu erstellen.

Screenshot: Seite zum Erstellen des Index

Wählen Sie nach Abschluss des Vorgangs Weiter: Indexer erstellen aus.

Schritt 10: Erstellen eines Indexers

Mit dem letzten Schritt wird der Indexer erstellt. Wenn der Indexer benannt wird, kann er als eigenständige Ressource existieren. Diese können Sie unabhängig vom Index und Datenquellenobjekt, die im selben Durchlauf des Assistenten erstellt wurden, planen und verwalten.

Die Ausgabe des Datenimport-Assistenten ist ein Indexer, der Ihre Datenquelle crawlt und die von Ihnen ausgewählten Daten in einen Index in Azure Cognitive Search importiert.

Beim Erstellen des Indexers können Sie optional den Indexer nach einem Zeitplan ausführen und die Änderungserkennung hinzufügen. Legen Sie eine Spalte mit oberem Grenzwert fest, um die Änderungserkennung hinzuzufügen.

Screenshot: Seite zum Erstellen des Indexers

Nachdem Sie diese Seite ausgefüllt haben, wählen Sie die Option zum Übermitteln aus.

Richtlinie zum Erkennen von Änderungen mit oberem Grenzwert

Diese Richtlinie zur Erkennung von Änderungen basiert auf einer Spalte mit oberem Grenzwert, die Version oder Uhrzeit der letzten Aktualisierung einer Zeile erfasst.

Requirements (Anforderungen)

  • Alle Einfügungen geben einen Wert für die Spalte an.
  • Alle Updates für ein Element ändern auch den Wert der Spalte.
  • Der Wert dieser Spalte wird bei jeder Einfügung oder Aktualisierung erhöht.

Nicht unterstützte Spaltennamen

Feldnamen in einem Azure Cognitive Search-Index müssen bestimmte Anforderungen erfüllen. Eine dieser Anforderungen ist, dass einige Zeichen wie „/“ nicht zulässig sind. Wenn ein Spaltenname in Ihrer Datenbank diese Anforderungen nicht erfüllt, wird die Spalte von der Indexschemaerkennung nicht als gültiger Feldname erkannt, und die Spalte wird nicht als vorgeschlagenes Feld für Ihren Index aufgeführt. Normalerweise würde das Problem durch die Verwendung von Feldzuordnungen gelöst, aber Feldzuordnungen werden im Portal nicht unterstützt.

Benennen Sie die Spalte während der Phase „Transform your data“ (Daten transformieren) des Datenimportprozesses um, um Inhalte aus einer Tabellenspalte mit einem nicht unterstützten Feldnamen zu indizieren. Beispielsweise können Sie eine Spalte mit der Bezeichnung „Abrechnungscode/Postleitzahl“ in „Postleitzahl“ umbenennen. Durch Umbenennen der Spalte wird die Spalte von der Indexschemaerkennung als gültiger Feldname erkannt und der Indexdefinition als Vorschlag hinzugefügt.

Nächste Schritte

In diesem Artikel wurde das Pullen von Daten mithilfe der Power Query-Connectors erläutert. Da diese Previewfunktion eingestellt wird, enthält dieser Artikel auch Informationen zur Migration vorhandener Lösungen zu einem unterstützten Szenario.

Weitere Informationen zu Indexern finden Sie unter Indexer in Azure Cognitive Search.