łączniki Power Query (wersja zapoznawcza — wycofane)

Ważne

obsługa łącznika Power Query została wprowadzona jako bramna publiczna wersja zapoznawcza w obszarze Uzupełniające warunki użytkowania dla wersji zapoznawczych Microsoft Azure, ale teraz została przerwana. Jeśli masz rozwiązanie do wyszukiwania korzystające z łącznika Power Query, przeprowadź migrację do alternatywnego rozwiązania.

Migrowanie do 28 listopada

Wersja zapoznawcza łącznika Power Query została ogłoszona w maju 2021 r. i nie będzie kontynuowana do ogólnej dostępności. Poniższe wskazówki dotyczące migracji są dostępne dla usług Snowflake i PostgreSQL. Jeśli używasz innego łącznika i potrzebujesz instrukcji dotyczących migracji, skorzystaj z informacji kontaktowych poczty e-mail podanych w rejestracji w wersji zapoznawczej, aby poprosić o pomoc lub otworzyć bilet pomocy technicznej platformy Azure.

Wymagania wstępne

Migrowanie potoku danych usługi Snowflake

W tej sekcji wyjaśniono, jak skopiować dane z bazy danych Snowflake do indeksu Azure Cognitive Search. Nie ma procesu bezpośredniego indeksowania z usługi Snowflake do Azure Cognitive Search, dlatego ta sekcja zawiera fazę przejściową, która kopiuje zawartość bazy danych do kontenera obiektów blob usługi Azure Storage. Następnie zaindeksujesz z tego kontenera przejściowego przy użyciu potoku usługi Data Factory.

Krok 1. Pobieranie informacji o bazie danych Snowflake

  1. Przejdź do usługi Snowflake i zaloguj się na swoje konto usługi Snowflake. Konto snowflake wygląda jak https://< account_name.snowflakecomputing.com>.

  2. Po zalogowaniu z okienka po lewej stronie zbierz następujące informacje. Te informacje będą używane w następnym kroku:

    • W obszarze Dane wybierz pozycję Bazy danych i skopiuj nazwę źródła bazy danych.
    • W Administracja wybierz pozycję Role użytkowników & i skopiuj nazwę użytkownika. Upewnij się, że użytkownik ma uprawnienia do odczytu.
    • W Administracja wybierz pozycję Konta i skopiuj wartość LOKALIZATOR konta.
    • Z adresu URL aplikacji Snowflake, podobnie jak https://app.snowflake.com/<region_name>/xy12345/organization). skopiuj nazwę regionu. Na przykład w pliku https://app.snowflake.com/south-central-us.azure/xy12345/organizationnazwa regionu to south-central-us.azure.
    • W Administracja wybierz pozycję Magazyny i skopiuj nazwę magazynu skojarzonego z bazą danych, której będziesz używać jako źródła.

Krok 2. Konfigurowanie połączonej usługi Snowflake

  1. Zaloguj się do programu Azure Data Factory Studio przy użyciu konta platformy Azure.

  2. Wybierz fabrykę danych, a następnie wybierz pozycję Kontynuuj.

  3. W menu po lewej stronie wybierz ikonę Zarządzaj .

    Screenshot showing how to choose the Manage icon in Azure Data Factory to configure Snowflake Linked Service.

  4. W obszarze Połączone usługi wybierz pozycję Nowe.

    Screenshot showing how to choose New Linked Service in Azure Data Factory.

  5. W okienku po prawej stronie w wyszukiwaniu magazynu danych wprowadź ciąg "snowflake". Wybierz kafelek Snowflake i wybierz pozycję Kontynuuj.

    Screenshot showing how to choose Snowflake tile in new Linked Service data store.

  6. Wypełnij formularz Nowa połączona usługa danymi zebranymi w poprzednim kroku. Nazwa konta zawiera wartość LOKALIZATORa i region (na przykład: xy56789south-central-us.azure).

    Screenshot showing how to fill out Snowflake Linked Service form.

  7. Po zakończeniu formularza wybierz pozycję Testuj połączenie.

  8. Jeśli test zakończy się pomyślnie, wybierz pozycję Utwórz.

Krok 3. Konfigurowanie zestawu danych snowflake

  1. W menu po lewej stronie wybierz ikonę Autor .

  2. Wybierz pozycję Zestawy danych, a następnie wybierz menu Wielokropek akcji zestawów danych (...).

    Screenshot showing how to choose the Author icon and datasets option.

  3. Wybierz pozycję Nowy zestaw danych.

    Screenshot showing how to choose a new dataset in Azure Data Factory for Snowflake.

  4. W okienku po prawej stronie w wyszukiwaniu magazynu danych wprowadź ciąg "snowflake". Wybierz kafelek Snowflake i wybierz pozycję Kontynuuj.

    Screenshot showing how to choose Snowflake from data source for Dataset.

  5. W obszarze Ustaw właściwości:

    • Wybierz połączoną usługę utworzoną w kroku 2.
    • Wybierz tabelę, którą chcesz zaimportować, a następnie wybierz przycisk OK.

    Screenshot showing how to configure dataset properties for Snowflake.

  6. Wybierz pozycję Zapisz.

Utwórz nowy indeks w usłudze Azure Cognitive Search z tym samym schematem co ten, który jest obecnie skonfigurowany dla danych usługi Snowflake.

Możesz zmienić przeznaczenie indeksu, którego obecnie używasz dla łącznika Snowflake Power Connector. W Azure Portal znajdź indeks, a następnie wybierz pozycję Definicja indeksu (JSON). Wybierz definicję i skopiuj ją do treści nowego żądania indeksu.

Screenshot showing how to copy existing Azure Cognitive Search index JSON configuration for existing Snowflake index.

Krok 5. Konfigurowanie połączonej usługi Azure Cognitive Search

  1. W menu po lewej stronie wybierz pozycję Zarządzaj ikoną.

    Screenshot showing how to choose the Manage icon in Azure Data Factory to add a new linked service.

  2. W obszarze Połączone usługi wybierz pozycję Nowe.

    Screenshot showing how to choose New Linked Service in Azure Data Factory for Cognitive Search.

  3. W okienku po prawej stronie w wyszukiwaniu magazynu danych wprowadź ciąg "search". Wybierz kafelek Azure Search i wybierz pozycję Kontynuuj.

    Screenshot showing how to choose New Linked Search in Azure Data Factory to import from Snowflake.

  4. Wypełnij wartości Nowa połączona usługa :

    • Wybierz subskrypcję platformy Azure, w której znajduje się twoja usługa Azure Cognitive Search.
    • Wybierz usługę Azure Cognitive Search z indeksatorem łącznika Power Query.
    • Wybierz przycisk Utwórz.

    Screenshot showing how to choose New Linked Search Service in Azure Data Factory with its properties to import from Snowflake.

Krok 6. Konfigurowanie zestawu danych Azure Cognitive Search

  1. W menu po lewej stronie wybierz pozycję Ikona autora .

  2. Wybierz pozycję Zestawy danych, a następnie wybierz menu Wielokropek akcji zestawów danych (...).

    Screenshot showing how to choose the Author icon and datasets option for Cognitive Search.

  3. Wybierz pozycję Nowy zestaw danych.

    Screenshot showing how to choose a new dataset in Azure Data Factory.

  4. W okienku po prawej stronie w wyszukiwaniu magazynu danych wprowadź ciąg "search". Wybierz kafelek Azure Search i wybierz pozycję Kontynuuj.

    Screenshot showing how to choose an Azure Cognitive Search service for a Dataset in Azure Data Factory to use as sink.

  5. W obszarze Ustaw właściwości:

    • Wybierz połączoną usługę utworzoną ostatnio w kroku 5.

    • Wybierz indeks wyszukiwania utworzony w kroku 4.

    • Wybierz przycisk OK.

      Screenshot showing how to choose New Search Linked Service in Azure Data Factory for Snowflake.

  6. Wybierz pozycję Zapisz.

Krok 7. Konfigurowanie połączonej usługi Azure Blob Storage

  1. W menu po lewej stronie wybierz pozycję Zarządzaj ikoną.

    Screenshot showing how to choose the Manage icon in Azure Data Factory to link a new service.

  2. W obszarze Połączone usługi wybierz pozycję Nowe.

    Screenshot showing how to choose New Linked Service in Azure Data Factory to assign a storage account.

  3. W okienku po prawej stronie w wyszukiwaniu magazynu danych wprowadź "storage". Wybierz kafelek Azure Blob Storage i wybierz pozycję Kontynuuj.

    Screenshot showing how to choose New Linked Blob Storage Service to use as sink for Snowflake in Azure Data Factory.

  4. Wypełnij wartości Nowa połączona usługa :

    • Wybierz typ uwierzytelniania: identyfikator URI sygnatury dostępu współdzielonego. Tylko ten typ uwierzytelniania może służyć do importowania danych z usługi Snowflake do Azure Blob Storage.

    • Wygeneruj adres URL sygnatury dostępu współdzielonego dla konta magazynu, którego będziesz używać do przemieszczania. Wklej adres URL sygnatury dostępu współdzielonego obiektu blob w polu Adres URL sygnatury dostępu współdzielonego.

    • Wybierz przycisk Utwórz.

      Screenshot showing how to fill out New Linked Search Service form in Azure Data Factory with its properties to import from SnowFlake.

Krok 8. Konfigurowanie zestawu danych Storage

  1. W menu po lewej stronie wybierz pozycję Ikona autora .

  2. Wybierz pozycję Zestawy danych, a następnie wybierz menu Wielokropek akcji zestawów danych (...).

    Screenshot showing how to choose the Author icon and datasets option.

  3. Wybierz pozycję Nowy zestaw danych.

    Screenshot showing how to choose a new dataset for storage in Azure Data Factory.

  4. W okienku po prawej stronie w wyszukiwaniu magazynu danych wprowadź "storage". Wybierz kafelek Azure Blob Storage i wybierz pozycję Kontynuuj.

    Screenshot showing how to choose a new blob storage data store in Azure Data Factory for staging.

  5. Wybierz pozycję Format delimitedText i wybierz pozycję Kontynuuj.

  6. W obszarze Ustaw właściwości:

    • W obszarze Połączona usługa wybierz połączoną usługę utworzoną w kroku 7.

    • W obszarze Ścieżka pliku wybierz kontener, który będzie ujściem procesu przejściowego, a następnie wybierz przycisk OK.

      Screenshot showing how to configure properties for storage dataset for Snowflake in Azure Data Factory.

    • W ograniczniku wierszy wybierz pozycję Źródło wiersza (\n).

    • Zaznacz pole Pierwszy wiersz jako nagłówek .

    • Wybierz pozycję Zapisz.

      Screenshot showing how to save a DelimitedText configuration to be used as sink for Snowflake.

Krok 9. Konfigurowanie potoku

  1. W menu po lewej stronie wybierz pozycję Ikona autora .

  2. Wybierz Pipelines, a następnie wybierz menu wielokropka akcji Pipelines (...).

    Screenshot showing how to choose the Author icon and Pipelines option to configure Pipeline for Snowflake data transformation.

  3. Wybierz pozycję Nowy potok.

    Screenshot showing how to choose a new Pipeline in Azure Data Factory to create for Snowflake data ingestion.

  4. Utwórz i skonfiguruj działania usługi Data Factory, które kopiują z usługi Snowflake do kontenera usługi Azure Storage:

    • Rozwiń sekcję Move transform (Przenieś & sekcję przekształcania ) i przeciągnij i upuść działanie Copy Data (Kopiuj dane ) na kanwę pustego edytora potoku.

      Screenshot showing how to drag and drop a Copy data activity in Pipeline canvas to copy data from Snowflake.

    • Otwórz kartę Ogólne . Zaakceptuj wartości domyślne, chyba że musisz dostosować wykonywanie.

    • Na karcie Źródło wybierz tabelę Snowflake. Pozostaw pozostałe opcje z wartościami domyślnymi.

      Screenshot showing how to configure the Source in a pipeline to import data from Snowflake.

    • Na karcie Ujście :

      • Wybierz Storage zestaw danych RozdzielanyTekst utworzony w kroku 8.

      • W obszarze Rozszerzenie pliku dodaj .csv.

      • Pozostaw pozostałe opcje z wartościami domyślnymi.

        Screenshot showing how to configure the sink in a Pipeline to move the data to Azure Storage from Snowflake.

    • Wybierz pozycję Zapisz.

  5. Skonfiguruj działania kopiujące z usługi Azure Storage Blob do indeksu wyszukiwania:

    • Rozwiń sekcję Move transform (Przenieś & sekcję przekształcania ) i przeciągnij i upuść działanie Copy Data (Kopiuj dane ) na kanwę pustego edytora potoku.

      Screenshot showing how to drag and drop a Copy data activity in Pipeline canvas to index from Storage.

    • Na karcie Ogólne zaakceptuj wartości domyślne, chyba że musisz dostosować wykonywanie.

    • Na karcie Źródło :

      • Wybierz Storage zestaw danych RozdzielanyTekst utworzony w kroku 8.
      • W polu Typ ścieżki pliku wybierz pozycję Ścieżka pliku z symbolami wieloznacznymi.
      • Pozostaw wszystkie pozostałe pola z wartościami domyślnymi.

      Screenshot showing how to configure the Source in a pipeline to import data from blob storage to Azure Cognitive Search index for staging phase.

    • Na karcie Ujście wybierz indeks Azure Cognitive Search. Pozostaw pozostałe opcje z wartościami domyślnymi.

      Screenshot showing how to configure the Sink in a pipeline to import data from blob storage to Azure Cognitive Search index as final step from pipeline.

    • Wybierz pozycję Zapisz.

Krok 10. Konfigurowanie kolejności działań

  1. W edytorze kanwy potoku wybierz mały zielony kwadrat na krawędzi kafelka działania potoku. Przeciągnij go do działania "Indeksy z konta Storage do Azure Cognitive Search", aby ustawić kolejność wykonywania.

  2. Wybierz pozycję Zapisz.

    Screenshot showing how to link Pipeline activities to provide the order of execution for Snowflake.

Krok 11. Dodawanie wyzwalacza potoku

  1. Wybierz pozycję Dodaj wyzwalacz , aby zaplanować uruchomienie potoku, a następnie wybierz pozycję Nowy/Edytuj.

    Screenshot showing how to add a new trigger for a Pipeline in Data Factory to run for Snowflake.

  2. Z listy rozwijanej Wybierz wyzwalacz wybierz pozycję Nowy.

    Screenshot showing how to select adding a new trigger for a Pipeline in Data Factory for Snowflake.

  3. Przejrzyj opcje wyzwalacza, aby uruchomić potok i wybierz przycisk OK.

    Screenshot showing how to configure a trigger to run a Pipeline in Data Factory for Snowflake.

  4. Wybierz pozycję Zapisz.

  5. Kliknij pozycję Opublikuj.

    How to Publish a Pipeline in Data Factory for Snowflake ingestion to index.

Migrowanie potoku danych PostgreSQL

W tej sekcji wyjaśniono, jak skopiować dane z bazy danych PostgreSQL do indeksu Azure Cognitive Search. Nie ma procesu bezpośredniego indeksowania z bazy danych PostgreSQL do Azure Cognitive Search, dlatego ta sekcja zawiera fazę przejściową, która kopiuje zawartość bazy danych do kontenera obiektów blob usługi Azure Storage. Następnie zaindeksujesz z tego kontenera przejściowego przy użyciu potoku usługi Data Factory.

Krok 1. Konfigurowanie połączonej usługi PostgreSQL

  1. Zaloguj się do programu Azure Data Factory Studio przy użyciu konta platformy Azure.

  2. Wybierz usługę Data Factory i wybierz pozycję Kontynuuj.

  3. W menu po lewej stronie wybierz ikonę Zarządzaj .

    How to choose the Manage icon in Azure Data Factory.

  4. W obszarze Połączone usługi wybierz pozycję Nowe.

    Screenshot showing how to choose New Linked Service in Azure Data Factory.

  5. W okienku po prawej stronie w wyszukiwaniu magazynu danych wprowadź "postgresql". Wybierz kafelek PostgreSQL reprezentujący miejsce, w którym znajduje się baza danych PostgreSQL (platforma Azure lub inne), a następnie wybierz pozycję Kontynuuj. W tym przykładzie baza danych PostgreSQL znajduje się na platformie Azure.

    How to choose PostgreSQL data store for a Linked Service in Azure Data Factory.

  6. Wypełnij wartości Nowa połączona usługa :

    • W obszarze Metoda wyboru konta wybierz pozycję Wprowadź ręcznie.

    • Na stronie Przegląd Azure Database for PostgreSQL w Azure Portal wklej następujące wartości w odpowiednim polu:

      • Dodaj nazwę serwera do w pełni kwalifikowanej nazwy domeny.
      • Dodaj nazwę użytkownika Administracja do nazwy użytkownika.
      • Dodaj bazę danych do nazwy bazy danych.
      • Wprowadź hasło nazwy użytkownika Administracja hasło do nazwy użytkownika.
      • Wybierz przycisk Utwórz.

      Choose the Manage icon in Azure Data Factory

Krok 2. Konfigurowanie zestawu danych PostgreSQL

  1. W menu po lewej stronie wybierz pozycję Ikona autora .

  2. Wybierz pozycję Zestawy danych, a następnie wybierz menu Wielokropek akcji zestawów danych (...).

    Screenshot showing how to choose the Author icon and datasets option.

  3. Wybierz pozycję Nowy zestaw danych.

    Screenshot showing how to choose a new dataset in Azure Data Factory.

  4. W okienku po prawej stronie w wyszukiwaniu magazynu danych wprowadź "postgresql". Wybierz kafelek Azure PostgreSQL . Wybierz opcję Kontynuuj.

    Screenshot showing how to choose PostgreSQL data store for a Dataset in Azure Data Factory.

  5. Wypełnij pola Ustaw wartości właściwości :

    • Wybierz połączoną usługę PostgreSQL utworzoną w kroku 1.

    • Wybierz tabelę, którą chcesz zaimportować/indeks.

    • Wybierz przycisk OK.

      Screenshot showing how to set PostgreSQL properties for dataset in Azure Data Factory.

  6. Wybierz pozycję Zapisz.

Utwórz nowy indeks w usłudze Azure Cognitive Search z tym samym schematem co ten, który jest używany dla danych PostgreSQL.

Możesz zmienić przeznaczenie indeksu, którego obecnie używasz dla łącznika Programu Power Connector PostgreSQL. W Azure Portal znajdź indeks, a następnie wybierz pozycję Definicja indeksu (JSON). Wybierz definicję i skopiuj ją do treści nowego żądania indeksu.

Screenshot showing how to copy existing Azure Cognitive Search index JSON configuration.

Krok 4. Konfigurowanie połączonej usługi Azure Cognitive Search

  1. W menu po lewej stronie wybierz ikonę Zarządzaj .

    Screenshot showing how to choose the Manage icon in Azure Data Factory to link a service.

  2. W obszarze Połączone usługi wybierz pozycję Nowe.

    Screenshot showing how to choose New Linked Service in Azure Data Factory.

  3. W okienku po prawej stronie w wyszukiwaniu magazynu danych wprowadź ciąg "search". Wybierz kafelek Azure Search i wybierz pozycję Kontynuuj.

    Screenshot showing how to choose New Linked Search service in Azure Data Factory.

  4. Wypełnij wartości Nowa połączona usługa :

    • Wybierz subskrypcję platformy Azure, w której znajduje się twoja usługa Azure Cognitive Search.
    • Wybierz usługę Azure Cognitive Search z indeksatorem łącznika Power Query.
    • Wybierz przycisk Utwórz.

    Screenshot showing how to choose New Linked Search Service in Azure Data Factory with its properties to import from PostgreSQL.

Krok 5. Konfigurowanie zestawu danych Azure Cognitive Search

  1. W menu po lewej stronie wybierz pozycję Ikona autora .

  2. Wybierz pozycję Zestawy danych, a następnie wybierz menu Wielokropek akcji zestawów danych (...).

    Screenshot showing how to choose the Author icon and datasets option.

  3. Wybierz pozycję Nowy zestaw danych.

    Screenshot showing how to choose a new dataset in Azure Data Factory.

  4. W okienku po prawej stronie w wyszukiwaniu magazynu danych wprowadź ciąg "search". Wybierz kafelek Azure Search i wybierz pozycję Kontynuuj.

    Screenshot showing how to choose an Azure Cognitive Search service for a Dataset in Azure Data Factory.

  5. W obszarze Ustaw właściwości:

    • Wybierz połączoną usługę utworzoną dla Azure Cognitive Search w kroku 4.

    • Wybierz indeks utworzony w ramach kroku 3.

    • Wybierz przycisk OK.

      Screenshot showing how to fill out Set Properties for search dataset.

  6. Wybierz pozycję Zapisz.

Krok 6. Konfigurowanie połączonej usługi Azure Blob Storage

  1. W menu po lewej stronie wybierz pozycję Zarządzaj ikoną.

    Screenshot showing how to choose the Manage icon in Azure Data Factory to link a service.

  2. W obszarze Połączone usługi wybierz pozycję Nowe.

    Screenshot showing how to choose New Linked Service in Azure Data Factory.

  3. W okienku po prawej stronie w wyszukiwaniu magazynu danych wprowadź "storage". Wybierz kafelek Azure Blob Storage i wybierz pozycję Kontynuuj.

    Screenshot showing how to choose a new data store

  4. Wypełnij wartości Nowa połączona usługa :

    • Wybierz typ uwierzytelniania: identyfikator URI sygnatury dostępu współdzielonego. Tylko ta metoda może służyć do importowania danych z bazy danych PostgreSQL do Azure Blob Storage.

    • Wygeneruj adres URL sygnatury dostępu współdzielonego dla konta magazynu, którego będziesz używać do przemieszczania, i skopiuj adres URL sygnatury dostępu współdzielonego obiektu blob do pola Adres URL sygnatury dostępu współdzielonego.

    • Wybierz przycisk Utwórz.

      Screenshot showing how to fill out New Linked Search Service form in Azure Data Factory with its properties to import from PostgreSQL.

Krok 7. Konfigurowanie zestawu danych Storage

  1. W menu po lewej stronie wybierz pozycję Ikona autora .

  2. Wybierz pozycję Zestawy danych, a następnie wybierz menu Wielokropek akcji zestawów danych (...).

    Screenshot showing how to choose the Author icon and datasets option.

  3. Wybierz pozycję Nowy zestaw danych.

    Screenshot showing how to choose a new dataset in Azure Data Factory.

  4. W okienku po prawej stronie w wyszukiwaniu magazynu danych wprowadź "storage". Wybierz kafelek Azure Blob Storage i wybierz pozycję Kontynuuj.

    Screenshot showing how to choose a new blob storage data store in Azure Data Factory.

  5. Wybierz pozycję Format delimitedText i wybierz pozycję Kontynuuj.

  6. W ograniczniku wierszy wybierz pozycję Źródło wiersza (\n).

  7. Zaznacz pole Pierwszy wiersz jako nagłówek .

  8. Wybierz pozycję Zapisz.

    Screenshot showing options to import data to Azure Storage blob.

Krok 8. Konfigurowanie potoku

  1. W menu po lewej stronie wybierz pozycję Ikona autora .

  2. Wybierz Pipelines, a następnie wybierz menu wielokropka akcji Pipelines (...).

    Screenshot showing how to choose the Author icon and Pipelines option.

  3. Wybierz pozycję Nowy potok.

    Screenshot showing how to choose a new Pipeline in Azure Data Factory.

  4. Utwórz i skonfiguruj działania usługi Data Factory, które kopiują z bazy danych PostgreSQL do kontenera usługi Azure Storage.

    • Rozwiń sekcję Move transform (Przenieś & sekcję przekształcania ) i przeciągnij i upuść działanie Copy Data (Kopiuj dane ) na kanwę pustego edytora potoku.

      Screenshot showing how to drag and drop in Azure Data Factory to copy data from PostgreSQL.

    • Otwórz kartę Ogólne , zaakceptuj wartości domyślne, chyba że musisz dostosować wykonywanie.

    • Na karcie Źródło wybierz tabelę PostgreSQL. Pozostaw pozostałe opcje z wartościami domyślnymi.

      Screenshot showing how to configure Source to import data from PostgreSQL into Azure Storage blob in staging phase.

    • Na karcie Ujście :

      • Wybierz zestaw danych Storage DelimitedText PostgreSQL skonfigurowany w kroku 7.

      • W obszarze Rozszerzenie pliku dodaj .csv

      • Pozostaw pozostałe opcje z wartościami domyślnymi.

        Screenshot showing how to configure sink to import data from PostgreSQL into Azure Storage blob.

    • Wybierz pozycję Zapisz.

  5. Skonfiguruj działania kopiujące z usługi Azure Storage do indeksu wyszukiwania:

    • Rozwiń sekcję Move transform (Przenieś & sekcję przekształcania ) i przeciągnij i upuść działanie Copy Data (Kopiuj dane ) na kanwę pustego edytora potoku.

      Screenshot showing how to drag and drop in Azure Data Factory to configure a copy activity.

    • Na karcie Ogólne pozostaw wartości domyślne, chyba że musisz dostosować wykonywanie.

    • Na karcie Źródło :

      • Wybierz zestaw danych źródłowych Storage skonfigurowany w kroku 7.
      • W polu Typ ścieżki pliku wybierz pozycję Ścieżka pliku z symbolem wieloznacznymi.
      • Pozostaw wszystkie pozostałe pola z wartościami domyślnymi.

      Screenshot showing how to configure Source for indexing from Storage to Azure Cognitive Search index.

    • Na karcie Ujście wybierz indeks Azure Cognitive Search. Pozostaw pozostałe opcje z wartościami domyślnymi.

      Screenshot showing how to configure Sink for indexing from Storage to Azure Cognitive Search index.

    • Wybierz pozycję Zapisz.

Krok 9. Konfigurowanie kolejności działań

  1. W edytorze kanwy potoku wybierz mały zielony kwadrat na krawędzi działania potoku. Przeciągnij go do działania "Indeksy z konta Storage do Azure Cognitive Search", aby ustawić kolejność wykonywania.

  2. Wybierz pozycję Zapisz.

    Screenshot showing how to configure activity order in the pipeline for proper execution.

Krok 10. Dodawanie wyzwalacza potoku

  1. Wybierz pozycję Dodaj wyzwalacz , aby zaplanować uruchomienie potoku, a następnie wybierz pozycję Nowy/Edytuj.

    Screenshot showing how to add a new trigger for a Pipeline in Data Factory.

  2. Z listy rozwijanej Wybierz wyzwalacz wybierz pozycję Nowy.

    Screenshot showing how to select adding a new trigger for a Pipeline in Data Factory.

  3. Przejrzyj opcje wyzwalacza, aby uruchomić potok i wybierz przycisk OK.

    Screenshot showing how to configure a trigger to run a Pipeline in Data Factory.

  4. Wybierz pozycję Zapisz.

  5. Kliknij pozycję Opublikuj.

    Screenshot showing how to Publish a Pipeline in Data Factory for PostgreSQL data copy.

Starsza zawartość dla wersji zapoznawczej łącznika Power Query

Łącznik Power Query jest używany z indeksatorem wyszukiwania w celu zautomatyzowania pozyskiwania danych z różnych źródeł danych, w tym tych u innych dostawców usług w chmurze. Używa Power Query do pobierania danych.

Źródła danych obsługiwane w wersji zapoznawczej obejmują:

  • Amazon Redshift
  • Elasticsearch
  • PostgreSQL
  • Obiekty Salesforce
  • Raporty Salesforce
  • Smartsheet
  • Snowflake

Obsługiwane funkcje

Power Query łączniki są używane w indeksatorach. Indeksator w Azure Cognitive Search to przeszukiwarka, która wyodrębnia przeszukiwalne dane i metadane z zewnętrznego źródła danych i wypełnia indeks na podstawie mapowań między indeksem a źródłem danych. Takie podejście jest czasami określane jako "model ściągania", ponieważ usługa ściąga dane bez konieczności pisania kodu, który dodaje dane do indeksu. Indeksatory zapewniają wygodny sposób indeksowania zawartości ze źródła danych bez konieczności pisania własnego przeszukiwarki lub modelu wypychania.

Indeksatory odwołujące się do Power Query źródeł danych mają taki sam poziom obsługi zestawów umiejętności, harmonogramów, logiki wykrywania zmian ze znacznikami górnego znaku wodnego i większości parametrów obsługiwanych przez inne indeksatory.

Wymagania wstępne

Przed rozpoczęciem ściągania danych z jednego z obsługiwanych źródeł danych należy upewnić się, że masz skonfigurowane wszystkie zasoby.

  • Azure Cognitive Search usługi w obsługiwanym regionie.

  • Zarejestruj się w celu uzyskania wersji zapoznawczej. Ta funkcja musi być włączona w zapleczu.

  • Azure Blob Storage konto, używane jako pośrednik dla Twoich danych. Dane będą przepływać ze źródła danych, a następnie do obiektu blob Storage, a następnie do indeksu. To wymaganie istnieje tylko w początkowej wersji zapoznawczej z bramą.

Dostępność w regionach

Wersja zapoznawcza jest dostępna tylko w usługach wyszukiwania w następujących regionach:

  • Central US
  • East US
  • Wschodnie stany USA 2
  • Północno-środkowe stany USA
  • Europa Północna
  • South Central US
  • Zachodnio-środkowe stany USA
  • West Europe
  • Zachodnie stany USA
  • Zachodnie stany USA 2

Ograniczenia wersji zapoznawczej

W tej sekcji opisano ograniczenia specyficzne dla bieżącej wersji zapoznawczej.

  • Ściąganie danych binarnych ze źródła danych nie jest obsługiwane.

  • Sesja debugowania nie jest obsługiwana.

Wprowadzenie do korzystania z Azure Portal

Azure Portal zapewnia obsługę łączników Power Query. Próbkowanie danych i odczytywanie metadanych w kontenerze powoduje, że kreator importu danych w Azure Cognitive Search może utworzyć domyślny indeks, mapować pola źródłowe na pola indeksu docelowego i załadować indeks w ramach jednej operacji. W zależności od rozmiaru i złożoności danych źródłowych można mieć operacyjny indeks wyszukiwania pełnotekstowego w ciągu kilku minut.

W poniższym filmie wideo pokazano, jak skonfigurować łącznik Power Query w Azure Cognitive Search.

Krok 1. Przygotowywanie danych źródłowych

Upewnij się, że źródło danych zawiera dane. Kreator importu danych odczytuje metadane i wykonuje próbkowanie danych w celu wywnioskowania schematu indeksu, ale także ładuje dane ze źródła danych. Jeśli brakuje danych, kreator zatrzyma i zwróci błąd.

Krok 2. Uruchamianie kreatora importowania danych

Po zatwierdzeniu wersji zapoznawczej zespół Azure Cognitive Search udostępni Ci link Azure Portal, który używa flagi funkcji, dzięki czemu będzie można uzyskać dostęp do łączników Power Query. Otwórz tę stronę i uruchom kreatora na pasku poleceń na stronie usługi Azure Cognitive Search, wybierając pozycję Importuj dane.

Screenshot of the Import data command

Krok 3. Wybieranie źródła danych

Istnieje kilka źródeł danych, z których można ściągać dane przy użyciu tej wersji zapoznawczej. Wszystkie źródła danych korzystające z Power Query będą zawierać kafelek "Powered By Power Query". Wybierz źródło danych.

Screenshot of the Select a data source page.

Po wybraniu źródła danych wybierz pozycję Dalej: Skonfiguruj dane , aby przejść do następnej sekcji.

Krok 4. Konfigurowanie danych

W tym kroku skonfigurujesz połączenie. Każde źródło danych będzie wymagać różnych informacji. W przypadku kilku źródeł danych dokumentacja Power Query zawiera więcej szczegółowych informacji na temat nawiązywania połączenia z danymi.

Po podaniu poświadczeń połączenia wybierz pozycję Dalej.

Krok 5. Wybieranie danych

Kreator importu wyświetli podgląd różnych tabel dostępnych w źródle danych. W tym kroku sprawdzisz jedną tabelę zawierającą dane, które chcesz zaimportować do indeksu.

Screenshot of data preview.

Po wybraniu tabeli wybierz pozycję Dalej.

Krok 6. Przekształcanie danych (opcjonalnie)

Power Query łączniki zapewniają rozbudowane środowisko interfejsu użytkownika, które umożliwia manipulowanie danymi, dzięki czemu można wysyłać odpowiednie dane do indeksu. Możesz usuwać kolumny, filtrować wiersze i wiele innych.

Nie jest wymagane przekształcenie danych przed zaimportowaniem ich do Azure Cognitive Search.

Screenshot of Transform your data page.

Aby uzyskać więcej informacji na temat przekształcania danych za pomocą Power Query, zobacz Using Power Query in Power BI Desktop (Używanie Power Query).

Po przekształceniu danych wybierz pozycję Dalej.

Krok 7. Dodawanie usługi Azure Blob Storage

Wersja zapoznawcza łącznika Power Query wymaga obecnie podania konta magazynu obiektów blob. Ten krok istnieje tylko w początkowej wersji zapoznawczej z bramą. To konto magazynu obiektów blob będzie służyć jako magazyn tymczasowy dla danych, które przechodzą ze źródła danych do indeksu Azure Cognitive Search.

Zalecamy podanie parametrów połączenia konta magazynu pełnego dostępu:

{ "connectionString" : "DefaultEndpointsProtocol=https;AccountName=<your storage account>;AccountKey=<your account key>;" }

Parametry połączenia można uzyskać z Azure Portal, przechodząc do bloku > konta magazynu Ustawienia > Klucze (dla klasycznych kont magazynu) lub klucze dostępu Ustawienia > (dla kont magazynu usługi Azure Resource Manager).

Po podaniu nazwy źródła danych i parametrów połączenia wybierz pozycję "Dalej: Dodaj umiejętności poznawcze (opcjonalnie)".

Krok 8. Dodawanie umiejętności poznawczych (opcjonalnie)

Wzbogacanie sztucznej inteligencji to rozszerzenie indeksatorów, które może służyć do zwiększenia możliwości wyszukiwania zawartości.

Możesz dodać wszelkie wzbogacania, które dodają korzyść do swojego scenariusza. Po zakończeniu wybierz pozycję Dalej: Dostosuj indeks docelowy.

Krok 9. Dostosowywanie indeksu docelowego

Na stronie Indeks powinna zostać wyświetlona lista pól z typem danych i serią pól wyboru dotyczących ustawiania atrybutów indeksu. Kreator może wygenerować listę pól na podstawie metadanych i próbkować dane źródłowe.

Atrybuty można wybierać zbiorczo, zaznaczając pole wyboru w górnej części kolumny atrybutu. Wybierz pozycję Pobieranie i Możliwość wyszukiwania dla każdego pola, które powinno zostać zwrócone do aplikacji klienckiej, i z zastrzeżeniem przetwarzania wyszukiwania pełnotekstowego. Zauważysz, że liczby całkowite nie są pełnym tekstem ani wyszukiwaniem rozmytym (liczby są oceniane dosłownie i często są przydatne w filtrach).

Aby uzyskać więcej informacji, przejrzyj opis atrybutów indeksu i analizatorów języka.

Poświęć chwilę na przejrzenie wybranych opcji. Po uruchomieniu kreatora zostaną utworzone fizyczne struktury danych i nie będzie można edytować większości właściwości tych pól bez porzucania i ponownego tworzenia wszystkich obiektów.

Screenshot of Create your index page.

Po zakończeniu wybierz pozycję Dalej: Utwórz indeksator.

Krok 10 . Tworzenie indeksatora

Ostatni krok powoduje utworzenie indeksatora. Nazewnictwo indeksatora umożliwia jej istnienie jako zasób autonomiczny, który można zaplanować i zarządzać niezależnie od indeksu i obiektu źródła danych utworzonego w tej samej sekwencji kreatora.

Dane wyjściowe kreatora importu danych to indeksator, który przeszuka źródło danych i importuje dane wybrane do indeksu na Azure Cognitive Search.

Podczas tworzenia indeksatora możesz opcjonalnie uruchomić indeksator zgodnie z harmonogramem i dodać wykrywanie zmian. Aby dodać wykrywanie zmian, należy wyznaczyć kolumnę "wysoki znacznik wody".

Screenshot of Create your indexer page.

Po zakończeniu wypełniania tej strony wybierz pozycję Prześlij.

Zasady wykrywania zmian znacznika górnego znaku wodnego

Te zasady wykrywania zmian opierają się na kolumnie "znacznika górnego" przechwytywania wersji lub godziny ostatniej aktualizacji wiersza.

Wymagania

  • Wszystkie wstawki określają wartość kolumny.
  • Wszystkie aktualizacje elementu również zmieniają wartość kolumny.
  • Wartość tej kolumny zwiększa się wraz z każdym wstawianiem lub aktualizowaniem.

Nieobsługiwane nazwy kolumn

Nazwy pól w indeksie Azure Cognitive Search muszą spełniać określone wymagania. Jednym z tych wymagań jest to, że niektóre znaki, takie jak "/", nie są dozwolone. Jeśli nazwa kolumny w bazie danych nie spełnia tych wymagań, wykrywanie schematu indeksu nie rozpozna kolumny jako prawidłowej nazwy pola i nie zobaczysz tej kolumny jako sugerowanego pola dla indeksu. Zwykle użycie mapowań pól rozwiązuje ten problem, ale mapowania pól nie są obsługiwane w portalu.

Aby indeksować zawartość z kolumny w tabeli, która ma nieobsługiwaną nazwę pola, zmień nazwę kolumny w fazie "Przekształć dane" w procesie importowania danych. Możesz na przykład zmienić nazwę kolumny o nazwie "Kod rozliczeniowy/Kod pocztowy" na "kod pocztowy". Zmieniając nazwę kolumny, wykrywanie schematu indeksu rozpozna je jako prawidłową nazwę pola i doda je jako sugestię do definicji indeksu.

Następne kroki

W tym artykule wyjaśniono, jak ściągać dane przy użyciu łączników Power Query. Ponieważ ta funkcja w wersji zapoznawczej została wycofana, wyjaśniono również, jak migrować istniejące rozwiązania do obsługiwanego scenariusza.

Aby dowiedzieć się więcej o indeksatorach, zobacz Indeksatory w Azure Cognitive Search.